LePartisan - 795 vues
MEDIAS REVUES BLOGS
URL du flux RSS

ACCÈS LIBRE Une Politique International Environnement Technologies Culture

▸ les 50 dernières parutions

19.11.2025 à 12:14

Cinquante ans après la mort de Franco, que reste-t-il de sa dictature ?

Sophie Baby, Maîtresse de conférences HDR en histoire contemporaine, Université Bourgogne Europe
Vainqueur de la sanglante guerre civile espagnole (1936-1939), Franco dirigea son pays d’une main de fer jusqu’à son décès, il y a exactement 50 ans.
Texte intégral (2469 mots)

La mort du dictateur Francisco Franco, le 20 novembre 1975, a ouvert la voie à la démocratisation de l’Espagne. Pour autant, les quatre décennies durant lesquelles il a exercé le pouvoir dans son pays ont laissé une trace qui ne s’est pas encore estompée. Sophie Baby, maîtresse de conférences en histoire contemporaine à l’Université Bourgogne Europe, spécialiste du franquisme et de la transition démocratique en Espagne, autrice en 2024 de Juger Franco ? Impunité, réconciliation, mémoire, aux éditions La Découverte, revient dans cet entretien sur le parcours du Caudillo, de son rôle dans la guerre civile (1936 à 1939) à la répression que son régime a mise en œuvre, sans oublier les enjeux mémoriels autour de la commémoration de cette époque qui secouent aujourd’hui l’Espagne contemporaine.


The Conversation : Pouvez-vous nous rappeler qui était Francisco Franco et la façon dont il est arrivé au pouvoir ?

Sophie Baby : Franco, né en 1892 dans le village d’El Ferrol, en Galice, est un officier de carrière qui s’illustre dans la guerre du Rif (1921-1926), alors seul terrain d’action de l’armée espagnole. Il devient à 33 ans l’un des plus jeunes généraux d’Europe. Après la proclamation de la Seconde République espagnole en 1931, il occupe plusieurs postes de haut rang. En 1936, il se rallie, assez tardivement, au coup d’État militaire qui cherche à renverser la toute jeune République. D’autres généraux que lui ont fomenté ce putsch, mais il y jouera un rôle clé.

Depuis les Canaries, il rallie le Maroc, soulève l’armée d’Afrique qui lui était fidèle et débarque en Andalousie. Avec la mort des autres chefs putschistes, les généraux Sanjurjo et Mola, dans des accidents d’avion, il s’affirme comme le leader du camp rebelle dit « national ». Face à l’échec du coup d’État et à la résistance du gouvernement républicain, d’une partie de l’armée restée loyale à la République et de la population, une guerre civile s’engage, qui durera trois ans. Installé à Burgos, dans le nord du pays, Franco fonde les bases de son futur régime, et s’impose sur tout le territoire après la victoire proclamée le 1er avril 1939.

Sur quelles valeurs ce nouveau régime repose-t-il ?

S. B. : Le régime franquiste s’appuie sur le Movimiento Nacional (Mouvement national) qui devient le seul parti autorisé en Espagne. C’est un mouvement nationaliste, antilibéral, catholique et profondément anticommuniste, hostile aux réformes laïques et sociales de la République. Centré sur la Phalange, organisation inspirée du fascisme italien, il vise à restaurer un ordre traditionnel fondé sur l’armée, l’Église et les hiérarchies sociales. Son idéologie mêle nationalisme, conservatisme et croisade religieuse contre une « anti-Espagne » identifiée au communisme, à la franc-maçonnerie, au libéralisme.

Quel a été le bilan humain de la guerre civile et du régime de Franco ?

S. B. : Il faut distinguer ce qui est le strict bilan de la guerre civile, de 1936 à 1939, et le bilan de la répression franquiste, qui s’entremêlent dans le temps. Ces bilans ne sont pas totalement définitifs, on ne dispose toujours pas de liste précise des noms et du nombre des victimes. Mais les historiens ont énormément travaillé et l’ordre de grandeur est fiable aujourd’hui.

On estime que la guerre civile a fait 500 000 victimes. Parmi elles, 100 000 étaient des soldats tombés au front, donc une minorité. Environ 200 000 personnes ont été exécutées à l’arrière – 49 000 dans la zone contrôlée par les républicains et 100 000 dans la zone franquiste. Le reste sont des victimes des conséquences de la guerre, des déplacements, de la famine et des bombardements des villes.

Après 1939, la répression franquiste se poursuit, avec environ 50 000 exécutions dans les années 1940. Par ailleurs, l’Espagne est plongée dans une grave famine provoquée non pas par le simple isolement conséquent à la Seconde Guerre mondiale, comme l’a clamé la propagande franquiste, mais par la politique d’autarcie du régime qui avait fait le pari de l’autosuffisance, interrompant les importations notamment d’engrais, fixant autoritairement les prix, réquisitionnant la production, laissant la population en proie du marché noir et à la faim, pour un bilan d’au moins 200 000 morts.

En outre, on estime qu’au tout début des années 1940, il y a à peu près 1 million de prisonniers en Espagne : environ 300 000 dans les prisons et plus d’un demi-million dans les presque 200 camps de concentration répartis sur le territoire espagnol, qui existent jusqu’en 1947. On estime que quelque 100 000 prisonniers de ces camps de concentration ont trouvé la mort pendant cette période.

Par ailleurs, 140 000 travailleurs forcés sont passés dans les camps de travail du régime, qui fonctionnaient encore dans les années 1950. Tandis que 500 000 personnes fuient la répression franquiste ; les deux tiers ne reviendront pas.

Le régime franquiste s’est clairement rangé pendant le conflit mondial du côté de Hitler et de Mussolini, qui avaient massivement contribué à la victoire du camp national par l’envoi de dizaines de milliers de soldats, d’avions, de matériel de guerre. Oscillant entre un statut de neutralité et de non-belligérance, Franco s’était engagé, lors de sa rencontre avec Hitler à Hendaye en octobre 1940, à entrer en guerre au moment opportun – moment qui ne s’est jamais présenté. Mais les Alliés n’étaient pas dupes : l’Espagne de Franco fut mise au ban de la communauté internationale et ne put pas rejoindre l’Organisation des Nations unies avant 1955.

Aujourd’hui, qu’en est-il de la question de la reconnaissance des victimes de la guerre et du régime ?

S. B. : Le régime franquiste a mis en place une politique mémorielle offensive et durable, reposant d’abord sur l’exaltation des héros et des martyrs de la « croisade ». Les victimes du camp national ont obtenu des tombes avec des noms et des monuments leur rendant hommage – ces monuments « a los caídos » (« aux morts ») qui parsèment les villages de la Péninsule. Elles ont pu bénéficier de pensions en tant qu’anciens combattants, invalides de guerre, veuves ou orphelins.

Ce qui n’était pas le cas de celles et ceux du camp vaincu, voués à l’exclusion, à la misère et à l’oubli. Paul Preston parle à cet égard de politique de la vengeance. La persécution se poursuivra jusqu’à la fin du régime, les dernières exécutions politiques datant de quelques semaines avant la mort du dictateur.

C’est ce déséquilibre que les collectifs de victimes issues du camp républicain, constitués dans les années 1960 et 1970, demanderont à compenser une fois le dictateur disparu, réclamant réparation puis reconnaissance.

En 2025, le gouvernement de Pedro Sánchez a lancé l’année commémorative des « Cinquante ans de liberté » pour célébrer les acquis démocratiques et les luttes antifranquistes. L’accent est mis sur ceux qui ont lutté et, pour certains, perdu leur vie sur l’autel de ce combat pour la liberté. Cette initiative s’inscrit dans une politique mémorielle amorcée avec l’exhumation de Franco en 2019 – son corps reposait jusque-là dans la basilique de Valle de los Caídos, en Castille au nord-ouest de Madrid, construite par des prisonniers du régime ; Pedro Sanchez, tout juste arrivé au pouvoir, avait fait une priorité de son transfert vers le caveau de sa famille – et renforcée par la loi sur la mémoire démocratique de 2022, qui rompt avec la logique d’équivalence entre les deux camps, condamne sans détour la dictature et affirme la supériorité définitive de la légitimité démocratique sur la légitimité franquiste.

Face à ces politiques de mémoire orchestrées par la gauche, quelles sont les positions de la droite traditionnelle et de l’extrême droite ?

S. B. : Il est certain que la droite – que ce soit le parti conservateur traditionnel, le Parti populaire (PP), ou la formation d’extrême droite Vox, apparue en 2014 – s’est toujours opposée à cette politique de mémoire qu’elle considère comme une façon d’entretenir la division des Espagnols susceptible, dit-elle, de reconduire la guerre civile d’antan. Ces partis estiment qu’il ne faut pas « rouvrir les blessures du passé », même si un relatif consensus existe aujourd’hui, au moins localement, sur la nécessité d’identifier et de restituer les corps des disparus. Mais ils s’opposent à toute forme de réhabilitation des victimes et refusent toute forme de responsabilité de l’État.

La droite, qui n’a jamais rompu avec la dictature franquiste et qui a majoritairement refusé d’adopter la Constitution de 1978, s’est depuis le début des années 2000 approprié l’héritage de la transition à la démocratie, brandissant la concorde, le consensus, la réconciliation comme arguments pour rejeter les politiques de mémoire.

Comment la question des symboles franquistes dans l’espace public est-elle traitée ?

S. B. : La première loi mémorielle de 2007, adoptée par le gouvernement socialiste de José Luis Rodríguez Zapatero, a engagé l’effacement de l’espace public des symboles franquistes qui étaient encore omniprésents : changement des noms de rues, suppression des emblèmes de la Phalange (le joug et les flèches) présents sur tous les bâtiments publics, déboulonnage des statues équestres de Franco, destruction d’un certain nombre de monuments à la gloire du régime et de la « croisade » parce qu’ils exaltaient de façon trop évidente les valeurs du franquisme. Il en subsiste un certain nombre et, tout récemment, le gouvernement a annoncé la publication d’un recensement de ces symboles encore en place.

Le déboulonnage des statues peut rappeler la vague que l’on a pu observer aux États-Unis et ailleurs, notamment au Royaume-Uni, à la suite du mouvement Black Lives Matter. Mais en Espagne, il n’a rien eu d’un tel élan populaire ; à l’inverse, il a relevé d’une politique menée d’en haut par les pouvoirs publics.


À lire aussi : Vandalisme et déboulonnage de statues mémorielles : l’histoire à l’épreuve de la rue


Aujourd’hui, que reste-t-il de la figure de Franco ?

S. B. : La commémoration des cinquante ans de la mort de Franco soulève une question centrale : que commémorer exactement ? La mort d’un dictateur ? Ce qu’il en reste, c’est, je dirais, majoritairement de l’ignorance. Dans le cursus scolaire classique, la part consacrée à l’enseignement de l’histoire de l’Espagne du XXe siècle est très réduite. Cela conduit à une méconnaissance globale de ce qu’a été réellement le franquisme et encourage une vision très édulcorée de ce régime.

Un discours familial et social persiste dans certains milieux, surtout de droite et dans certaines régions comme Madrid ou la Castille, qui tend à minimiser l’ampleur de la répression franquiste, à renier toute comparaison de Franco avec Hitler ou Mussolini, à valoriser les bienfaits du régime. Jusqu’à considérer, pour un cinquième de la population, selon un sondage récent, que les années de la dictature de Franco furent bonnes, voire très bonnes, pour les Espagnols. On observe ainsi une apparente résurgence de cette vision positive du régime franquiste ces dix dernières années, à la faveur de l’essor de Vox : de plus en plus de jeunes participent aux messes en l’honneur de Franco, chantent dans la rue le Cara al Sol (l’hymne phalangiste) et certains enseignants du secondaire déplorent que des élèves choisissent Franco comme héros de l’histoire de l’Espagne à l’occasion de travaux à rendre.

Cela explique en partie la politique du gouvernement socialiste actuel, destinée notamment à cette jeunesse, qui insiste non seulement sur la cruauté du régime par le biais de la réhabilitation des victimes, mais aussi sur les conséquences concrètes de l’absence de libertés et sur l’importance de la lutte antifranquiste et des acquis démocratiques.


Propos recueillis par Mathilde Teissonnière.

The Conversation

Sophie Baby a reçu des financements de l'Institut universitaire de France.

19.11.2025 à 12:12

‘Digital sovereignty’: why the EU may be shifting from internet regulation to building homegrown tech

Michael FitzGerald, Doctoral Researcher in Law, European University Institute
A summit on the future of the European digital sector comes after a shift in how Brussels sees its role.
Texte intégral (2021 mots)

Over the past decade, prominent European politicians seemed to think that legal regulation would be enough to control the internet. They focused primarily on drafting laws to regulate foreign platforms rather than prioritising investment in developing European alternatives. This focus contributed to producing the internet Europeans experience today, in which users typically must rely on foreign private platforms for modern necessities like search engines, maps, communication, online commerce, social media, cloud storage, and AI software, owing to the lack of compelling homegrown services.

Why did EU legislators place so much stock in the promise and power of legislation? And why have those same legislators gradually moved, since 2020 – and particularly since Donald Trump’s election to a second term as US president in late 2024 – towards a viewpoint that instead emphasises the limitations of legal solutions and the need for ownership and control of digital infrastructure?

Two policy paradigms

European political leaders have paid lip service to the need for so-called digital sovereignty), a slogan that typically refers to the need for control of digital technology, not just regulation. French President Emmanuel Macron and former German chancellor Angela Merkel began emphasising the issue in 2017 and 2019, respectively. In 2020, Merkel committed to establish “digital sovereignty as a leitmotif of European digital policy”. And since then, European Commission President Ursula von der Leyen has made sovereignty a “centrepiece of her Commission’s digital agenda”.

But at the same time – at least until 2024 – politicians’ actual solution has been “an almost exclusive focus on the regulation of services by US tech platforms”. This focus was based on a more optimistic presumption: that the EU could achieve its objectives by controlling foreign tech platforms through law because the bloc sat in the driver’s seat for governing the global internet.

This optimistic view of Europe’s role was encouraged by legal scholarship between 2012 and 2022, which promoted a positive and confident vision of Europe’s “global regulatory power” – the idea that the EU writes the rulebook for the global internet – and the idea of “digital constitutionalism” – that this rulebook has the power “to rein in” platforms such as Meta, X and TikTok, thus manifesting European notions of privacy and the rule of law in the online platform economy.

But it’s important to understand that unlike the idea of digital sovereignty, which emphasises the need for concrete policy change, digital constitutionalism is primarily an interpretive movement. By looking through a “constitutionalist lens”, scholars reinterpreted a period of intense privatisation online as a more benign development, which gained “superficial appeal” from the legitimating vocabulary of constitutional law. This encouraged a rose-coloured view of Europe’s position in the internet economy, allowing scholars and policymakers to miss the deepening crisis of its technological dependence until it was arguably too late: the return of Trump in 2024.

The influence of ‘The Brussels Effect’

In 2012, Columbia University law professor Anu Bradford published “The Brussels Effect”, a seminal article that influenced a generation of legal scholars and policymakers. It painted a compelling picture of the EU as a “benign regulatory hegemon”, or rulemaking superpower. For Bradford, it was US citizens who were subject to European power every day. As the author put it: “Few Americans are aware that EU regulations determine the makeup they apply in the morning, the cereal they eat for breakfast, the software they use on their computer, and the privacy settings they adjust on their Facebook page.”

Bradford explained that the EU could leverage access to its huge consumer market to impose stringent standards on internet companies, and those companies, in many cases, would apply those standards globally to benefit from economies of scale, rather than engage in the costly business of tailoring services to the particular regulations of each country. “All the EU needs to do,” she said after publishing the book version of The Brussels Effect in 2020, “is to regulate its internal market, and it is then the global companies that globalise those EU rules”.

In her book, Bradford demonstrated how tech giants like Facebook and Google had complied with EU online privacy standards and applied them globally. An important question, however, which Bradford never quite resolved, was who had made the decision really: the EU legislator or the companies in Silicon Valley? Had the EU legislator actually compelled the platforms to comply, or had the platforms, for reasons of their own, merely decided it was in their interest to play ball with the EU for the time being?

Since late 2024, it has seemed increasingly likely that the apparent power of EU law has actually been dependent upon the platforms’ willingness to comply, and their willingness has now run out.

A reality check… and a path forward?

Trump’s election win shook European politicians’ belief in the optimistic vision espoused by Bradford and the constitutionalists. So did the events that followed. In early January 2025, Meta announced major changes in its content moderation policies, including that it would stop working with outside fact-checkers, signalling allegiance to the White House’s vision of online free speech. Later that month, big tech executives were prominently in attendance at the inauguration in Washington. It has become gradually more difficult for Europeans to sustain the optimistic constitutionalist view of the past decade. Even authors prominently associated with digital constitutionalism have begun to see the glass half empty. Writing in Verfassungsblog in February, Giovanni De Gregorio and Simona Demková recognised a “looming enforcement crisis” and a “need to reassess the European approach to regulating the digital age”.

The publication in September 2024 of a major report, “The future of European competitiveness” by former European Central Bank president Mario Draghi, had already sent shockwaves through the EU political community. With dire warnings regarding the costs of the EU’s status-quo regulatory strategies and the depth of Europe’s technological dependence – “the EU relies on foreign countries for over 80% of digital products, services, infrastructure and intellectual property”, according to the text – the report weakened the bloc’s belief in legal solutions.

Following the report and Trump’s win, and amid the first year of the new US administration, members of the European parliament such as Alexandra Geese, Axel Voss and Aura Salla have swung towards the sovereignty paradigm with a new fervour, embracing an enforcement-focused legal “simplification” agenda that borders on deregulation, and supporting research for funding and policy proposals that would likely have seemed farfetched even two years ago. Ideas for public service media alternatives include an AI-powered “European News Streaming Platform”. And then there’s the EuroStack, an initiative for investment in Europe-based digital infrastructures.

The news platform is still somewhat speculative, but the EuroStack initiative has gained significant traction in Brussels. The EU commissioner for technological sovereignty, Henna Virkunnen, spoke at a EuroStack event in June. Her speech came a little more than six months after a EuroStack pitch document criticised the bloc’s years of US-focused regulation as a misstep that has likely condemned the EU to a future “as a definitive and irreversible ‘US colony’ in digital infrastructure”. Today, as the European Commission “prepares to simplify digital rules with a new omnibus plan”, it appears that EU politicians’ belief in the optimistic, constitutionalist paradigm has significantly deteriorated, if not collapsed.

But old habits die hard, and the EU has for decades been described as a “regulatory state” that effects change primarily through legal rulemaking. It must now resist slipping back into that comfort zone, and also take care, while simplifying the rules, not to destroy the essence of the regulations it has built. If the EU is to offer a genuinely alternative and rights-conscious vision of the internet, it must cast off idealistic visions of achieving hegemony through law and redirect its energies towards technological creation. Initiatives like the Eurostack and the European News Streaming Platform appear to offer promising places to start.


A weekly e-mail in English featuring expertise from scholars and researchers. It provides an introduction to the diversity of research coming out of the continent and considers some of the key issues facing European countries. Get the newsletter!


The Conversation

Michael FitzGerald ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

19.11.2025 à 11:52

Pourquoi publier une « nouvelle » histoire de France en 2025

Éric Anceau, Professeur d'histoire contemporaine, Université de Lorraine
La recherche dispose aujourd’hui de méthodes qui renouvellent notre connaissance du passé et nous invitent à considérer l’histoire sous des angles inédits.
Texte intégral (2155 mots)
_Le 28 juillet 1830. La Liberté guidant le peuple_ (1830), tableau d’Eugène Delacroix (1798-1863) exposé au Louvre (Paris). Musée du Louvre via Wikimédia Commons

La connaissance du passé évolue au fil des recherches. Du big data à l’archéologie préventive, la palette d’outils à disposition de l’historien s’enrichit. Et on s’intéresse aujourd’hui à des sujets longtemps restés sous silence, comme l’environnement ou le genre. Regard sur cette nouvelle approche de l’histoire.


L’histoire de France est un inépuisable sujet de discussion pour les personnalités politiques de tous bords, les médias, les Français et les étrangers qui observent les querelles qui agitent notre pays autour de son passé avec un mélange d’admiration, d’amusement et d’agacement. Les représentations qui en ont été proposées lors de la cérémonie des Jeux olympiques de Paris, à l’été 2024, ont ainsi fait couler beaucoup d’encre.

De fait, la connaissance du passé progresse au fil des recherches. Le contexte de naguère n’est plus celui d’aujourd’hui et les interprétations de l’histoire s’entrechoquent. On ne peut ainsi pas parler du passé colonial de la France en 2025 comme on le faisait au « temps béni des colonies », pour reprendre le titre de la chanson ironique et critique, en 1976, de Michel Sardou, Pierre Delanoë et Jacques Revaux – pour ne donner que cet exemple.

C’est pourquoi nous avons entrepris avec une centaine de spécialistes une Nouvelle Histoire de France. Publiée en octobre 2025 aux éditions Passés composés, cette somme de 340 éclairages, des Francs à la crise actuelle de la Ve République, de Vercingétorix à Simone Veil, tient compte des renouvellements de la discipline. Explications.

Une histoire trop longtemps tiraillée entre roman national et déconstruction

Non seulement la France a été au cœur de la plupart des principaux événements qui ont scandé l’histoire mondiale des derniers siècles, mais elle a également été en proie à des clivages politiques, religieux et idéologiques majeurs : les catholiques face aux protestants, les républicains contre les monarchistes ou encore la droite face à la gauche.

Ce passé, long, riche et tumultueux, n’a cessé d’être instrumentalisé. À partir du XIXe siècle, et plus particulièrement de la IIIe République, a dominé un « roman national » qui présentait la France sans nuances, puissante et rayonnante, et faisait de tous ces affrontements un préalable douloureux mais nécessaire à un avenir radieux.

À partir des années 1970, cette histoire a commencé à être déconstruite par le postmodernisme soucieux de rompre avec la modernité née pendant les Lumières, de libérer la pensée et de délivrer l’individu du passé pour l’inscrire pleinement dans le présent, en fustigeant les grands récits historiques.

Cette approche a été salutaire car elle a fait réfléchir, a remis en cause de fausses évidences et a fait progresser notre connaissance. Ainsi, pour reprendre le cas de l’histoire coloniale, Edward Saïd (1935-2003) a-t-il souligné, dans l’Orientalisme. L’Orient créé par l’Occident (1978, 1980 pour l’édition française), ce que le regard occidental porté sur l’Orient et sur les colonisés avait pu avoir de biaisé, voire de méprisant, même s’il a pu pécher lui-même par réductionnisme et caricature pour défendre sa thèse.

Et certains déconstructeurs en sont venus à noircir systématiquement l’histoire de France, comme le fit par exemple Claude Ribbe avec son Crime de Napoléon (2005) comparant l’esclavage et la traite négrière à la Shoah et Napoléon à Hitler.

Cependant, d’autres ont rapidement profité de ces derniers excès pour proposer de nouveau un roman national qui a pu prendre un tour essentialiste. Il existe pourtant et évidemment une voie entre la fierté aveugle des uns et la passion destructrice des autres.

Un troisième moment historiographique

De la fin des années 2000 au milieu de la décennie suivante, trois grandes entreprises collectives ont contribué à explorer une autre voie, à distance des interprétations partisanes.

À partir de 2009, Joël Cornette a ainsi dirigé, pour l’éditeur Belin, une Histoire de France en plus de dix volumes et 10 000 pages, faisant la part belle aux sources et aux illustrations. Claude Gauvard a pris peu après la tête d’une Histoire personnelle de la France en six volumes aux Presses universitaires de France, avant que Patrick Boucheron et un autre collectif ne publient, en 2017, aux éditions du Seuil, une Histoire mondiale de la France autour d’événements destinés à faire réfléchir.

Ces trois histoires proposaient un récit chronologique et s’appuyaient sur des spécialistes reconnus pour essayer de recentrer un pendule de l’histoire qui avait sans nul doute trop oscillé. Il nous est cependant apparu qu’il y avait nécessité de proposer un autre projet de grande ampleur, une Nouvelle Histoire de France. Nous avons emprunté cette même voie médiane, en rassemblant d’ailleurs plusieurs des autrices et auteurs qui avaient participé aux entreprises précédentes, mais en procédant aussi différemment, sous forme encyclopédique et chronologico-thématique.

Pierre Nora (1931-2025) qui avait dirigé une somme pionnière au milieu des années 1980, les Lieux de mémoire, nous disait au début du processus éditorial, en 2023, que le temps était sans doute venu d’ouvrir un troisième moment historiographique, celui d’une histoire soustraite à la fausse modernité qui conduit à ne lire le passé qu’avec des schémas actuels de pensée, celui d’une histoire renonçant au nouveau mantra qui rend l’Occident coupable de tous les maux et qui pare le reste du monde de toutes les vertus par un excès symétrique à celui par lequel le premier s’est longtemps pris pour le phare de la planète renvoyant le second à sa supposée arriération, celui enfin d’une histoire extraite du cadre étroit de notre hexagone pour montrer ce que la France doit au monde mais aussi ce qu’elle lui a apporté, dans un incessant mouvement de circulation à double sens, à la fois humain, matériel et immatériel.

De nouveaux sujets et des méthodes nouvelles

Avec cette Nouvelle Histoire de France, il s’agit de renoncer aux effets de mode, d’accorder toute leur place aux incontournables – les personnalités, les faits marquants, les œuvres majeures – sans omettre aucun des renouvellements majeurs de ces dernières années. La discipline a évolué en effet tant dans les objets (histoire impériale et coloniale, histoire des voix oubliées et des marges négligées, histoire du genre et des femmes, histoire environnementale…), que dans les méthodes (archéologie préventive, prosopographie, approche par le bas, jeu sur les échelles, big data…).

Parmi les nouveaux sujets historiques, l’environnement est très certainement l’un de ceux qui ont pris le plus de place dans la recherche en raison de la dégradation accélérée de la planète due au double processus de marchandisation du monde
– porté par un imaginaire économique de croissance infinie – et d’artificialisation de la planète – reposant sur un imaginaire technoscientifique prométhéen – qui se développe depuis la fin du XVIIIe siècle. En mettant en avant ces alertes précoces et les alternatives proposées dans le passé, l’histoire environnementale est porteuse de sens pour l’avenir et c’est pourquoi nous voulions lui accorder une grande place en confiant à Charles-François Mathis, son chef de file en France, le soin de l’aborder.

Quant aux méthodes nouvelles à disposition de l’historien, il nous faut dire un mot, là encore à titre d’exemple, de l’archéologie préventive. Celle-ci a commencé à se développer en France à partir des années 1970, avec l’ambition de préserver et d’étudier les éléments significatifs du patrimoine archéologique français menacés par les travaux d’aménagement et les projets immobiliers. Elle a permis de mieux comprendre l’héritage gaulois de la France et ses limites. Et qui mieux que Dominique Garcia, grand spécialiste de la Gaule préromaine et directeur de l’Institut national de la recherche archéologique préventive (Inrap) pour traiter le chapitre « Gaulois » de notre ouvrage ?

En outre, l’histoire n’est pas une discipline isolée mais elle s’enrichit du dialogue avec les autres sciences humaines et sociales et c’est dans cet esprit que nous avons aussi fait appel à 17 auteurs et autrices de 14 autres disciplines, habitués à travailler en profondeur historique : le géographe Jean-Robert Pitte, le spécialiste de la littérature française Robert Kopp, l’historienne de l’art Anne Pingeot, le philosophe Marcel Gauchet… Tous ont accepté de mettre leur savoir à la portée du plus grand nombre au prix d’un effort de synthèse et de vulgarisation.

C’est à ce prix que cette histoire en 100 chapitres, 340 éclairages et 1 100 pages se veut renouvelée et tout à la fois érudite et vivante, encyclopédique et ludique, dépassionnée… mais passionnante !

The Conversation

Éric Anceau a dirigé la « Nouvelle histoire de France » publiée aux éditions Passés composés.

18.11.2025 à 16:49

Loi de finances : le Parlement sous la menace d’un recours à l’ordonnance

Alexandre Guigue, Professeur de droit public, Université Savoie Mont Blanc
Si la loi de finances n’est pas adoptée avant la fin de l’année, le gouvernement peut la mettre en œuvre par ordonnance. Un coup porté à la démocratie parlementaire ?
Texte intégral (1897 mots)

Selon la Constitution, le Parlement doit se prononcer sur le projet de loi de finances dans un délai de soixante-dix jours pour permettre à l'État de fonctionner au 1er janvier 2026. En cas de non-respect de ce délai, le gouvernement peut mettre le projet de loi en œuvre par ordonnance, en retenant les amendements qu’il souhaite parmi ceux qui ont été votés. Cette option, de plus en plus crédible, serait une première sous la Ve République. Un coup porté à la démocratie parlementaire ?


En France, la loi de finances autorise le prélèvement des recettes (dont les impôts) et l’exécution des dépenses publiques pour une année civile. Pour que l’État puisse fonctionner au 1er janvier, la loi de finances doit être adoptée au plus tard le 31 décembre de l’année précédente (principe d’antériorité budgétaire).

Sous la IVe République, les lois financières étaient rarement adoptées dans les temps. La discussion se prolongeait souvent longtemps l’année suivante, parfois même jusqu’au mois d’août. Dans l’intervalle, le gouvernement était autorisé à fonctionner avec des « douzièmes provisoires », c’est-à-dire avec un douzième du budget de l’année précédente pour chaque mois entamé. Cette situation était jugée très insatisfaisante.

Lors de la rédaction de la Constitution de 1958, la décision fut prise de soumettre la procédure budgétaire à un calendrier strict. En cas de non-respect, le gouvernement peut reprendre la main.

L’encadrement de la procédure budgétaire dans les délais

L’article 47 de la Constitution prévoit dans son alinéa 3 :

« si le Parlement ne s’est pas prononcé dans un délai de soixante-dix jours, les dispositions du projet peuvent être mises en vigueur par ordonnance. »

L’idée du constituant était de contraindre le Parlement à ne pas utiliser plus de temps que ce qui lui était accordé avant la fin de l’année civile pour son travail législatif et de garantir, ainsi, l’adoption d’une loi de finances avant le 31 décembre. Pour les projets de lois de financement de la Sécurité sociale, le Parlement dispose de cinquante jours (art. 47-1 de la Constitution).

Le cadre général de soixante-dix jours a été complété par plusieurs autres règles temporelles, d’abord dans l’ordonnance organique du 2 janvier 1959, puis dans la loi organique relative aux lois de finances du 1er août 2001 (appelée Lolf). Celles-ci concernent, d’abord, la date du dépôt qui doit intervenir au plus tard le premier mardi d’octobre (art. 39 de la Lolf). Le Conseil constitutionnel se montre souple et tolère les retards tant que le Parlement dispose de son délai global.

En 2024, le gouvernement Barnier l’a déposé avec neuf jours de retard (le 10 octobre au lieu du 1er octobre au plus tard) et, en 2025, le gouvernement Lecornu avec sept jours de retard (le 14 octobre au lieu du 7 octobre au plus tard). Dans les deux cas, le calendrier a été bousculé, mais pas au point de priver le Parlement de soixante-dix jours calendaires pour l’examen.

Ensuite, chaque assemblée doit respecter un délai intermédiaire (quarante jours pour l’Assemblée nationale et vingt jours pour le Sénat). L’objectif est de donner aux députés et aux sénateurs le temps d’examiner le texte dans le délai imparti. Il reste alors dix jours pour adopter le texte, au besoin avec l’intervention d’une commission mixte paritaire (CMP) chargée de proposer un texte de compromis en cas de désaccord entre les deux assemblées.

Si le désaccord persiste, le gouvernement peut donner le dernier mot à l’Assemblée nationale (art. 45 alinéa 4 de la Constitution) ou engager sa responsabilité sur le texte (art. 49 alinéa 3 de la Constitution). Cette dernière procédure, souvent décriée, permet au gouvernement de considérer la loi de finances comme adoptée sans la faire voter, sauf si les députés le renversent au moyen d’une motion de censure.

L’ordonnance, une sanction dirigée contre le Parlement

Tant pour les projets de lois de finances (PLF, soixante-dix jours) que pour les projets de lois de financement de la Sécurité sociale (PLFSS, cinquante jours), la possibilité d’une mise en œuvre par ordonnance se présente comme une sanction de l’incapacité du Parlement à finir son travail dans les temps. La Constitution est claire sur ce point : l’ordonnance n’intervient que si le Parlement « ne s’est pas prononcé » dans le délai de soixante-dix jours.

Si le Parlement rejette formellement le projet, le gouvernement ne peut pas prendre d’ordonnance. Il est contraint de proposer un projet de loi de finances spéciale dans l’attente de l’adoption d’une loi de finances complète (art. 40 de la Lolf). C’est ce qui s’est produit en 1979 et en 2024.

Depuis 1958, jamais un gouvernement n’a eu besoin de recourir à de telles ordonnances, ce qui leur donne plus un caractère dissuasif que répressif. Il s’agit surtout d’inciter le Parlement à tenir ses délais. Comme le dispositif n’a jamais été testé, plusieurs questions restent à ce jour sans réponse.

Quel contenu pour l’ordonnance ?

L’article 47 alinéa 3 de la Constitution se contente d’indiquer que le gouvernement met en œuvre « le projet de loi de finances » par ordonnance. Le premier réflexe est de penser au projet initial déposé par le gouvernement. C’est la lecture que le secrétariat général du gouvernement a proposée dans une note d’août 2024 relative « aux PLF et PLFSS » révélée par le média Contexte.

Cette lecture interpelle. Une analogie est possible avec le dessaisissement d’une chambre pour non-respect de son délai. Dans un tel cas, le gouvernement transmet à l’autre chambre le texte initialement présenté, « modifié le cas échéant par les amendements votés par l’assemblée (dessaisie) et acceptés par lui ». La logique peut être transposée à l’ordonnance. Le gouvernement pourrait choisir les amendements qu’il souhaite parmi ceux qui ont été votés, mais il ne pourrait pas intégrer des amendements qui ne l’auraient pas été.

Dans un contexte où l’Assemblée nationale est très divisée, les choix du gouvernement pourraient être critiqués, mais ils ne seraient pas nécessairement contestables en droit.

Quel recours contre l’ordonnance ?

L’ordonnance mettant en œuvre un projet de loi de finances ne peut pas être déférée au Conseil constitutionnel au titre de l’article 61 de la Constitution (contrôle avant entrée en vigueur) et une question prioritaire de constitutionnalité (QPC) ne serait, en principe, pas recevable puisqu’elle ne serait pas dirigée contre une « disposition législative » (art. 61-1 de la Constitution).

Une analogie avec les ordonnances de l’article 38 de la Constitution permet de déterminer leur régime juridique. Ces dernières sont prises sur habilitation du Parlement et ont un caractère réglementaire tant qu’elles ne sont pas ratifiées. Pour les ordonnances de l’article 47 de la Constitution, l’habilitation provient de la Constitution elle-même et, surtout, elles n’ont pas besoin d’être ratifiées par le Parlement. Elles ont donc un caractère réglementaire et peuvent être contestées devant le Conseil d’État, c’est-à-dire comme des ordonnances de l’article 38 de la Constitution dans l’attente de leur ratification.

Devant le Conseil d’État, un recours pour excès de pouvoir aurait, cependant, une portée limitée. En 1924, dans un célèbre arrêt Jaurou, la haute juridiction a jugé que les crédits prévus par la loi de finances ne créent pas de droits au profit des administrés, ce qui les empêche de les contester. Il reste d’autres dispositions, notamment celles touchant à la fiscalité. Il ne fait pas de doute que si un gouvernement était amené à prendre une ordonnance de l’article 47 de la Constitution pour mettre en œuvre le budget, des contribuables saisiraient le Conseil d’État pour tester l’étendue du contrôle qu’il voudra bien exercer.

Quid de la démocratie parlementaire ?

Pendant le mois de novembre, des voix se sont élevées au sein de l’Assemblée pour accuser le gouvernement de vouloir contrôler les débats (retarder le vote de la taxe Zucman, supprimer les débats prévus pendant un week-end). Pourtant, si le gouvernement peut demander des modifications du calendrier, c’est la conférence des présidents de l’Assemblée nationale qui en décide. En outre, le premier ministre a annoncé qu’il n’aurait recours ni à l’article 49 alinéa 3 ni aux ordonnances. Surtout, si les délais ne sont pas respectés, c’est moins la conséquence des modifications du calendrier que du dépôt de milliers d’amendements par les députés.

Quoi qu’il en soit, si le gouvernement devait avoir recours aux ordonnances, ce que la Constitution lui permet de faire, il s’expose au risque d’une censure par les députés (vote d’une motion de censure spontanée comme celle qui a fait tomber le gouvernement Barnier en décembre 2024).

Le principe du consentement à l’impôt par les représentants de la nation est une conquête de la Révolution française. Pour doter la France d’un budget, le gouvernement serait bien avisé de ne pas court-circuiter l’Assemblée nationale, même si celle-ci est très divisée. En cas de blocage, un moindre mal serait l’adoption d’une loi de finances spéciale, comme en 2024. Celle-ci ne résout pas tout, mais elle a le mérite de ne pas constituer un passage en force.

The Conversation

Guigue Alexandre est membre de membre de la Société française de finances publiques, association reconnue d'utilité publique réunissant universitaires et praticiens des finances publiques.

18.11.2025 à 16:18

La société du concours : entre admis et recalés, quelques points d’écart, mais des conséquences pour toute une vie

Annabelle Allouch, Maîtresse de conférences en sociologie, Université de Picardie Jules Verne (UPJV)
Sources de stress et d’inégalités, les concours ne cessent de gagner du terrain. Comment expliquer le succès de ce format ? Qu’est-ce que cela révèle de notre époque ?
Texte intégral (2446 mots)

Des grandes écoles à la télévision, de la mode à l’agriculture, en passant par la programmation informatique ou la cuisine, les concours sont aujourd’hui légion. Comment expliquer une telle expansion, alors même qu’on sait les biais induits par la compétition et qu’on revendique égalité et justice sociale ?

Autrice de la Société du concours (2017), d’un essai sur le Mérite (2021) et d’une enquête sur les Nouvelles Portes des grandes écoles (2022), Annabelle Allouch nous explique ce que cette logique du « concours partout, pour tous », dit des incertitudes de notre époque. Interview.


The Conversation : Derrière le terme de « concours », on trouve une variété de modalités et d’enjeux. Quel est leur point commun ?

Annabelle Allouch : Des émissions télévisées, comme le Meilleur Pâtissier, au recrutement de grandes écoles, comme Polytechnique, le concours est une forme institutionnelle de mise en compétition des individus et d’évaluation de leurs capacités. C’est un construit social, qui évolue donc selon les contextes et les époques.

La forme du concours est intimement liée aux sociétés occidentales bureaucratiques, où les États sont dotés d’une administration chargée de gérer leurs affaires sur un spectre de domaines de plus en plus large (le mot « bureaucratie » étant à prendre ici dans le sens que lui donne le sociologue Max Weber).

Mais la réalité du concours dépasse largement le champ de l’État, elle peut aussi concerner le secteur privé. Les comices agricoles (associations de cultivateurs qui organisent des manifestations professionnelles et des concours) en sont un bon exemple. Elles visent à assurer une standardisation des normes de production et une productivité par l’émulation dans une filière donnée. Il y a aujourd’hui une porosité entre formes étatiques et formes marchandes de mise en compétition, qui se rejoignent sur cet objectif de productivité.

Qui a inventé les concours tels qu’on les connaît ?

A. A. : D’un point de vue historique, on considère par convention qu’il faut revenir à la Chine impériale et à la dynastie des Han (en 200 de notre ère environ). L’empereur est à Pékin et, pour administrer son très large territoire, il a besoin d’appuis locaux parmi les élites sociales. Pour acheter la loyauté de ces fameux mandarins, il leur donne un statut qui leur octroie des droits, comme des exemptions d’impôts, et un prestige symbolique et social lié à la reconnaissance de leur capital culturel par le concours.

Le concours, c’est donc une forme institutionnelle où celui qui est mis en compétition acquiert soit un statut social, soit des biens spécifiques ou encore des capitaux qu’il peut ensuite réinvestir ailleurs. La question du mérite ou de la méritocratie qu’on associe avec le concours n’est pas forcément présente.

La Voie royale, film de Frédéric Mermoud, sur le parcours d’une brillante lycéenne qui intègre une classe préparatoire scientifique (PyramideDistrib, 2023).

Un certain nombre d’historiens considèrent que les Jésuites, dans leurs voyages en Chine impériale, découvrent le concours et le mettent en place dans les institutions scolaires qu’ils organisent, les fameux collèges jésuites, futurs collèges royaux, en prônant la mise en compétition comme source de gouvernement et de mise en discipline des enfants.

Durkheim, lui, pense que le concours comme forme institutionnelle n’a pas eu besoin des Jésuites pour arriver en France et qu’il est surtout lié à une organisation sociale fondée sur les corporations qu’on trouve bien avant, dès le Moyen Âge. Durkheim s’intéresse particulièrement aux corporations universitaires dans son livre sur l’évolution pédagogique depuis l’Antiquité. Toute corporation, pour être reconnue comme une profession autonome, doit contrôler son recrutement. Et les universitaires, selon Durkheim, sont particulièrement doués pour inventer des rituels et des cérémonials qu’ils dotent d’une force sacrée.

Néanmoins, les Jésuites contribuent à la traduction des rituels fondés sur la compétition en une forme d’évaluation permanente à destination des enfants et des adolescents qui doit créer une émulation. C’est cette forme scolaire que l’on retrouve dans notre système éducatif.

En quoi assiste-t-on aujourd’hui à ce que l’on pourrait qualifier d’extension de la logique de concours ?

A. A. : Le concours a été associé au développement de l’État régalien au XIXe siècle, dans un premier temps, puis de l’État-providence au XXe siècle, où l’on a de plus en plus besoin de bureaucrates dans des domaines très variés. Pour les recruter, on va utiliser cette forme institutionnelle qui paraît alors la plus légitime, dans la mesure où elle est fondée sur les « capacités » et qu’elle est déjà à l’œuvre depuis la fin du XVIIIe siècle dans l’armée, notamment.

Aujourd’hui, cette forme tend à s’éloigner du seul cadre bureaucratique pour être appliquée à un grand nombre de situations sociales qui n’ont plus rien à voir ni avec l’État ni avec le politique au sens strict.

Dès mon recrutement (sur concours !), j’ai été saisie, en tant que jeune maîtresse de conférences, de constater que ma pratique professionnelle de recherche et d’enseignement (où je suis invitée à noter mes étudiants pour valider leurs apprentissages) se dédoublait – en quelque sorte – d’une culture populaire des concours. Quand je rentrais chez moi et qu’il m’arrivait d’allumer la télévision, il était ainsi fréquent que je tombe sur un concours, notamment dans le cadre d’émissions de télé-réalité – avec des notes délivrées par des jurys, des coachs chargés de préparer les élèves à une série d’épreuves minutieusement organisées. Qu’on pense par exemple aux émissions culinaires de type Top Chef. L’inspiration de ces épreuves, à la fois scolaire et sportive, témoigne d’une circulation des représentations de l’évaluation entre univers sociaux.

Comment expliquer un tel succès ? La forme du concours résonne-t-elle particulièrement avec notre époque ?

A. A. : Le paradoxe, c’est qu’on réclame plus d’égalité alors que, tous les soirs, vous pouvez assister sur vos écrans à des concours qui classent des candidats. On en déduit donc avec John Rawls que la justice sociale dans nos sociétés relève en fait d’une croyance dans les « inégalités justes ».

Pour Pierre Bourdieu, le concours est précisément un rituel qui est là pour institutionnaliser des différences, y compris quand elles sont infimes. C’est la fameuse frontière entre le dernier de la liste d’admis et le premier recalé aux concours de l’École polytechnique : la différence est minime entre ces candidats, mais le résultat de concours entérine irrémédiablement cet écart et l’associe à un statut social différencié. Et avec le couperet du classement se joue l’accès à des ressources de tous types : symboliques, matérielles, et même amicales ou amoureuses.

Ce qui m’intéresse dans cette extension du domaine du concours, c’est la fusion entre les formes bureaucratiques et marchandes de mise en compétition et de mise en ordre du social. On a d’autant plus l’impression de vivre dans une société du concours qu’avec le capitalisme contemporain, il paraît tout à fait légitime de tester et d’évaluer constamment les candidats pour s’assurer de la productivité et des capacités des personnes.

Bref, en exaltant les valeurs individuelles du mérite, on renforce une espèce de « gouvernement par le concours », même s’il s’agit moins d’un concours corporatiste, et beaucoup plus d’une sélection de gré à gré entre une institution ou une organisation et un individu.

Sur quoi l’adhésion aux concours repose-t-elle ?

A. A. : La légitimité contemporaine de cette forme institutionnelle se fonde sur l’adhésion au mérite qu’on peut comprendre comme un récit, une rhétorique de légitimation. Malgré les critiques, ce récit apparaît alors comme une fiction nécessaire, pour reprendre les termes de François Dubet, c’est-à-dire quelque chose auquel on croit malgré tout pour se donner l’illusion de gérer l’incertitude du monde social. « Le mérite, j’y crois, mais c’est plus un acte de foi qu’autre chose », me disait un étudiant de Sciences Po qui venait de réussir l’ENA.

Si on ne peut qu’adhérer au mérite, c’est parce que ça nous permet d’avoir l’impression de contrôler notre environnement, malgré le Covid, malgré la crainte de la guerre, etc.

Le monde du travail s’organise aussi sur cette mise en scène méritocratique, avec le développement d’une rhétorique de la performance où l’on vous dit que vous aurez un meilleur salaire si vous travaillez plus, ou si vous travaillez mieux, ce qui reste très théorique.

Cette circulation rhétorique renforce malgré nous l’adhésion au concours, et elle le naturalise aussi : on ne voit plus, quand on allume la télé, que, sur toutes les chaînes, il y a des formes de jeux fondés sur le concours, que ce soit Koh-Lanta, Top Chef, etc.

Que signifie la recherche de la légitimité des concours ?

A. A. : Quelle que soit la société, quel que soit l’angle sous lequel on examine les concours, on constate la même chose : des inégalités sociales de genre fondamentales, une reproduction d’inégalités sociales et familiales, une cristallisation d’inégalités scolaires plus anciennes… Il n’y a pas de concours parfaitement équitable. Il peut y avoir des concours qui, éventuellement, corrigent certaines de leurs imperfections à destination d’un public identifié, mais cela se fera nécessairement à la défaveur d’autres publics.

Il ne faut pas oublier que les concours des grandes écoles sont conçus pour différencier les gens et identifier des élites. L’idée du concours, par essence, c’est la différenciation.

Qu’est-ce que le concours produit comme émotions chez celles et ceux qui les vivent ?

A. A. : Quand j’ai sorti la Société du concours, en 2017, j’ai été – à ma grande surprise – submergée de courriers de lecteurs. Les gens avaient envie de me parler de leur concours, souvent, d’ailleurs, en négatif, ou avec une forme d’association à la souffrance. Les concours suscitent des émotions parce qu’ils sont très investis socialement, très investis par les familles, très investis politiquement.

D’Albert Camus à Annie Ernaux, il y a différentes lectures du parcours de transfuge de classe, mais on y retrouve toujours l’exaltation de sentiments méritocratiques. Et quelle est l’émotion ou la sensation typique liée à la méritocratie ? C’est la souffrance, qu’elle advienne avant une réussite associée à la fierté, à un sentiment de félicité qu’elle rend possible, ou qu’elle précède l’échec vécu avec humiliation.

Ce qui est commun à tout ça, c’est que le concours donne l’impression de permettre d’exalter le meilleur de soi, c’est aussi ce qui va nourrir le sentiment de l’élection en cas de réussite.

Selon les grandes périodes scolaires, les émotions mises en avant varient. Dans la période qui précède la massification scolaire à la Ernaux, le concours se solde par la honte ou par la fierté. Dans notre période néolibérale, c’est l’anxiété et l’angoisse qui dominent. Paradoxalement, c’est là qu’il va finalement peut-être y avoir égalité, comme le soulignait François Dubet. La différence, c’est que nous ne sommes pas tous armés de la même façon pour la gérer.


Propos recueillis par Aurélie Djavadi.

The Conversation

Annabelle Allouch ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

18.11.2025 à 16:17

Jeux vidéo : comment mieux protéger les données personnelles des joueurs les plus accros ?

Arthur Champéroux, Doctorant en droit à la protection des données à caractère personnel, Université Paris-Saclay; Université Laval
En l’absence de consensus scientifique sur l’existence d’une addiction aux jeux vidéos, un certain flou juridique permet aux éditeurs de collecter les données des joueurs à des fins commerciales, sans protection suffisante pour ces derniers.
Texte intégral (1903 mots)
Les personnes accros aux jeux vidéo sont vulnérables. Tima Miroshnichenko/Pexels, CC BY

L’addiction aux jeux vidéo est un trouble comportemental dont la reconnaissance scientifique et juridique divise les experts. Or, les éditeurs de jeu collectent les données des joueurs potentiellement concernés. En l’absence de consensus scientifique sur la question de ce type de dépendance, qu’en est-il de la protection juridique des gameurs ?


L’addiction se définit comme la perte de contrôle d’un objet qui était à l’origine une source de gratification pour l’usager. De nombreuses études scientifiques ont tenté d’établir des liens entre l’utilisation d’écrans et une forme de dépendance chronique assimilable à de l’addiction.

Par conséquent, cette question s’est imposée logiquement dans les discussions et expériences scientifiques. Le trouble du jeu vidéo (gaming disorder) est un trouble du comportement reconnu par l’Organisation mondiale de la santé (OMS) depuis 2018 (CIM-11), mais aussi par l’American Psychiatric Association depuis 2013 (DSM-5-TR). Ces deux classifications reposent sur une série de symptômes dont la combinaison tend à indiquer une forme d’addiction aux jeux vidéo. Toutefois, la communauté scientifique est divisée sur sa reconnaissance en tant que pathologie.

Ce constat appelle à l’approfondissement des études sur le sujet. Toutefois, avant le stade « pathologique », il est possible de considérer plusieurs niveaux de gravité de l’addiction, qui traduisent déjà des formes de dépendance aux jeux vidéo.

En effet, les formes les plus graves d’addiction concerneraient de 0,5 % à 4 % des joueurs, tandis que d’autres études montrent que la consommation problématique des jeux vidéo est bien plus répandue, avec 44,7 % des personnes présentant des difficultés avec la consommation des écrans.

La première conséquence de cette addiction est la perte de contrôle du temps de jeu, d’ailleurs accrue pour les joueurs de moins de 18 ans, dont le lobe frontal responsable de l’autocontrôle est en cours de formation. Néanmoins, les formes d’addiction aux jeux vidéo représentent aussi une opportunité pour l’industrie du jeu vidéo à travers la mise en place d’une économie de l’attention très lucrative.

Retenir l’utilisateur, collecter des données

Sa logique est la création de services en ligne conçus pour retenir l’utilisateur et collecter le maximum de données liées à l’activité du joueur pour effectuer de la publicité comportementale. L’industrie du jeu vidéo s’est d’ailleurs particulièrement démarquée dans son expertise pour la collecte de données des joueurs, d’un côté, et, d’un autre côté, pour sa maîtrise des mécaniques de jeu (game pattern) afin de susciter l’engagement des joueurs.

Certains industriels, eux-mêmes, avertissent des dangers de la « weaponized addiction », lorsque la tendance à l’addiction est instrumentalisée au profit de l’optimisation du ciblage publicitaire. À l’inverse, d’autres experts rejettent en bloc la vision d’un rôle joué par l’industrie dans l’addiction des joueurs, malgré les nombreuses critiques de la recherche en science de l’information et les dérives documentées périodiquement.

Quelles protections juridiques pour les joueurs concernés ?

Par ricochet, l’absence de consensus scientifique impacte les systèmes juridiques qui éprouvent des difficultés à protéger les joueurs concernés. Concrètement, les juridictions nationales peinent à reconnaître l’addiction comme source de préjudice pour les joueurs.

Récemment, les exemples se multiplient avec des contentieux autour du jeu Fortnite d’Epic Games au Canada et aux États-Unis lui reprochant de n’avoir pas assez protégé les données personnelles des enfants, mais aussi des pratiques commerciales trompeuses où l’addiction a été soulevée par les associations de joueurs.

De même, des plaintes ont été déposées contre la plate-forme de jeux vidéos Roblox de Google, mais aussi contre le jeu Call of Duty d’Activision aux États-Unis, qui se sont globalement soldées par des refus des juridictions, soit de recevoir les plaintes, soit de reconnaître la responsabilité des éditeurs de jeux vidéo vis-à-vis des designs addictifs.

En France, la question ne s’est pas spécialement judiciarisée, toutefois, le législateur a adopté des mesures de pédagogie à travers la loi visant à sécuriser et à réguler l'espace numérique dite loi SREN du 21 mai 2024 qui amende l’article L. 611-8 du Code de l’éducation en ajoutant une formation à la « sensibilisation aux addictions comportementales au numérique » dans l’enseignement supérieur.

L’autorité de protection des données personnelles en France (CNIL) a d’ailleurs consacré une série de travaux de recherche à la question de l’économie des données dans le jeu vidéo.

Malgré les efforts d’adaptation des systèmes juridiques, la position de vulnérabilité psychologique des personnes addictes aux jeux vidéo appelle à une prise en compte plus conséquente.

Considérant les liens entre l’économie de la donnée et l’instrumentalisation potentielle de l’addiction des joueurs, il est nécessaire de considérer l’encadrement de cette activité sous l’angle du droit à la protection des données à caractère personnel. Celui-ci, dans l’Union européenne, peut protéger les joueurs de deux façons : en encadrant l’utilisation des données personnelles qui servent à identifier les joueurs addictes, et en instaurant une limitation spécifique de la publicité comportementale par les dispositions relatives aux traitements automatisés.

Une surveillance commerciale insuffisamment encadrée

En pratique, le temps de jeu, la fréquence et le caractère compulsif des achats sont des données couramment utilisées par l’industrie pour identifier les habitudes de consommation des joueurs. D’ailleurs, les joueurs les plus dépensiers sont communément surnommés les « baleines », comme dans le monde du casino.

L’utilisation de ces données est strictement encadrée, soit en tant que données sensibles si ces données sont relatives à la condition médicale de la personne au stade de la pathologie, ce qui demeure peu probable, soit en tant que donnée personnelle comportementale. Si ces données sont sensibles, l’éditeur du jeu vidéo doit demander l’autorisation explicite au joueur d’utiliser ces données.

Si ces données ne sont pas sensibles, l’utilisation de ces données reste bien encadrée, puisque l’éditeur doit tout de même justifier de la finalité du traitement et d’une base légale, c’est-à-dire présenter un fondement juridique (exécution du contrat, intérêt légitime qui prévaut sur les intérêts du joueur, ou consentement du joueur). À noter que la publicité comportementale semble n’être autorisée que sur la base du consentement du joueur.

En Union européenne, le Règlement général à la protection des données (RGPD) encadre les traitements automatisés qui sont au cœur du fonctionnement de la publicité comportementale. Pour résumer, la loi garantit que le joueur puisse refuser le traitement de ses données personnelles pour de la prospection commerciale. Cette garantie est constitutive de la liberté de choix du joueur. De plus, le nouveau Règlement européen des services numériques (ou Digital Services Act, DSA) interdit la publicité comportementale auprès des enfants joueurs.

Néanmoins, de nombreux jeux ne sont pas encore en conformité avec ces règles, malgré les efforts des autorités de protection européennes. Finalement, le poids du respect des droits du joueur à refuser cette forme de surveillance commerciale repose encore sur le joueur lui-même, qui doit rester vigilant sur l’utilisation de ces données.

Ce constat est problématique, notamment lorsque l’on considère la vulnérabilité des joueurs dans leur prise de décision sur l’utilisation de leurs données, notamment lorsqu’ils souffrent de troubles addictifs du jeu vidéo.

Cependant, la possibilité récente de recours collectifs pour les préjudices liés à la violation du RGPD, comme l'énonce l’article 80, pourrait ouvrir la voie à un contrôle des données personnelles par les communautés de joueurs et un rééquilibrage des forces en présence. Les développements jurisprudentiels sont attendus par les associations de joueurs, les autorités de protection des données et l’industrie avec impatience.

The Conversation

Arthur Champéroux ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

18.11.2025 à 16:17

Et si le « backlash écologique » en Europe était une conséquence de l’accord de Paris ?

Malo Jan, Doctorant en sciences politiques, Sciences Po
En nationalisant les engagements climatiques des États, l’accord de Paris a indirectement contribué au « backlash écologique » que vit actuellement l’Europe.
Texte intégral (1726 mots)

C’était le grand mérite de l’accord de Paris en 2015 : transformer les déclarations d’intention diplomatiques sur le climat en engagements nationaux. Dix ans plus tard, l’ambition écologique se heurte désormais à un retour de bâton en Europe, où l’action climatique, au lieu de rassembler, polarise les débats et nourrit les divisions politiques.


La COP30 marque les dix ans de l’accord de Paris et l’heure est au bilan. En 2015, les États s’étaient engagés, lors de la COP21 à Paris, à contenir le réchauffement en dessous de 2 °C, avec l’ambition d’atteindre 1,5 °C. Dix ans plus tard, les émissions continuent d’augmenter – bien qu’à un rythme moins élevé – et l’objectif de 1,5 °C semble désormais hors de portée, révélant les limites du cadre diplomatique fixé à Paris.

L’accord de Paris, en demandant à chaque État de se fixer des objectifs de réduction d’émissions de gaz à effet de serre et de se donner les moyens de les atteindre, a profondément transformé les débats politiques en Europe. On assiste aujourd’hui à un « backlash » (retour de bâton) écologique. C’est-à-dire, une réaction politique généralisée en Europe contre les politiques de transition, qui en freine la mise en œuvre et en fragilise la légitimité.

Ce phénomène peut être compris comme une conséquence indirecte de Paris. En ramenant le climat au cœur des débats nationaux, l’accord a rendu plus visibles les arbitrages économiques et sociaux qu’implique la transition et les conflits qu’elle suscite. C’est précisément cette dynamique, le passage d’un enjeu longtemps consensuel à un objet de conflictualité, que j’étudie dans ma thèse, en analysant comment les partis européens adaptent leurs stratégies face aux tensions nouvelles engendrées par la mise en œuvre des politiques climatiques.

Accord de Paris et nationalisation de l’action climatique

Là où le protocole de Kyoto (1997) fixait des objectifs contraignants à un nombre limité de pays industrialisés, l’accord de Paris a marqué un tournant dans la gouvernance climatique. Il confie désormais à chaque État la responsabilité de définir puis de réviser régulièrement ses propres engagements.

Ce passage d’un système d’obligations internationales à un modèle fondé sur la responsabilité nationale a déplacé le centre de gravité de l’action climatique de l’échelle internationale au niveau national. Or, ce changement a profondément modifié la place du climat dans le débat politique. Longtemps cantonné à la scène diplomatique des négociations internationales, il est devenu, depuis l’accord de Paris, un enjeu domestique majeur.

En Europe notamment, les engagements pris à la COP21 ont ouvert un espace inédit de contestation face à l’inaction des gouvernements. En 2018 et en 2019, dont les étés ont été marqués par des vagues de chaleur exceptionnelles, les marches pour le climat ont rassemblé des centaines de milliers de personnes dénonçant le décalage entre les promesses de l’accord de Paris et les politiques mises en œuvre. Dans le même temps, les contentieux climatiques se sont multipliés, comme en France avec l’Affaire du siècle,confrontant les États à leurs responsabilités.

Sous la pression des engagements pris à Paris et des critiques de militants quant à l’inaction des pouvoirs publics, la question climatique s’est imposée dans la compétition politique, c’est-à-dire comme un enjeu central des stratégies électorales. À partir de 2018, la plupart des partis européens ont intégré le climat à leurs programmes pour gagner en crédibilité face à l’urgence climatique. Les élections européennes de 2019 l’ont bien illustré, avec une « vague verte » voyant une progression inédite des listes écologistes dans plusieurs pays.

Cette dynamique a favorisé l’adoption de nouvelles politiques publiques plus ambitieuses, européennes (comme le Pacte vert) puis nationales, visant la neutralité carbone. Au niveau national, elle s’est traduite par la multiplication des « lois Climat », parmi lesquelles la loi Climat et résilience qui, en France, fait figure d’exemple emblématique. Ces textes inscrivent dans le droit national les objectifs et les moyens censés permettre le respect des engagements pris à Paris.

Si leur ambition fait débat, ces politiques ont déjà contribué à infléchir, au moins partiellement, les trajectoires d’émissions dans plusieurs pays, comme la France. On ne peut donc les qualifier d’inefficaces.


À lire aussi : Les classes populaires en ont-elles vraiment marre de l’écologie ?


Un nouveau terrain où s’expriment les clivages politiques

Lors de sa ratification, et encore aujourd’hui, l’accord de Paris a suscité peu de contestations en Europe, ce qui contraste avec les décisions symboliques de Donald Trump de retirer la signature des États-Unis lors de ses deux mandats, choix qu’il a habilement mis en scène sur le plan politique.

En revanche, la mise en œuvre des politiques climatiques découlant de l’accord de Paris pour tenir les engagements provoque désormais de fortes résistances politiques en Europe. Le passage d’un débat centré sur le choix des objectifs à atteindre à un débat national sur la façon d’y parvenir a rendu plus tangibles, au niveau national, les effets sociaux et économiques de la transition. Les coûts de l’action climatique, les inégalités qu’elle peut accentuer et les changements qu’elle impose aux modes de vie sont désormais au cœur du débat politique.

Une forte conflictualisation des enjeux climatiques en Europe a émergé dans ce contexte, portée notamment par des partis de droite radicale et d’extrême droite. Ceux-ci cherchent à délégitimer les politiques de transition écologique et à mobiliser les électorats susceptibles d’en être les perdants.

Certains, comme l’AfD en Allemagne ou Reform UK en Grande-Bretagne, en ont même fait un axe central de leur stratégie, alors que la question climatique restait jusque-là largement absente de leurs programmes.


À lire aussi : Comment le Pacte vert est instrumentalisé par les populistes en Europe centrale et de l’Est


Un « backlash » né de la politisation des enjeux climatiques

Cette contestation a mis en difficulté les partis qui avaient soutenu les objectifs de neutralité carbone et porté les politiques de transition. Face à la montée des oppositions, plusieurs ont freiné leurs ambitions, de peur d’en assumer le coût électoral.

Au Royaume-Uni, le Labour a ainsi renoncé en 2024 à la promesse faite en 2021 d’investir chaque année 28 milliards de livres (31,7 milliards d’euros) pour le changement climatique. En France, Emmanuel Macron a cherché à réduire l’ambition de l’objectif de la Commission européenne pour la neutralité carbone, qui était de réduire de 90 % les émissions de gaz à effet de serre d’ici 2040. D’autres ont repris à leur compte certains arguments des droites radicales, dénonçant des mesures jugées impopulaires ou socialement injustes. Par exemple, après avoir longtemps affiché une forte ambition climatique, le Parti conservateur britannique cherche désormais à abroger la principale loi climatique du pays.

Les négociations internationales pendant les COP sur le climat donnent souvent lieu à une mise en scène de l’ambition climatique des pays européens, leurs dirigeants cherchant à afficher leur volontarisme et leur exemplarité. Pourtant, à l'échelle nationale, l’action climatique et sa légitimité se trouvent fragilisées par les tensions sur la répartition des coûts économiques et sociaux de la transition. L’accord de Paris a indirectement contribué à faire émerger cette dynamique.

Ainsi, dix ans après Paris, le climat n’apparaît plus seulement comme un enjeu de coopération internationale, mais comme une ligne de fracture politique majeure en Europe. La nationalisation de la question climatique, amorcée par l’accord de Paris, avait d’abord suscité un consensus relatif autour de la nécessité de transformer l’action publique. Le backlash écologique reflète la politisation qui en découle.

Si cette polarisation a le mérite de clarifier les lignes de clivage sur le climat, elle affaiblit en retour la position des États européens sur la scène internationale, en rendant plus difficile l’élaboration d’une position commune et en fragilisant la crédibilité de leurs engagements.

The Conversation

Malo Jan a reçu des financements de SciencesPo Paris.

18.11.2025 à 16:16

Les œuvres d’art, cibles de choix pour le crime organisé ?

Guergana Guintcheva, Professeur de Marketing, EDHEC Business School
Bertrand Monnet, Professeur, EDHEC Business School
Par ses caractéristiques, le marché de l’art attire certaines activités de blanchiment. Comment cela fonctionne-t-il ? Les outils mis en place sont-ils efficaces ?
Texte intégral (1673 mots)

Certaines caractéristiques du marché de l’art, à commencer par la pratique de l’anonymat, le rendent attractif pour les activités de blanchiment. Comment s’en protège-t-il ? Ces outils sont-ils adaptés à l’objectif poursuivi ? Comment mieux faire ?


En 2024, le marché mondial de l’art a atteint 57,5 milliards de dollars (soit 49,5 milliards d’euros) selon l’étude The Art Basel and UBS Global Art Market, illustrant sa solidité en tant qu’actif. Mais si l’art est traditionnellement lié à des motivations nobles, telles que le goût du beau et la transmission, sa relation avec le crime organisé mérite également d’être explorée.

C’est ce que nous avons tenté de faire dans un récent travail de recherche dans lequel nous analysons les ressorts du blanchiment, les nouvelles fragilités du marché de l’art (via sa transformation numérique notamment) et les solutions qui existent face à ce fléau.

Manque de transparence

Il est estimé qu’entre 2 % et 5 % du PIB mondial est blanchi chaque année. Le blanchiment d’argent par le biais des œuvres d’art ne constitue qu’un exemple parmi d’autres. Cependant, l’industrie de l’art se distingue par son manque de transparence et ses mécanismes subjectifs d’évaluation de la valeur des œuvres (étroitement liés à la spéculation), ce qui en fait l’un des marchés les moins régulés en matière de lutte contre le blanchiment. Après la drogue et les armes, le trafic d’œuvres d’art est ainsi la source de financement la plus lucrative pour les activités illégales.

Ainsi, par exemple, en 2007, une affaire concernant un tableau de Jean-Michel Basquiat a illustré la difficulté à estimer le prix d’une œuvre d’art. Franchissant la douane avec une facture mentionnant une valeur de 100 dollars (82 euros), ce tableau valait en réalité 8 millions (6,8 millions d’euros). Derrière cette opération se trouvait une opération de blanchiment d’argent menée par un ancien banquier brésilien. Cette affaire révèle la façon dont le marché de l’art, de par ses caractéristiques mêmes, peut se retrouver au cœur d’activités illicites.


À lire aussi : Comment les trafiquants de cocaïne blanchissent l’argent des cartels


Une mécanique bien rodée

Le blanchiment d’argent consiste à dissimuler l’origine de fonds acquis illégalement pour les convertir en sources légitimes. Son objectif est donc de transformer de l’« argent sale », qui ne peut être utilisé ouvertement, en argent propre pouvant circuler librement dans l’économie légale. En ce sens, pour l’art, les organisations criminelles s’appuient sur une mécanique bien rodée, comme celle utilisée par exemple par les narcotrafiquants mexicains pour la filière du fentanyl.

L’art peut jouer deux rôles distincts dans les activités criminelles. Premièrement, avec la production de faux et la vente d’œuvres d’art volées comme sources directes de revenus illicites ; deuxièmement, en tant qu’instrument dans le processus de blanchiment via l’achat et la revente d’œuvres authentiques.

Le processus de blanchiment d’argent se déroule en trois phases : le placement, l’empilement et l’intégration.

  • Le placement consiste à transformer de l’argent liquide « sale » (ou bien des cryptomonnaies) en argent placé sur des comptes bancaires. Par exemple, les criminels peuvent acheter des œuvres d’art en espèces, puis les revendre en exigeant d’être payés sur des comptes bancaires par les nouveaux acheteurs. Cela se fait principalement par le biais de la corruption d’employés de galeries, de maisons de vente aux enchères ou d’agents de ports francs.

  • L’empilement vise à transférer l’argent placé vers d’autres comptes bancaires pour dissimuler ses traces. Le marché de l’art présente un intérêt supplémentaire dans cette étape du blanchiment d’argent, en raison de la spéculation sur certains types d’œuvres d’art ainsi que des ventes aux enchères, qui peuvent faire grimper de manière irrationnelle le prix des œuvres. Cela permet aux criminels d’investir des sommes considérables dans un nombre limité de transactions sans attirer l’attention.

  • Enfin, l’intégration consiste à investir l’argent blanchi dans divers actifs légaux grâce à des sociétés-écrans.

Des vulnérabilités multiples

À de nombreux égards, le marché de l’art est vulnérable aux activités criminelles. Ces vulnérabilités sont particulièrement prononcées dans les domaines où l’opacité et l’anonymat sont courants, comme, par exemple, les ventes privées dans les maisons de vente, les transactions numériques impliquant des paiements en cryptomonnaie et l’utilisation de ports francs pour le stockage et le transfert.

Le premier point de contact dans la chaîne de valeur en termes d’activités illicites est la production de contrefaçons ou la vente d’œuvres volées, qui génèrent des fonds destinés à être blanchis. Par exemple, une opération européenne majeure menée en 2024, impliquant l’Espagne, la France, l’Italie et la Belgique, a conduit à la saisie de plus de 2 000 œuvres d’art contemporain contrefaites, pour un préjudice économique estimé à 200 millions d’euros.

Dangereuse opacité

Un deuxième moment vulnérable survient lorsque les œuvres d’art sont acheminées par le biais de plateformes de vente (galeries, foires…). Cette étape est particulièrement délicate dans le contexte des ventes privées, où la provenance et l’identité du vendeur sont rarement divulguées. Cette opacité offre aux criminels d’importantes possibilités de blanchir de l’argent en dissimulant l’origine et l’historique de propriété de l’œuvre.

Enfin, tout au bout de la chaîne de valeur, les sociétés-écrans sont souvent utilisées pour acheter des œuvres d’art, dissimulant ainsi le véritable bénéficiaire et rendant difficile pour les autorités de retracer l’origine des fonds.

De nouveaux outils plus efficaces ?

L’environnement réglementaire qui encadre le marché de l’art a récemment évolué vers des normes plus exigeantes.

Au sein de l’Union européenne, la sixième directive anti-blanchiment de 2021 a étendu les obligations en matière de lutte contre le blanchiment d’argent aux professionnels du marché de l’art. Elle impose à ces derniers de procéder à une vérification de l’identité des clients et d’adopter un suivi pour les transactions dépassant 10 000 euros.

Au niveau des États, des mesures nationales ont renforcé les sanctions antiblanchiment d’argent sur le marché de l’art. Par exemple, aux États-Unis, la loi sur l’intégrité du marché de l’art (Art Market Integrity Act) de 2025 vise à imposer au secteur de l’art des obligations spécifiques en matière de lutte contre le blanchiment d’argent, de vérification de l’identité des clients, de surveillance des transactions supérieures à 10 000 dollars, de conservation de registres détaillés et de signalement des activités suspectes au Trésor américain.

LCP 2024.

Sensibiliser le public

Enfin, les musées ont également un rôle à jouer, notamment en sensibilisant le grand public. Par exemple, en 2024, plus de 80 œuvres d’art liées au crime organisé (incluant des pièces de Salvador Dali et d’Andy Warhol) ont été exposées à Milan pour sensibiliser le public à la problématique du trafic international d’œuvres d’art.

Par sa complexité et son opacité, le marché de l’art est un terreau propice aux activités de blanchiment d’argent. Si les récentes avancées réglementaires marquent un progrès important, elles restent insuffisantes pour tenir en échec les faiblesses de la chaîne de valeur de l’art : manque de transparence, corruption, lacunes réglementaires dans les ports francs, pour n’en citer que quelques-unes. Il reste à espérer que l’importance que revêt l’art – en lui-même, aux yeux des citoyens ou encore pour le soft power – incite les pouvoirs publics à renforcer leurs moyens d’action, tout en instaurant une véritable culture de la transparence et de la responsabilité.

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.

18.11.2025 à 16:16

L’Afrique à l’assaut de l’IA, avec le Rwanda, le Maroc et le Kenya en moteurs

Thierry Berthier, Maitre de conférences en mathématiques, cybersécurité et cyberdéfense, chaire de cyberdéfense Saint-Cyr, Université de Limoges
La Déclaration africaine sur l’IA, adoptée en avril 2025, veut une intelligence artificielle conçue par et pour le continent, portée par des pays comme le Maroc, le Kenya et le Rwanda.
Texte intégral (2237 mots)
Le président rwandais Paul Kagamé (au centre) entouré de plusieurs invités de haut rang durant la cérémonie d’ouverture du forum de Kigali sur l’intelligence artificielle, le 3 avril 2025. Compte Flickr de la présidence rwandaise, CC BY-ND

En adoptant la Déclaration africaine sur l’intelligence artificielle, en avril 2025, les pays africains visent à développer la souveraineté du continent sur ces enjeux stratégiques et à réduire leur dépendance aux puissances étrangères. Cette stratégie repose sur les pays moteurs tels que le Rwanda, le Maroc ou encore le Kenya.


La capitale rwandaise, Kigali, a accueilli les 3 et 4 avril 2025 le premier Sommet mondial de l’intelligence artificielle en Afrique (Global AI Summit on Africa). L’événement, organisé par le Centre pour la quatrième révolution industrielle (C4IR) et le ministère rwandais des technologies de l’information, de la communication et de l’innovation (MINICT), en partenariat avec le Forum économique mondial, a réuni plus de 3 000 participants venus de 97 pays. Chercheurs, responsables politiques, dirigeants d’entreprises et investisseurs s’y sont rencontrés pour débattre de l’avenir de l’intelligence artificielle sur le continent.

En 2020, lors de la réunion annuelle du Forum économique mondial à Davos, le gouvernement rwandais avait signé un accord avec le Forum pour créer le C4IR. Composante d’un réseau de 19 centres à travers le monde, le C4IR façonne la trajectoire de la quatrième révolution industrielle grâce à des connaissances locales susceptibles de favoriser un changement global. En s’appuyant sur les priorités nationales de développement, le Rwanda a décidé de concentrer les travaux de son Centre sur l’économie des données, sur la gouvernance des données et sur l’intelligence artificielle

Le sommet d’avril dernier a marqué une étape symbolique. Pour la première fois, l’Afrique a placé la question de l’IA au cœur d’un agenda commun, en donnant naissance à la Déclaration africaine sur l’intelligence artificielle. Celle-ci définit un socle de principes et d’engagements autour de trois axes majeurs : stimuler l’innovation et la compétitivité grâce à l’IA ; construire une intelligence artificielle éthique et inclusive, ancrée dans les valeurs africaines – unité, patriotisme, cohésion sociale, résilience, travail acharné et partage ; et garantir une gouvernance responsable, capable d’encadrer la collecte, la sécurité et la souveraineté des données.

Que contient la Déclaration ?

Ce texte, signé par une cinquantaine d’États, dont l’Algérie, le Nigeria, le Kenya, le Maroc et l’Afrique du Sud, vise à rééquilibrer les rapports de force mondiaux dans le domaine technologique. Il s’agit de ne plus dépendre exclusivement des modèles et infrastructures venus d’Asie, d’Europe ou des États-Unis, mais de faire émerger une approche spécifiquement africaine, sensible aux réalités locales : agriculture, santé, climat, sécurité, inclusion financière. Cette ambition s’appuie sur trois piliers : la formation, la gouvernance et l’investissement.

Le texte prévoit ainsi la création d’un Panel scientifique africain sur l’IA, composé d’experts du continent et de la diaspora, chargé de conseiller les gouvernements sur les risques, les usages et les opportunités socio-économiques. Il propose également la mise en place d’un cadre continental de gouvernance des données, harmonisé avec les standards de l’Union africaine, et la constitution d’un Fonds africain pour l’IA doté de 60 milliards de dollars, qui servira à financer les infrastructures de calcul, les programmes de recherche et les start-ups du continent. Enfin, la Déclaration encourage la création de pôles régionaux d’incubation, appuyés par la Zone de libre-échange continentale africaine (ZLECAf), pour stimuler la coopération entre États et attirer les capitaux.

Au-delà de son contenu, le sommet de Kigali a surtout incarné une nouvelle étape du leadership technologique africain. Pour le Rwanda, il a constitué un instrument d’influence et un levier diplomatique. Depuis plusieurs années, le pays se positionne comme un hub continental de l’innovation numérique, au même titre que le Maroc ou le Kenya. L’organisation du premier sommet mondial sur l’IA en Afrique consacre ce positionnement : celui d’un État qui entend participer à la définition des règles du jeu, et non simplement les subir.

Le Rwanda, pionnier et artisan d’une IA africaine

Le Rwanda aborde l’intelligence artificielle comme une politique publique à part entière. Le gouvernement a fixé pour horizon 2035 un objectif d’un milliard de dollars d’investissements directs étrangers dans le secteur numérique, en s’appuyant sur un environnement administratif fluide et une culture de la transparence qui attire les investisseurs. Le pays est aujourd’hui l’un des plus rapides du continent pour la création d’entreprises, avec des démarches intégralement dématérialisées et un accès facilité au financement pour les jeunes pousses.

Cette stratégie repose sur un écosystème cohérent. À Kigali, la Kigali Innovation City incarne cette ambition : un espace intégré réunissant universités, centres de recherche, start-ups et investisseurs, conçu pour favoriser les transferts de technologie. Le Centre pour la quatrième révolution industrielle (C4IR), partenaire du Forum économique mondial, pilote plusieurs programmes d’IA appliqués à la santé, à l’agriculture et à l’éducation. La Norrsken House, inaugurée en 2021, accueille des dizaines de jeunes entreprises africaines et internationales dans les secteurs des fintech, de la santé numérique et des services à impact social.

Dans la santé, le Rwanda est devenu un modèle continental grâce à la société américaine Zipline, qui opère depuis 2016 un réseau de livraison de médicaments, de vaccins et de poches de sang par drones. Ces vols automatisés couvrent aujourd’hui 90 % du territoire et ont permis de réduire significativement les délais d’acheminement vers les zones enclavées. Dans l’agriculture, des programmes d’analyse de données et d’imagerie satellitaire optimisent les rendements de cultures stratégiques comme le café et le sorgho, tandis que des capteurs connectés permettent de suivre la qualité des sols et l’humidité des plantations.

Le gouvernement a également adopté une stratégie nationale fintech 2024–2029, centrée sur l’accès universel aux services financiers numériques. L’objectif est de positionner Kigali comme centre financier régional tout en favorisant l’inclusion économique. L’éducation complète cette approche : plus de 5 000 ingénieurs sont formés chaque année aux technologies de l’information, et des partenariats avec l’Université Carnegie Mellon Africa ou la Hochschule Bonn-Rhein-Sieg allemande visent à développer des cursus spécialisés en IA et en cybersécurité.

Cette vision cohérente commence à produire des effets mesurables. Le Rwanda attire chaque année davantage de fonds étrangers et devient une plateforme d’expérimentation privilégiée pour les acteurs mondiaux de la technologie. L’amélioration des services publics, la modernisation de l’agriculture et l’essor des fintechs témoignent d’une transformation structurelle, où la technologie est pensée comme un outil de développement humain avant d’être un vecteur de croissance économique.

Le Maroc et le Kenya, moteurs complémentaires

La réussite de cette stratégie continentale repose sur plusieurs pays moteurs. Le Maroc s’impose déjà comme un centre régional de recherche appliquée. L’AI Movement, fondé en 2021 par le groupe OCP à Rabat, soutient des projets d’intelligence artificielle au service de l’inclusion et de la durabilité. Parmi eux, une application mobile convertit les documents administratifs en fichiers audio pour les femmes rurales analphabètes, tandis que le programme AgriEdge utilise l’imagerie satellite pour estimer les apports d’azote nécessaires aux cultures, réduisant les coûts de production tout en améliorant les rendements.

En parallèle, l’Université Mohammed-VI Polytechnique, à Ben Guérir, forme des chercheurs et des ingénieurs issus de tout le continent et organise chaque année une AI Winter School consacrée aux applications économiques de l’intelligence artificielle.

Le Kenya, de son côté, confirme son statut de « Silicon Savannah ». Le projet Konza Technopolis, à 60 kilomètres de Nairobi, vise à créer une ville intelligente africaine regroupant data centers, universités et entreprises innovantes. En mai 2024, un partenariat entre Microsoft et G42 a abouti à un investissement d’un milliard de dollars dans un centre de données, à Olkaria, qui fonctionne entièrement à l’énergie géothermique renouvelable conçu pour héberger la future région cloud Azure pour l’Afrique de l’Est. L’infrastructure a été construite par G42 et ses partenaires pour exploiter Microsoft Azure dans une nouvelle région cloud d’Afrique de l’Est.

Alimentée par l’énergie renouvelable locale, cette infrastructure accueillera aussi un laboratoire de recherche consacré aux modèles linguistiques africains et à la formation de jeunes ingénieurs. Le pays a également adopté une stratégie nationale de l’IA (2025–2030) qui prévoit le développement d’incubateurs technologiques, le soutien aux start-ups locales et la mise en place de normes éthiques et de protection des données.

Vers une souveraineté technologique africaine

Ces trajectoires parallèles – rwandaise, marocaine et kényane – traduisent une ambition commune : faire de l’intelligence artificielle et de la robotique des leviers d’émancipation économique. Chacun à sa manière incarne un modèle : le Maroc par la recherche appliquée et l’agriculture intelligente, le Kenya par l’infrastructure et la formation, le Rwanda par la gouvernance et la cohérence stratégique.

La démonstration du taxi-drone autonome EHang EH-216-S, réalisée à Kigali en septembre 2025, illustre cette dynamique. Première du genre sur le continent, elle a prouvé que la robotique pouvait contribuer à désenclaver les territoires, réduire les coûts de transport et ouvrir la voie à des mobilités aériennes à faible émission de carbone. En conjuguant innovation technologique et politiques publiques volontaristes, ces pays montrent que l’Afrique n’est plus seulement un terrain d’expérimentation pour les technologies venues d’ailleurs : elle en devient un acteur à part entière, capable d’inventer ses propres modèles de développement.

The Conversation

Thierry Berthier ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

18.11.2025 à 16:13

Soins et hospitalisations à domicile : des algorithmes et technologies de santé pour améliorer la prise en charge des patients

Yasemin Arda, Professeur ordinaire de recherche opérationnelle et logistique, Université de Liège
Véronique François, Associate Professor, Université de Liège
Des solutions émergent pour optimiser les soins à domicile en s’appuyant sur les technologies de santé, par exemple pour planifier les tournées du personnel infirmier ou délivrer une chimiothérapie.
Texte intégral (1563 mots)

Planifier les tournées des infirmiers et infirmières au domicile des personnes malades en prenant en compte les urgences, délivrer dans les temps une chimiothérapie basée sur des médicaments dont la stabilité est limitée à quelques heures… Des solutions émergent pour optimiser les soins à domicile en s’appuyant sur des nouvelles technologies de santé


Face au vieillissement de la population et à la pression croissante sur les hôpitaux, les soins à domicile représentent une alternative prometteuse pour l’avenir des systèmes de santé. Toutefois, pour que ce modèle soit véritablement efficace et durable, il est essentiel de l’optimiser.

En supportant la prise de décision, les algorithmes d’optimisation et certaines technologies de santé (télémédecine, dispositifs de santé connectés, etc.) permettent d’améliorer l’adéquation de la capacité des services de soins avec les besoins des patients, notamment via la création des plannings et des itinéraires des personnels soignants.

Ce processus d’optimisation est d’autant plus crucial dans les systèmes d’hospitalisation à domicile, qui ont pris une ampleur particulière avec la pandémie de Covid-19.

Soins et hospitalisations se développent au domicile

Tandis que les soins à domicile étaient, dans le passé, traditionnellement tournés vers des soins de routine, l’essor de l’hospitalisation à domicile (HAD) permet à présent à des patients nécessitant des soins aigus d’être pris en charge à leur domicile plutôt qu’à l’hôpital. Cela représente une véritable révolution dans l’organisation des soins de santé, ce qui permet de libérer des lits hospitaliers pour les cas les plus graves et d’offrir aux patients un cadre de soins plus confortable, moins risqué en termes d’infections nosocomiales (ces infections contractées au sein d’un établissement hospitalier, ndlr) et souvent plus adapté à leurs besoins.

En Belgique, ce modèle a été particulièrement développé pour des traitements comme la chimiothérapie ou l’antibiothérapie, et a encore gagné en popularité à la suite de la crise sanitaire liée au Covid-19.

Les soins à domicile, cependant, ne sont pas exempts de défis. La gestion des soins, la coordination des équipes soignantes, ainsi que la réactivité face aux imprévus nécessitent des modèles de planification complexes et flexibles.

L’optimisation de l’allocation des ressources – humaines et matérielles – et des itinéraires du personnel soignant est essentielle pour garantir la qualité des soins tout en optimisant les coûts, permettant ainsi une prise en charge efficace et sûre du plus grand nombre possible de patients.

Une approche innovante pour organiser les tournées des personnels infirmiers

Les soins à domicile posent des défis opérationnels majeurs. L’un des plus importants est la gestion des plannings des soignants, qui déterminent l’affectation du personnel aux différentes pauses de travail. Ces plannings sont généralement établis sur une base mensuelle, en tenant compte des prévisions de la demande, d’hypothèses concernant la disponibilité des soignants, des contraintes légales et des accords contractuels. Ils doivent donc être souvent révisés afin de prendre en compte les données réelles dès que des informations précises concernant les patients et les soignants sont disponibles.

Le problème des tournées des infirmiers et des infirmières est au cœur de plusieurs travaux de recherche. Ce problème consiste à planifier efficacement les itinéraires des soignants tout en respectant les contraintes de temps, de ressources et de préférences des patients.

Dans le cadre de l’hospitalisation à domicile, la qualité des tournées des personnels infirmiers dépend très souvent d’autres décisions, prises en amont, notamment la planification des horaires des soignants. C’est pourquoi nos recherches proposent une approche innovante en considérant simultanément les décisions de modifications d’horaires à court terme et celles de création des tournées.

Concrètement, notre modèle agit comme un outil d’aide à la décision intégrée : il permet de déterminer en même temps quels patients admettre, comment ajuster les plannings des infirmiers, et comment organiser leurs tournées quotidiennes. Cette approche conjointe évite les incohérences qui apparaissent souvent lorsqu’on traite ces questions séparément (par exemple, accepter plus de patients que le personnel ne peut en visiter, ou planifier des horaires irréalistes).

L’objectif principal est de soigner le plus grand nombre de patients possible à domicile, tout en préservant l’efficacité et la charge de travail raisonnable du personnel soignant.

Sur le plan technique, la méthode repose sur un algorithme itératif de type « ruiner et recréer », qui explore différentes configurations, quitte à assouplir temporairement certaines contraintes pendant le processus algorithmique, afin d’aboutir à un plan globalement plus robuste et plus réaliste.

Gérer des chimiothérapies en HAD avec des médicaments à stabilité limitée

Un autre exemple est celui de la chimiothérapie à domicile, qui nécessite l’administration de médicaments qui ne restent parfois stables que quelques heures après leur production à la pharmacie de l’hôpital.

Nous avons développé une méthode d’optimisation qui permet de planifier conjointement la préparation des médicaments et les tournées des infirmiers. En effet, certains traitements injectables ne pouvant pas être produits à l’avance, la production et l’administration doivent être parfaitement synchronisées. Notre méthode s’appuie sur un algorithme intelligent de type « recherche à voisinage large », combiné à un modèle d’optimisation linéaire qui ajuste avec précision les horaires de production et de soins.

Ce système explore de multiples scénarios, corrige les incompatibilités et aboutit à une organisation efficace et réaliste. La durée totale de travail des pharmaciens et infirmiers est minimisée, tout en garantissant la faisabilité opérationnelle et la qualité du service rendu aux patients.

L’approche illustre le rôle croissant des technologies d’aide à la décision dans l’organisation des soins à domicile. À ce stade, elle est validée en simulation sur des données hospitalières synthétiques et constitue une étape de recherche appliquée avant une mise en œuvre concrète en milieu hospitalier.

Les technologies de santé : défis et limites pour les soins à domicile

Les technologies de santé jouent un rôle essentiel dans l’optimisation des soins à domicile. Des outils comme la télémédecine et les plateformes de gestion des soins permettent aux professionnels de la santé de suivre les patients à distance, d’adapter leurs traitements et de maintenir une communication constante.

À titre d’exemple, en Belgique, dans le cadre des plans nationaux d’action e-santé, le gouvernement a instauré la plateforme MaSanté, afin de garantir le suivi et le partage d’informations avec les patients en un seul endroit. Une autre plateforme dédiée aux dispositifs de santé connectés, qui agissent en tant que dispositifs médicaux, a également été créée.

Toutefois, l’accès aux technologies nécessaires pour des soins à domicile efficaces est inégalement réparti, au détriment notamment des habitants des zones rurales et/ou des patients à faibles revenus. Ces inégalités sociales demeurent un obstacle majeur à l’universalisation de ce modèle.


Cet article a été rédigé avec l’aide du Dr Arnaud Stiepen, expert en communication et vulgarisation scientifiques.

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.

18.11.2025 à 16:13

Pour prédire si un volcan sera effusif ou explosif, il faut s’intéresser à ses bulles

Olivier Roche, Chercheur en volcanologie, Institut de recherche pour le développement (IRD); Université Clermont Auvergne (UCA)
Jean-Michel Andanson, Chargé de recherche, Centre national de la recherche scientifique (CNRS); Université Clermont Auvergne (UCA)
Une étude publiée très récemment dans la revue « Science » permet de mieux comprendre le moteur des éruptions volcaniques : la formation des bulles dans le magma.
Texte intégral (1771 mots)
Un même volcan peut produire des éruptions effusives ou explosives. Marc Szeglat/Unsplash, CC BY

Une étude publiée très récemment dans la revue « Science » permet de mieux comprendre le moteur des éruptions volcaniques : la formation des bulles dans le magma.


Les observations faites depuis des décennies dans diverses régions du monde montrent que les éruptions volcaniques sont caractérisées par deux types de comportement en surface. D’un côté du spectre, le magma qui remonte depuis les profondeurs de la Terre est émis calmement sous forme de coulées ou de dômes de lave, caractérisant ainsi le style « effusif ». C’est le cas des volcans d’Hawaï ou de La Réunion dont les éruptions quasi annuelles font souvent l’actualité dans les médias.

À l’opposé, un mélange turbulent de gaz et de cendres est éjecté violemment dans l’atmosphère, définissant ainsi le style « explosif ». Le mélange forme un panache qui s’élève dans un premier temps à des altitudes pouvant atteindre 40-50 kilomètres et qui finit souvent par s’effondrer sous l’effet de la gravité pour former des nuées ardentes dévastatrices qui se propagent à haute vitesse le long du sol. Un exemple célèbre est l’éruption du Vésuve en l’an 79 de notre ère qui détruisit les villes de Pompéi et d’Herculanum.

Les données collectées par les scientifiques montrent que le comportement d’un volcan comme le Vésuve peut changer au cours du temps, alternant les périodes effusives et explosives, à cause de variations de la nature des magmas et des conditions de stockage en profondeur. Dans ce contexte, comprendre les mécanismes fondamentaux des éruptions volcaniques afin de mieux prédire leurs conséquences est un enjeu sociétal et environnemental majeur compte-tenu qu’environ 600 millions de personnes dans le monde vivent dans des zones potentiellement touchées par les aléas volcaniques.

Comprendre l’origine des bulles dans le magma

Le moteur des éruptions volcaniques est la formation des bulles de gaz dans le magma. En particulier, la temporalité de la formation puis de la croissance des bulles, le volume qu’elles occupent et leur capacité à ne pas se séparer du liquide magmatique contrôlent la dynamique de la remontée du mélange dans le conduit volcanique vers la surface et, au final, le style éruptif décrit ci-dessus (Figure 1A). C’est dans ce cadre que nous avons mené une étude pour mieux comprendre l’origine de la formation des bulles, un phénomène appelé « nucléation ». Les résultats de nos travaux ont été publiés le 6 novembre dans la revue Science.

A) Le cisaillement, indiqué par les champs de vitesse, est omniprésent dans un système volcanique et contribue à déclencher la nucléation des bulles dans le conduit. B) Les expériences montrent que la nucléation (ellipses rouges) est déclenchée lorsque la force associée au cisaillement imposé (flèche blanche) atteint une valeur critique qui décroît avec la quantité de gaz dissous dans le liquide. C) Les simulations moléculaires montrent que le cisaillement permet de faire croître un embryon de bulle (en bleu, volatil) entourée d’un mélange de phases gazeuse et liquide (la zone en blanc est composée de liquide). Fourni par l'auteur

Jusqu’à présent, les volcanologues ont considéré que la nucléation des bulles était déclenchée principalement par la décompression du magma saturé en gaz dissous (essentiellement de la vapeur d’eau) lors de l’ascension dans le conduit. En effet, chacun a déjà constaté l’effet produit par l’ouverture trop rapide d’une bouteille de boisson gazeuse : lorsque la pression chute, le liquide qui contient du gaz dissous (CO2 dans ce cas) devient sursaturé, et des bulles de gaz se forment alors rapidement, croissent, et entraînent le liquide vers le goulot de la bouteille. Au cours de la nucléation, la différence de pression entre un embryon de bulle et le liquide est connue comme une source d’énergie mécanique qui contribue à faire croître l’amas gazeux alors que la tension superficielle du liquide s’y oppose, et au-delà d’une taille critique, l’embryon devient une bulle qui croît spontanément.

Or, les différences de vitesse au sein d’un magma en mouvement génèrent des forces dites de cisaillement qui pourraient être une autre source d’énergie mécanique apte à déclencher la nucléation. C’est le cas en particulier dans un conduit volcanique en raison d’une différence de vitesse entre les bords, où le frottement est important, et le centre (Figure 1A).

L’importance des forces de cisaillement

Nous avons testé cette hypothèse au moyen d’expériences dites analogiques, réalisées dans des conditions de température et avec des matériaux différents de ceux dans la nature. Les expériences sont faites dans un rhéomètre, un équipement utilisé pour mesurer la capacité des fluides à se déformer. Ce dispositif permet de cisailler une couche d’oxyde de polyéthylène liquide à 80 °C et sursaturé en CO2, laquelle simule le magma dans la nature. Les expériences montrent que la nucléation de bulles de gaz est déclenchée lorsque la force de cisaillement appliquée atteint une valeur seuil qui décroît avec la teneur en CO2 (Figure 1B). De plus, le cisaillement cause le rapprochement puis l’agglomération en de plus grosses bulles et ainsi leur croissance. Nos données expérimentales sont en accord avec un modèle qui indique que la taille minimale pour qu’un embryon de bulle puisse croître est de près d’un millionième de millimètre. Ces résultats sont complétés par des simulations moléculaires qui confirment que la nucléation se produit si le cisaillement est suffisamment fort (Figure 1C).

Nous avons finalement extrapolé nos résultats aux systèmes volcaniques en tenant compte du rapport des pressions mises en jeu et des propriétés des magmas. L’analyse montre que la nucléation par cisaillement peut se produire dans un conduit dans presque tous les cas, et nous en tirons deux conclusions principales. La première est qu’un magma pauvre en gaz dissous, et donc a priori non explosif, pourrait néanmoins conduire à une éruption violente en raison d’un important cisaillement causant une nucléation massive. La seconde est qu’une nucléation efficace dans un magma très visqueux et très riche en gaz dissous, couplée à la décompression lors de la remontée et à une agglomération et à une croissance rapide des bulles, peut conduire à la formation de chenaux de dégazage connecté à la surface et engendrer, paradoxalement, une éruption non violente. Ce processus peut être renforcé lorsque la nucléation se produit à proximité de bulles préexistantes, comme le montrent nos expériences. Ce mécanisme explique l’observation contre-intuitive faite depuis longtemps par les volcanologues selon laquelle les magmas très visqueux et contenant de fortes teneurs en gaz dissous peuvent produire des éruptions effusives.

Nos travaux suggèrent que la nucléation induite par cisaillement doit désormais être intégrée aux modèles mathématiques de conduits volcaniques développés par les volcanologues et qui permettent de prédire les dynamismes éruptifs. En couplant cette approche à d’autres modèles qui simulent des coulées de la lave, des panaches ou des nuées ardentes, il est ainsi possible de définir les zones potentiellement atteintes par les produits des éruptions. Cette tâche est essentielle pour la gestion des risques naturels et pour la protection des populations qui vivent à proximité des volcans actifs.

The Conversation

Olivier Roche a reçu des financements du programme I-SITE CAP 20-25 piloté par l'UCA.

Jean-Michel Andanson a reçu des financements ANR, CNRS, Université Clermont Auvergne, commission européenne, Fond national Suisse.

18.11.2025 à 13:28

Pourquoi il n’est pas toujours facile d’évaluer sa douleur sur une échelle de 0 à 10

Joshua Pate, Senior Lecturer in Physiotherapy, University of Technology Sydney
Dale J. Langford, Associate Professor of Pain Management Research in Anesthesiology, Weill Cornell Medical College, Cornell University
Tory Madden, Associate Professor and Pain Researcher, University of Cape Town
En cas de problème de santé, il arrive que l’on nous demande de quantifier la douleur ressentie. Or les échelles de cotation utilisées ne sont pas interprétées par tous les patients de la même façon.
Texte intégral (2681 mots)
Que l’on soit enfant ou adulte, communiquer sa douleur n’est pas toujours évident. altanaka/Shutterstock

Il vous est peut-être déjà arrivé de vous trouver désemparé face à un soignant qui vous demande d’évaluer, sur une échelle de cotation, l’intensité de votre douleur. Rien d’étonnant à cela : la douleur est une expérience complexe qu’il n’est pas évident de résumer par un simple chiffre.


En serrant son bras contre elle, dans la salle des urgences, ma fille m’a dit : « Ça fait vraiment mal. » — « Sur une échelle de zéro à dix, à combien évalues-tu ta douleur ? », lui a demandé l’infirmière. Le visage couvert de larmes de ma fille a alors exprimé une intense confusion. — « Qu’est-ce que ça veut dire, dix ? », a-t-elle demandé. — « Dix, c’est la pire douleur que tu puisses imaginer. » Elle a eu l’air encore plus déconcertée.

Je suis son père et en tant que tel mais aussi spécialiste de la douleur, j’ai pu constater à cette occasion à quel point les systèmes d’évaluation de la douleur dont nous disposons, pourtant conçus à partir d’une bonne intention et en apparence simples d’utilisation, s’avèrent parfois très insuffisants.

Les échelles de la douleur

L’échelle la plus couramment utilisée par les soignants pour évaluer la douleur existe depuis une cinquantaine d’années. Son utilisation requiert de demander aux patients d’évaluer leur douleur en lui attribuant un chiffre allant de 0 (« aucune douleur ») à 10 (généralement « la pire douleur imaginable »).

Cette méthode d’évaluation se concentre sur un seul aspect de la douleur – son intensité – pour tenter de comprendre au plus vite ce que ressent le patient : à quel point cela fait-il mal ? Est-ce que la douleur empire ? Le traitement l’atténue-t-il ?

De telles échelles de cotation peuvent s’avérer utiles pour suivre l’évolution de l’intensité de la douleur. Si la douleur passe de 8 à 4 au fil du temps, cela signifie que le patient se sent probablement mieux – quand bien même l’intensité 4 ressentie par un individu peut ne pas être exactement la même que celle ressentie par une autre personne.

Les travaux de recherche suggèrent qu’une diminution de deux points (30 %) de la sévérité d’une douleur chronique correspond généralement à un changement qui se traduit par une différence significative dans la vie quotidienne des malades.

Mais c’est la borne supérieure de ces échelles – « la pire douleur imaginable » – qui pose problème.

Un médecin tient les mains d’une femme âgée alitée à l’hôpital.
Lorsqu’ils évaluent leur douleur, les gens se réfèrent généralement à leurs expériences passées. Sasirin Pamai/Shutterstock

Un outil trop limité pour rendre compte de la complexité de la douleur

Revenons au dilemme de ma fille. Comment quelqu’un parvient-il à imaginer la pire douleur possible ? Tout le monde imagine-t-il la même chose ? Les travaux de recherches suggèrent que non. Même les enfants ont une interprétation toute personnelle du mot « douleur ».

Les individus ont tendance – et c’est compréhensible – à ancrer leur évaluation de la douleur dans les expériences qu’ils ont vécues par le passé. Cela crée des écarts considérables d’une personne à l’autre. Ainsi, un patient qui n’a jamais subi de blessure grave sera peut-être plus enclin à donner des notes élevées qu’une personne ayant déjà souffert de brûlures sévères.

La mention « aucune douleur » peut également poser problème. Un patient dont la douleur a diminué mais qui reste inconfortable peut se sentir paralysé face à ce type d’échelle, car elle ne comporte pas de chiffre de 0 à 10 qui traduise fidèlement son ressenti physique.

Les spécialistes de la douleur sont de plus en plus nombreux à reconnaître qu’un simple chiffre ne peut rendre compte d’une expérience aussi complexe, multidimensionnelle et éminemment personnelle que la douleur.

Notre identité influence notre douleur

Divers facteurs influent sur notre façon d’évaluer la douleur : la mesure dans laquelle celle-ci perturbe nos activités, le degré d’angoisse qu’elle engendre, notre humeur, notre fatigue, ou encore la façon dont ladite douleur se compare à celle que nous avons l’habitude de ressentir.

D’autres paramètres entrent également en ligne de compte, notamment l’âge, le sexe, le niveau de littératie et de numératie du patient, ou encore le contexte culturel et linguistique. Si le soignant et le patient ne parlent pas la même langue, la communication autour de la douleur et de sa prise en charge s’avérera encore plus difficile

Autre difficulté : certaines personnes neurodivergentes peuvent interpréter le langage de manière plus littérale que la moyenne, ou traiter l’information sensorielle différemment des autres. Comprendre ce que les gens expriment de leur douleur exige alors une approche plus individualisée.

Les cotations « impossibles »

Pour autant, nous devons faire avec les outils dont nous disposons. Des travaux ont démontré que lorsque les patients utilisent l’échelle de 0 à 10, ils tentent de communiquer bien davantage que la seule « intensité » de leur douleur.

Ainsi, lorsqu’un individu affirme « ma douleur est à 11 sur 10 », cette cotation « impossible » va probablement au-delà de la simple évaluation de la sévérité de sa souffrance. Cette personne se demande peut-être : « Est-ce que ce soignant me croit ? Quel chiffre me permettra d’obtenir de l’aide ? » Dans ce seul nombre se trouve condensée une grande quantité d’informations. Il est très probable que le chiffre énoncé signifie en réalité : « La situation est grave. Aidez-moi, s’il vous plaît. »

Dans la vie courante, nous mobilisons une multitude de stratégies de communication différentes. Pour exprimer nos ressentis, nous pouvons gémir, changer notre façon de nous mouvoir, utiliser un vocabulaire riche en nuances, recourir à des métaphores… Lorsqu’il s’agit d’évaluer un niveau de douleur, recueillir et évaluer de telles informations complexes et subjectives n’est pas toujours possible, car il est difficile de les standardiser.

En conséquence, de nombreux chercheurs qui travaillent sur la douleur continuent de s’appuyer largement sur les échelles de cotation. En effet, elles ont pour elles d’être simples, rapides à présenter, et de s’être révélées valides et fiables dans des contextes relativement contrôlés.

Les cliniciens, en revanche, peuvent exploiter ces autres informations, plus subjectives, afin de se représenter une image plus complète de la douleur de la personne.

Comment mieux communiquer sur la douleur ?

Pour atténuer les effets que peuvent avoir les différences de langue ou de culture sur la manière d’exprimer la douleur, différentes stratégies existent.

L’emploi d’échelles visuelles en est une. L’« échelle des visages » (Faces Pain Scale–Revised, FPS-R) invite les patients à choisir sur un document une expression faciale parmi plusieurs, pour communiquer leur douleur. Elle peut se révéler particulièrement utile lorsqu’il s’agit d’évaluer la douleur des enfants, ou celle de personnes peu à l’aise avec les chiffres et la lecture (soit d’une façon générale, ou parce qu’elles ne maîtrisent pas la langue utilisée dans le système de soins qui les prend en charge).

L’« échelle visuelle analogique » verticale requiert quant à elle d’indiquer sa douleur sur une ligne verticale, un peu comme si l’on imaginait que celle-ci était progressivement « remplie » par la douleur).

(En France, les échelles considérées comme valides pour mesurer la douleur ont été listées par la Haute Autorité de santé (HAS), NdT)

Graphique constitué d’une barre horizontale allant du vert au rouge, accompagnée de différents smileys.
Des échelles visuelles sont parfois utilisées pour tenter de surmonter les difficultés de communication. Nenadmil/Shutterstock

Qui peut améliorer les choses, et comment ?

Professionnels de santé

Prenez le temps d’expliquer correctement aux patients le principe de l’échelle de cotation de la douleur choisie, en gardant à l’esprit que la formulation des bornes (de 0 à 10) a son importance.

Soyez attentif à l’histoire que raconte le chiffre donné par la personne, car un simple numéro peut signifier des choses très différentes d’une personne à l’autre.

Servez-vous de la cotation comme point de départ pour un échange plus personnalisé. Prenez en compte les différences culturelles et individuelles. Demandez aux patients d’employer un vocabulaire descriptif, et vérifiez auprès d’eux que votre interprétation est la bonne, afin d’être sûrs que vous parlez bien de la même chose.

Patients

Pour mieux décrire votre douleur, utilisez l’échelle numérique qui vous est proposée, mais ajoutez-y du contexte. Essayez de qualifier votre douleur (s’agit-il d’une brûlure ? D’un élancement ? La ressentez-vous comme un coup de poignard ?), et comparez-la à des expériences passées.

Expliquez l’impact que la douleur a sur vous – non seulement émotionnellement, mais aussi sur vos activités quotidiennes.

Parents

Demandez aux soignants d’utiliser une échelle de la douleur adaptée aux enfants. Il existe des outils spécifiques, pour différents âges, tels que l’« échelle des visages ».

Dans les services de pédiatrie, les soignants sont formés pour employer un vocabulaire adapté à chaque stade du développement de l’enfant, car la compréhension des nombres et de la douleur n’évolue pas de la même façon chez chacun.

Les échelles, un simple point de départ

Les échelles de cotation de la douleur ne permettront jamais de mesurer parfaitement la douleur. Il faut les voir comme des amorces de conversation, destinées à aider les personnes à communiquer à l’autre une expérience profondément intime.

C’est ce qu’a fait ma fille. Elle a trouvé ses propres mots pour décrire sa douleur : « C’est comme quand je suis tombée des barres de singe, mais dans mon bras au lieu de mon genou, et ça ne diminue pas quand je reste immobile. »

À partir de ce point de départ, nous avons pu commencer à nous orienter vers un traitement permettant une prise en charge efficace de sa douleur. Parfois, les mots fonctionnent mieux que les chiffres.

The Conversation

Joshua Pate a reçu des honoraires pour des conférences sur la douleur et la physiothérapie. Il perçoit des droits d'auteur pour des livres pour enfants.

Dale Langford a reçu des honoraires et un soutien à la recherche de la part du réseau ACTTION (Analgesic, Anesthetic, and Addiction Clinical Trials, Translations, Innovations, and Opportunities Network), un partenariat public-privé avec la Food & Drug Administration des États-Unis. Elle a également bénéficié du soutien des National Institutes of Health américains.

Tory Madden travaille pour l'université du Cap, où elle dirige l'African Pain Research Initiative (Initiative africaine de recherche sur la douleur). Elle bénéficie d'un financement des National Institutes of Health (Instituts nationaux de la santé) américains. Elle est affiliée à l'université d'Australie du Sud, à la KU Leuven et à l'organisation à but non lucratif Train Pain Academy.

18.11.2025 à 13:28

Douleurs chroniques : en France, elles concerneraient plus de 23 millions de personnes

Nicolas Authier, Professeur des universités, médecin hospitalier, Inserm 1107, CHU Clermont-Ferrand, Président de la Fondation Institut Analgesia, Université Clermont Auvergne (UCA)
La douleur chronique constitue un fardeau immense pour les millions de personnes qui en souffrent, ainsi que pour l’ensemble de la société. Mais il demeure malheureusement encore trop peu visible.
Texte intégral (2340 mots)

En France, selon une enquête de la fondation Analgesia, 23,1 millions de personnes vivent avec des douleurs chroniques. Seul un tiers d’entre elles voit sa situation s’améliorer grâce à une prise en charge, faute de traitement adapté notamment. Un lourd fardeau qui pèse non seulement sur les individus, mais aussi sur l’ensemble de la société. Pour l’alléger, il faut faire de la lutte contre les douleurs chroniques une grande cause nationale.


Imaginez vivre avec une douleur constante, jour après jour, sans espoir de soulagement. Pour des millions de personnes en France, c’est la réalité de la douleur chronique, une expression désignant une douleur récurrente, qui persiste au-delà de trois mois consécutifs, et qui a des conséquences physiques, morales et sociales importantes.

Cette maladie invisible a un impact très important sur la qualité de vie, et représente un défi non seulement pour notre système de santé, mais aussi pour l’ensemble de la société, car ce fardeau majeur n’est pas sans conséquence sur le plan économique.

Agréée par le ministère de l’enseignement supérieur et de la recherche, la fondation Analgesia, à travers son Observatoire français de la douleur et des antalgiques, a réalisé en début d’année 2025, avec la société OpinionWay, une enquête nationale auprès de 11 940 personnes représentatives de la population générale française adulte.

L’objectif était d’évaluer la prévalence des douleurs chroniques en France, leur caractérisation et leurs répercussions sur leur qualité de vie. Voici ce qu’il faut en retenir.

Quatre personnes sur dix en France concernées par la douleur chronique

Contrairement à la douleur aiguë, qui a une fonction de signal d’alarme permettant de prendre les mesures nécessaires face à un événement qui représente un danger pour le corps humain (fracture, brûlure, coupure, piqûre, etc.), la douleur chronique n’a pas d’utilité. Elle présente uniquement des répercussions délétères chez le patient.

Très schématiquement, les douleurs chroniques sont fréquemment dues à un foyer douloureux dit « périphérique », car affectant le système nerveux périphérique – c’est-à-dire les parties du système nerveux situées à l’extérieur du système nerveux central, constitué par le cerveau et la moelle épinière.

Les nombreux signaux douloureux qui inondent le cerveau modifient son comportement : il y devient plus sensible (on parle de sensibilisation centrale), et leur traitement ne se fait plus correctement. Dans cette situation, la modulation de la douleur, qui passe en temps normal par des voies neurologiques dites « descendantes » (du cerveau vers la périphérie), dysfonctionne également. L’activité de l’ensemble du système nerveux se modifie, de manière persistante : tout se passe comme si au lieu d’atténuer la réponse aux signaux douloureux, cette dernière devenait plus intense.

Une douleur aiguë intense non contrôlée, une lésion nerveuse résultant d’une opération chirurgicale ou d’un traumatisme, une anxiété de fond ou une altération du sommeil consolident aussi cette sensibilisation centrale. Plusieurs mécanismes physiopathologiques peuvent expliquer l’installation de ces douleurs « maladie ».

Une lésion postopératoire peut induire une douleur neuropathique (due à un dysfonctionnement du système nerveux plutôt qu’à une stimulation des récepteurs de la douleur), une hyperexcitabilité centrale sans inflammation ou lésion évidente peut induire une fibromyalgie ou un syndrome de l’intestin irritable. Une inflammation persistante, comme dans les lésions articulaires (arthropathies) d’origine inflammatoires ou les tendinopathies (maladies douloureuses des tendons), abaisse également les seuils d’activation des récepteurs du message douloureux.

Les douleurs chroniques ont de lourdes répercussions sur les patients, puisqu’elles affectent non seulement leurs capacités physiques et mentales, mais aussi leurs vies professionnelles et familiales. Au point que certains d’entre eux, dont les douleurs sont réfractaires, c’est-à-dire rebelles à tous les traitements, en arrivent parfois à demander une assistance à mourir.

L’analyse des données recueillies par l’Observatoire français de la douleur et des antalgiques indique qu’en France, plus de 23 millions de Français, majoritairement des femmes (57 %), vivraient avec des douleurs, la plupart du temps depuis au moins trois mois.

Sur le podium des douleurs les plus fréquentes figurent les douleurs musculo-squelettiques, dont l’arthrose ou les lombalgies ; les différentes céphalées, dont les migraines ; et les douleurs abdominales, dont l’intestin irritable ou l’endométriose.

Avec un âge moyen de 46 ans, la tranche d’âge des 35-64 ans représente 51 % de la population souffrant de douleurs chroniques. Près de 36 % sont inactifs sur le plan professionnel.

Cette maladie chronique est un fardeau d’autant plus lourd qu’il est très mal pris en charge : seul un tiers des patients se dit satisfait de ses traitements.

Un défaut de prise en charge

Près d’un patient sur deux évalue l’intensité de sa douleur à 7 ou plus sur une échelle de 1 à 10, c’est-à-dire une douleur chronique sévère, et 44 % en souffrent depuis plus de trois années.

Au cours des six mois précédant la réalisation de l’enquête, moins d’un patient sur trois avait vu ses symptômes s’améliorer. Par ailleurs, plus d’un tiers des patients interrogés présentent un handicap fonctionnel modéré à sévère et la moitié déclare des qualités physiques et mentales altérées.

Lorsqu’on les interroge sur leur prise en charge, seuls 37 % des patients s’en disent satisfaits. L’un des problèmes est que les traitements disponibles sont rarement spécifiques de la douleur concernée. Ils réduisent le plus souvent partiellement l’intensité des symptômes, mais n’ont pas toujours un impact significatif sur le fardeau que représente cette maladie dans la vie des malades.

Le paracétamol, les anti-inflammatoires et les opioïdes (morphine et dérivés) sont les trois sortes de médicaments prescrits pour traiter les douleurs chroniques. Signe d’un soulagement insuffisant, 87 % des patients rapportent pratiquer l’automédication pour tenter d’atténuer leurs souffrances.

Un coût sociétal important

En raison de leur prévalence élevée dans la société, les douleurs chroniques ont un coût estimé à plusieurs milliards d’euros par an, si l’on ajoute aux dépenses de santé nécessaires à leur prise en charge les conséquences économiques de la perte de productivité qu’elles entraînent.

Une étude datant de 2004 évaluait le coût total moyen annuel par patient à plus de 30 000 d’euros. Ce chiffre souligne l’impact économique considérable de cette condition, qui dépasse son coût direct pour le système de santé.

Ainsi, les arrêts de travail des personnes souffrant de douleurs chroniques sont cinq fois plus fréquents que ceux de la population générale. En outre, la durée moyenne cumulée des arrêts de travail de 45 % des patients douloureux chroniques dépasse quatre mois par an.

Une autre étude épidémiologique, menée en 2010, auprès de plus de 15 000 personnes adultes en France, a permis d’évaluer l’impact de la douleur sur les situations professionnelles et sur l’utilisation des systèmes de soins. Elle montre que les patients souffrant de douleurs chroniques consultent deux fois plus souvent que les autres.

En extrapolant cette année-là à la population générale, ce sont 72 millions de consultations supplémentaires par an qui sont dues aux douleurs chroniques, ce qui représente un surcoût annuel évalué à 1,16 milliard d’euros. Ces travaux révélaient aussi que l’absentéisme dû à ces douleurs représentait alors 48 millions de journées de travail perdues par an, à l’échelon national.

À la recherche du « mieux vivre avec » plutôt que du « zéro douleur »

L’évaluation et le traitement d’un patient souffrant de douleur chronique nécessitent de considérer simultanément les facteurs biologiques, psychologiques et sociaux, sans faire montre d’aucun a priori quant à l’importance relative de chacun, selon le modèle médical dit « biopsychosocial ».

« Il est temps que chaque patient ait accès à un parcours de soins digne, sans errance ni abandon », souligne Audrey Aronica, présidente de l’Association francophone pour vaincre la douleur (AFVD).

Seuls quatre patients sur dix bénéficient d’une prise en charge pluriprofessionnelle pour leur douleur chronique. Si, on l’a vu, seuls 37 % des patients se disent satisfaits de leur prise en charge, ce chiffre s’élève significativement lorsque les personnes sont suivies par une structure spécialisée dans la douleur chronique : on atteint alors 47 % de satisfaits.

La satisfaction est plus faible pour certaines douleurs comme la fibromyalgie, l’endométriose, les douleurs liées au cancer ainsi que les douleurs inflammatoires ou neuropathiques.

L’objectif thérapeutique pour une personne souffrant de douleur chronique est rarement la rémission totale ou la guérison de cette maladie. En douleur chronique, se donner comme objectif la résolution totale de la douleur est souvent irréaliste et parfois même contre-productif, menant souvent à des escalades thérapeutiques potentiellement délétères. Cela aboutit fréquemment à la prescription, sur une longue durée, de médicaments opioïdes (morphine ou équivalents), alors que ceux-ci ne sont pas recommandés pour toutes les douleurs. Avec le risque de développer une dépendance à ces traitements.

Face aux douleurs chroniques, le but de la prise en charge est essentiellement réadaptatif (mieux vivre avec sa douleur). L’objectif est de faire diminuer la douleur à un niveau acceptable pour le patient, et d’améliorer des capacités fonctionnelles et de la qualité de vie du patient. La réadaptation est éminemment centrée sur la personne, ce qui signifie que les interventions et l’approche choisies pour chaque individu dépendent de ses objectifs et préférences.

Il peut également être intéressant de favoriser la promotion de thérapeutiques non médicamenteuses scientifiquement validées comme la neuromodulation – technique qui consiste à envoyer, au moyen d’électrodes implantées par exemple sur la moelle épinière du patient, des signaux électriques visant à moduler les signaux de douleur envoyés au cerveau.

Les « thérapies digitales » qui accompagnent le développement de la « santé numérique » peuvent aussi s’avérer intéressantes. Elles rendent en effet accessibles, à l’aide d’applications consultables sur smartphone, un contenu scientifiquement validé ainsi que des approches complémentaires, psychocorporelles, qui permettent de mieux gérer la douleur et de réduire ses répercussions négatives au quotidien sur la qualité de vie des patients : fatigue, émotions négatives, insomnie, baisse de moral, inactivité physique.

Une grande cause nationale pour combattre le fardeau des douleurs chroniques

Pour améliorer la situation, il est essentiel que les autorités s’emparent du sujet de la lutte contre les douleurs chroniques en le déclarant « grande cause nationale ». L’attribution de ce label permettrait de mieux communiquer sur ce grave problème, et de soutenir et coordonner les efforts de recherche.

« Les résultats du baromètre Douleur 2025 obligent notre collectivité nationale à une réponse sanitaire de grande ampleur », selon le Dr Éric Serra, président de la Société française d’étude et de traitement de la douleur (SFETD).

Parmi les autres objectifs à atteindre, citons la sanctuarisation d’un enseignement de médecine de la douleur plus conséquent dans les études médicales, le financement ciblé de programmes de recherche nationaux, la mise en application concrète d’initiatives permettant de réduire les délais d’accès aux soins spécialisés et de lutter contre les inégalités territoriales ou économiques d’accès à certaines thérapeutiques.

The Conversation

Président de la Fondation Analgesia (fondation de recherche sur la douleur chronique). Président du comité de suivi de l'expérimentation d'accès au cannabis médical de l'Agence Nationale de Sécurité du Médicament et des produits de santé. (ANSM). Membre du conseil d'administration de la Fondation IUD.

17.11.2025 à 16:04

Biodiversité alimentaire, microbiote et bien-être : la recherche explore les liens potentiels

Émeline Roux, Maître de conférences en biochimie alimentaire
Gaëlle Boudry, Chargée de recherche, responsable d’équipe Institut Numecan, Inrae
La recherche s’intéresse de près à la biodiversité alimentaire qui pourrait se révéler précieuse aussi pour la santé mentale, notamment en favorisant des bactéries du microbiote intestinal.
Texte intégral (2198 mots)

Une alimentation variée en termes de diversité d’espèces végétales consommées est essentielle à la santé pour son apport en fibres et en nutriments. La recherche s’intéresse à cette biodiversité alimentaire qui pourrait aussi se révéler précieuse pour le bien-être mental, notamment par l’entremise du microbiote intestinal.


L’industrialisation de l’agriculture et le développement de l’industrie agroalimentaire ont favorisé les monocultures induisant une baisse drastique de la biodiversité alimentaire, depuis le XXe siècle.

Actuellement, douze espèces végétales et cinq espèces animales fournissent 75 % des cultures alimentaires mondiales, selon l’organisation non gouvernementale World Wide Fund (WWF). Et trois espèces végétales sont produites majoritairement dans le monde : le maïs, le blé et le riz, malgré une estimation de plus de 7 000 (peut-être même 30 000) espèces végétales comestibles, rappelle l’Organisation des Nations unies pour l’alimentation et l’agriculture (FAO).

De l’intérêt de la biodiversité alimentaire pour le microbiote intestinal

Il est important de différencier la diversité alimentaire qui représente la consommation de grands groupes alimentaires comme les produits laitiers ou les fruits et les légumes… de la biodiversité alimentaire qui prend en compte chaque espèce biologique (animale et végétale) consommée par un individu.

Par exemple, si un individu mange des carottes, des poivrons et des artichauts, en termes de diversité alimentaire, un seul groupe – celui des légumes – sera comptabilisé, contre trois espèces en biodiversité alimentaire. Or, tous les légumes n’apportent pas les mêmes nutriments et molécules actives. La biodiversité alimentaire est donc importante pour couvrir tous nos besoins.

Une fois ingérés, les aliments impactent notre organisme, et ce, jusqu’au cerveau, notamment via le microbiote intestinal. Le microbiote intestinal représente l’ensemble des microorganismes (bactéries et autres) qui se trouvent dans le tube digestif, en particulier au niveau du côlon. Cela représente un écosystème complexe avec environ 10 000 milliards de microorganismes.

Un microbiote sain et équilibré est caractérisé par une grande diversité bactérienne et la présence de certaines espèces bactériennes. L’état de santé ou l’alimentation peuvent moduler la composition de notre microbiote en quelques jours. Par ailleurs, l’impact de l’alimentation pourrait, après plusieurs mois, se répercuter sur le bien-être mental.

Fibres, microbiote, neurotransmetteurs et bien-être mental

Parmi les molécules de notre alimentation, qui impactent de façon bénéfique notre microbiote, se trouvent les fibres végétales. Ces longues chaînes glucidiques ne sont pas hydrolysées par les enzymes humaines, mais constituent le substrat principal de bactéries importantes du microbiote. En dégradant les fibres, des métabolites sont produits par certaines bactéries (par exemple, Bifidobacterium, Lactobacillus, des espèces du phylum des Bacillota), dont les acides gras à chaîne courte (AGCC) : acétate, propionate et butyrate.

Le butyrate, en particulier, agit sur certains paramètres biologiques et pourrait exercer des effets bénéfiques sur la santé physique et mentale. En effet, le butyrate module la réponse immunitaire par stimulation des cellules immunitaires et exerce une action anti-inflammatoire en augmentant l’expression de certains gènes. Il permet également de diminuer la perméabilité de l’épithélium intestinal et donc de limiter le passage de molécules inflammatoires ou toxiques dans la circulation sanguine.

Par ailleurs, certains neurotransmetteurs comme la sérotonine, l’acide gamma-aminobutyrique (GABA) ou la dopamine sont synthétisés à partir de précurseurs apportés par l’alimentation.

L’augmentation de la concentration des précurseurs suivants aurait un impact positif sur le cerveau :

De l’intérêt de consommer davantage de fibres végétales

Il est recommandé de consommer de 25 grammes à 38 grammes de fibres quotidiennement, apportées via la consommation de végétaux (cf. tableau ci-après). Or la moyenne française en 2015 était inférieure à 18 grammes d’après une étude de Santé publique France.

On soulignera néanmoins que, lorsqu’on souhaite augmenter son apport en fibres, pour éviter les effets indésirables de leur fermentation dans le colon, il est conseillé de les réintroduire progressivement dans son alimentation au cours de plusieurs semaines.

Favoriser aussi un bon ratio oméga-3/oméga-6, vitamines, minéraux, etc.

Enfin, d’autres nutriments jouant un rôle important sur la santé mentale par une action directe sur le cerveau ont aussi une action indirecte en modulant le microbiote intestinal ou en étant précurseurs de métabolites bactériens ayant un effet au niveau du système nerveux central (qui inclut le cerveau).

Ainsi, un ratio équilibré oméga-3/oméga-6 (1 :4) exerce des effets bénéfiques sur le microbiote intestinal. Mais dans l’alimentation occidentale, le ratio est déséquilibré en faveur des oméga-6, ce qui engendre un état inflammatoire.

Les aliments les plus riches en oméga-3 sont issus de végétaux terrestres (l’huile de lin, de colza, etc.) et d’animaux marins (les poissons gras comme le saumon, le maquereau, le hareng, la sardine et l’anchois, etc.), explique l’Agence nationale de sécurité sanitaire (Anses). En revanche, l’huile de tournesol et de pépin de raisin sont très riches en oméga-6, participant ainsi au déséquilibre des apports.

Une alimentation riche en polyphénols (certaines épices, cacao, baies de couleur foncée, artichauts…) confère également des effets bénéfiques anti-inflammatoires via la modification du profil du microbiote intestinal.

Enfin, les vitamines ou minéraux participent aux fonctions de base de l’organisme.

Quels aliments apportent quelles classes de nutriments ?

Une alimentation biodiversifiée permet un apport complet de tous ces nutriments (cf. les recommandations sur le site de l’Anses et du Programme national nutrition santé [PNNS]). Des données existent sur la teneur moyenne en nutriments de ces aliments et leur saisonnalité (site Ciqual). Cependant, les aliments n’apportent pas tous les mêmes classes de nutriments.

Pour donner un exemple concret, un artichaut cuit contient assez de fibres (11 g/100 g) pour satisfaire les besoins journaliers, mais sera pauvre en vitamine C (moins de 0,5 mg/100 g), contrairement au brocoli cuit plus riche en vitamine C (90 mg/100 g), mais assez pauvre en fibre (2,4 g/100 g). Ainsi, la prise en compte de la biodiversité alimentaire est essentielle pour évaluer les apports totaux en ces différents nutriments.

Afin d’avoir un bon état de santé physique et mentale, il est recommandé de diversifier les sources alimentaires pour couvrir l’ensemble des besoins. Cependant, la disponibilité en aliments varie selon les saisons. Le tableau ci-dessous présente quelques propositions d’associations d’aliments de saison pour couvrir nos besoins quotidiens en fibres.

Exemples d’aliments de saison à consommer pour avoir un apport journalier suffisant en fibres totales (Sources : Ciqual et ministère de l’agriculture et de la souveraineté alimentaire)

L’impact des PFAS, pesticides et perturbateurs endocriniens à ne pas négliger

A contrario, l’organisme est impacté négativement par d’autres facteurs, comme l’exposome qui représente l’ensemble des expositions environnementales au cours de la vie.

Ainsi, les xénobiotiques (par exemple, les pesticides), qui impactent la croissance et le métabolisme des bactéries du microbiote intestinal, qui, en retour, peut bioaccumuler ou modifier chimiquement ces composés. Les aliments issus de l’agriculture biologique contiennent beaucoup moins de xénobiotiques et sont donc recommandés.

Enfin, l’utilisation d’ustensiles de cuisine en plastique ou en téflon, entre autres, peut notamment engendrer la libération de perturbateurs endocriniens ou de polluants persistants (comme les substances per- et polyfluroalkylées PFAS) qui vont se bioaccumuler dans les bactéries du microbiote intestinal. De ce fait, il est recommandé de limiter leur utilisation au profit d’autres matériaux alimentaires (inox, verre).

Différentes molécules et facteurs impactant le microbiote intestinal et susceptibles d’agir sur le bien-être mental

Adopter une alimentation variée est donc essentiel pour couvrir les besoins nutritionnels à l’échelle moléculaire, et cela impacte de manière bénéfique la santé physique mais aussi mentale, notamment via le microbiote.

Toutefois, il est important de prendre soin de son alimentation sans tomber dans une anxiété excessive, qui pourrait engendrer des troubles alimentaires et nuire finalement au bien-être global, la notion de plaisir restant essentielle dans l’alimentation.


Déborah Maurer Nappée (étudiante en master 2 Nutrition et sciences des aliments de l’Université de Rennes) a contribué à la rédaction de cet article.

The Conversation

ROUX Emeline a reçu un financement de la Fondation de l'Université de Rennes, chaire Aliments et bien-manger.

Gaëlle Boudry ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

17.11.2025 à 16:04

Château de Chambord : pourquoi les Français financent-ils « leur » patrimoine ?

Aurore Boiron, Maîtresse de conférences en Sciences de Gestion et du Management, Université d’Orléans
En deux mois, la collecte pour restaurer Chambord a largement dépassé son objectif. Que révèle ce succès sur les liens des contributeurs avec leur patrimoine ?
Texte intégral (1652 mots)

La campagne de financement participatif des travaux du château de Chambord est un vrai succès. Que dit cette réussite de l’intérêt des Français pour le patrimoine ? Les résultats obtenus sont-ils transposables à d’autres monuments ? Ou faut-il craindre que ces campagnes pour des édifices d’intérêt national ne détournent le public d’opérations moins ambitieuses mais indispensables ?


Le domaine national de Chambord (Loir-et-Cher), deuxième château le plus visité de France après celui de Versailles (Yvelines), a fermé l’accès à l’aile François Ier. Fragilisée par le temps et le climat, cette partie du monument nécessite des travaux de restauration estimés à 37 millions d’euros.

Bien que disposant d’un modèle économique solide, le domaine ne peut absorber seul un tel coût. Aux côtés du mécénat, Chambord a choisi de mobiliser aussi le grand public en lançant, le 19 septembre 2025, une campagne de financement participatif à l’occasion des Journées européennes du patrimoine. Intitulée « Sauvez l’aile François Ier, devenez l’ange gardien de Chambord », elle visait à collecter 100 000 euros.

Deux mois plus tard, la collecte a déjà dépassé l’objectif initial, atteignant 218 139 euros grâce aux 2 191 dons, déclenchant un nouveau palier à 300 000 euros. Ce succès interroge : pourquoi des citoyens choisissent-ils de contribuer à la restauration d’un monument déjà emblématique soutenu par l’État et par des mécènes privés ?


À lire aussi : Culture : faut-il mettre à contribution les touristes étrangers pour mieux la financer ?


Un mode de financement à géométrie variable

Le cas de Chambord n’est pas isolé. Le financement participatif consacré au patrimoine est devenu une pratique courante en France, malgré de fortes fluctuations. Selon le baromètre du financement participatif en France, 1,4 million d’euros ont été collectés en 2022, 5,7 millions en 2023, puis seulement 0,8 million en 2024. Les raisons de ces écarts restent à documenter, mais ces chiffres révèlent un mode de financement ponctuel, voire incertain.

Ce mode de financement repose sur les dons principalement en ligne des citoyens. Il ne remplace ni l’argent public ni le mécénat d’entreprise, mais les complète, parfois même symboliquement. Dans certains cas, il joue un rôle de déclencheur. En effet, en apportant la preuve d’une mobilisation locale, la participation citoyenne peut débloquer des subventions publiques conditionnées à cet engagement. En partenariat avec certaines régions, la Fondation du patrimoine peut ainsi apporter une bonification à la souscription, comme ce fut le cas pour la restauration de l’église de Sury-en-Vaux (Cher) dans le Sancerrois.

Les projets financés sont divers : restauration d’églises rurales, sauvegarde de moulins, mise en valeur de jardins historiques, consolidation de lavoirs… Cette diversité reflète la richesse du patrimoine français, mais aussi sa fragilité et le besoin constant de mobilisation pour sa préservation.

Une question de proximité

Des recherches menées en région Centre-Val de Loire montrent que la décision de contribuer repose sur divers éléments, notamment sur le lien, appelé proximité, entre le contributeur et le bien patrimonial. Les donateurs entretiennent souvent un lien particulier avec le monument qu’ils soutiennent. Ce lien est d’abord géographique. Il peut être lié au lieu de résidence, mais aussi à des séjours passés, des vacances ou encore des visites. Il n’implique donc pas toujours d’habiter à proximité.

Il est aussi affectif. Certains contributeurs expriment un attachement direct au bien patrimonial, car ce monument peut évoquer des origines familiales, des souvenirs personnels ou susciter une émotion particulière. D’autres s’y intéressent de manière plus indirecte, parce qu’il incarne, au même titre que d’autres biens, une identité territoriale ou encore une passion pour le patrimoine en général.

Chambord cumule les atouts

La campagne de Chambord se distingue des projets plus modestes. Contrairement à une petite église de village ou à un lavoir communal, ce château touristique active simultanément plusieurs types de liens, ce qui explique en partie son potentiel de mobilisation exceptionnelle. Les premiers témoignages de participants à la campagne de Chambord illustrent ces logiques de proximité.

Chambord est un marqueur d’identité territoriale fort, dont le lien géographique et affectif fonctionne à plusieurs échelles. Chambord est avant tout un symbole du patrimoine culturel français. Pour de nombreux contributeurs, soutenir cette restauration vise à préserver un emblème de la France et de son rayonnement culturel.

« Tout comme Notre-Dame de Paris, c’est un symbole de notre patrimoine que nous devons préserver », souligne Julie.

« Ce patrimoine exceptionnel contribue au rayonnement de la France à travers le monde », précise Benjamin.

Ce sentiment d’appartenance ne s’arrête pas au niveau national. Chambord est aussi un marqueur d’identité territoriale locale. Pour les habitants du Loir-et-Cher et de la région Centre-Val de Loire, Chambord est « leur » château, le fleuron de leur territoire, comme le confie un autre donateur anonyme.

« J’habite à proximité du château de Chambord et le domaine est mon jardin ! »

Cette capacité à créer un sentiment élargi d’appartenance géographique multiplie considérablement le potentiel de contributeurs.

Passion pour l’histoire

Ce lien affectif indirect s’exprime également lorsqu’il est nourri par une passion pour l’histoire ou pour le patrimoine en général. Ces passionnés ne soutiennent pas Chambord parce qu’ils y ont des souvenirs personnels, mais parce qu’il incarne, à leurs yeux, l’excellence de l’architecture française, le génie de la Renaissance ou l’héritage culturel commun. Leur engagement s’inscrit dans une forme d’adhésion à l’idée même de sauvegarder le patrimoine.

C’est le cas de Carole,

« passionnée d’histoire, je souhaite participer à la conservation d’un patrimoine qui doit continuer à traverser les siècles pour que toutes les générations futures puissent en profiter et continuer cette préservation unique ».

Au-delà de l’identité territoriale nationale ou locale ou encore de la passion patrimoniale, les commentaires des contributeurs expriment un lien affectif direct avec le monument. L’état alarmant de Chambord réveille des émotions patrimoniales profondes, liées aux valeurs que le monument incarne, comme la beauté et la grandeur.

« Personne ne peut rester insensible à la beauté de ce château », estime Dorothée.

France 3 Centre Val-de-Loire, 2025.

Urgence et souvenirs

L’urgence de la restauration suscite également une forme de tristesse et d’inquiétude,

« C’est très triste de voir un tel chef-d’œuvre en péril », pour Mickaël.

Ce lien affectif direct s’exprime également à travers l’évocation de souvenirs personnels, témoignant d’une identité singulière attachée au lieu, comme la sortie scolaire inoubliable, la visite en famille ou entre amis, les vacances familiales ou encore la découverte émerveillée de l’escalier à double révolution.

Cette accumulation de liens entre le bien patrimonial et les contributeurs explique en partie pourquoi Chambord peut viser un objectif au-delà des 100 000 euros, là où la plupart des projets patrimoniaux se contentent de quelques dizaines de milliers d’euros. Tous les monuments ne disposent pas des mêmes atouts.

L’exemple de Chambord montre la force de l’attachement des Français au patrimoine. Il illustre aussi à quel point la réussite d’un financement participatif patrimonial repose en partie sur une bonne compréhension des liens géographiques et affectifs qui unissent les citoyens à un monument.

Ce succès interroge. Le recours au don pour les « monuments stars » comme Chambord ne risque-t-il pas de détourner l’attention des patrimoines plus fragiles et moins visibles, ou au contraire de renforcer la sensibilisation des Français à leur sauvegarde ? Dans ce contexte, le ministère de la culture, sous l’impulsion de Rachida Dati, explore l’idée d’un National Trust à la française, inspiré du modèle britannique, pour soutenir l’ensemble du patrimoine.

The Conversation

Aurore Boiron ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

17.11.2025 à 16:03

Miné par l’inflation, le Japon a-t-il vraiment fait un virage à droite avec sa nouvelle première ministre ?

Arnaud Grivaud, Maître de conférences, spécialiste de la politique japonaise contemporaine, Université Paris Cité
Première femme à diriger le Japon, la très conservatrice Takaichi Sanae prend les rênes du pays au moment où celui-ci est confronté à de sérieuses difficultés économiques.
Texte intégral (2756 mots)

*Pour la première fois, une femme se trouve à la tête du gouvernement au Japon. Un apparent progrès sociétal qui, pour autant, n’est pas synonyme de progressisme, au vu de ses opinions ultraconservatrices. Le gouvernement de Sanae Takaichi va avant tout devoir relever le défi de l’inflation qui frappe les foyers japonais… et, pour cela, peut-être assouplir certaines de ses positions. *


Le 4 octobre 2025, Sanae Takaichi remportait les élections internes à la présidence du Parti libéral-démocrate (PLD). Après deux semaines de suspense marquées par de multiples tractations et recompositions des alliances, elle est devenue, le 21 octobre, la première femme à se retrouver à la tête d’un gouvernement au Japon. Depuis, nombreux ont été les articles de presse à l’étranger soulignant le caractère historique de cet événement dans un pays que le pourcentage de femmes au Parlement place à la 141ᵉ position sur 193 dans le classement de l’Union interparlementaire, tout en rappelant à juste titre les positions très conservatrices de la nouvelle dirigeante, notamment sur les questions sociétales, mais aussi mémorielles).

Ce n’est certes pas la première fois qu’une femme se retrouve à la tête d’un parti politique au Japon. En 1986, Takako Doi devenait en effet la secrétaire générale du Parti socialiste (jusqu’en 1991 puis de 1996 à 2003) ; elle est aussi la première et seule femme à avoir été présidente de la Chambre basse (1993-1996). Néanmoins, Mme Takaichi est bien la première à devenir cheffe de gouvernement.

Un parcours classique de femme politique dans un monde d’hommes

Afin d’expliquer cette nomination, on peut commencer par lui reconnaître une habileté certaine en politique et une bonne maîtrise des stratégies communicationnelles.

À l’instar de l’actuelle gouverneure de Tokyo, Yuriko Koike, et de plusieurs autres femmes politiques japonaises, elle a été un temps présentatrice télé avant sa première élection à la Diète (Parlement japonais) en 1993.

Elle a ensuite navigué entre plusieurs partis politiques avant de s’arrimer au PLD et de se rapprocher de son aile droite, en particulier de l’ancien premier ministre Shinzō Abe (2012-2020, assassiné en 2022).

À plus d’un titre, Sanae Takaichi, 64 ans aujourd’hui, a en réalité mené une carrière typique… d’homme politique. Elle a progressivement gravi les échelons au sein d’un parti qui, malgré quelques évolutions, privilégie encore largement l’ancienneté (son principal adversaire, Shinjirō Koizumi, âgé de 44 ans, en a sûrement fait les frais). Elle n’a, par ailleurs, jamais eu à concilier maternité et vie professionnelle, contrairement à bien des Japonaises (les enfants de son mari, ancien parlementaire du PLD, étaient déjà âgés quand ils se sont mariés en 2004).

Gouvernement japonais posant en rang sur les marches de l’escalier
Sanae Takaichi (au centre, au premier rang), pose lors d’une séance photo avec les membres de son gouvernement à Tokyo, le 21 octobre 2025. Cabinet Public Affairs Office, CC BY-NC-SA

Le pari du PLD pour redynamiser son image

Mais l’arrivée de Mme Takaichi à la tête du PLD résulte avant tout d’un pari réalisé par une frange du parti (notamment par certains de ses caciques autrefois proches de Shinzō Abe, comme Tarō Asō) pour remédier aux récentes défaites électorales subies d’abord à la Chambre basse en 2024, puis à la Chambre haute en 2025.

En faisant d’elle le nouveau visage du parti, les objectifs étaient multiples. Il s’agissait tout d’abord de redonner une image dynamique à un PLD frappé par plusieurs scandales (liens avec la secte Moon, financements de campagne illégaux, etc.), ce que les trois précédents premiers ministres (2020-2025), aux styles parfois très austères, avaient peiné à réaliser.

Cette personnalisation de la politique n’est pas nouvelle au Japon, mais il est clair, depuis les années 2000, que la figure et le style du premier ministre ont désormais un impact déterminant sur les résultats électoraux du parti. Les cadres du PLD, conscients que leur destin est étroitement lié à la perception que l’opinion publique a de leur chef, n’hésitent pas à mettre entre parenthèses leurs éventuels désaccords et leurs luttes intrapartisanes.

Bien entendu, le parti n’avait aucun doute quant au fait que la candidate avait la ferme intention de ne surtout rien changer en substance concernant la gouvernance du PLD ou les règles de financement de campagne – en dépit du slogan et mot-dièse #KawareJimintō (#ChangePLD !) utilisé dans les réseaux sociaux officiels du parti lors de cette élection à la présidence.

Ainsi, Sanae Takaichi sait également qu’elle doit cette élection à la tête du parti au soutien de personnages essentiels qui n’hésiteront pas à la pousser vers la sortie s’ils estiment qu’elle les dessert plus qu’elle ne les sert. Elle qui a plusieurs fois évoqué son admiration pour Margaret Thatcher doit sûrement se rappeler de la violence et de la rapidité avec laquelle le Parti conservateur britannique avait évincé la Dame de fer. Elle a conscience que seules de multiples victoires électorales pourraient lui permettre de consolider sa place à la tête du parti. C’est ce qui avait permis à son autre modèle, Shinzō Abe, de battre le record de longévité au poste de premier ministre (sept ans et huit mois).

C’est justement sur ce point que Mme Takaichi a su convaincre son parti. L’un de ses atouts évidents réside dans le fait qu’elle semblait être la seule à pouvoir potentiellement capter la fraction de l’électorat qui s’était tournée vers le parti d’extrême droite Sanseitō aux dernières élections à la Chambre haute (il y avait obtenu 14 sièges).

En ce sens, contrairement aux élections à la présidence du PLD de 2021 et 2024 où elle avait terminé respectivement troisième puis seconde, sa candidature arrivait cette fois-ci à point nommé puisque, sur bien des sujets, ses positions très conservatrices sont alignées sur celles du Sanseitō (par exemple sur les questions migratoires).

Une redéfinition des alliances : le « virage à droite »

Par ailleurs, ce « virage à droite » peut aussi être vu comme une manifestation du mouvement de balancier (furiko no genri) observé depuis longtemps au sein du PLD, qui consiste en une alternance à sa tête entre des figures tantôt plus libérales, tantôt plus conservatrices.

Ce phénomène, qualifié d’« alternance factice » (giji seiken kōtai) par les spécialistes, est souvent invoqué comme explication de l’extraordinaire longévité de la domination du PLD (soixante-cinq années au pouvoir entre 1955 et 2025) ; il donnerait en effet à l’électeur la vague impression d’un changement sans pour autant qu’une autre force politique s’empare du pouvoir.

Cela étant dit, certaines choses ont d’ores et déjà changé. À la suite de la nomination de Mme Takaichi à la présidence du PLD, le Kōmeitō, parti bouddhiste qui formait avec lui une coalition depuis vingt-six ans (1999), a décidé d’en sortir. Officiellement, le Kōmeitō a expliqué son geste par le refus de la première ministre de réguler davantage les dons réalisés par les entreprises aux partis politiques (le PLD perçoit la quasi-totalité des dons faits par des entreprises au Japon).

Cependant, on peine à voir pourquoi cette réforme deviendrait aussi soudainement une condition sine qua non de sa participation au gouvernement alors que le Kōmeitō a, au cours de cette dernière décennie, fait des concessions que son électorat – par ailleurs très féminin et essentiellement composé des membres de la secte Sōka gakkai – a eu bien du mal à digérer, notamment la réforme de 2015 qui a élargi les cas dans lesquels les Forces d’autodéfense japonaises peuvent intervenir à l’étranger. C’est en réalité plutôt là que se trouve la raison pour laquelle ce parti, pacifiste et présentant une fibre plus « sociale », a décidé de quitter cette alliance qui ajoutait désormais à l’inconvénient d’être une coalition minoritaire avec un PLD affaibli, celui d’opérer un virage à droite qui n’allait pas manquer de crisper ses soutiens.

Mais, alors que la situation du PLD semblait encore plus critique – au point que l’élection de sa présidente comme première ministre devenait très incertaine –, Nippon Ishin no kai, le parti de la restauration du Japon, est venu à sa rescousse.

Ce parti, dont l’assise électorale se concentre dans la région d’Ōsaka, était demeuré dans l’opposition depuis sa création en 2015. Pour autant, en dehors de son ancrage local, il ne se distinguait pas vraiment du PLD sur le plan idéologique et votait de fait en faveur de la plupart de ses projets de loi. Son président, l’actuel gouverneur d’Ōsaka Hirofumi Yoshimura, suit, tout comme son fondateur Tōru Hashimoto, avocat devenu célèbre sur les plateaux de télévision, une ligne néolibérale et sécuritaire, saupoudrée de déclarations populistes anti-establishment, nationalistes et parfois clairement révisionnistes.

La compatibilité avec le PLD, désormais menée par Sanae Takaichi, n’a probablement jamais été aussi grande. Le parti a néanmoins pris la précaution de ne pas intégrer le gouvernement, et il sait qu’en dépit du fait qu’il ne possède qu’une trentaine de sièges à la Chambre basse (environ 7 %), il est celui qui peut à tout moment le faire tomber (le PLD occupe à l’heure actuelle 196 sièges, sur les 465 de la Chambre basse).

De la Dame de fer à la Dame d’étain ?

Pour autant, doit-on s’attendre à ce que ces nouvelles alliances accouchent d’importantes évolutions au niveau des politiques publiques ? C’est plus qu’improbable.

Même sur la question migratoire, Mme Takaichi ne pourra pas revenir sur la politique volontariste engagée en 2019 par Shinzō Abe lui-même, lequel avait bien été obligé d’accéder aux doléances du monde économique (soutien indispensable du PLD) confronté à une pénurie de main-d’œuvre dans plusieurs secteurs (construction, hôtellerie, etc.). Le pays comptait en 2024 environ 3,6 millions d’étrangers sur son sol (3 % de la population totale), dont environ 56 % ont entre 20 ans et 39 ans. Plus de 23 % sont Chinois, 17 % Vietnamiens et 11 % Sud-Coréens. Bien que ces chiffres soient relativement modestes, il convient de rappeler que la population immigrée au Japon a augmenté de 69 % au cours de ces dix dernières années.

Bien sûr, tout comme Shinzō Abe, la première ministre ne manquera pas d’afficher sa fermeté et fera peut-être adopter quelques mesures symboliques qui n’auront qu’un impact numérique marginal.

Elle pourrait certes avoir les coudées plus franches si elle décidait de dissoudre la Chambre basse et remportait ensuite une large victoire électorale qui redonnerait à son parti une confortable majorité. Son taux de soutien actuel dans l’opinion publique (autour de 70 %), et les prévisions favorables au PLD concernant le report des votes des électeurs du Sanseitō, du parti conservateur et du parti de la restauration du Japon (environ 25 % de report vers le PLD), pourraient bien l’inciter à adopter cette stratégie.

Cependant, ce soutien dans l’opinion (notamment chez les jeunes où le taux atteint les 80 %) n’est guère le produit de ses positions conservatrices, mais plus le résultat d’une communication – aussi redoutable que superficielle – qui fait espérer un renouveau. C’est bien plus sur l’amélioration de la situation économique d’un Japon durement frappé par l’inflation (notamment liée à des importations rendues coûteuses par un yen faible) que la cheffe du gouvernement est attendue.

Ses premières déclarations en tant que première ministre montrent que Mme Takaichi en est bien consciente et qu’elle va par ailleurs devoir assouplir ses positions sur plusieurs thèmes. En somme, la Dame de fer va devoir opter pour un alliage plus malléable.

The Conversation

Arnaud Grivaud ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

17.11.2025 à 16:03

Comment la consommation précoce de pornographie affecte la sexualité des garçons et des filles

Jose Daniel Rueda Estrada, Director programa Master Universitario Trabajo Social Sanitario, UOC - Universitat Oberta de Catalunya
Mario Ramírez Díaz, Trabajador social sanitario, UOC - Universitat Oberta de Catalunya
La pornographie façonne à la fois le désir des enfants et adolescents et la manière dont les jeunes filles se perçoivent comme objets de désir.
Texte intégral (1816 mots)
Les écrans deviennent les premiers vecteurs d’éducation sexuelle des adolescents, exposant filles et garçons à des modèles de désir souvent violents et inégalitaires. Shutterstock

L’exposition des enfants et adolescents à la pornographie commence de plus en plus tôt, souvent avant l’âge de 10 ans, et façonne leur compréhension du désir, du consentement et des relations affectives. Elle influe sur la manière dont les jeunes apprennent à désirer, mais aussi sur celle dont les adolescentes apprennent à être désirées.


Le contact avec la pornographie se produit de plus en plus tôt. En Espagne par exemple, 20 % des adolescents ont accédé à ce type de contenu avant l’âge de 10 ans et plus de 90 % avant l’âge de 14 ans.

(En France, un rapport d’information du Sénat corrobore, en septembre 2022, ces tendances en dénombrant 1,1 million d’adolescents de 15 ans à 18 ans et 1,2 million d’enfants de moins de 15 ans sur 19 millions de visiteurs mensuels uniques de sites pornographiques, ndlr.)

Ces chiffres révèlent une enfance exposée trop tôt à des contenus qui façonnent leur manière de comprendre le désir, le consentement et les relations affectives. Dans un contexte où l’éducation sexuelle approfondie est pratiquement inexistante tant dans les familles qu’à l’école, Internet est devenu le professeur et la pornographie son programme.


À lire aussi : La pornografía miente: por qué no sirve para aprender


Une enfance exposée trop tôt

Les recherches les plus récentes réalisées en Espagne situent le début de la consommation de pornographie entre les âges de 8 ans et 13 ans. Le téléphone portable est le principal dispositif d’accès : il permet une consommation privée, immédiate et difficile à surveiller par l’entourage adulte.

Cet accès continu est dépourvu des filtres familiaux et éducatifs qui pourraient servir d’éléments de protection.

Ce que voient les enfants

L’exposition précoce à des contenus sexuels explicites dans lesquels sont reproduites des attitudes de violence, de domination et de machisme, et la consommation comme pratique intégrée dans la socialisation numérique des adolescents ont pour conséquence que la violence physique, la coercition ou l’humiliation des femmes, loin d’être reconnues comme des agressions, sont interprétées comme des comportements sexuels normaux, voire souhaitables.

Ce sont des contenus et des attitudes qui renforcent les modèles de virilité fondés sur la domination et le rabaissement.

Certains chercheurs ont constaté que les vidéos les plus visionnées comprenaient des scènes de cheveux tirés, de gifles ou d’insultes, et même un viol collectif (avec plus de 225 millions de vues). D’autres recherches ont confirmé que la consommation régulière de pornographie violente est associée à des attitudes de domination et d’agression sexuelle : 100 % des études ont établi un lien entre la pornographie et la violence sexuelle, 80 % avec la violence psychologique et 66,7 % avec la violence physique.

En définitive, à l’adolescence, cette exposition façonne les premières expériences affectives et normalise l’idée selon laquelle le pouvoir, la soumission et la violence font partie du désir

Les filles face au miroir de la violence

Les adolescentes consultent également la pornographie, bien que dans une moindre mesure et dans un contexte marqué par la pression esthétique, les normes de genre et le besoin de validation externe, facteurs qui influencent la manière dont elles construisent leur désir et leur relation avec leur corps.

Cette consommation est souvent vécue avec un malaise ou une ambivalence émotionnelle, et est rarement partagée entre pairs.

La nouvelle pornographie numérique renforce la chosification des femmes, en les présentant comme des instruments du plaisir masculin. Des plateformes, telles qu’OnlyFans, poursuivent cette logique, en commercialisant le corps féminin sous le couvert d’une liberté apparente qui répond à la demande masculine.

Ainsi, les jeunes filles apprennent que la reconnaissance sociale dépend de leur capacité à s’exposer, ce qui génère une socialisation fondée sur l’autosexualisation et le capital érotique.

Cet apprentissage perpétue les injonctions à la soumission et consolide un modèle de désir fondé sur l’inégalité. En conséquence, la pornographie non seulement façonne la manière dont les hommes apprennent à désirer, mais aussi la manière dont les adolescentes apprennent à être désirées.

Une éducation qui arrive trop tard

L’absence d’une éducation sexuelle adéquate est l’un des facteurs qui contribuent le plus à la consommation précoce de pornographie.

Dans le domaine éducatif, il existe toujours un manque de programmes abordant les relations affectives et sexuelles avec sérieux, naturel et dans une approche fondée sur les droits et les valeurs, ce qui favorise l’intériorisation des contenus pornographiques.

De plus, les écoles en Espagne, mais aussi dans d’autres pays, manquent de ressources pour une éducation sexuelle complète et, dans les familles, le silence et le tabou prévalent souvent.

Face à ce manque de repères, la pornographie devient la principale source d’information, annulant des dimensions essentielles de la sexualité telles que l’affection, l’égalité et le respect.


À lire aussi : Habilidades para gestionar los conflictos, clave en las parejas adolescentes


Éducation socio-affective et approche de genre

C’est pourquoi l’éducation socio-affective avec une approche de genre s’est avérée essentielle pour prévenir les effets de la consommation et promouvoir des relations égalitaires.

Intégrer une réflexion sur le consentement, le plaisir et la diversité permet de contrebalancer les messages de domination véhiculés par les écrans et de responsabiliser les adolescents à partir du respect mutuel.

Un défi pour la santé publique

La consommation de pornographie à l’adolescence constitue un problème émergent de santé publique. Ses effets transcendent l’individu et affectent le bien-être émotionnel, la socialisation et la construction des identités de genre, ce qui nécessite une approche préventive et globale de la part du système de santé.

De plus, il est prouvé que l’exposition précoce à des contenus sexuels explicites influence les comportements à risque, les addictions comportementales et la reproduction des inégalités de genre.

D’une question privée à un défi collectif

Les acteurs du travail social jouent un rôle clé en se positionnant entre le système de santé, la société et les familles. De cette position, les travailleurs sociaux peuvent détecter les conséquences psychosociales de la consommation (anxiété, isolement ou attitudes sexistes) et intervenir par des actions éducatives et d’accompagnement.

De même, le travailleur social en santé contribue à la conception de stratégies intersectorielles qui intègrent l’éducation affective et sexuelle dans les soins primaires et favorisent des relations saines dès le plus jeune âge. En fin de compte, accompagner les nouvelles générations vers une sexualité fondée sur l’empathie, le consentement et l’égalité est sa plus grande responsabilité.

La consommation de pornographie n’est plus une question privée, mais un défi collectif. Il ne s’agit pas d’un problème moral, mais d’un problème de santé et d’égalité. Si la pornographie enseigne à désirer avec violence, notre tâche est d’enseigner à désirer avec empathie. En ce sens, éduquer à l’égalité, à l’affection et au consentement n’est pas une option : c’est une urgence sociale.

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.

17.11.2025 à 16:02

Elon Musk a raison de dire que Wikipédia est biaisé, mais Grokipedia et l’IA ne feront pas mieux

Taha Yasseri, Workday Professor of Technology and Society, Trinity College Dublin
Elon Musk veut concurrencer Wikipédia avec Grokipedia, une encyclopédie générée par IA censée corriger les biais de la célèbre plateforme collaborative. Mais l’IA risque surtout de reproduire, voire d’accentuer, les travers que dénonce le magnat de la tech.
Texte intégral (2458 mots)
Musk présente son projet Grokipedia comme une réponse aux « biais politiques et idéologiques » de Wikipédia. Miss Cabul/Shutterstock

Grokipedia, le nouveau projet d’Elon Musk, mis en ligne le 27 octobre 2025, promet plus de neutralité que Wikipédia. Pourtant, les modèles d’IA sur lesquels il repose restent marqués par les biais de leurs données.


La société d’intelligence artificielle d’Elon Musk, xAI, a lancé, le 27 octobre 2025, la version bêta d’un nouveau projet destiné à concurrencer Wikipédia, Grokipedia. Musk présente ce dernier comme une alternative à ce qu’il considère être « le biais politique et idéologique » de Wikipédia. L’entrepreneur promet que sa plateforme fournira des informations plus précises et mieux contextualisées grâce à Grok, le chatbot de xAI, qui générera et vérifiera le contenu.

A-t-il raison ? La problématique du biais de Wikipédia fait débat depuis sa création en 2001. Les contenus de Wikipédia sont rédigés et mis à jour par des bénévoles qui ne peuvent citer que des sources déjà publiées, puisque la plateforme interdit toute recherche originale. Cette règle, censée garantir la vérifiabilité des faits, implique que la couverture de Wikipédia reflète inévitablement les biais des médias, du monde académique et des autres institutions dont elle dépend.

Ces biais ne sont pas uniquement politiques. Ainsi, de nombreuses recherches ont montré un fort déséquilibre entre les genres parmi les contributeurs, dont environ 80 % à 90 % s’identifient comme des hommes dans la version anglophone. Comme la plupart des sources secondaires sont elles aussi majoritairement produites par des hommes, Wikipédia tend à refléter une vision plus étroite du monde : un dépôt du savoir masculin plutôt qu’un véritable panorama équilibré des connaissances humaines.

Le problème du bénévolat

Sur les plateformes collaboratives, les biais tiennent souvent moins aux règles qu’à la composition de la communauté. La participation volontaire introduit ce que les sciences sociales appellent un « biais d’autosélection » : les personnes qui choisissent de contribuer partagent souvent des motivations, des valeurs et parfois des orientations politiques similaires.

De la même manière que Wikipédia dépend de cette participation volontaire, c’est aussi le cas de Community Notes, l’outil de vérification des faits de Musk sur X (anciennement Twitter). Une analyse que j’ai menée avec des collègues montre que sa source externe la plus citée, après X lui-même, est en réalité Wikipédia.

Les autres sources les plus utilisées se concentrent elles aussi du côté des médias centristes ou orientés à gauche. Elles reprennent la même liste de sources « approuvées » que Wikipédia ; c’est-à-dire précisément le cœur des critiques de Musk adressées à l’encyclopédie ouverte en ligne. Pourtant, personne ne reproche ce biais à Musk.

Le profil X d’Elon Musk
Illustration des Community Notes. Tada Images

Wikipédia reste au moins l’une des rares grandes plateformes à reconnaître ouvertement ses limites et à les documenter. La recherche de la neutralité y est inscrite comme l’un de ses cinq principes fondateurs. Des biais existent, certes, mais l’infrastructure est conçue pour les rendre visibles et corrigibles.

Les articles contiennent souvent plusieurs points de vue, traitent des controverses et même consacrent des sections entières aux théories complotistes, comme celles entourant les attentats du 11-Septembre. Les désaccords apparaissent dans l’historique des modifications et sur les pages de discussion, et les affirmations contestées sont signalées. La plateforme est imparfaite mais autorégulée, fondée sur le pluralisme et le débat ouvert.

L’IA est-elle impartiale ?

Si Wikipédia reflète les biais de ses contributeurs humains et des sources qu’ils mobilisent, l’IA souffre du même problème avec ses données d’entraînement. Grokipedia : Elon Musk a raison de dire que Wikipédia est biaisée, mais son alternative fondée sur l’IA ne fera pas mieux

Les grands modèles de langage (LLM) utilisés par Grok sont formés sur d’immenses corpus issus d’Internet, comme les réseaux sociaux, les livres, les articles de presse et Wikipédia elle-même. Des études ont montré que ces modèles reproduisent les biais existants – qu’ils soient de genre, d’ordre politique ou racial – présents dans leurs données d’entraînement.

Musk affirme que Grok a été conçu pour contrer de telles distorsions, mais Grok lui-même a été accusé de partialité. Un test, dans laquelle quatre grands modèles de langage ont été soumis à 2 500 questions politiques, semble montrer que Grok est plus neutre politiquement que ses rivaux, mais présente malgré tout un biais légèrement orienté à gauche (les autres étant davantage marqués à gauche).

Étude montrant des biais dans les LLM
Michael D’Angelo/Promptfoo, CC BY-SA

Si le modèle qui soustend Grokipedia repose sur les mêmes données et algorithmes, il est difficile d’imaginer comment une encyclopédie pilotée par l’IA pourrait éviter de reproduire les biais que Musk reproche à Wikipédia. Plus grave encore, les LLM pourraient accentuer le problème. Ceux-ci fonctionnent de manière probabiliste, en prédisant le mot ou l’expression la plus probable à venir sur la base de régularités statistiques, et non par une délibération entre humains. Le résultat est ce que les chercheurs appellent une « illusion de consensus » : une réponse qui sonne de manière autoritaire, mais qui masque l’incertitude ou la diversité des opinions.

De ce fait, les LLM tendent à homogénéiser la diversité politique et à privilégier les points de vue majoritaires au détriment des minoritaires. Ces systèmes risquent ainsi de transformer le savoir collectif en un récit lisse mais superficiel. Quand le biais se cache sous une prose fluide, les lecteurs peuvent même ne plus percevoir que d’autres perspectives existent.

Ne pas jeter le bébé avec l’eau du bain

Cela dit, l’IA peut aussi renforcer un projet comme Wikipédia. Des outils d’IA contribuent déjà à détecter le vandalisme, à suggérer des sources ou à identifier des incohérences dans les articles. Des recherches récentes montrent que l’automatisation peut améliorer la précision si elle est utilisée de manière transparente et sous supervision humaine.

L’IA pourrait aussi faciliter le transfert de connaissances entre différentes éditions linguistiques et rapprocher la communauté des contributeurs. Bien mise en œuvre, elle pourrait rendre Wikipédia plus inclusif, efficace et réactif sans renier son éthique centrée sur l’humain.

De la même manière que Wikipédia peut s’inspirer de l’IA, la plate-forme X pourrait tirer des enseignements du modèle de construction de consensus de Wikipédia. Community Notes permet aux utilisateurs de proposer et d’évaluer des annotations sur des publications, mais sa conception limite les discussions directes entre contributeurs.

Un autre projet de recherche auquel j’ai participé a montré que les systèmes fondés sur la délibération, inspirés des pages de discussion de Wikipédia, améliorent la précision et la confiance entre participants, y compris lorsque cette délibération implique à la fois des humains et une IA. Favoriser le dialogue plutôt que le simple vote pour ou contre rendrait Community Notes plus transparent, pluraliste et résistant à la polarisation politique.

Profit et motivation

Une différence plus profonde entre Wikipédia et Grokipedia tient à leur finalité et, sans doute, à leur modèle économique. Wikipédia est géré par la fondation à but non lucratif Wikimedia Foundation, et la majorité de ses bénévoles sont motivés avant tout par l’intérêt général. À l’inverse, xAI, X et Grokipedia sont des entreprises commerciales.

Même si la recherche du profit n’est pas en soi immorale, elle peut fausser les incitations. Lorsque X a commencé à vendre sa vérification par coche bleue, la crédibilité est devenue une marchandise plutôt qu’un gage de confiance. Si le savoir est monétisé de manière similaire, le biais pourrait s’accentuer, façonné par ce qui génère le plus d’engagements et de revenus.

Le véritable progrès ne réside pas dans l’abandon de la collaboration humaine mais dans son amélioration. Ceux qui perçoivent des biais dans Wikipédia, y compris Musk lui-même, pourraient contribuer davantage en encourageant la participation d’éditeurs issus d’horizons politiques, culturels et démographiques variés – ou en rejoignant eux-mêmes l’effort collectif pour améliorer les articles existants. À une époque de plus en plus marquée par la désinformation, la transparence, la diversité et le débat ouvert restent nos meilleurs outils pour nous approcher de la vérité.

The Conversation

Taha Yasseri a reçu des financements de Research Ireland et de Workday.

17.11.2025 à 16:02

Collaborations art-science : qui ose vraiment franchir les frontières ?

Karine Revet, Professeur de stratégie, Burgundy School of Business
Barthélémy Chollet, Professeur, Management et Technologie, Grenoble École de Management (GEM)
À l’heure où la science est appelée à jouer un rôle majeur dans la transition écologique et sociale, l’art ne doit plus être considéré comme un simple « emballage esthétique ».
Texte intégral (2171 mots)
Au Getty Museum, à Los Angeles, l’exposition « PST ART: Art & Science Collide » met en avant la coopération entre scientifiques et artistes. Youtube/capture d’écran.

Les collaborations entre scientifiques et artistes font régulièrement parler d’elles à travers des expositions intrigantes ou des performances artistiques au sein de laboratoires scientifiques. Mais qu’est-ce qui motive vraiment les chercheuses et les chercheurs à s’associer à des artistes ?


Art et science se sont historiquement nourris mutuellement comme deux manières complémentaires de percevoir le monde.

Considérons ainsi les principaux instituts états-uniens de sciences marines : tous sont dotés d’ambitieux programmes de collaboration art/science, mis en place à partir du tournant des années 2000. Le prestigieux Scripps Institution of Oceanography a, par exemple, développé une collection d’art privée, ouverte au public, pour « refléter des connaissances scientifiques objectives dans des œuvres d’art à la fois réalistes et abstraites ». À l’Université de Washington, des résidences d’artiste sont organisées, au cours desquelles des peintres passent entre un et trois mois au milieu des scientifiques des Friday Harbor Laboratories (une station de recherche en biologie marine), sur l’île reculée de San Juan.

Ces démarches semblent indiquer que les institutions scientifiques sont déjà convaincues du potentiel de la collaboration entre art et science. L’initiative ne vient pas toujours des laboratoires : nombre d’artistes ou de collectifs sollicitent eux-mêmes les chercheurs, que ce soit pour accéder à des instruments, à des données ou à des terrains scientifiques. En France comme ailleurs, plusieurs résidences – au CNRS, à Paris-Saclay ou dans des centres d’art – sont ainsi nées d’une démarche portée d’abord par les artistes.

Mais qu’en est-il des chercheurs eux-mêmes ? ceux-là même qui conçoivent, développent et réalisent les projets de recherche et qui a priori ont une sensibilité artistique qui n’est ni inférieure ni supérieure à la moyenne de la population. Quels sont ceux qui choisissent d’intégrer l’art dans leurs projets scientifiques ? Et pour quoi faire ? Les études disponibles ne sont pas très éclairantes sur le sujet, car elles se sont focalisées sur des scientifiques atypiques, passionnés par l’art et artistes eux-mêmes. Peu de travaux avaient jusqu’ici procédé à un recensement « tout azimuts » des pratiques.

Dans une étude récente, nous avons recensé les pratiques, des plus originales aux plus banales, en analysant plus de 30 000 projets de recherche financés par la National Science Foundation (NSF) aux États-Unis entre 2003 et 2023, dans les domaines des géosciences et de la biologie.

Une analyse textuelle du descriptif des projets permet de sortir de l’anecdotique pour révéler des tendances structurelles inédites. Cette source comporte toutefois des biais possibles : les résumés de projets sont aussi des textes de communication, susceptibles d’amplifier ou d’édulcorer les collaborations art/science. Pour limiter ces écarts entre discours et réalité, nous combinons analyse contextuelle des termes artistiques, comparaison temporelle et vérification qualitative des projets. Ce croisement permet de distinguer les effets d’affichage des pratiques réellement intégrées.

En France aussi, les initiatives art/science existent mais restent dispersées, portées par quelques laboratoires, universités ou centres d’art, sans base de données centralisée permettant une analyse systématique. Nous avons donc choisi les États-Unis, car la NSF fournit depuis vingt ans un corpus homogène, public et massif de résumés de projets, rendant possible un recensement large et robuste des collaborations art/science.

Trois façons d’associer les artistes

Pour commencer, les collaborations entre art et science sont très rares : moins de 1 % des projets ! Ce chiffre reste toutefois une estimation basse, car il ne capture que les collaborations déclarées par les chercheurs dans des projets financés : nombre d’initiatives impulsées par des artistes ou des collectifs échappent à ces bases de données. En revanche, leur fréquence a augmenté sans discontinuer sur les vingt années d’observation.

En analysant plus finement les projets, on peut identifier que l’artiste peut y jouer trois grands rôles. D’abord, il peut être un disséminateur, c’est-à-dire qu’il aide à diffuser les résultats auprès du grand public. Il ne contribue pas vraiment à la recherche mais joue le rôle d’un traducteur sans qui l’impact des résultats du projet serait moindre. C’est, par exemple, la mise sur pied d’expositions ambulantes mettant en scène les résultats du projet.

Ensuite, l’artiste peut intervenir comme éducateur. Il intervient alors en marge du projet, pour faire connaître un domaine scientifique auprès des enfants, des étudiants, ou de communautés marginalisées. L’objectif est de profiter d’un projet de recherche pour faire connaître un domaine scientifique de manière plus générale et susciter des vocations. Par exemple, l’un des projets prévoyait la collaboration avec un dessinateur de bande dessinée pour mieux faire connaître aux enfants les sciences polaires.

Enfin, dans des cas beaucoup plus rares, les artistes jouent un rôle de cochercheurs. Le recours au travail artistique participe alors à la construction même des savoirs et/ou des méthodes. Par exemple, un des projets réunissait des artistes et des chercheurs en neurosciences pour concevoir de nouvelles façons de visualiser les circuits nerveux du cerveau, et in fine créer de nouvelles formes de données scientifiques.

Ces différentes formes reflètent une tension encore vive dans le monde académique : l’art est majoritairement mobilisé pour « faire passer » la science, plutôt que pour nourrir la recherche elle-même. Pourtant, les projets les plus ambitieux laissent entrevoir un potentiel plus grand : celui d’une science transformée par le dialogue avec d’autres formes de connaissance.

Cette réflexion fait également écho à des considérations plus générales sur la complémentarité entre l’art et la science, non pas comme des disciplines opposées, mais comme deux approches différentes pour questionner le monde. Comme le formulait joliment un article publié dans The Conversation, il s’agit moins d’opposer l’art à la science que de leur permettre de « faire l’amour, pas la guerre », c’est-à-dire de collaborer pour produire de nouvelles formes de compréhension et d’engagement citoyen.

Au-delà de ces différentes façons d’associer les artistes à un projet, notre étude montre également que ces collaborations ne sont pas réparties au hasard. Certains scientifiques les pratiquent bien plus que d’autres, en fonction de leurs caractéristiques personnelles, leur contexte institutionnel et enfin les objectifs scientifiques de leur projet.

Une science plus ouverte… mais pas partout

Première surprise : ce ne sont pas les universités les plus prestigieuses qui s’ouvrent le plus à l’art. Au contraire, ce sont les institutions les moins centrées sur la recherche dite « pure » qui s’y engagent plus largement. Ces établissements s’appuient probablement sur l’art pour conduire des projets plutôt éducatifs, visant essentiellement à faire connaître la science au plus grand nombre.

Deuxième enseignement : les femmes scientifiques sont bien plus nombreuses que leurs homologues masculins à s’engager dans ces démarches. Cette surreprésentation est à rapprocher d’autres résultats montrant que les femmes scientifiques sont en moyenne plus engagées dans les activités de vulgarisation que les hommes – qui, eux, ont tendance à investir plus exclusivement les domaines supposés plus prestigieux, notamment ceux liés à la publication purement académique.

Ce biais de genre, loin d’être anecdotique, soulève des questions sur la manière dont la reconnaissance académique valorise (ou ignore) certains types d’engagement. Incidemment, ce résultat suggère aussi que promouvoir et financer des collaborations entre art et science serait un moyen a priori efficace de rééquilibrer les différences régulièrement constatées entre hommes et femmes.

L’art, catalyseur d’impact sociétal, mais pas sur tous les sujets

Alors que l’on demande de plus en plus aux scientifiques de démontrer l’impact de leurs travaux sur la société, beaucoup se trouvent mal préparés à cette tâche. Peintres, sculpteurs, écrivains, photographes, etc., ont l’habitude de s’adresser à un public large, de captiver l’attention et déclencher les émotions qui garantissent une impression. Leur interprétation du travail et des résultats scientifiques peut ainsi accroître la visibilité des recherches et susciter le changement. On pourrait donc s’attendre à ce que les projets les plus orientés vers des objectifs sociétaux ambitieux aient plus souvent recours aux artistes.

C’est globalement le cas, mais avec toutefois de grosses différences selon les défis sociétaux concernés, que nous avons classés suivants les grands objectifs de développement durable (ODD) édictés par l’ONU. Notamment, la collaboration art/science est bien plus fréquente dans les projets portant sur la biodiversité marine (ODD 14 « Vie aquatique ») que dans ceux axés sur l’action climatique (ODD 13).

Cette différence s’explique probablement en partie par la grande difficulté à rendre visibles ou compréhensibles certains phénomènes plutôt lointains de la vie quotidienne du grand public : l’acidification des océans, la dégradation des écosystèmes marins, etc. Le travail artistique permet de mobiliser les sens, créer des émotions, des narrations, des imaginaires, qui vont faciliter les prises de conscience et mobiliser les citoyens ou les pouvoirs publics. Bref, il va augmenter l’impact sociétal de la recherche sur ces sujets.

Lever les freins : une affaire de politiques scientifiques

Comment expliquer que ces collaborations restent somme toute très marginales dans le monde de la recherche ? Des défis persistent, tels que le manque de financements qui y sont consacrés ou le cloisonnement disciplinaire des recherches. En outre, l’incitation à explorer ces frontières reste très faible pour les chercheurs, dans un monde académique où la production de publications dans des revues spécialisées reste le critère de performance essentiel.

Intégrer l’art à un projet scientifique nécessite du temps, de la confiance et un changement de posture, souvent perçu comme risqué dans un milieu académique très normé. Mais des solutions existent sans doute : il s’agirait de former mieux les scientifiques à la collaboration, de financer des projets transdisciplinaires et de changer les critères d’évaluation de la recherche, pour valoriser les prises de risque.

À l’heure où la science est appelée à jouer un rôle majeur dans la transition écologique et sociale, l’art ne doit plus être considéré comme un simple emballage esthétique : il pourrait devenir un allié stratégique ! Il ne s’agit pas uniquement de « vulgariser » la science, mais bien de la faire résonner autrement dans les imaginaires, les émotions et les débats publics.

En écoutant celles et ceux qui osent franchir les murs du laboratoire, nous comprendrons peut-être mieux comment faire de la science de manière plus sensible, plus accessible et surtout plus transformatrice.

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.

17.11.2025 à 16:02

La guerre de communication derrière la pénurie de carburant au Mali

Ayouba Sow, Doctorant en Science de l'information et de la communication à l'Université Côte D'Azur, laboratoire SIC.Lab Méditerranée., Université Côte d’Azur
Le blocus sur le carburant imposé par les djihadistes donne lieu à une guerre de communication entre ceux-ci et divers représentants du pouvoir.
Texte intégral (3603 mots)

De nombreux articles ont déjà été publiés sur la pénurie de carburant provoquée au Mali par le blocus que les djihadistes imposent à la quasi-totalité du pays. La présente analyse propose une approche communicationnelle de cette crise sans précédent.


Dans une guerre, qu’elle soit conventionnelle ou asymétrique, comme c’est le cas au Mali et plus largement au Sahel, il est déconseillé de porter un coup avant d’en mesurer les conséquences. La pénurie de carburant actuelle résulte de l’amateurisme des autorités maliennes, qui ont été les premières à interdire la vente de carburant aux citoyens venant s’approvisionner avec des bidons. Cette décision s’inscrit dans leur stratégie visant à couper la chaîne d’approvisionnement des djihadistes afin de réduire la mobilité de ceux-ci. Dans la région de Nioro, les autorités militaires ont interdit, le 30 juillet 2025, « la vente de carburant dans des bidons ou des sachets plastiques ». Rappelons que les djihadistes ne sont pas les seuls à utiliser les bidons : les populations rurales s’en servent aussi, pour de multiples usages, notamment pour le fonctionnement des équipements agricoles.

À la suite de la décision du 30 juillet, le Groupe de soutien à l’islam et aux musulmans (Jama’at Nusrat ul-Islam wa al-Muslimin, JNIM) a étendu l’interdiction à l’ensemble de la population. Ainsi, dans une vidéo publiée le 3 septembre, l’organisation terroriste a adressé un message aux commerçants et aux chauffeurs de camions-citernes qui importent des hydrocarbures depuis les pays côtiers voisins du Mali, à savoir la Côte d’Ivoire, la Guinée, le Sénégal et la Mauritanie. Elle a annoncé des représailles à l’encontre de quiconque violerait cette décision.

Assis en tenue militaire, Nabi Diarra, également appelé Bina Diarra, porte-parole du JNIM, explique en bambara les raisons de ce blocus. Son porte-parolat met à mal l’argument selon lequel les djihadistes seraient exclusivement des Peuls, car Nabi Diarra est bambara. D’après lui :

« Depuis leur arrivée, les bandits qui sont au pouvoir [les militaires, ndlr] fatiguent les villageois en fermant leurs stations-service. Pour cette raison, nous avons également décidé d’interdire toutes vos importations d’essence et de gasoil, jusqu’à nouvel ordre. […] Ces bandits ont voulu priver les villageois d’essence et de gasoil, pensant que cela arrêterait notre activité de djihad. Est-ce qu’un seul de nos véhicules ou de nos motos s’est arrêté depuis le début de cette opération ? Aucun ! Nous continuons notre travail. Les conséquences ne touchent que les plus vulnérables. »

Après cette annonce, une centaine de camions-citernes ont été incendiés par les djihadistes sur différents axes. Des vidéos ont été publiées sur les réseaux sociaux par les auteurs afin de démontrer leurs capacités de nuisance. Dans une vidéo que nous avons pu consulter, un homme à moto montre près d’une quarantaine de camions-citernes incendiés sur la route nationale 7, entre Sikasso et la frontière ivoirienne.

Dans sa vidéo annonçant le blocus, le JNIM a également interdit la circulation de tous les autobus et camions de la compagnie Diarra Transport, qu’il accuse de collaborer avec l’État malien. Depuis, la compagnie a cessé ses activités. Après un mois d’inactivité, le 6 octobre, sa directrice générale Nèh Diarra a publié une vidéo sur les réseaux sociaux pour justifier les actions de son entreprise et, indirectement, présenter ses excuses aux djihadistes dans l’espoir que ces derniers autorisent ses véhicules à reprendre la route.

Nèh Diarra, directrice générale de Diarra Transport, présente ses excuses. Capture d’écran, Fourni par l'auteur

Le 17 octobre, dans une autre vidéo, arme de guerre et talkie-walkie en main, le porte-parole du JNIM a autorisé la reprise des activités de la compagnie de transport, dans un discours au ton particulièrement clément :

« Nous sommes des musulmans, nous sommes en guerre pour l’islam. En islam, si vous vous repentez après une faute, Allah accepte votre repentir. Donc, les gens de Diarra Transport ont annoncé leur repentir, nous allons l’accepter avec quelques conditions. La première est de ne plus vous impliquer dans la guerre qui nous oppose aux autorités. Transportez les passagers sans vérification d’identité. La deuxième condition va au-delà de Diarra Transport : tous les transporteurs, véhicules personnels, même les mototaxis, doivent exiger des femmes qu’elles portent le hijab afin de les transporter. »

Pour finir, il exige de tous les conducteurs qu’ils s’arrêtent après un accident afin de remettre les victimes dans leurs droits. Une manière de montrer que les membres du JNIM sont des justiciers, alors qu’ils tuent fréquemment des civils innocents sur les axes routiers. Le cas le plus récent et le plus médiatisé remontait à deux semaines plus tôt : le 2 octobre, le JNIM avait mitraillé le véhicule de l’ancien député élu à Ségou et guide religieux Abdoul Jalil Mansour Haïdara, sur l’axe Ségou-Bamako, le tuant sur place. Il était le promoteur du média Ségou TV.

Dans les gares routières de Diarra Transport, des scènes de liesse ont suivi l’annonce de la reprise. La compagnie a même partagé la vidéo du JNIM sur son compte Facebook, avant de la supprimer plus tard. Le lendemain, elle a annoncé la reprise de ses activités, avant que le gouvernement malien ne les suspende à son tour.

Revenons au blocus sur le carburant. Il ne concerne pas uniquement Bamako, comme on peut le lire dans de nombreux articles de presse. Il couvre l’ensemble du territoire national.

Cependant, les médias concentrent leur couverture sur la situation dans la capitale, principal symbole politique de la souveraineté des autorités en place. Les analyses, notamment celles des médias étrangers, gravitent autour d’une question centrale : Bamako va-t-elle tomber ? Nous répondons : le Mali ne se limite pas à Bamako. Toutes les localités du pays sont affectées par ce blocus. Les habitants des autres localités méritent autant d’attention que les Bamakois.

Pays enclavé, au commerce extérieur structurellement déficitaire, le Mali dépend totalement des importations. Les régions de Kayes, plus proche du Sénégal, et de Sikasso, plus proche de la Côte d’Ivoire, sont toutefois moins impactées par ce blocus, qui est particulièrement concentré autour de Bamako. Les attaques sont principalement menées sur les voies menant à la capitale. Des actions sporadiques ont également été signalées sur l’axe Bamako-Ségou, afin de priver les régions du centre, comme Ségou et Mopti, d’hydrocarbures. Dans la ville de Mopti, les habitants manquent de carburant depuis deux mois. Depuis un mois, ils n’ont pas eu une seule minute d’alimentation électrique. Ils ne réclament d’ailleurs plus l’électricité, devenue un luxe : ils recherchent plutôt du carburant pour pouvoir vaquer à leurs occupations.

La violence des mots pour camoufler l’insuffisance des actes

Confrontées à la crise, les autorités, tant régionales que nationales, ont préféré masquer l’impuissance par la désinformation, l’appel mécanique à la résilience et la censure des voix critiques.

Le 23 septembre, le gouverneur de la région de Mopti a présidé une réunion de crise consacrée à la pénurie de carburant. Au lieu de s’attaquer aux racines du mal, le directeur régional de la police, Ibrahima Diakité, s’en est pris aux web-activistes de la région, couramment appelés « videomen (ils prononcent videoman) » au Mali, qui, selon lui, se font particulièrement remarquer par leur « incivisme ». Les créateurs de contenus sont blâmés et menacés par la police pour avoir diffusé des faits et alerté sur les souffrances qu’ils vivent, à l’image de l’ensemble de la population. Au lieu de s’en prendre aux djihadistes, M. Diakité dénigre les citoyens qui publient sur les réseaux sociaux des images de longues files de conducteurs attendant désespérément d’être servis dans les stations-service :

« Si nous entendons n’importe quel “videoman” parler de la région de Mopti, il ira en prison. Il ira en prison ! Celui qui parle au nom de la région ira en prison, parce que c’est inadmissible ! […] Ils mettent Mopti en sellette, oubliant que les réseaux [sociaux, ndlr] ne se limitent pas au Mali. »

Il exige donc de censurer tout propos mettant en évidence l’incompétence des autorités à pallier un problème qui compromet leur mission régalienne. Au lieu de rassurer la population en annonçant des politiques qui atténueront sa souffrance, il opte pour la censure et la menace d’emprisonnement. Dans sa vocifération autoritaire, il mobilise un récit classique en appelant à préserver l’image du pays et en présentant les web-activistes comme des ennemis de celui-ci, des ignorants qui ne comprennent rien aux événements en cours :

« On est dans une situation où les gens ne comprennent rien de ce qui se passe dans leur pays et ils se permettent de publier ce genre de vidéo. Mais c’est le Mali tout entier qui est vilipendé à travers ce qu’ils disent, parce que le monde le voit. […] Ils sont en train d’aider l’ennemi contre le pays. Monsieur le gouverneur, il faut saisir le moment pour remettre ces gens à leur place, pour les amener à comprendre que, dans un État, tant que tu es Malien et que tu restes au Mali, tu respectes la loi ; sinon, tu quittes notre pays si tu ne veux pas te soumettre aux lois de la République. »

Le policier s’est substitué au législateur en appelant le gouverneur à adopter une loi autorisant la censure médiatique locale de cette crise.

Dans les heures qui ont suivi, de nombreux journalistes et web-activistes l’ont interpellé sur les réseaux sociaux pour obtenir des explications concernant l’existence d’une loi malienne prohibant la diffusion d’informations factuelles. Les contenus des web-activistes n’ont pas pour objectif de ternir l’image du pays. Contrairement à ce que laisse entendre le directeur régional de la police, il n’est pas plus malien qu’eux. Il ne lui revient pas non plus de décider qui doit quitter le pays.

Nous observons un clivage général au sein de la population malienne. Les dirigeants et leurs soutiens estiment que tous les citoyens doivent obligatoirement soutenir la transition. Ceux qui la critiquent sont qualifiés de mauvais citoyens, voire d’apatrides. Cette pression a étouffé le pluralisme et la contradiction dans l’espace médiatique.

« Ils ont su créer la pénurie de carburant dans la tête des Maliens »

Pendant que les citoyens passent la nuit dans les files d’attente pour s’approvisionner en carburant, l’un des désinformateurs du régime, adepte des théories du complot, Aboubacar Sidiki Fomba, membre du Conseil national de transition, a livré, dans un entretien avec un videoman, des explications qui défient tout entendement. Dans cette vidéo publiée le 7 octobre, il établit un lien entre la stratégie du JNIM et la volonté de l’Alliance des États du Sahel (AES, qui regroupe le Mali, le Burkina Faso et le Niger) de créer sa propre monnaie. D’après lui, l’objectif de ce blocus, qu’il présente comme la dernière stratégie des terroristes, est de porter atteinte au pouvoir d’Assimi Goïta et à l’AES :

« Ils attaquent les citernes, puis font croire aux populations qu’il y a une pénurie de carburant, alors qu’il n’y en a pas. Mais ils convainquent tout le monde qu’il y a une pénurie. Ils créent la psychose. Sous l’effet de la panique, les citoyens provoquent eux-mêmes une pénurie qui, à l’origine, n’existait pas. »

Dans la même vidéo, il dissocie les coupures d’électricité de la pénurie de carburant, expliquant les premières par des problèmes de remplacement de câbles électriques défaillants. Pourtant, c’est bien le manque de carburant qui est à l’origine des coupures d’électricité observées ces dernières années. Le blocus n’a été qu’un accélérateur d’une crise énergétique déjà déclenchée. Il a considérablement réduit les capacités de production énergétique. Selon une étude conduite par le PNUD, en 2020, « la production électrique était de 2 577,44 GWh (69 % thermique, 26,8 % hydraulique et 4,2 % solaire photovoltaïque) ».

Le pays doit accélérer sa transition énergétique afin de réduire sa dépendance aux importations d’hydrocarbures et de limiter ses émissions de gaz à effet de serre. En plus de la crise énergétique, ce blocus a également entraîné une pénurie d’eau potable dans la région de Mopti, le gasoil étant utilisé pour la production et la distribution d’eau.

Le même parlementaire s’est ensuite attaqué aux conducteurs de camions-citernes, les accusant de « complicité avec les terroristes ». Selon lui, les conducteurs simuleraient des pannes pour quitter les convois escortés par l’armée et revendre leur cargaison d’hydrocarbures aux groupes djihadistes. À la suite de cette déclaration, le Syndicat national des chauffeurs et conducteurs routiers du Mali (Synacor) a lancé un mot d’ordre de grève et déposé une plainte contre Fomba pour diffamation. Au lieu d’apporter la preuve de ses accusations, ce dernier a finalement présenté ses excuses aux conducteurs de camions-citernes. Il avait auparavant annoncé la mort de Nabi Diarra et qualifié de deepfake les vidéos du porte-parole du JNIM – une énième fausse information. Par la suite, le porte-parole a diffusé des vidéos dans lesquelles il précise la date d’enregistrement et se prononce sur des faits d’actualité.

Le pouvoir dénonce la piste ukrainienne

Au sommet de l’État, lors d’un déplacement dans la région de Bougouni le 3 novembre, le président de la transition a appelé les Maliens à faire preuve de résilience et à limiter les sorties inutiles. Assimi Goïta a tenté de rassurer la population et de dissuader ceux qui apportent leur aide aux djihadistes : « Si nous refusons de mener cette guerre, nous subirons l’esclavage qui en sera la conséquence », a-t-il déclaré face aux notables de la région. Il a salué le courage des chauffeurs et des opérateurs économiques pour leurs actes de bravoure. En effet, depuis l’instauration du blocus, les premiers risquent leur vie, et les seconds voient leur investissement menacé.

Assimi Goïta a laissé entendre que des puissances étrangères soutiennent les actions des djihadistes. Il convient de rappeler que l’Ukraine a apporté son aide aux rebelles séparatistes du Cadre stratégique permanent (CSP), lesquels coopèrent parfois avec le JNIM dans le nord du pays. Alors que les djihadistes revendiquent l’application de la charia, les rebelles exigent la partition du territoire. Les deux mouvements se sont, à plusieurs reprises, alliés pour combattre l’armée malienne. Le 29 juillet 2024, Andriy Yusov, porte-parole du renseignement militaire ukrainien (GUR), a sous-entendu, lors d’une émission de télévision locale, que son service était en relation avec les rebelles indépendantistes du nord du Mali. Après la dissolution du CSP fin 2024, l’Ukraine a poursuivi son aide au groupe rebelle qui a pris le relais au nord du Mali, le Front de Libération de l’Azawad (FLA). Parmi les actions, nous pouvons noter « la visite de conseillers militaires ukrainiens dans un camp du FLA l’an dernier. Dans la foulée, plusieurs combattants du FLA sont envoyés en Ukraine. De retour dans le désert, ils adoptent les mêmes tactiques que celles de l’armée ukrainienne contre les positions russes ».

Cette aide fournie par l’Ukraine s’inscrit dans le prolongement du conflit qui l’oppose à la Russie, devenue le principal partenaire du Mali dans la lutte contre le terrorisme depuis la fin de la coopération militaire avec la France en 2022. Grâce à ce nouveau partenariat, la ville de Kidal contrôlée par les rebelles depuis 2012 a pu être reprise en novembre 2023. Toutefois, la situation sécuritaire s’est détériorée dans le reste du pays, les djihadistes ayant renforcé leur influence et étendu leur présence à l’ensemble des régions.

Les autorités maliennes estiment que cette assistance ukrainienne est soutenue par la France, qui souhaiterait l’échec de la transition. Dans leurs éléments de langage, les responsables de la transition expliquent tous leurs problèmes par des complots contre leur régime et contre le Mali. Toutes les difficultés et incompétences sont justifiées par « l’acharnement de la France » contre la transition. L’ancienne puissance coloniale a pour sa part ouvertement montré son opposition à cette transition qu’Emmanuel Macron qualifie de « l’enfant de deux coups d’État ».

La guerre de communication est au cœur de la crise malienne et ne semble pas devoir s’arrêter si tôt. Pendant que les médias occidentaux commentent l’éventualité d’une prise de Bamako par le JNIM, le gouvernement malien a inauguré le 11 novembre le Salon international de la défense et de la sécurité intitulé Bamex 25. Cette exposition turque est, pour la transition malienne, un autre moyen de communiquer au monde que la situation sécuritaire est sous contrôle.

The Conversation

Ayouba Sow ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

17.11.2025 à 11:40

Le contrôle en cours de redéfinition à l’ère du travail à distance. Mais cela va-t-il dans le bon sens ?

Caroline Diard, Professeur associé - Département Droit des Affaires et Ressources Humaines, TBS Education
Suzy Canivenc, Chercheure associée à la Chaire Futurs de l'Industrie et du Travail, Mines Paris - PSL
Que se passe-t-il, en termes de contrôle du travail, quand les salariés ne sont plus sous le regard de leur manager ? Bienvenue dans le management à l’ère du télétravail.
Texte intégral (2372 mots)

Le télétravail en éloignant les salariés de leur manager a-t-il augmenté ou réduit le contrôle des tâches et du temps de travail ? De nouvelles formes et pratiques de management sont-elles apparues ? Dans quelle mesure sont-elles cohérentes avec les nouvelles façons de travailler à l’ère numérique ?


Alors que le contrôle du temps de travail et le droit à la déconnexion sont des obligations de l’employeur pour protéger la santé des salariés, l’étude 2025 de l’Observatoire du télétravail (Ugict-CGT) révèle que le Code du travail n’est pas respecté concernant ces deux dimensions.

En effet, malgré les bouleversements induits par le développement du travail à distance, les pratiques de contrôle restent assez limitées et s’orientent principalement vers la surveillance des temps de connexion, non pas dans l’objectif de les réguler comme le voudrait la loi, mais au contraire comme une attestation que le travail est effectué.

Cette pratique ne présage pas de l’implication et de la performance des télétravailleurs, mais révèle en revanche un manque de considération pour les conditions dans lesquelles le travail est exercé alors que l’employeur en est juridiquement responsable.

Du lien de subordination

Le contrôle fait partie inhérente du travail salarié et de la relation d’emploi formalisée par le lien contractuel employeur/employé, qui induit légalement un lien de subordination

Le contrat de travail est une

« convention par laquelle une personne s’engage à mettre son activité à la disposition d’une autre personne (physique ou morale), sous la subordination de laquelle elle se place, moyennant une rémunération ».

Le lien de subordination est donc consubstantiel à tout contrat de travail (quel qu’en soit le type) et renvoie au

« lien par lequel l’employeur exerce son pouvoir de direction sur l’employé : pouvoir de donner des ordres, d’en contrôler l’exécution et de sanctionner la mauvaise exécution des ordres ».

Le contrôle du travail concerne ainsi de manière très large l’exécution des tâches confiées par l’employeur.


À lire aussi : Le télétravail est-il devenu le bouc émissaire des entreprises en difficulté ?


Des modalités de contrôle peu novatrices

Avec le développement du télétravail et l’éclatement des unités de lieu, de temps et d’action, on aurait pu s’attendre à une évolution des modalités avec laquelle s’exerce ce lien de subordination et l’activité de contrôle qui lui est inhérente : la surveillance visuelle par les comportements n’est en effet plus possible lorsque les missions confiées sont réalisées à distance. L’enquête menée par l’Observatoire du télétravail de l’Ugict-CGT auprès de 5 336 télétravailleurs ne montre cependant pas de transformations profondes. Elle atteste en revanche de pratiques qui ne sont pas à la hauteur des enjeux.

Si de plus en plus de salariés se sentent surveillés en télétravail, ils restent une minorité. En outre, la perception du contrôle est relativement faible. C’est seulement le cas de 17 % des répondants, contre 8 % lors de la précédente enquête menée en 2023.

A contrario, tout comme dans l’enquête précédente (2023), une forte majorité de salariés (79 %) ne savent pas s’ils sont contrôlés et n’ont pas été informés des dispositifs utilisés. Ces chiffres suggèrent que ce contrôle pourrait s’exercer à leur insu ou au travers de pratiques informelles déviantes.

Par ailleurs, lorsqu’ils sont identifiés, les dispositifs de contrôle ne sont guère novateurs et s’appuient encore largement sur le traditionnel reporting a posteriori plutôt que sur de nouvelles modalités technologiques en temps réel (IA, frappes de clavier, mouvements de souris, caméras). Le contrôle s’exerce ainsi avant tout sur les résultats de l’activité (plutôt que sur l’activité en train de se faire), en phase avec un management par objectifs qui sied mieux au travail à distance que le micromanagement, mais qui est loin d’être nouveau puisqu’il a été théorisé dans les années 1950 par Peter Drucker.

Transposition du réel au virtuel

Les modalités de contrôle consistent souvent en une transposition simple dans le monde virtuel les pratiques qui avaient déjà cours sur site : système de badge numérique (22,6 %) et feuille de temps (12,67 %).

Les verbatim recueillis lors de l’enquête révèlent en outre que, pour les télétravailleurs interrogés, ce contrôle consiste avant tout à s’assurer qu’ils sont bien connectés : « Le logiciel utilise le contrôle des connexions et leur durée », « Contrôle connexion permanent », « Heure de connexion/déconnexion sur Teams », « Suspicion de surveillance par le statut en veille de Teams ».

Ces témoignages traduisent une forme de glissement, d’un contrôle de l’activité à un contrôle de la disponibilité. Autrement dit, le contrôle ne renvoie plus à une mesure de la performance, mais à une preuve de présence – qui n’assure pas pour autant que le travail demandé est effectivement réalisé. Il s’agit donc davantage de regarder « le nombre d’heures de connexion du salarié que la qualité des contributions ou des échanges »

Impératif de présence

Cet impératif de présence peut par ailleurs s’étendre au-delà du temps de travail avec des sollicitations hors horaires (avant 9 heures ou après 19 heures). Si ces pratiques restent minoritaires, elles concernent tout de même un peu plus d’un salarié sur cinq régulièrement, et seul un tiers des répondants disent ne jamais y être confrontés.

Cette situation présente ainsi le risque de voir se développer « des journées de travail à rallonge » qui ne respectent pas les temps de repos légaux. Notons cependant que pour les répondants, ces sollicitations hors horaires ne sont pas directement liées au télétravail : plus de neuf personnes sur dix déclarent que ces situations ne sont pas plus fréquentes lorsqu’elles sont en télétravail que lorsqu’elles sont sur site.

Ce phénomène serait ainsi davantage lié à la « joignabilité » permanente permise par les outils numériques et à leur usage non régulé, quel que soit le lieu où s’exerce l’activité professionnelle.

Des pratiques en décalage avec le Code du travail

Il en ressort ainsi une vision assez pauvre du contrôle, qui pose par ailleurs problème au regard de nombreux articles du Code du travail qui ne sont pas respectés :

  • Articles L3131-1 à L3131-3 : l’employeur doit contrôler le volume horaire, l’amplitude, les maxima et les temps de repos.

  • Article L4121-1 : l’employeur a l’obligation de protéger la santé et la sécurité des travailleurs.

  • Article L1121-1 : les restrictions des libertés individuelles ne sont possibles que si elles sont justifiées et proportionnées.

  • Article L1222-4 : aucune donnée personnelle ne peut être collectée sans information préalable du salarié.

  • Article L2242-17 : droit à la déconnexion qui impose la mise en place de dispositifs de régulation de l’utilisation des outils numériques, en vue d’assurer le respect des temps de repos et de congé ainsi que de la vie personnelle et familiale

Ainsi, le contrôle du travail n’implique pas seulement un droit de surveiller et de sanctionner de la part de l’employeur, il inclut également un devoir de protection des salariés.

Le télétravail lève ainsi le voile sur l’ambivalence du contrôle, tel qu’il est inscrit dans le Code du travail et tel qu’il est mis en œuvre par les entreprises. Comme le résume bien un télétravailleur interrogé dans le cadre des entretiens qualitatifs menés en complément de l’enquête :

« On a un outil qui permet non pas de contrôler qu’on travaille trop, mais de contrôler qu’on est bien connecté. »

Contrôler, c’est veiller… ou presque

À cet égard, il peut être utile de rappeler l’étymologie du terme « contrôle&nbsp. En vieux français, le terme « contrerole » est le « rôle opposé », le « registre tenu en double », permettant de vérifier l’exactitude et de réguler. Il est proche du terme « surveiller », qui est un dérivé de « veiller ». Ces origines étymologiques acquièrent une nouvelle portée à l’heure du télétravail en questionnant l’objet et l’objectif du contrôle : s’agit-il de contrôler uniquement le travail pour sanctionner sa mauvaise exécution ? N’est-il pas aussi question de contrôler les conditions dans lesquelles il est réalisé dans l’objectif de veiller au respect des droits des travailleurs ?

La question du contrôle s’inscrit pleinement dans les problématiques du travail hybride, à la fois en télétravail mais également sur site.

En effet, alors que le débat sur le « retour au bureau » agite les organisations, avec des annonces très médiatisées de certaines grandes entreprises, on peut questionner là aussi la notion du contrôle.

Du côté des employeurs, l’argumentaire principalement utilisé pour justifier le retour au bureau est celui du délitement des liens sociaux et ses conséquences potentielles sur l’intelligence collective sous toutes ses formes. Du côté des salariés et de leurs représentants subsiste une légitime suspicion quant à l’association entre présence sur site et contrôle.

Fnege 2025.

Insaisissable objet du contrôle

Il y a donc une tension dans les organisations. Mais on manque de précision sur ce qu’on souhaite contrôler. Deux ensembles de questions demeurent. D’une part, celles relatives à la surveillance. Est-on encore dans l’idée que la présence physique prouve le travail effectué ? Contrôle-t-on la quantité de travail ? Sa qualité ? La volonté d’une présence physique a-t-elle pour objectif de surveiller en temps réel le salarié à sa tâche, possiblement en l’absence de confiance ? D’autre part, celles relatives à l’accompagnement et au soutien. Le management est-il meilleur en co-présence ? Le soutien social est-il meilleur sur site ? La circulation de l’information trouve-t-elle de plus efficaces canaux ?

À l’évidence, le débat sur le retour au bureau est clivant, mais il pourrait l’être moins si l’on questionnait la valeur ajoutée réelle pour le salarié, pour son travail, pour sa satisfaction et donc pour sa performance, de se rendre sur site plutôt que de rester chez lui. La question n’est donc pas de savoir s’il faut contrôler, mais comment le faire !

Le lien de subordination demeure consubstantiel au contrat de travail – il fonde le pouvoir de direction, d’organisation et de sanction de l’employeur. Mais ce pouvoir doit s’exercer dans les bornes que fixe le droit : celles du respect, de la proportionnalité et de la santé au travail.

Ceci questionne une nouvelle éthique du management : veiller et protéger plutôt que surveiller ; réguler et animer plutôt que traquer. S’il est de sa responsabilité de garantir que ses équipes atteignent les performances attendues, le manager doit également le faire en s’assurant de la qualité et de la légalité des conditions dans lesquelles ces performances sont réalisées.


Cet article a été co-écrit avec Nicolas Cochard, directeur de la recherche du groupe Kardham, enseignant en qualité de vie au travail (QVT) en master RH à l’Université Paris Nanterre.

The Conversation

Suzy Canivenc est membre de l'OICN (Observatoire de l''Infobésité et de la Collaboration Numérique) et Directrice scientifique de Mailoop

Caroline Diard ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

17.11.2025 à 11:32

Pourquoi les réunions de travail nuisent au bien-être

Willem Standaert, Associate Professor, Université de Liège
Face à la folie des réunions, la solution ne serait-elle pas, non de les supprimer, mais de mieux les concevoir ?
Texte intégral (1147 mots)
Toute réunion doit commencer par une question simple : pourquoi nous réunissons-nous ? Dotshock/Shutterstock

Trop nombreuses, trop longues et inefficaces, les réunions de travail, loin d’être de simples outils de coordination, peuvent devenir de véritables moteurs de mal-être. Comment y remédier ? Analyse par la science… des réunions.


Quiconque travaille dans une organisation le sait : les réunions s’enchaînent à un rythme effréné. En moyenne, les managers y passent vingt-trois heures par semaine. Une grande partie de ces échanges est jugée de faible valeur, voire totalement contre-productive. Le paradoxe de cette frénésie est que de mauvaises réunions en génèrent encore davantage… pour tenter de réparer les précédentes.

Pendant longtemps, les réunions n’ont pas été étudiées comme un objet de recherche en soi ; elles servaient de contexte à l’analyse, mais rarement d’unité centrale. Un manuel publié en 2015 a posé les bases de ce champ émergent, la « science des réunions ». Le véritable problème ne tient pas tant au nombre de réunions qu’à leur conception, au manque de clarté de leurs objectifs, et aux inégalités qu’elles renforcent souvent inconsciemment.

Se réunir nourrit le bien-être, ou lui nuit

Notre série d’études menées pendant et après la pandémie de Covid-19 souligne que les réunions peuvent à la fois nourrir le bien-être des participants et lui nuire. Trop de réunions peuvent conduire au burn-out et à l’envie de quitter son organisation ; mais elles peuvent aussi renforcer l’engagement des employés.

Le recours massif au télétravail et aux réunions virtuelles, accéléré par la pandémie, a introduit de nouvelles sources de fatigue : surcharge cognitive, hyperconnexion, effacement des frontières entre vie professionnelle et personnelle. Ces réunions en ligne favorisent aussi des interactions sociales continues et permettent de mieux percevoir la place de chacun dans l’organisation.

Les femmes parlent moins en visioconférence

Ces nouveaux formats de réunion ne sont pas vécus par tous de la même manière.

Un constat frappant concerne le temps de parole. Dans notre enquête menée auprès de centaines d’employés, les résultats sont clairs. Les femmes rapportent avoir plus de difficultés à s’exprimer en réunion virtuelle qu’en présentiel. Les causes sont multiples : interruptions plus fréquentes, invisibilité sur les écrans partagés, difficulté à décoder les signaux non verbaux, ou encore la double charge mentale lorsque les réunions se tiennent à domicile.

Autrement dit, les réunions en ligne – censées démocratiser l’accès – peuvent, si l’on n’y prend pas garde, renforcer les inégalités de genre.

Une réunion doit se concevoir, pas se subir

Face à cette folie des réunions, la solution n’est pas de les supprimer, mais de mieux les concevoir. Tout commence par une question simple, souvent oubliée : pourquoi nous réunissons-nous ?

Selon notre série d’études couvrant plusieurs milliers de réunions, il existe quatre grands objectifs :

  • Partager de l’information ;
  • Prendre des décisions ;
  • Exprimer des émotions ou des opinions ;
  • Construire des relations de travail.

Chacun de ces objectifs exige des conditions spécifiques, comme voir les visages, entendre les intonations, observer les réactions, partager un écran, etc. Aucun format (audio, visioconférence, hybride ou présentiel) n’est universellement le meilleur. Le mode choisi doit dépendre de l’objectif principal, et non d’une habitude ou d’une commodité technologique.

Plus encore, la recherche identifie des leviers simples mais puissants pour améliorer l’expérience collective :

  • Partager à l’avance un ordre du jour clair et les documents nécessaires pour préparer les participants ;

  • Varier les modes de prise de parole grâce à des outils de « main levée », des chats anonymes, ou des tours systématiques ;

  • Jouer un vrai rôle de modération. Les responsables de réunion doivent équilibrer les interventions, encourager la participation et éviter les dynamiques d’exclusion.

Miroir de la culture organisationnelle

Les réunions ne sont jamais neutres. Elles reflètent – souvent inconsciemment – la culture, les rapports de pouvoir et les priorités implicites d’une organisation. Les données sont claires, les pistes d’amélioration existent. Reste aux entreprises et à leurs dirigeants à reconnaître le pouvoir transformateur des réunions.

Une organisation où seules les voix les plus fortes se font entendre en réunion est rarement inclusive en dehors. À l’inverse, des réunions bien menées peuvent devenir des espaces de respect et d’innovation collective.

L’objectif n’est pas d’avoir moins de réunions, mais de meilleures réunions. Des réunions qui respectent le temps et l’énergie de chacun. Des réunions qui donnent une voix à tous. Des réunions qui créent du lien.


Article écrit avec le Dr Arnaud Stiepen, expert en communication et vulgarisation scientifiques.

The Conversation

Willem Standaert ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

17.11.2025 à 11:32

Pour la première fois, une étude révèle ce qui se passe dans le cerveau d'un entrepreneur

Frédéric Ooms, Chargé de cours, Université de Liège
Grâce à l’imagerie par résonance magnétique fonctionnelle (IRMf), qui permet de visualiser l’activité cérébrale, une étude récente explore le fonctionnement du cerveau d’entrepreneurs.
Texte intégral (1471 mots)
Si le cerveau est capable de renforcer certains réseaux neuronaux grâce à l’entraînement, comme on muscle son corps par le sport, alors l’expérience entrepreneuriale répétée pourrait elle-même être un facteur de développement de ces connexions particulières. BillionPhotos/Shutterstock

L’entrepreneuriat façonne-t-il le cerveau ? Certaines personnes naissent-elles avec des caractéristiques cérébrales qui les prédisposent à entreprendre ? Pour tenter de répondre à ces questions, une étude récente explore le fonctionnement du cerveau d’entrepreneurs grâce à l’imagerie par résonance magnétique fonctionnelle, une technique qui permet de visualiser l’activité cérébrale.


Si l’on reconnaît l’importance des processus cognitifs chez les entrepreneurs
– comment pensent-ils et agissent-il face à l’incertitude ? –, on s’est peu intéressé à l’étude de leur cerveau lorsqu’ils prennent leurs décisions.

Pourquoi certains individus semblent exceller dans la création d’entreprises et naviguent habilement à travers l’incertitude, tandis que d’autres peinent à s’adapter ?

Pour tenter de faire la lumière sur la réponse à cette question, nous avons mené des travaux faisant converger neurosciences et recherche en entrepreneuriat. Nous avons en effet exploré l’activité cérébrale chez des entrepreneurs grâce à une technique d’imagerie médicale, l’imagerie par résonance magnétique fonctionnelle (IRMf).

Fruit d’une collaboration entre le centre de recherche interdisciplinaire en sciences biomédicales GIGA Consciousness Research Unit de l’Université de Liège (Belgique) et le Centre hospitalier universitaire (CHU) de Liège, notre étude ouvre de nouvelles perspectives sur la manière dont les entrepreneurs abordent la prise de décision, gèrent l’incertitude et exploitent de nouvelles opportunités.

Imagerie par résonance magnétique fonctionnelle (IRMf)

L’IRMf permet de visualiser l’activité cérébrale en mesurant les variations du flux sanguin dans le cerveau. Cette méthode repose sur un principe simple : lorsqu’une région du cerveau est activée, elle consomme plus d’oxygène, ce qui entraîne une augmentation du flux sanguin vers cette zone. Ce surplus d’oxygène modifie légèrement les propriétés magnétiques du sang. C’est cette différence que l’IRMf mesure pour créer des cartes d’activité cérébrale en temps réel, offrant ainsi une vue détaillée de la fonction cérébrale.

Plus précisément, notre étude s’est concentrée sur 23 entrepreneurs habituels
– c’est-à-dire ceux qui ont lancé plusieurs entreprises, en les comparant à 17 managers travaillant dans de grandes organisations.

L’analyse de connectivité en état de repos basée sur une région cérébrale d’intérêt (seed-based resting state fMRI) a révélé que ces entrepreneurs expérimentés présentent une connectivité neuronale accrue entre certaines régions de l’hémisphère droit du cerveau : l’insula et le cortex préfrontal. Ces zones jouent un rôle dans la flexibilité cognitive et la prise de décisions exploratoires, c’est-à-dire la capacité à ajuster sa stratégie et à penser autrement face à des situations nouvelles ou incertaines.

Mieux gérer l’incertitude

Ce réseau cérébral plus connecté pourrait contribuer à expliquer pourquoi ces entrepreneurs semblent mieux armés pour gérer l’incertitude et faire preuve de flexibilité cognitive, des capacités souvent associées à l’identification d’opportunités entrepreneuriales.

Que ce soit de manière séquentielle – les serial entrepreneurs, qui créent une entreprise après l’autre – ou de façon concurrente – les portfolio entrepreneurs qui gèrent plusieurs entreprises en même temps –, ces profils paraissent exceller dans l’art de s’adapter rapidement. Une compétence précieuse dans le monde des start-ups, où les repères sont rarement stables.

Une autre étude, portant sur le même groupe d’entrepreneurs et de managers met en lumière un autre phénomène intrigant : ces entrepreneurs habituels présentent un volume de matière grise plus important dans l’insula gauche. Bien que l’étude n’ait pas directement mesuré la pensée divergente, d’autres travaux ont montré que l’augmentation du volume de matière grise dans l’insula gauche est associée à cette capacité – c’est-à-dire la faculté de générer de nombreuses idées différentes pour résoudre un même problème.

Ce qui suggère que les différences observées chez ces entrepreneurs pourraient refléter une plus grande propension à la pensée divergente.

Une question essentielle reste ouverte : l’entrepreneuriat façonne-t-il le cerveau… ou bien certaines personnes naissent-elles avec ces caractéristiques cérébrales qui les prédisposent à entreprendre ?

Autrement dit, sommes-nous entrepreneurs par nature ou par culture ?

Nature ou culture ?

Cette interrogation est aujourd’hui au cœur des nouveaux projets de recherche menés par l’équipe d’HEC Liège et du Centre de recherche du cyclotron (CRC) de l’Université de Liège. Cette orientation de recherche s’appuie sur le concept de « plasticité cérébrale », c’est-à-dire la capacité du cerveau à se modifier sous l’effet des expériences et des apprentissages.

Si le cerveau est capable de renforcer certains réseaux neuronaux grâce à l’entraînement, comme on muscle son corps par le sport, alors l’expérience entrepreneuriale répétée pourrait elle-même être un facteur de développement de ces connexions particulières. À l’inverse, si ces différences cérébrales sont présentes dès le départ, cela poserait la question de traits cognitifs ou neurobiologiques favorisant l’esprit d’entreprise.

Pour répondre à ces questions, de nouveaux travaux sont en cours au sein du laboratoire et du GIGA-CRC, avec notamment des études longitudinales visant à suivre l’évolution des cerveaux d’entrepreneurs au fil de leur parcours, mais aussi des comparaisons avec de jeunes porteurs de projets ou des aspirants entrepreneurs.

L’enjeu est de mieux comprendre si, et comment, l’expérience de l’entrepreneuriat peut façonner notre cerveau. Cette nouvelle phase de la recherche est en cours et entre dans une phase clé : le recrutement des participants pour une étude en imagerie par résonance magnétique (IRM). Nous recherchons des volontaires, entrepreneurs ou non, prêts à contribuer à cette exploration scientifique inédite sur les effets de la pratique entrepreneuriale sur le cerveau.

Former les futurs entrepreneurs

L’intégration des neurosciences dans l’étude de l’entrepreneuriat offre une perspective novatrice sur les facteurs qui pourraient contribuer à l’esprit entrepreneurial. En comprenant si – et comment – l’expérience entrepreneuriale influence la structure et la fonction cérébrales, il deviendrait possible de concevoir des approches de formation spécifiques pour favoriser l’esprit d’entreprendre. On pourrait, par exemple, imaginer de mettre au point des exercices pratiques et des approches d’apprentissage immersif afin de développer chez les étudiants les compétences observées chez des entrepreneurs habituels.


Cet article a été rédigé avec l’aide du Dr Arnaud Stiepen, expert en communication et vulgarisation scientifiques.

The Conversation

Frédéric Ooms a été financé par une subvention ARC (Actions de Recherche Concertée) de la Fédération Wallonie‑Bruxelles.

17.11.2025 à 10:20

Intelligence économique : de la compétition à la coopération

Julien Poisson, Doctorant en intelligence économique, Université de Caen Normandie
Ludovic Jeanne, Géographe, Laboratoire Métis, EM Normandie
Simon Lee, Professeur des Universités en gestion, Université de Caen Normandie
Si le terme d’intelligence économique est souvent utilisé, il recouvre des réalités diverses. De quoi parle-t-on ? Comment ont évolué cette notion et les pratiques associées ?
Texte intégral (1219 mots)

La notion d’intelligence économique renvoie au moins à deux réalités différentes. Moins offensive, elle peut être un levier pertinent pour favoriser la collaboration entre les entreprises et leur environnement et pour rendre les écosystèmes plus résilients.


Depuis les années 1990, l’intelligence économique oscille entre deux modèles antagonistes : l’un, hérité de la « competitive intelligence » qui en fait une arme de guerre économique ; l’autre, issu de la « social intelligence » qui la conçoit au service d’un développement partagé. Aujourd’hui, face à l’incertitude croissante, des dirigeants d’entreprise semblent privilégier la seconde voie, celle de la coopération et de la responsabilité collective.

Deux visions

Popularisée dans les années 1990, l’intelligence économique s’est imposée en France comme une boîte à outils stratégique. Elle aide les organisations à anticiper les évolutions, à protéger leurs ressources et à influencer leur environnement à leur avantage. Son principe est simple : l’information est vitale. Il faut la collecter, l’analyser, la partager et la protéger via par exemple des pratiques de veille, de prospective, de sécurité économique et numérique, de protection des savoir-faire, d’influence et de lobbying. Mais derrière cette définition se cachent deux visions opposées.

La première voit l’intelligence économique comme une arme au service de la compétition. La seconde la conçoit comme un bien commun, au service de la société.

La première, popularisée par Michael Porter au début des années 1980, s’inscrit dans le courant de la « competitive intelligence ». La maîtrise de l’information permet d’éclairer les choix stratégiques et d’anticiper les mouvements de la concurrence. L’entreprise est considérée comme un acteur en alerte permanente, mobilisant des données, des outils d’analyse et des modèles prédictifs pour renforcer sa compétitivité. La perspective est à la fois défensive et offensive : l’intelligence économique sert à conquérir des parts de marché et à se prémunir des menaces externes.


À lire aussi : Le renseignement au service de l’économie : les 30 ans de retard de la France


À la même époque, un tout autre courant émerge. À l’initiative du chercheur suédois Stevan Dedijer qui propose une vision bien plus inclusive avec la « social intelligence ». L’information n’est pas seulement une ressource stratégique au profit de quelques acteurs cherchant à être dominants, mais une orientation collective : celle des institutions, des entreprises et des citoyens cherchant à apprendre, à s’adapter et à innover ensemble. Cette approche, fondée sur la coopération entre sphères publique et privée, promeut une perspective visant le développement durable des sociétés plutôt que la seule performance des organisations.

Un lien entre savoir et action

Ces deux traditions ne s’opposent pas seulement dans leurs finalités ; elles reflètent deux conceptions du lien entre savoir et action. La « competitive intelligence » privilégie la maîtrise de son environnement et la compétition, quand la « social intelligence » valorise la coordination et la mutualisation des connaissances. En Suède, cette dernière s’est traduite par des dispositifs régionaux associant recherche, industrie et pouvoirs publics pour renforcer la capacité d’adaptation collective.

En France, l’intelligence économique s’est construite sur un équilibre fragile entre ces deux héritages : celui de la guerre économique et celui de la coopération à l’échelle du territoire. Aujourd’hui, la perspective de la social intelligence trouve un véritable écho chez les dirigeants d’entreprise. Face à la complexité et à l’incertitude, ils privilégient désormais des démarches collectives et apprenantes plutôt que la seule recherche d’un avantage concurrentiel. L’intelligence économique devient un levier d’action concrète, ancré dans la coopération et la responsabilité.

Veille collaborative

Ces démarches se traduisent sur le terrain par des formes de veille collaborative, où les entreprises mutualisent la collecte et l’analyse d’informations pour anticiper les mutations de leur environnement. Elles s’incarnent aussi dans les « entreprises à mission », qui placent le sens, la durabilité et la contribution au bien commun au cœur de leur stratégie.

Ces pratiques s’inscrivent pleinement dans la réflexion menée par Maryline Filippi autour de la responsabilité territoriale des entreprises (RTE). Elle propose d’« entreprendre en collectif et en responsabilité pour le bien commun ». Elles traduisent une conception du développement où le territoire devient un espace vivant de coopération entre les acteurs économiques, publics et associatifs. Dans cette perspective, la performance n’est plus une fin en soi, mais un moyen d’assurer la robustesse des systèmes productifs, cette capacité à durer et à s’adapter que défend Olivier Hamant.

Ministère des armées, 2025.

Des formes variées d’appropriation

Comme le montre ma recherche doctorale (en particulier Poisson et coll., 2025), la notion d’intelligence économique connaît une appropriation variée selon le profil de dirigeant. En particulier, nous révélons que l’intelligence économique est souvent mobilisée pour construire des relations en vue de se doter de la force collective nécessaire pour faire face à l’incertitude.

Ainsi comprise, l’intelligence économique s’incarne dans des réseaux d’acteurs apprenants, dans la capacité à créer de la confiance et à partager les ressources d’un territoire. Elle propose une autre voie que celle de la compétition : celle de la coopération, de l’éthique et de la conscience d’un destin commun.

Cet article est publié dans le cadre de la Fête de la science (qui a eu lieu du 3 au 13 octobre 2025), dont The Conversation France est partenaire. Cette nouvelle édition porte sur la thématique « Intelligence(s) ». Retrouvez tous les événements de votre région sur le site Fetedelascience.fr.

The Conversation

Julien Poisson a reçu des financements de la Région Normandie et de l'Agence Nationale de la Recherche Technologique (ANRT) dans le cadre de sa thèse CIFRE menée depuis novembre 2021.

Ludovic Jeanne est membre de l'Académie de l'Intelligence économique.

Simon Lee a reçu des financements de l'ANRT dans le cadre de contrats CIFRE.

16.11.2025 à 17:20

Pourquoi certains fromages couverts de moisissures peuvent être consommés, mais jamais de la viande avariée : les conseils d’un toxicologue sur les précautions à prendre

Brad Reisfeld, Professor Emeritus of Chemical and Biological Engineering, Biomedical Engineering, and Public Health, Colorado State University
Dans le réfrigérateur, gare aux moisissures sur les fruits, car elles produisent des toxines à risque. Attention surtout à la viande avariée du fait des bactéries nocives qui s’y développent.
Texte intégral (2607 mots)

Dans la cuisine, la prudence est de mise avec les aliments qui se dégradent. Gare aux moisissures sur les céréales, les noix et les fruits, car ces champignons microscopiques libèrent des toxines à risque. Attention surtout aux bactéries très nocives qui se développent en particulier sur la viande avariée. Des pathogènes qui ne sont pas toujours perceptibles à l’odeur ou à l’œil.


Quand vous ouvrez le réfrigérateur et que vous trouvez un morceau de fromage couvert de moisissure verte ou un paquet de poulet qui dégage une légère odeur aigre, vous pouvez être tentés de prendre le risque de vous rendre malades plutôt que de gaspiller de la nourriture.

Mais il faut établir une frontière très nette entre une fermentation inoffensive et une altération dangereuse. La consommation d’aliments avariés expose l’organisme à toute une série de toxines microbiennes et de sous-produits biochimiques, dont beaucoup peuvent perturber des processus biologiques essentiels. Les effets sur la santé peuvent aller de légers troubles gastro-intestinaux à des affections graves telles que le cancer du foie.

Je suis toxicologue et chercheur, spécialisé dans les effets sur l’organisme de substances chimiques étrangères, à l’image de celles libérées lors de la détérioration des aliments. De nombreux aliments avariés contiennent des microorganismes spécifiques qui produisent des toxines. Étant donné que la sensibilité individuelle à ces substances chimiques diffère et que leur quantité dans les aliments avariés peut également varier considérablement, il n’existe pas de recommandations absolues sur ce qu’il est sûr de manger. Cependant, il est toujours bon de connaître ses ennemis afin de pouvoir prendre des mesures pour les éviter.

Céréales et noix

Les champignons sont les principaux responsables de la détérioration des aliments d’origine végétale tels que les céréales, les noix et les arachides. Ils forment des taches de moisissures duveteuses de couleur verte, jaune, noire ou blanche qui dégagent généralement une odeur de moisi. Bien qu’elles soient colorées, bon nombre de ces moisissures produisent des substances chimiques toxiques appelées mycotoxines.

Aspergillus flavus et Aspergillus parasiticus sont deux champignons courants présents sur des céréales comme le maïs, le sorgho, le riz ainsi que sur les arachides. Ils peuvent produire des mycotoxines appelées aflatoxines qui, elles-mêmes forment des molécules appelées époxydes ; ces dernières étant susceptibles de déclencher des mutations lorsqu’elles se lient à l’ADN. Une exposition répétée aux aflatoxines peut endommager le foie et a même été associée au cancer du foie, en particulier chez les personnes qui présentent déjà d’autres facteurs de risque, comme une infection par l’hépatite B.

Le genre Fusarium est un autre groupe de champignons pathogènes qui peuvent se développer sous forme de moisissures sur des céréales comme le blé, l’orge et le maïs, en particulier dans des conditions d’humidité élevée. Les céréales contaminées peuvent présenter une décoloration ou une teinte rosâtre ou rougeâtre, et dégager une odeur de moisi. Les champignons Fusarium produisent des mycotoxines appelées trichothécènes qui peuvent endommager les cellules et irriter le tube digestif. Ils libèrent également une autre toxine, la fumonisine B1 qui perturbe la formation et le maintien des membranes externes des cellules. Au fil du temps, ces effets peuvent endommager le foie et les reins.

Si des céréales, des noix ou des arachides semblent moisies, décolorées ou ratatinées, ou si elles dégagent une odeur inhabituelle, il vaut mieux faire preuve de prudence et les jeter. Les aflatoxines, en particulier, sont connues pour être de puissants agents cancérigènes, il n’existe donc aucun niveau d’exposition sans danger.

Qu’en est-il des fruits ?

Les fruits peuvent également contenir des mycotoxines. Quand ils sont abîmés ou trop mûrs, ou quand ils sont conservés dans des environnements humides, la moisissure peut facilement s’installer et commencer à produire ces substances nocives.

L’une des plus importantes est une moisissure bleue appelée Penicillium expansum. Elle est surtout connue pour infecter les pommes, mais elle s’attaque également aux poires, aux cerises, aux pêches et à d’autres fruits. Ce champignon produit de la patuline, une toxine qui interfère avec des enzymes clés dans les cellules, entrave leur fonctionnement normal et génère des molécules instables appelées espèces réactives de l’oxygène. Ces dernières peuvent endommager l’ADN, les protéines et les graisses. En grande quantité, la patuline peut endommager des organes vitaux comme les reins, le foie, le tube digestif ainsi que le système immunitaire.

Moisissures vertes et blanches sur des oranges
Penicillium digitatum forme une jolie moisissure verte sur les agrumes, mais leur donne un goût horrible. James Scott via Wikimedia, CC BY-SA

Les « cousins » bleus et verts de P. expansum, Penicillium italicum et Penicillium digitatum, se retrouvent fréquemment sur les oranges, les citrons et autres agrumes. On ne sait pas s’ils produisent des toxines dangereuses, mais ils ont un goût horrible.

Il est tentant de simplement couper les parties moisies d’un fruit et de manger le reste. Cependant, les moisissures peuvent émettre des structures microscopiques ressemblant à des racines, appelées hyphes, qui pénètrent profondément dans les aliments et qui peuvent libérer des toxines, même dans les parties qui semblent intactes. Pour les fruits mous en particulier, dans lesquels les hyphes peuvent se développer plus facilement, il est plus sûr de jeter les spécimens moisis. Pour les fruits durs, en revanche, je me contente parfois de couper les parties moisies. Mais si vous le faites, c’est à vos risques et périls.

Le cas du fromage

Le fromage illustre parfaitement les avantages d’une croissance microbienne contrôlée. En effet, la moisissure est un élément essentiel dans la fabrication de nombreux fromages que vous connaissez et appréciez. Les fromages bleus tels que le roquefort et le stilton tirent leur saveur acidulée caractéristique des substances chimiques produites par un champignon appelé Penicillium roqueforti. Quant à la croûte molle et blanche des fromages tels que le brie ou le camembert, elle contribue à leur saveur et à leur texture.

En revanche, les moisissures indésirables ont un aspect duveteux ou poudreux et peuvent prendre des couleurs inhabituelles. Les moisissures vert-noir ou rougeâtre, parfois causées par des espèces d’Aspergillus, peuvent être toxiques et doivent être éliminées. De plus, des espèces telles que Penicillium commune produisent de l’acide cyclopiazonique, une mycotoxine qui perturbe le flux de calcium à travers les membranes cellulaires, ce qui peut altérer les fonctions musculaires et nerveuses. À des niveaux suffisamment élevés, elle peut provoquer des tremblements ou d’autres symptômes nerveux. Heureusement, ces cas sont rares, et les produits laitiers avariés se trahissent généralement par leur odeur âcre, aigre et nauséabonde.

En règle générale, jetez les fromages à pâte fraîche type ricotta, cream cheese et cottage cheese dès les premiers signes de moisissure. Comme ils contiennent plus d’humidité, les filaments de moisissure peuvent se propager facilement dans ces fromages.

Vigilance extrême avec les œufs et la viande avariés

Alors que les moisissures sont la principale cause de détérioration des végétaux et des produits laitiers, les bactéries sont les principaux agents de décomposition de la viande. Les signes révélateurs de la détérioration de la viande comprennent une texture visqueuse, une décoloration souvent verdâtre ou brunâtre et une odeur aigre ou putride.

Certaines bactéries nocives ne produisent pas de changements perceptibles au niveau de l’odeur, de l’apparence ou de la texture, ce qui rend difficile l’évaluation de la salubrité de la viande sur la base des seuls indices sensoriels. Quand elles sont toutefois présentes, l’odeur nauséabonde est causée par des substances chimiques telles que la cadavérine et la putrescine, qui se forment lors de la décomposition de la viande et peuvent provoquer des nausées, des vomissements et des crampes abdominales, ainsi que des maux de tête, des bouffées de chaleur ou une chute de tension artérielle.

Les viandes avariées sont truffées de dangers d’ordre bactérien. Escherichia coli, un contaminant courant du bœuf, produit la toxine Shiga qui bloque la capacité de certaines cellules à fabriquer des protéines et peut provoquer une maladie rénale dangereuse appelée syndrome hémolytique et urémique.

La volaille est souvent porteuse de la bactérie Campylobacter jejuni qui produit une toxine qui envahit les cellules gastro-intestinales, ce qui entraîne souvent des diarrhées, des crampes abdominales et de la fièvre. Cette bactérie peut également provoquer une réaction du système immunitaire qui attaque ses propres nerfs. Cela peut déclencher une maladie rare appelée syndrome de Guillain-Barré qui peut entraîner une paralysie temporaire.

Les salmonelles présentes notamment dans les œufs et le poulet insuffisamment cuits, causent l’un des types d’intoxication alimentaire les plus courants. Elles provoquent des diarrhées, des nausées et des crampes abdominales. Elles libèrent des toxines dans la muqueuse de l’intestin grêle et du gros intestin, qui provoquent une inflammation importante.

(En France, l’Agence nationale de sécurité sanitaire – Anses – rappelle que les aliments crus ou insuffisamment cuits, surtout d’origine animale, sont les plus concernés par les contaminations par les bactéries du genre « Salmonella » : les œufs et les produits à base d’œufs crus, les viandes -bovines, porcines, incluant les produits de charcuterie crue, et de volailles –, les fromages au lait cru. L’Anses insiste aussi sur le fait que les œufs et les aliments à base d’œufs crus – mayonnaise, crèmes, mousse au chocolat, tiramisu, etc.- sont à l’origine de près de la moitié des toxi-infections alimentaires collectives dues à Salmonella, ndlr).

Clostridium perfringens attaque également l’intestin, mais ses toxines agissent en endommageant les membranes cellulaires. Enfin, Clostridium botulinum, qui peut se cacher dans les viandes mal conservées ou vendues en conserves, produit la toxine botulique, l’un des poisons biologiques les plus puissants, qui se révèle mortelle même en très petites quantités.

Il est impossible que la viande soit totalement exempte de bactéries. Mais plus elle reste longtemps au réfrigérateur – ou pire, sur votre comptoir ou dans votre sac de courses – plus ces bactéries se multiplient. Et vous ne pouvez pas les éliminer toutes en les cuisant. La plupart des bactéries meurent à des températures sûres pour la viande – entre 63-74 °C (145 et 165 degrés Fahrenheit) – mais de nombreuses toxines bactériennes sont stables à la chaleur et survivent à la cuisson.

The Conversation

Brad Reisfeld ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

16.11.2025 à 15:39

L’affrontement sur la taxe Zucman : une lutte de classe ?

Gérard Mauger, Sociologue, directeur de recherche émérite au CNRS, chercheur au Centre européen de sociologie et de science politique, Université Paris 1 Panthéon-Sorbonne
Le débat sur la taxe Zucman a révélé un violent clivage de classe entre une infime minorité de patrons et l’immense majorité des Français.
Texte intégral (1326 mots)

Le terme de lutte des classes est peu utilisé depuis l’effondrement du communisme. Pourtant, le débat sur la taxe Zucman révèle un violent clivage de classe entre une infime minorité de très grandes fortunes et l’immense majorité des Français.


Pendant près de six mois, le projet de taxe Zucman a focalisé l’intérêt médiatique et politique. Il a aussi contribué à mettre en évidence un clivage de classes habituellement occulté par une forme « d’embargo théorique » qui pèse depuis le milieu des années 1970 sur le concept de classe sociale, comme sur tous les concepts affiliés (à tort ou à raison) au marxisme.

Retour sur le feuilleton de la taxe Zucman

Le 11 juin dernier, Olivier Blanchard (économiste en chef du Fonds monétaire international entre 2008 et 2015), Jean Pisani-Ferry (professeur d’économie à Sciences Po Paris et directeur du pôle programme et idées d’Emmanuel Macron en 2017) et Gabriel Zucman (professeur à l’École normale supérieure) publiaient une tribune où ils se prononçaient, en dépit de leurs divergences, en faveur d’un impôt plancher de 2 % sur le patrimoine des foyers fiscaux dont la fortune dépasse 100 millions d’euros (environ 1 800 foyers fiscaux), susceptible de rapporter de 15 milliards à 25 milliards d’euros par an au budget de l’État (les exilés fiscaux éventuels restant soumis à l’impôt plancher cinq ans après leur départ).

Dès la rentrée, les médias ouvraient un débat sur fond de déficit public et de « dette de l’État » que relançait chaque apparition de Gabriel Zucman. Sur un sujet économique réputé aride, ils recyclaient la confrontation à la fois inusable et omnibus entre « intellectualisme », « amateurisme » sinon « incompétence », imputés aux universitaires, et « sens pratique » des « hommes de terrain » confrontés aux « réalités » (de la vie économique) et/ou entre « prise de position partisane » et « neutralité », « impartialité », « apolitisme », attribués à la prise de position opposée. Le débat s’étendait rapidement aux réseaux sociaux : il opposait alors les partisans de la taxe qui invoquaient la « justice fiscale et sociale » à des opposants qui dénonçaient « une mesure punitive », « dissuasive pour l’innovation et l’investissement ».

Le 20 septembre, dans une déclaration au Sunday Times, Bernard Arnault, PDG du groupe LVMH et première fortune de France, avait décliné in extenso les deux volets de l’anti-intellectualisme médiatique en mettant en cause la « pseudo-compétence universitaire » de Gabriel Zucman et en dénonçant « un militant d’extrême gauche » dont « l’idéologie » vise « la destruction de l’économie libérale ».

Le Medef lui avait emboîté le pas. En guerre contre la taxe Zucman, Patrick Martin, affirmant que Zucman « serait aussi économiste que [lui] serait danseuse étoile au Bolchoï », annonçait un grand meeting le 13 octobre à Paris. Pourtant, il avait dû y renoncer face à la division créée par cette initiative au sein du camp patronal : l’U2P et la CPME (artisans et petites et moyennes entreprises) avaient décliné l’invitation : « On ne défend pas les mêmes intérêts », disaient-ils.

Mi-septembre, selon un sondage Ifop, 86 % des Français plébiscitaient la taxe Zucman.

Une bataille politique

À ces clivages que traçait le projet de taxe Zucman au sein du champ médiatique (audiovisuel public, d’un côté, et « supports » contrôlés par une dizaine de milliardaires, de l’autre) et de l’espace social (où les milliardaires s’opposaient à tous les autres) correspondaient approximativement ceux du champ politique. Portée initialement par une proposition de loi de Clémentine Autain et Éva Sas (groupe Écologiste et social), la taxe Zucman avait d’abord été adoptée par l’Assemblée nationale, le 20 février, avant d’être rejetée par le Sénat, le 12 juin.

Mais l’opportunité du projet se faisait jour au cours de l’été avec l’exhortation de François Bayrou à « sortir du piège mortel du déficit et de la dette », puis à l’occasion de l’invitation de Sébastien Lecornu à débattre du projet de budget du gouvernement « sans 49.3 ».

Le 31 octobre dernier, non seulement la taxe Zucman était balayée par une majorité de députés, mais également « sa version light » portée par le Parti socialiste (PS). Mesure de « compromis », la taxe « Mercier » (du nom d’Estelle Mercier, députée PS de Meurthe-et-Moselle) pouvait sembler plus ambitieuse, mais, en créant des « niches et des « exceptions », elle comportait, selon Gabriel Zucman, « deux échappatoires majeures » qui amorçaient « la machine à optimisation ».

Refusant de « toucher à l’appareil productif », selon sa porte-parole Maud Bregeon, le gouvernement Lecornu s’y opposait. Les députés d’Ensemble pour la République (députés macronistes) votaient contre (60 votants sur 92 inscrits) comme ceux de la Droite républicaine (28 sur 50). Le Rassemblement national (RN), qui s’était abstenu en février, s’inscrivait désormais résolument contre ce projet de taxe (88 sur 123) que Marine Le Pen décrivait comme « inefficace, injuste et dangereuse puisqu’elle entraverait le développement de nos entreprises ». Soixante-et-un députés socialistes et apparentés sur 69, 60 députés sur 71 de La France insoumise (LFI), 33 députés sur 38 du groupe Écologiste et social ainsi que 12 députés sur 17 du groupe Gauche démocrate et républicaine avaient voté pour le projet. Les députés LFI appelaient alors à la censure du gouvernement.

La lutte des 1 % les plus riches pour leurs privilèges

L’essor du néolibéralisme au cours des cinquante dernières années a certes transformé la morphologie des classes sociales (à commencer par celle de la « classe ouvrière » délocalisée et précarisée), accréditant ainsi l’avènement d’une « société post-industrielle », l’extension indéfinie d’une « classe moyenne » envahissante ou l’émergence d’une « société des individus » ou encore la prééminence des clivages (de sexe, de phénotype, d’âge, etc.) associés au revival des « nouveaux mouvements sociaux ».

Pourtant, le débat sur la taxe Zucman révèle bien un clivage de classe – comment l’appeler autrement ? – entre le 1 % et les 99 %, et l’âpreté de la lutte des 1 % pour la défense de leurs privilèges. Tout se passe comme si, en effet, à l’occasion de ce débat, s’était rejoué en France, sur la scène politico-médiatique, le mouvement Occupy Wall Street de septembre 2011 qui avait pour mot d’ordre :

« Ce que nous avons tous en commun, c’est que nous sommes les 99 % qui ne tolèrent plus l’avidité des 1 % restants. »

The Conversation

Gérard Mauger ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

16.11.2025 à 15:38

Tanzanie : la fermeture de l’espace numérique, élément clé de la répression

Fabrice Lollia, Docteur en sciences de l'information et de la communication, chercheur associé laboratoire DICEN Ile de France, Université Gustave Eiffel
La jeunesse tanzanienne, très connectée, se révolte contre des élections qu’elle juge truquées. Aussitôt, parallèlement à la répression des manifestations, le pouvoir coupe Internet.
Texte intégral (1904 mots)

Face au puissant mouvement de contestation qui s’est emparé de la Tanzanie à la suite des élections générales, l’une des réponses du pouvoir a consisté à couper les réseaux sociaux. Dans ce grand pays d’Afrique de l’Est, comme dans bien d’autres pays aujourd’hui, la maîtrise de l’espace numérique est devenue un aspect central de la répression.


Le 29 octobre 2025, la Tanzanie a tenu des élections générales censées prolonger la trajectoire démocratique d’un pays souvent vu comme un îlot de stabilité politique en Afrique de l’Est.

Mais dans un climat déjà tendu – manifestations sporadiques à Zanzibar et Arusha, arrestations d’opposants, présence accrue de force de sécurité et fermeture partielle des médias critiques –, le scrutin s’est transformé en crise politique majeure. La présidente sortante Samia Suluhu Hassan, devenue présidente de Tanzanie en mars 2021 à la suite du décès du président John Magufuli, dont elle était la vice-présidente, a été élue avec près de 98 % des voix dans un contexte où le principal parti d’opposition, Chadema, avait été marginalisé et plusieurs de ses dirigeants arrêtés.

Dès l’annonce des résultats, des manifestations de protestation ont éclaté à Dar es Salaam (la plus grande ville du pays, où vivent environ 10 % des quelque 70 millions d’habitants du pays), à Mwanza et à Arusha. Les affrontements auraient fait, selon les sources, entre 40 et 700 morts, et plus d’un millier de blessés.

Face à la propagation des manifestations, le pouvoir a réagi par un couvre-feu national, un déploiement militaire dans les grandes villes et une coupure d’accès à Internet pendant environ 5 jours, invoquant la prévention de la désinformation comme mesure de sécurité. L’accès à Internet a été partiellement rétabli, mais les restrictions sur les réseaux sociaux et les plates-formes de messagerie persistent.

Ce triptyque autoritaire – fermeture politique, verrouillage territorial et blackout numérique – a transformé une contestation électorale en véritable crise systémique de confiance entre État et citoyens, entre institutions et information, et entre stabilité et légitimité.

Gouverner par le silence : quand le contrôle de l’information devient une stratégie de stabilité

Le contrôle de l’information comme pratique de gouvernement

Dans la perspective des sciences de l’information et de la communication (SIC), la séquence tanzanienne illustre une tendance plus large qui est celle de la transformation de la gestion de l’information en technologie de pouvoir (voir notamment, Michel Foucault, Surveiller et punir. Naissance de la prison, 1975 ; Gilles Deleuze, Post-scriptum sur les sociétés de contrôle, 1990).

Le blackout numérique ne vise pas seulement à contenir la désinformation ; il reconfigure les conditions mêmes de la visibilité. Comme le souligne Pierre Musso dès 2003 dans Télécommunications et philosophie des réseaux, l’espace numérique n’est plus un simple médium mais un espace politique. En contrôler l’accès, c’est aussi gouverner la perception.

Privés de réseaux sociaux, les citoyens perdent sur-le-champ leurs canaux d’expression. Les médias indépendants se retrouvent aveugles et les ONG ne peuvent plus documenter les violences.

C’est ainsi que l’État redevient le seul producteur de discours légitime : une régie symbolique de l’ordre public, pour reprendre la notion de Patrick Charaudeau (2005) sur la mise en scène du pouvoir.

Cette stratégie s’inscrit dans un continuum déjà observé lors d’autres scrutins africains (Ouganda 2021, Tchad 2021, Sénégal 2024). Elle marque une mutation du contrôle politique où il ne s’agit plus de réprimer la parole mais de désactiver les infrastructures mêmes de la parole.

La fabrique de la stabilité par la censure

Le discours officiel invoque la lutte contre les fausses informations pour justifier les coupures. Mais l’analyse sémiotique révèle un glissement de sens. L’ordre public devient synonyme de silence collectif et la stabilité politique se construit sur la neutralisation des espaces numériques de débat.

Les travaux en communication politique (Dominique Wolton, 1997) montrent que la démocratie suppose du bruit, du conflit, du débat et que le silence n’est pas l’ordre mais plutôt la suspension de la communication sociale.

Cette logique de stabilité performative donne l’illusion qu’il suffit que l’État contrôle la perception du désordre pour produire l’image d’un ordre.

Dans l’analyse du cas tanzanien, cette mise en scène du calme repose sur une invisibilisation dans la mesure où le calme apparent des réseaux remplace la réalité conflictuelle du terrain. Ce phénomène de stabilité performative, c’est-à-dire ici le calme apparent des réseaux traduisant une stabilité imposée, a déjà été observé au Cameroun et en Ouganda. Dans ces cas, la coupure d’Internet fut utilisée pour maintenir une image d’ordre pendant les scrutins contestés.

Or, la Tanzanie est un pays jeune. Près de 65 % de sa population a moins de 30 ans. Cette génération connectée via TikTok, WhatsApp ou X a intégré les réseaux sociaux non seulement comme espace de loisir mais aussi comme lieu d’existence politique. La priver soudainement d’accès dans ce moment précis porte à l’interprétation inévitable d’un effacement d’une part de la citoyenneté numérique.

Cette fracture illustre une asymétrie de compétences médiatiques qui se caractérise par le fait que le pouvoir maîtrise les outils pour surveiller tandis que les citoyens les mobilisent pour exister. Le conflit devient ainsi info-communicationnel dans la mesure où il se joue sur les dispositifs de médiation plutôt que dans la confrontation physique.

Aussi les répercussions sont-elles économiquement et symboliquement élevées.

Les interdictions de déplacement paralysent le commerce intérieur et les ports, les coupures d’Internet entraînent une perte économique estimée à 238 millions de dollars (un peu plus de 204 millions d’euros) et les ONG et entreprises internationales suspendent leurs activités face au manque de visibilité opérationnelle.

Mais au-delà du coût économique, la coupure d’Internet produit un effet délétère où la relation de confiance entre État et citoyens est rompue. L’information, en tant que bien commun, devient ici un instrument de domination.

Crise de la médiation et dérive sécuritaire en Afrique numérique

En Tanzanie, la circulation de l’information repose désormais sur des dispositifs de contrôle, non de transparence. L’État agit comme gatekeeper unique en filtrant les récits selon une logique de sécurité nationale. On assiste ainsi à une crise de la médiation où le lien symbolique entre institutions, médias et citoyens se défait.

Cette rupture crée une désintermédiation forcée où des circuits parallèles (VPN, radios communautaires, messageries clandestines) émergent, mais au prix d’une fragmentation du débat public. La sphère publique devient une mosaïque de micro-espaces informels, sans régulation et favorisant l’amplification des rumeurs et de discours extrêmes.

La situation tanzanienne dépasse le cadre du pays, en mettant en évidence les tensions d’un continent engagé dans une modernisation technologique sans démocratisation parallèle. L’Afrique de l’Est, longtemps vitrine du développement numérique avec le Kenya et le Rwanda, découvre que l’économie digitale ne garantit pas la liberté numérique.


À lire aussi : Rwanda, Maroc, Nigeria, Afrique du Sud : les quatre pionniers des nouvelles technologies en Afrique


Là où les infrastructures se développent plus vite que les institutions, les réseaux deviennent des zones grises de gouvernance. Ni pleinement ouverts ni totalement fermés, ils sont constamment surveillés. Le cas tanzanien incarne ainsi un moment charnière où la technologie cesse d’être vecteur de progrès pour devenir vecteur de pouvoir.

Dans une approche SIC, la question centrale reste celle de la sécurité communicationnelle.

Peut-on parler de sécurité nationale lorsque la sécurité informationnelle des citoyens est compromise ? La coupure d’Internet ne prévient pas la crise mais la diffère, la rendant plus imprévisible et violente. Cette distinction entre sécurité perçue et sécurité vécue est la preuve que la stabilité ne se mesure pas à l’absence de bruit mais à la qualité du lien informationnel entre les acteurs.

Une démocratie sous silence

La Tanzanie illustre une mutation du pouvoir à l’ère numérique : gouverner, c’est aussi, désormais, gérer la visibilité. Mais la maîtrise de cette visibilité ne suffit pas à produire la légitimité. En restreignant l’accès à l’information, le régime tanzanien a peut-être gagné du temps mais il a sûrement perdu de la confiance. Pour les observateurs africains et internationaux, cette crise n’est pas un accident mais le symptôme d’une Afrique connectée, mais débranchée de sa propre parole.

The Conversation

Fabrice Lollia ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

16.11.2025 à 15:38

Pourquoi le XXIe siècle sera « le siècle des animaux »

Réjane Sénac, Directrice de recherches, CNRS, politiste, Sciences Po
Comment intégrer les animaux dans nos textes de lois ? S’ils ont des droits, ont-ils aussi des devoirs ?
Texte intégral (1792 mots)

Au XXe siècle, les combats pour plus d’égalité ont permis à de nombreux groupes sociaux de devenir des sujets de droit. Cette progression vers davantage d’inclusivité pourrait faire du XXIe siècle le siècle des animaux. Mais comment les intégrer dans nos textes de loi ? Si les animaux ont des droits, ont-ils aussi des devoirs ?

Dans cet extrait de son essai « Par effraction. Rendre visible la question animale », aux éditions Stock/Philosophie magazine (2025), la politiste Réjane Sénac sonde ces questions.


Au XXe siècle, les mobilisations contre les inégalités ont eu pour point commun de revendiquer que chaque humain soit reconnu et traité comme un égal, dans la dénonciation des effets imbriqués du sexisme, du racisme et des injustices économiques et sociales. Pour cela, elles ont remis en cause l’animalisation de certains groupes humains, qu’il s’agisse des femmes, des personnes racisées, des personnes en situation de handicap et/ou des « pauvres ». L’animalisation a en effet été une des justifications centrales de l’exclusion hors de la citoyenneté active de ces groupes d’individus renvoyés à leur prétendue incapacité à être du côté de la raison du fait de leurs « qualités » et missions dites naturelles. L’objectif a été d’intégrer ces groupes dans la communauté des égaux en les faisant passer de l’autre côté de la barrière instaurée entre l’animalité et l’humanité. La légitimité et les conséquences de cette barrière ont ainsi été abordées à travers le prisme de l’émancipation humaine, et non celui de la domination des animaux non humains.

Dans l’approche antispéciste, le statut moral accordé aux animaux leur confère une reconnaissance comme sujets de droit, non pas pour accéder à des droits équivalents à ceux des humains (par exemple le droit de vote ou de mariage), mais à des droits adaptés à leurs besoins. L’enjeu est alors de penser la cohabitation la plus juste possible des intérêts, potentiellement divergents, des différentes espèces, humaines et non humaines. Dans Considérer les animaux. Une approche zooinclusive, Émilie Dardenne propose une démarche progressive dans la prise en compte des intérêts des animaux, au-delà de l’espèce humaine.

Elle présente des pistes concrètes de transition aux niveaux individuel et collectif, qui vont de la consommation aux choix de politique publique en passant par l’éducation et la formation. Elle propose des outils pratiques pour aider à porter des changements durables. Au niveau individuel, la zooinclusivité consiste par exemple à prendre en compte les besoins de l’animal que l’on souhaite adopter et l’engagement – financier, temporel… – qu’une telle démarche engendrerait avant de prendre la décision d’avoir un animal dit de compagnie. Au niveau des politiques publiques, la zooinclusivité prendrait par exemple la forme de l’inscription des droits des animaux dans la Constitution afin de ne pas en rester à une proclamation de leur reconnaissance comme « des êtres vivants doués de sensibilité » (article 515 du Code civil depuis 2015) ou des « êtres sensibles » (article L214 1 du Code rural depuis 1976), mais de permettre qu’ils acquièrent une personnalité juridique portant des droits spécifiques et adaptés. Le rôle fondamental de la Constitution est à ce titre soulevé par Charlotte Arnal, animaliste, pour qui « un projet de société commence par une Constitution, les animaux faisant partie de la société, elle doit les y intégrer ». Cette mesure, qu’elle qualifie de symbolique, « se dépliera aussi concrètement dans le temps, dans les tribunaux ». C’est dans cette perspective que Louis Schweitzer, président de la Fondation Droit Animal, Éthique et Sciences (LFDA), a pour ambition de faire de la Déclaration des droits de l’animal proclamée à l’Unesco en 1978, et actualisée en 2018 par la LFDA, un outil pédagogique diffusé dans les lieux publics et les écoles, puis qu’elle soit transposée dans la loi.

À travers Animal Cross, une association généraliste de protection animale, qu’il a cofondée en 2009 et qu’il préside, Benoît Thomé porte aussi cet horizon. Il défend l’intégration d’un article 0 comme base à notre système juridique, qui serait formulé en ces termes : « Tous les êtres vivants, domaines de la nature, minéral, humain, végétal, animal, naissent et demeurent libres et égaux en devoirs et en droits. » À l’argument selon lequel on ne peut pas accorder de droits aux animaux car ils ne peuvent pas assumer de devoirs, il répond que « les animaux font plus que leurs devoirs avec tout ce qu’ils font pour nous et les autres êtres vivants. Les êtres humains se privent d’une belle vie en ne voyant pas la beauté des relations avec les animaux ». Il cite le philosophe Tom Regan, auteur entre autres du célèbre article « The Rights of Humans And Other Animals » en 1986, pour préciser que, si l’on pose le critère de l’autonomie rationnelle comme une condition de l’accès aux droits moraux, il faut le refuser à tous les humains dépourvus de cette caractéristique, comme les bébés et les déficients intellectuels graves. Le critère plus inclusif de la capacité à ressentir des émotions étant celui qui est retenu pour les humains, en vertu de l’exigence de cohérence, il est alors logique, selon lui, d’attribuer des droits à tous les êtres sentients, qu’ils soient humains ou non.

Benoît Thomé souligne son désaccord avec Tom Regan sur le fait de considérer les animaux comme des patients moraux et non des agents moraux au sens où, comme les personnes vulnérables, les enfants ou les personnes en situation de handicap, ils auraient des droits mais ne pourraient pas accomplir leurs devoirs. Il souligne que les animaux accomplissent « leurs devoirs envers nous, êtres humains, et envers la nature et les écosystèmes pour les animaux sauvages, naturellement et librement, et non comme un devoir. Il faut donc “désanthropiser” ce concept pour le comprendre au sens de don, service rendu aux autres êtres vivants, participation aux écosystèmes ». Il précise que c’est « le sens de l’histoire » d’étendre les droits « de la majorité aux plus vulnérables », cela a été le cas pour les humains, c’est maintenant l’heure des animaux non humains.

Sans nier la réalité historique de l’animalisation des personnes ayant une déficience intellectuelle, des voix telles que celles des philosophes Licia Carlson et Alice Crary invitent le mouvement antispéciste à être vigilant vis-à-vis de « l’argument des cas marginaux » pour justifier l’extension de la considération morale aux animaux non humains. En écho aux critiques de la philosophe et militante écoféministe Myriam Bahaffou sur l’usage de l’analogie avec le sexisme et le racisme dans le discours antispéciste, elles pointent une instrumentalisation de la figure du handicap mental pouvant paradoxalement renforcer les processus de déshumanisation qu’il prétend combattre.

Le lien entre l’agrandissement de la communauté politique et juridique au XXe siècle et les questions posées au XXIe siècle par la question animale est également abordé par Amadeus VG Humanimal, fondateur et président de l’association FUTUR. Il inscrit les revendications antispécistes dans une continuité historique en précisant que « le cercle de compassion ne fait que s’agrandir, à travers les droits civiques au XIXe siècle puis les droits des femmes au XXe et ceux des animaux au XXIe siècle ». Le XXIe siècle sera donc « le siècle des animaux », l’enjeu est de « repousser le nuage du spécisme en proposant une nouvelle vision du monde ». Sans minorer le poids actuel, notamment électoral, de l’extrême droite et du populisme, il considère que c’est « un backlash temporaire », comme cela a été le cas pour les groupes humains exclus des droits de l’homme. Selon lui, l’ombre qui a longtemps occulté les droits des animaux se dissipera progressivement. De la même manière que la décision du 21 février 2021 du tribunal administratif de reconnaître l’État responsable d’inaction face à la lutte contre le réchauffement climatique est considérée comme une victoire écologique historique, qualifiée d’Affaire du siècle, il ne doute pas que, concernant la question animale, l’« Affaire du steak » viendra.

The Conversation

Réjane Sénac ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

16.11.2025 à 10:15

Pourquoi davantage de dette européenne favorisera la croissance et la consolidation des finances publiques des pays de l’UE

Christakis Georgiou, Spécialiste de l'économie politique de la construction européenne, Université Sorbonne Nouvelle, Paris 3
Quatre mécanismes par lesquels l’émission de dette par l’UE pourrait profiter à ses États membres et soutenir une croissance durable, tout en offrant une alternative aux bons du Trésor états-unien.
Texte intégral (2484 mots)
L’instabilité politique aux États-Unis accroît la demande d’une alternative aux actifs libellés en dollar. L’euro en tête ? CarlosAmarillo/Shutterstock

L’émission de dette par l’Union européenne, lancée par le plan de relance européen du 27 mai 2020 (Next Generation EU), peut profiter à ses États membres. Car qui dit dette, dit obligation, mais aussi actif financier. Un actif sûr européen demandé par les investisseurs du monde entier, comme alternative aux bons du Trésor fédéral états-unien.


Alors que l’impératif de réduction du déficit budgétaire continue d’alimenter la crise politique en France et que les négociations s’engagent sur le prochain cadre financier pluriannuel (CFP) de l’Union européenne (UE), cette dernière continue de monter en puissance en tant qu’émetteur de dette obligataire.

Cet essor est du au plan de relance européen proposé par la Commission européenne le 27 mai 2020, à savoir Next Generation EU (NGEU). Celui-ci semble avoir ouvert la voie vers une capacité d’emprunt européenne permanente. Durant l’été 2025, l’UE met au point le programme SAFE (Security Action for Europe) qui prévoit 150 milliards d’euros de dette, tandis que la Commission européenne propose la création d’un instrument de gestion de crise. Celui-ci autoriserait l’exécutif européen à lever jusqu’à 400 milliards d’euros le cas échéant.

Dans cet article, j’explique pourquoi l’émission pérenne et accrue de dette européenne contribuera à la consolidation des finances publiques des États membres. Raison de plus pour l’UE d’accélérer dans cette direction.

Ce que veulent les investisseurs

Le point de départ de ce raisonnement est simple : que demandent les investisseurs en la matière ?

En 1999, la création de l’Union économique et monétaire (UEM) crée le potentiel de défauts souverains en Europe, c’est-à-dire le risque financier qu’un État membre ne rembourse pas ses dettes. L’UEM a soustrait la création monétaire au contrôle des États membres pour la confier à la Banque centrale européenne. Sans ce contrôle, les États de l’Union européenne perdent la certitude de pouvoir honorer leurs obligations souveraines car ils renoncent à la possibilité d’avoir recours à la création monétaire pour se financer.

Pour un ensemble de raisons, ce risque financier potentiel déstabilise le fonctionnement des marchés des capitaux, car il élimine le statut d’actif sûr dont jouissaient les titres de dette publique jusque-là.

C’est la raison pour laquelle les investisseurs financiers ont très tôt compris que l’Union économique et monétaire devrait être complétée par la création d’un actif sûr européen, soit d’une part en recourant à l’émission et la responsabilité conjointes des États de l’UE, soit d’autre part à l’émission de titres de dette par la Commission européenne.

Une alternative aux actifs libellés en dollar

L’offre de ce nouvel actif financier européen devrait être volumineuse, fréquente et pérenne de manière à s’ériger en actif financier de référence et valeur refuge dans le marché financier européen. Pour la quasi-totalité des investisseurs, le modèle à reproduire est celui du marché états-unien de la dette publique, dont le pivot est le bon du Trésor fédéral.


À lire aussi : Face à la dette publique, « trois » Europe et une seule monnaie


À cela s’ajoute une demande croissante de la part des investisseurs extraeuropéens pour une alternative aux actifs libellés en dollar. Cette tendance est apparue depuis une dizaine d’années avec l’arsenalisation croissante du dollar par l’administration fédérale états-unienne. Le terme « arsenalisation du dollar » renvoie à un ensemble de pratiques à visée géopolitique, comme la menace d’interdire l’accès aux marchés financiers américains ou des poursuites judiciaires pour non-respect de sanctions (contre l’Iran, par exemple) prononcées par l’administration. Depuis un an, l’instabilité politique aux États-Unis, notamment la menace de réduire l’indépendance de la Réserve fédérale, a accru cette demande de diversification. L’euro est bien placé pour offrir une alternative, mais à condition de pouvoir offrir un actif aussi sûr et liquide que le bon du Trésor fédéral.

Étant donné que l’évolution de l’UE en émetteur souverain est une demande forte des investisseurs, par quels mécanismes cela pourrait-il contribuer à la consolidation des finances publiques des États membres ?

Premier canal : l’offre accrue d’actifs sûrs rassurera les investisseurs

Le premier mécanisme concerne l’effet général sur l’évaluation des risques de crédit par les investisseurs. L’augmentation nette de l’offre d’actifs sûrs aura un effet général rassurant et par conséquent réduira les primes de risque, mais aussi les spreads (différence de taux d’intérêt d’une obligation avec celui d’une obligation de référence de même durée) entre États de l’UE.

Un exemple de cette dynamique est l’expérience de l’automne 2020, avant et après l’annonce de l’accord sur le plan de relance européen. Tant que cet accord éludait les dirigeants européens, la fébrilité était palpable sur les marchés et les spreads. Celui de l’Italie en particulier avait tendance à s’écarter. L’annonce de l’accord a immédiatement inversé la dynamique. La mise en œuvre du programme fait qu’aujourd’hui les États membres du sud de l’UE – Italie, Espagne, Portugal – empruntent à des conditions similaires à celles de la France.

Le plan de relance européen de 2020 (baptisé « Next Generation EU »), proposé par la Commission européenne le 27 mai 2020, vise à pallier les conséquences économiques et sociales de la pandémie de Covid-19. Son montant est fixé à 750 milliards d’euros. PPPhotos/Shutterstock

Deuxième canal : attraction accrue de capitaux extraeuropéens

Le deuxième mécanisme répond à la demande de diversification des investisseurs extraeuropéens. En leur proposant une alternative crédible aux actifs en dollar, l’émission accrue de dette européenne attirera un surcroît de flux extraeuropéens vers l’Europe. Cela augmentera l’offre de crédit en Europe, ce qui diminuera les taux d’intérêt de façon générale et facilitera le financement de l’économie européenne.

Troisième canal : emprunter pour investir agira sur le dénominateur

Le troisième mécanisme dépend de l’utilisation des ressources collectées par l’émission de dette. Si, comme avec le plan de relance européen Next Generation EU, ces ressources sont affectées à l’investissement public, notamment en infrastructures, cela améliorera la croissance potentielle.

L’accélération de la croissance générera un surplus de recettes fiscales, tout en agissant sur le dénominateur (à savoir le PIB, auquel on rapporte le stock de dette publique pour obtenir le ratio qui sert le plus souvent de référence dans les débats sur la soutenabilité des dettes). Les effets bénéfiques attendus sont aujourd’hui visibles dans les principaux États membres bénéficiaires de ce plan de relance, à savoir l’Italie et l’Espagne.

L’amélioration des perspectives de croissance aura aussi un effet spécifiquement financier. Pourquoi ? Car elle contribuera à retenir davantage de capitaux européens qui aujourd’hui s’exportent aux États-Unis pour chercher des rendements plus élevés dans les start-ups du pays de l’Oncle Sam. En d’autres termes, la résorption de l’écart de croissance entre États-Unis et Europe offrira relativement plus d’opportunités de placement en Europe même à l’épargne européenne.

Quatrième canal : favoriser la constitution de l’union du marché des capitaux

Un actif sûr européen est la pièce maîtresse pour enfin aboutir à l’union des marchés des capitaux. L’offre d’un actif financier de référence, ou benchmark asset, contribuera à uniformiser les conditions financières dans les États de l’UE, favorisera la diversification et la dénationalisation des expositions au risque et fournira du collatéral en grande quantité pouvant servir à garantir les transactions transfrontières au sein de l’UE.

Cette dernière fonction des titres de dette publique (servir de collatéral dans les transactions financières) est capitale pour le fonctionnement du système financier contemporain. Lorsque les banques et autres firmes financières ont besoin de liquidités, elles se tournent vers d’autres firmes financières et leur en empruntent en garantissant la transaction par des titres de dette publique.

L’utilisation de ces titres à cette fin découle de leur statut d’actif sûr. C’est la raison pour laquelle un actif sûr européen sous forme de titres émis par la Commission européenne favorisera les transactions transfrontières : une banque portugaise pourra beaucoup plus facilement emprunter des liquidités à un assureur allemand si la transaction est garantie par des titres européens plutôt que par des titres portugais par exemple.

L’union des marchés des capitaux, c’est-à-dire l’élimination du biais national dans la composition des portefeuilles d’actifs, améliorera l’allocation globale du capital en permettant de mieux aligner épargne et investissements à travers le marché européen. Cela était précisément l’un des effets principaux escomptés lors de la création de l’Union économique et monétaire (UEM).

Durant la première décennie de son existence, cette intégration financière a eu lieu, bien que cela servît à financer des bulles de crédit dans la périphérie qui alimentèrent la crise de l’Union économique et monétaire en 2009-2012. Les flux accrus de capitaux vers les États membres du sud de l’Europe ont diminué drastiquement le coût de financement des entreprises et des autorités publiques mais ont principalement été canalisés vers des investissements improductifs et spéculatifs comme la bulle immobilière en Espagne. Or, intégration financière et bulles de crédit ne sont pas synonymes : si les conditions sont mises en place pour canaliser le surcroît de flux de capitaux transfrontières vers les investissements productifs, la hausse de la croissance sera durable.

The Conversation

Christakis Georgiou ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

50 / 50

 

  GÉNÉRALISTES
Ballast
Fakir
Interstices
Lava
La revue des médias
Le Grand Continent
Le Diplo
Le Nouvel Obs
Lundi Matin
Mouais
Multitudes
Politis
Regards
Smolny
Socialter
The Conversation
UPMagazine
Usbek & Rica
Le Zéphyr
 
  Idées ‧ Politique ‧ A à F
Accattone
Contretemps
A Contretemps
Alter-éditions
CQFD
Comptoir (Le)
Déferlante (La)
Esprit
Frustration
 
  Idées ‧ Politique ‧ i à z
L'Intimiste
Jef Klak
Lignes de Crêtes
NonFiction
Nouveaux Cahiers du Socialisme
Période
Philo Mag
Terrestres
Vie des Idées
 
  ARTS
Villa Albertine
 
  THINK-TANKS
Fondation Copernic
Institut La Boétie
Institut Rousseau
 
  TECH
Dans les algorithmes
Framablog
Gigawatts.fr
Goodtech.info
Quadrature du Net
 
  INTERNATIONAL
Alencontre
Alterinfos
CETRI
ESSF
Inprecor
Journal des Alternatives
Guitinews
 
  MULTILINGUES
Kedistan
Quatrième Internationale
Viewpoint Magazine
+972 mag
 
  PODCASTS
Arrêt sur Images
Le Diplo
LSD
Thinkerview
 
Fiabilité 3/5
Slate
 
Fiabilité 1/5
Contre-Attaque
Issues
Korii
Positivr
🌞