21.11.2025 à 19:30
Uniforme à l’école : enquête au cœur de l’expérimentation
Texte intégral (1872 mots)
Depuis la rentrée 2024, et jusqu’en 2026, une centaine d’établissements scolaires expérimentent, du primaire au lycée, le port d’une tenue identique obligatoire pour tous les élèves. Comment cette mesure est-elle perçue et vécue au quotidien ? Premiers retours de terrain.
C’est une véritable révolution vestimentaire qui s’invite à l’école. Depuis la rentrée de septembre 2024, une centaine d’établissements – écoles, collèges et lycées – expérimentent le port d’une tenue commune obligatoire pour tous les élèves. Derrière cette initiative portée par le ministère de l’éducation nationale s’affiche l’ambition de renforcer le sentiment d’appartenance, d’atténuer les inégalités sociales, d’améliorer le climat scolaire et de lutter contre le prosélytisme.
L’expérience devait être accompagnée d’un appel à manifestation d’intérêt (AMI) et suivie par un comité d’experts, en lien avec la Direction générale de l’enseignement scolaire (DGESCO) et les services statistiques du ministère (DEPP).
Au terme de deux années, si les résultats sont jugés concluants, le ministère envisage la généralisation du port de l’uniforme dans l’ensemble des écoles et établissements du pays.
Une rupture dans l’histoire de l’école française
Imposer le port d’une tenue réglementée marque une véritable rupture dans l’histoire de l’école française. En effet, malgré l’imaginaire collectif nostalgique d’une école d’antan, ordonnée et protégée des turbulences du monde, la France n’a jamais connu de politique imposant l’uniforme. Seuls quelques rares établissements privés catholiques ont inscrit cette pratique à leurs règlements intérieurs.
Dans le public, les élèves ont pu porter des blouses pour des raisons pratiques, mais sans recherche d’uniformité, et cet usage a peu à peu disparu dans les années 1970.
L’idée d’un uniforme scolaire émerge véritablement au début des années 2000, dans un contexte politique et éducatif centré sur la thématique de la restauration de l’autorité, et nourri par les polémiques à propos des tenues jugées provocantes de certaines adolescentes, ou encore du port du voile. Mais, jusqu’en 2022, le débat reste cantonné au terrain médiatique, sans traduction institutionnelle concrète.
C’est dans un contexte de crise, à la fois scolaire et institutionnelle, que Gabriel Attal, alors ministre de l’éducation nationale, va lancer cette expérimentation en 2024. Une décision qui rompt avec la tradition scolaire française, mais dont la légitimité scientifique reste contestée.
La littérature existante – principalement anglo-saxonne et asiatique – ne démontre pas d’effet positif clair de l’uniforme sur les résultats académiques. Certaines études pointent même un impact négatif sur la santé physique et psychologique des élèves appartenant à des minorités de genre, ethniques ou religieuses, sans bénéfice notable sur le climat scolaire ou le sentiment d’appartenance.
Éclairer le vécu des élèves et du personnel éducatif
Pour dépasser les logiques propres au politique et les polémiques médiatiques, pour comprendre ce qui se joue réellement dans les établissements et pour contribuer au débat sur des bases plus solides, nous sommes allés sur le terrain, dans trois établissements pionniers de l’académie d’Aix-Marseille : deux collèges et un lycée. Nous avons rencontré les chefs d’établissements, les conseillers principaux d’éducation, assisté aux rentrées scolaires et diffusé des questionnaires auprès des élèves et des parents afin de recueillir leur perception.
Certes, cette recherche ne permettra pas de mesurer l’efficacité du dispositif en termes de résultats scolaires, de climat ou de lutte contre le harcèlement, mais elle apporte un éclairage précieux sur la manière dont cette expérimentation a été vécue au quotidien par les personnels, les élèves et leurs familles au terme d’une première année.
La personnalité des chefs d’établissement a joué un rôle déterminant dans le choix des établissements pilotes. Les deux principaux et le proviseur accueillant le dispositif sont des hommes qui affirment une forte adhésion aux valeurs républicaines. Pour lancer ce projet, susceptible de susciter des polémiques, les responsables des collectivités territoriales ont en effet préféré se tourner vers des établissements où l’opposition était plus faible, ou moins visible.
En revanche, les établissements présentent des profils très différents : le lycée accueille une population très favorisée, avec des parents « fiers de leur terroir », tandis que les deux collèges scolarisent des publics plus diversifiés, l’un en zone rurale et l’autre en périphérie urbaine. Pour ces personnels de direction, l’expérimentation n’est pas seulement une expérience pédagogique : elle représente aussi un moyen de valoriser leurs établissements et de renforcer leur compétitivité dans le marché scolaire local, notamment face aux établissements privés catholiques.
Certains collèges initialement pressentis ont par ailleurs renoncé à participer à l’expérimentation, face à la mobilisation du personnel, des familles ou des élèves.
Adultes et adolescents, des perceptions clivées
À l’appui des nombreuses réponses collectées (1 200 élèves, 1 100 parents), les parents d’élèves se montrent largement favorables à l’expérimentation, dans un étiage de 75 % à 85 % d’avis positifs selon les établissements, et ce, quel que soit leur profil social.
Ce positionnement reflète avant tout l’adhésion aux valeurs portées par le dispositif. En effet, s’ils estiment que le port d’une tenue unique contribue à restaurer l’autorité de l’école ou à défendre la laïcité, les parents considèrent que les effets concrets restent finalement limités, voire inexistants. Ils s’accordent sur le peu d’effet sur le harcèlement, les résultats scolaires ou la qualité des relations entre élèves. En revanche, l’expérimentation semble renforcer, à leurs yeux, l’image positive des établissements de leurs enfants.
La perception du climat scolaire par les élèves est en revanche plus contrastée. Si celle des collégiens reste proche des moyennes nationales, celle des lycéens apparaît nettement plus négative. Ce sentiment est fortement lié à l’obligation de porter l’uniforme et au contrôle strict de la tenue, perçus comme autoritaristes. En d’autres termes, l’obligation d’une tenue unique participe dans ce lycée à la dégradation de la qualité du climat scolaire.
De manière générale, les élèves interrogés, quel que soit leur âge, rejettent massivement l’initiative : ils ont vécu à 70 % l’annonce de l’expérimentation comme « horrible » et souhaitent majoritairement qu’elle soit abandonnée pour pouvoir à nouveau s’habiller comme ils le souhaitent. Pour eux, le dispositif n’a aucun impact sur les résultats scolaires, n’efface pas les différences sociales – encore visibles à travers les chaussures, les sacs ou autres accessoires – et n’améliore pas le sentiment d’appartenance.
Concernant le harcèlement, la majorité rejette l’idée que le port d’un uniforme puisse réduire le phénomène, et cette affirmation est encore plus marquée chez les élèves se disant victimes de harcèlement, qui considèrent que leur situation n’a pas du tout été améliorée. Le sentiment négatif est identique, quels que soient le milieu social ou l’expérience scolaire passée dans l’enseignement privé.
Dans le cadre de cette étude, les élèves critiquent également l’inadéquation des tenues avec leur vie quotidienne et les conditions climatiques : pas assez chaudes pour l’hiver et trop pour l’été.
Enfin, et surtout, ils conçoivent cette nouvelle règle comme une atteinte inacceptable à leur liberté d’expression. Ce ressentiment est particulièrement fort chez les lycéens, qui estiment que leur scolarité est gâchée par cette impossibilité d’affirmer leur individualité à travers le vêtement.
Au-delà de leurs critiques, ce qui ressort du discours des élèves, c’est le sentiment de ne pas avoir été consultés : l’expérimentation a été décidée sans eux et se déroule sans que leurs préoccupations soient prises en compte. Le contraste est frappant avec le discours des responsables, qui présentent un plébiscite de l’ensemble de la communauté scolaire. À titre d’exemple, des chefs d’établissement affirment que les élèves portent volontairement leur uniforme à l’extérieur de l’école comme marque de fierté et de sentiment d’appartenance, alors que 90 % des élèves déclarent exactement le contraire.
Quelle sera donc la suite donnée à cette expérimentation ? Outre le rejet massif par les élèves, l’adhésion des familles est à relativiser si l’on considère que l’expérimentation, intégralement financée par l’État et les collectivités locales ne leur coûte rien. La généralisation du port d’une tenue unique pose d’importantes questions de financement, plus encore dans un contexte budgétaire sous tension. La conduite de cette expérimentation interroge plus globalement la fabrique de politiques publiques d’éducation, pensées dans des situations de crise ou perçues comme telles.
Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.
21.11.2025 à 18:09
La France est très endettée auprès du reste du monde, mais pourtant bénéficiaire. Explication d’un paradoxe
Texte intégral (1589 mots)
La France est endettée vis-à-vis du reste du monde : -670 milliards d’euros en 2024. Pourtant, le reste du monde nous paie plus de revenus d’investissement que nous n’en payons. Pourquoi ce paradoxe ?
Selon le dernier rapport de la Banque de France, la position extérieure nette de la France, soit l’endettement des résidents en France vis-à-vis du reste du monde, affiche -670 milliards d’euros en 2024, soit -22,9 % du PIB. Concrètement, les Français ont reçu davantage de capitaux de l’étranger qu’ils n’y ont investi.
Une position débitrice qui rapporte paradoxalement. Longtemps réservée aux États-Unis, cette situation, qualifiée de privilège exorbitant, se vérifie pour la France. Elle s’explique par la structure des encours de la France – créances et engagements. Les créances résultent majoritairement d’investissements de multinationales françaises à l’étranger, qui affichent des taux de rendement plus rémunérateurs. Les engagements de la France viennent surtout de la détention de la dette publique française par les investisseurs étrangers.
Si la récente hausse des taux d’intérêt sur les titres de dette en a réduit la portée, les revenus d’investissement continuent pourtant à afficher un solde positif, qui contribue à maintenir le solde courant français proche de l’équilibre.
Recours massif à la finance de marché
Ce solde courant de la France dissimule des situations très contrastées selon les types d’investissements (graphique 1).
La position déficitaire tient avant tout à l’acquisition d’obligations ou d’actions rassemblées sous la catégorie d'investissements de portefeuille (-1 073 milliards d’euros), notamment des titres de dette publique détenus par des étrangers. Les titres de créance à court et long terme sur les administrations publiques contribuent pour environ -1 400 milliards d’euros.
À l’inverse, les investissements directs étrangers (IDE) ont une position positive de 568 milliards d’euros. Les entreprises multinationales françaises ont plus investi à l’étranger que les multinationales étrangères en France.
Rémunération des investissements
La rémunération des investissements n’est pas la même selon leur nature.
Les investissements en actions, et en particulier les investissements directs étrangers (IDE), sont plus rémunérateurs que les titres de dettes. En 2024, le rendement apparent des IDE français était en moyenne de 6 %, contre seulement 2,4 % pour les investissements de portefeuille (en obligation et en action).
L’actif total de la France, soit l’ensemble des investissements par des résidents français à l’étranger, s’établit à 10 790 milliards d’euros. Il est de 11 460 milliards d’euros pour le passif, à savoir l’ensemble des investissements détenus par des résidents étrangers en France. De facto, la position extérieure nette est de -670 milliards.
Appliquées à de tels montants, même des différences mineures de rendement des investissements entre actif et passif peuvent avoir un impact important sur les revenus d’investissement dus ou payés par la France au reste du monde.
Privilège exorbitant
La combinaison d’un actif biaisé en faveur des actions et d’investissements directs étrangers (IDE) plus rémunérateurs et d’un passif biaisé vers les obligations, dont les intérêts sont moins importants, permet à la France d’afficher des revenus d’investissement positifs depuis deux décennies (graphique 2).
À lire aussi : Les multinationales françaises, de nouveau à l’origine de la dégradation du solde commercial
C’est cette situation, caractéristique des États-Unis (pour ce pays elle est liée au rôle dominant du dollar), que l’on qualifie de privilège exorbitant. La France a pu financer sa consommation en empruntant au reste du monde, mais sans avoir à en payer le coût. La détention par les étrangers de dettes, en particulier de dette publique française, constitue le pendant des investissements directs à l’étranger des multinationales françaises, dont les rendements sont plus importants, et de facto du privilège exorbitant français.
Revenus des investissements
Les entrées nettes de revenus d’investissements persistent aujourd’hui malgré la récente remontée des taux d’intérêt, ces derniers augmentant la rémunération des titres de dette.
Les revenus nets sur les investissements directs étrangers (IDE) restent positifs et importants – de l’ordre de 76 milliards d’euros. Le solde des revenus d'investissement de portefeuille est aujourd’hui négatif de 39 milliards d’euros, soit près de deux fois plus que jusqu’en 2022 (graphique 3).
La hausse des taux d’intérêt est particulièrement frappante pour les autres investissements. Leur rendement apparent est en moyenne de 3,5 % en 2024, contre 0,8 % en moyenne dans les années 2010. De telle sorte que les intérêts sur les autres investissements se sont aussi dégradés (-24 milliards d’euros en 2024). Les rendements sur les titres de dette restent cependant inférieurs à ceux sur les investissements directs étrangers (IDE).
De telle sorte que les revenus d’investissement restent positifs dans leur ensemble, à +0,5 % du PIB.
Amélioration du solde commercial
À rebours des États-Unis, la France affiche une balance courante équilibrée. C’est le cas en 2024, mais aussi en 2021 et en 2019, soit toutes les années hors crise depuis cinq ans (graphique 4). L’accumulation de déficits courants pendant les années 2000 et 2010 a entraîné la dégradation de la position extérieure française, mais cela n’est plus le cas sur la période récente.
Aujourd’hui, le solde commercial est proche de l’équilibre, l’excédent des services compensant le déficit des biens. L’équilibre du compte courant ne tient plus tant au privilège exorbitant français, et aux revenus d’investissements qu’il génère, qu’à l’amélioration du solde des biens et services.
La réduction partielle du privilège exorbitant français, liée à la hausse récente des taux d’intérêt, n’entraîne pas de risque de soutenabilité extérieure lié à la position extérieure nette négative de la France.
La structure de l’actif et du passif des investissements de la France continue à générer des revenus nets positifs, malgré une position négative. Le solde courant est équilibré en 2024 (comme sur les années hors crises depuis 2019).
Pour rappel, à l’aube de la crise de la zone euro en 2010, la position extérieure nette de la Grèce était de -100 % du PIB et son solde courant déficitaire de 10 % du PIB, de -107 % et -10 % respectivement pour le Portugal, et -90 % et -4 % pour l’Espagne. Bien loin des -23 % de position extérieure nette de la France, du quasi équilibre du compte courant et du privilège exorbitant français en 2024.
Vincent Vicard a reçu des financements du Programme Horizon Europe.
Laurence Nayman ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
21.11.2025 à 18:08
La Corée du Nord, la guerre en Ukraine et le théâtre indo-pacifique
Texte intégral (2568 mots)
En s’impliquant directement dans la guerre que la Russie livre à l’Ukraine, la Corée du Nord renforce l’axe qu’elle forme avec la Russie et la Chine, ce qui suscite l’inquiétude de la Corée du Sud et du Japon. Dès lors, ces deux derniers pays se rapprochent de l’Otan. Les théâtres européen et asiatique sont plus interconnectés que jamais.
En octobre 2024, la révélation de la présence de militaires nord-coréens sur le front russo-ukrainien et de leur engagement aux côtés des forces russes dans la guerre de haute intensité déclenchée par Vladimir Poutine a suscité choc et malaise. Dans les mois suivants, les services de renseignement de Séoul et de Kiev ont évoqué le déploiement de jusqu’à 12 000 soldats nord-coréens dans la région russe de Koursk, où avait alors lieu une incursion ukrainienne.
Cet envoi de troupes combattantes a révélé l’ampleur de la coopération militaire russo-nord-coréenne et la proximité existant entre les deux régimes depuis la visite de Vladimir Poutine en Corée du Nord en juin 2024. Il était déjà établi que Pyongyang livrait des armes et des munitions à Moscou, mais le flou persistait sur le contenu de leur partenariat stratégique et de leur engagement de défense mutuel.
L’analyse la plus courante était qu’en échange de ses livraisons d’armements, Kim Jong‑un escomptait des transferts de technologies et d’expertise pour ses programmes d’armes. Ceci sans négliger une indispensable assistance économique et un approvisionnement dans les domaines de l’énergie et des denrées alimentaires. On sait désormais que ce « deal » inclut également l’envoi de militaires nord-coréens sur le théâtre ukrainien. Un millier d’entre eux auraient été tués et 3 000 sérieusement blessés durant les trois premiers mois de leur déploiement. Ces chiffres élevés s’expliqueraient par leur manque de familiarité avec le combat actif mais aussi par leur exposition en première ligne par le commandement russe
Cinq mille spécialistes du génie et mille démineurs nord-coréens auraient également rejoint la région de Koursk à partir de septembre 2025. Parallèlement, le nombre d’ouvriers nord-coréens envoyés sur les chantiers de construction russes augmente, révélant un peu plus combien les renforts humains que Pyongyang envoie sans s’inquiéter de leur emploi s’avèrent profondément nécessaires pour une Russie qui épuise sa population.
Le retour de Kim Jong‑un au premier plan
On peut estimer qu’un contingent de 12 000 soldats et officiers constitue une quantité dérisoire pour un pays comme la Corée du Nord, qui dispose de plus d’un million d’hommes sous les drapeaux. Cette implication n’a pas changé le cours de la guerre russo-ukrainienne. Mais elle n’a pas non plus incité les États européens à s’engager davantage militairement, par crainte de provoquer une escalade russe. L’année 2025 les aura vu tergiverser alors que les États-Unis entamaient un désengagement stratégique assumé, confortant indirectement la posture russe.
C’est en Asie, à Séoul comme à Tokyo, que cette présence militaire nord-coréenne sur le théâtre européen a suscité le plus d’inquiétudes et a été perçue comme une menace directe et sérieuse. On peut y voir le résultat du fiasco diplomatique de l’administration Trump sur le dossier nord-coréen, amplifié par l’arrivée en 2022 de l’ultra-conservateur Yoon Suk-yeol à la tête de la Corée du Sud. Celui-ci, à peine nommé, avait adopté une ligne particulièrement offensive face à Pyongyang, n’hésitant pas à évoquer l’éventualité que son pays se dote de capacités nucléaires.
Ces dernières années, humilié par l’absence de résultats après ses deux rencontres au sommet avec Donald Trump en 2018 et en 2019, alors qu’il espérait une levée partielle des sanctions, le dictateur nord-coréen Kim Jong‑un n’a eu de cesse de reprendre une stratégie de provocation, notamment vis-à-vis de la Corée du Sud, bouc émissaire tout désigné de sa perte de face.
L’épisode de Covid et la fermeture totale du régime de 2020 à 2021 n’auront fait qu’accentuer ce retour de balancier vers une diplomatie extrême dont la multiplication des tirs de missiles balistiques tout au long de 2022 aura été une manifestation spectaculaire.
Le rapprochement avec la Russie, autre « paria », lui aussi sous embargo et en quête de munitions, aura permis à Kim Jong‑un de raffermir sa stature d’homme d’État et de se poser en allié indispensable de Moscou.
La chaîne de causalités politico-diplomatiques qui aura conduit à cette situation, à bien des égards impensable, ne fait qu’arrimer davantage la sécurité de l’Europe à celle de l’Indo-Pacifique. Une équation qui n’a pas été clairement analysée par l’Union européenne et beaucoup de ses États membres, en dépit des ambitions dans le domaine de la sécurité et de la défense affichées dans les nombreuses stratégies indo-pacifiques publiées à Bruxelles ces dernières années (dont celle de la France, de l’UE, de l’Allemagne et des Pays-Bas).
L’étrange configuration d’une « guerre de Corée » revisitée
L’environnement diplomatico-militaire de ce rapprochement russo-nord-coréen n’est pas sans rappeler la guerre de Corée dans laquelle l’alliance entre Kim Il-sung (le grand-père de l’actuel dirigeant nord-coréen) et Joseph Staline a joué un rôle majeur.
Conflit emblématique de la guerre froide, la guerre de Corée a pérennisé la partition de la péninsule en deux régimes distincts, fortement opposés, tout en redistribuant les équilibres stratégiques régionaux. Les États-Unis se retrouvaient durablement ancrés en Asie de l’Est et leurs deux principaux alliés, le Japon et la Corée du Sud, constituaient un front mobile autour d’un bloc communiste formé par la Corée du Nord, l’Union soviétique et la Chine maoïste. La différence majeure réside dans le fait que pour Washington, à l’époque, l’Asie constituait un théâtre secondaire par rapport à la primauté stratégique du « monde occidental ».
Ce n’est plus le cas aujourd’hui ; les administrations américaines successives n’ont de cesse de réaffirmer l’identité pacifique des États-Unis et l’importance décisive des enjeux indo-pacifiques. Mais si l’administration Trump 2, focalisée sur la Chine – rival systémique – monnaye désormais son assistance à ses alliés européens, le Japon et la Corée du Sud se montrent particulièrement proactifs dans leur soutien multidimensionnel à l’Ukraine.
La question se pose en Corée du Sud de savoir si le voisin du Nord mène en Russie une guerre par procuration et comment y répondre. En se servant de l’Ukraine pour se rapprocher de la Russie, Pyongyang opérationnalise ses moyens conventionnels, peu rodés au combat réel, en envoyant ses troupes s’aguerrir sur le front russe. Conjuguant à terme capacités nucléaires, balistiques et conventionnelles, le régime des Kim gagne en crédibilité face à l’alliance Washington-Séoul-Tokyo. Il démontre ainsi qu’il n’est plus dans une logique de survie mais d’affirmation de puissance aux côtés de ses pairs.
Vers un axe Moscou-Pékin-Pyongyang durable ?
Jusqu’où cette entente militaire entre la Russie et Pyongyang peut-elle aller ? Et quel rôle la Chine entend-elle y jouer ?
Durant des années, Pékin a fait ce qu’il fallait en termes d’assistance humanitaire et économique pour éviter que le régime nord-coréen ne s’effondre et que les États-Unis n’en profitent pour orchestrer avec la Corée du Sud une « réunification » en leur faveur. Désormais, la Chine doit jouer le même rôle vis-à-vis de la Russie et éviter que celle-ci ne s’épuise dans sa guerre d’agression. Le soutien nord-coréen est donc bienvenu, dans la mesure où Pékin ne peut trop ouvertement aider Moscou. En revanche, la Chine s’irrite de ne pas être en position dominante au cœur de cette nouvelle construction triangulaire.
Il n’en reste pas moins que la réalité de cette forte conjonction d’intérêts entre la Chine, la Russie et la Corée du Nord – illustrée notamment par la première rencontre simultanée entre leurs leaders, le 3 septembre dernier à Pékin, à l’occasion d’un défilé commémorant le 80e anniversaire de la fin de la Seconde Guerre mondiale – renvoie à une coalition d’opportunité particulièrement dangereuse pour la sécurité européenne. Ce que ni Bruxelles, ni Washington n’ont su, ou voulu prendre en compte pour le second, pour qui l’aide militaire à Kiev s’est muée en opportunité commerciale.
Plus fondamentalement, le rapprochement entre la Chine, la Russie et la Corée du Nord (auquel les cercles stratégistes américains rajoutent l’Iran sous l’acronyme CRINK, China, Russia, Iran, North Korea) tend à constituer un front anti-occidental face à un ensemble euro-atlantique fragmenté. Il affirme d’ailleurs un certain niveau de cohérence alors que les États-Unis n’entendent plus assumer leur rôle de leader traditionnel du libéralisme international. Aux côtés de la Chine et de la Russie, la Corée du Nord contribue ainsi au narratif d’un Sud prenant sa revanche contre un Nord donneur de leçons et pratiquant les doubles standards quant au respect du droit international.
À lire aussi : Chine, Russie, Iran, Corée du Nord : le nouveau pacte des autocrates ?
Sécurité asiatique versus sécurité euroatlantique
Le phénomène le plus marquant résultant de la constitution de l’axe Russie-Corée du Nord-Chine est la porosité entre les théâtres asiatique et européen, les pays d’Asie s’impliquant désormais davantage dans les questions de sécurité européenne.
L’intérêt grandissant de Séoul et de Tokyo envers l’Organisation du traité de l’Atlantique Nord (Otan) et leur souci d’accroître la coopération avec l’Alliance en élargissant les interactions conjointes à travers le mécanisme de Dialogue Otan-pays partenaires de l’Indo-Pacifique (Australie, Corée du Sud-Japon-Nouvelle-Zélande) en témoigne.
L’ancien président Yoon (il a été destitué en avril 2025) a manifesté son soutien à l’Ukraine dès 2022 par une aide humanitaire et économique massive, y compris en livrant des équipements militaires non létaux de protection.
La Corée du Sud, qui est un acteur industriel très actif en matière d’exportation d’armements, a diversifié son aide militaire en livrant des équipements lourds (munitions, chars, lance-roquettes multiples) à plusieurs pays européens – Norvège, Finlande, Estonie et principalement la Pologne, comme elle fidèle allié des États-Unis au sein de l’Otan. La coopération industrielle en matière d’armement entre Séoul et Varsovie devrait par ailleurs se poursuivre, permettant à la Corée du Sud de participer durablement à la sécurité de l’Europe et, plus largement, à celle de l’Otan.
Prendre en compte la nouvelle réalité
Le Japon et la Corée du Sud peuvent-ils s’impliquer davantage dans la guerre russo-ukrainienne et contribuer à une sortie de crise qui déboucherait sur des négociations équilibrées ? Il est de plus en plus difficile de nier l’impact de la guerre en Ukraine sur les équilibres stratégiques en train de se redéployer en Asie et de maintenir des partenaires comme la Corée du Sud et le Japon en marge de l’Otan, ce qui revient à ne pas prendre en compte leurs capacités à renforcer les efforts européens en faveur de la résistance ukrainienne.
Nier la réalité d’un front commun regroupant Russie, Corée du Nord et Chine serait une erreur d’appréciation stratégique qui peut se retourner contre la sécurité européenne alors que le discours chinois sur la gouvernance mondiale s’impose de plus en plus au sein du « Sud Global ».
Marianne Péron-Doise ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
21.11.2025 à 12:29
Assassinat de Mehdi Kessaci à Marseille : un tournant dans la guerre des narcos et de l’État ?
Texte intégral (2435 mots)
Depuis l’assassinat, jeudi 13 novembre, de Mehdi Kessaci, frère du militant écologiste Amine Kessaci, engagé dans la lutte contre le trafic de drogue à Marseille, dans les Bouches-du-Rhône, les réactions politiques et médiatiques se multiplient. Ce meurtre signalerait une nouvelle étape de la montée en puissance du narcobanditisme en France, avec un crime ciblant la société civile ou même l’État. Entretien avec le sociologue Dennis Rodgers, auteur d’enquêtes sur les trafiquants de drogue en Amérique latine et à Marseille.
The Conversation : Le meurtre de Mehdi Kessaci peut-il être interprété comme un tournant dans la montée en puissance du narcobanditisme, avec une violence qui touche désormais la société civile ou l’État – certains commentateurs comparant la France à certains pays d’Amérique latine ou à l’Italie ?
Dennis Rodgers : Je ne partage pas cette lecture et je pense qu’il faut faire très attention avec ce genre de représentation. Cet événement est tragique, mais il n’est pas nouveau. À Marseille, il n’y a pas que des règlements de comptes entre trafiquants. D’ailleurs, la notion de règlement de compte en elle-même est une notion problématique. Elle réduit la violence à une violence entre dealers en la décontextualisant : les conflits liés aux drogues sont souvent liés à des conflits plus locaux, parfois intercommunautaires ou familiaux.
J’ai longuement enquêté au sein de la cité Félix-Pyat à Marseille (3ᵉ), et, en 2023, un groupe de dealers locaux avait fait circuler une lettre qui était assez menaçante envers des habitants du quartier. Ce n’est pas aussi violent qu’un assassinat, mais c’est aussi de l’intimidation, et des meurtres d’intimidation ont déjà eu lieu. Je pense aux victimes tuées et brûlées dans le coffre d’une voiture. Ces crimes sont destinés à faire peur et à faire passer un message.
Mais un cap n’est-il pas franchi avec ce meurtre du frère d’un militant politique ?
D. R. : Je ne pense pas qu’on ait assassiné le frère d’Amine Kessaci pour des raisons liées à son militantisme politique, mais probablement plus parce qu’il dénonce le trafic de drogue dans le quartier de Frais-Vallon (13ᵉ arrondissement de Marseille), dont il est issu. Je pense que ce serait une erreur de dire que ceci est un événement exceptionnel qui marque, en France, une transformation dans la confrontation entre des organisations trafiquantes et l’État. Or, c’est le discours mis en avant, sans doute pour que certaines personnes puissent se positionner en vue des prochaines élections ainsi que pour légitimer la mise en œuvre de certaines politiques.
Comment a évolué l’organisation du trafic à Marseille ces dernières années ?
D. R. : Premièrement, il faut dire que le trafic de drogue n’est pas monolithique, et il évolue sans cesse. On a ces images et ces mythes d’un trafic de drogue en tant que business centralisé, d’une entreprise avec des règles fixes, avec des logiques très claires. Mais c’est souvent un assemblage de différents groupes, d’échafaudages bricolés et sans cesse reconstruits. L’image de la mafia tentaculaire qui contrôle tout, de la production à la distribution, n’est pas avérée. Les jeunes qui vendent dans les cités ne sont pas directement liés à ceux qui importent la drogue en France. Ces différents niveaux ont des logiques différentes. Souvent le trafic de drogue local a lieu à travers des liens intimes, familiaux, des liens de voisinage, par exemple, ce qui n’est généralement pas le cas au niveau de l’exportation à grande échelle. Les personnes qui sont dans les cités ne sont pas celles qui amènent la drogue à Marseille, et elles ne le seront probablement jamais.
Cela semble contradictoire avec ce que l’on entend à propos d’organisations notoires, comme la DZ Mafia ou Yoda…
D. R. : Le journaliste Philippe Pujol a très bien décrit l’organisation du trafic à Marseille, expliquant comment, tout en haut, il y a les grossistes à l’échelon international qui font de l’import-export en grandes quantités vers les ports européens, dont Marseille, même si ces gros bonnets ne sont pas à Marseille, puis il y a des semi-grossistes, ceux qui récupèrent de la drogue et la distribuent dans les cités. À Marseille, ces derniers représentent une cinquantaine de personnes, ceux de la DZ Mafia, des Blacks, du Yoda, d’autres encore, avec autour d’eux une armée de peut-être 300 personnes. Mais ils ne s’occupent pas de la vente de terrain qu’ils sous-traitent dans les cités. Le terrain et les cités sont donc gérés par des petits délinquants, pas par les gros caïds du crime.
En vérité, on ne sait pas grand-chose d’organisations comme Yoda ou la DZ Mafia. Cette dernière par exemple communique souvent à travers des vidéos YouTube ou TikTok qui mettent en scène des hommes cagoulés et armés de kalachnikovs debout devant des drapeaux, mais il s’agit clairement de propagande, et on ignore véritablement si cette organisation est très centralisée ou composée de groupes franchisés qui se rallient sous un nom commun. La seule chose dont je suis relativement sûr est qu’en 2023, le nombre de morts à Marseille a explosé en raison d’une guerre entre ces deux groupes. Ceci étant dit, dans la cité Félix-Pyat, leurs noms étaient sur toutes les lèvres à ce moment-là, mais personne n’en parlait en 2022, ce qui montre bien à quel point les choses sont floues…
Mais que disent les autorités à propos de ces deux organisations, DZ Mafia et Yoda ?
D. R. : Il existe peu d’informations publiques concrètes à leur sujet. La police a tendance à communiquer sur des arrestations « spectaculaires » de tel ou tel « chef », ou bien sur le démantèlement d’un point de vente. On entend circuler des noms : cette personne serait le grand chef de Yoda, telle autre de la DZ Mafia, on parle d’arrestations au Maroc ou à Dubaï. Mais s’agit-il des chefs ou des lieutenants ? Comment est-ce que ces personnes basées à l’étranger communiquent avec ceux en France ? Quelle est la division du travail entre différents niveaux de ces groupes ? Il y a un vide de connaissance à propos de la nature de ces organisations, et ça laisse la place pour des interprétations et des discours stéréotypants et stéréotypés qui se construisent sans fondements solides…
Le ministre de l’intérieur Laurent Nuñez a parlé de mafia à la suite du meurtre de Mehdi Kessaci. L’hypothèse d’organisations de type mafieux au sens italien serait fausse ?
D. R. : La mafia italienne tuait régulièrement des juges, des hommes d’État, elle les corrompait massivement aussi. Cela était aussi le cas des cartels en Colombie dans le passé ou au Mexique à présent. Cela n’est pas le cas en France aujourd’hui. Ces mots de « mafia » ou de « cartel » portent un imaginaire puissant et permettent de mettre en scène une action de reprise en main, et à des hommes politiques de se positionner comme « hommes forts ». Mais ils ne sont pas forcément adaptés à la réalité.
Les politiques mises en œuvre à Marseille sont-elles efficaces ?
D. R. : Dans les cités à Marseille, le gouvernement envoie des CRS qui peuvent interrompre le trafic quelque temps, et qui arrêtent le plus souvent des petites mains, mais, à moins de camper dans les cités toute l’année, cela ne sert à rien : le trafic reprend après leur départ. Cette stratégie de « pillonage » épisodique ne s’attaque pas à la racine du problème, qui est bien évidemment social.
Sans coordination entre politiques sociales et politiques sécuritaires, on ne pourra pas résoudre le problème du trafic de drogue. En Suisse, où j’ai travaillé, il y a beaucoup plus de coordination entre services sociaux, éducatifs, et la police par exemple. Ces services échangent des informations pour comprendre quelles sont les personnes à risque et pourquoi, afin de faire de la prévention plutôt que de la répression…
La politique française est essentiellement fondée sur une notion très régalienne de l’État qui doit avoir le contrôle. Il est évidemment nécessaire de réprimer, mais il faudrait surtout concentrer l’attention sur les plus grands trafiquants, ceux qui amènent la drogue dans la ville, pour interrompre la chaîne du trafic dès le départ. Par ailleurs, il faut trouver des moyens de casser les marchés illégaux. Sans prôner une légalisation tous azimuts, on peut apprendre de l’expérience du Québec, par exemple, où l’on peut acheter la marijuana à des fins ludiques dans des dispensaires officiels depuis 2018. Cela a permis de fortement réduire les trafics locaux tout en générant des revenus pour l’État.
En 2023, il y a eu 49 homicides à Marseille, 18 en 2024, puis 9 en 2025. On constate une baisse, comment l’expliquez-vous ?
D. R. : En fait, les chiffres actuels reviennent aux proportions qu’on a connues avant 2023, qui oscillaient entre 15 et 30 meurtres par an. Comme je l’ai déjà mentionné, en 2023, il y a eu un conflit entre la DZ Mafia et Yoda pour reprendre le contrôle de points de vente dans différentes cités. Les origines de ce conflit sont assez obscures. On m’a rapporté à plusieurs reprises que les chefs de ces deux organisations étaient des amis d’enfance qui s’étaient réparti les points de vente. Puis il y aurait eu un conflit entre ces deux hommes dans une boîte de nuit à Bangkok, en Thaïlande, à cause d’une histoire de glaçons jetés à la figure… J’ignore si tout cela est vrai, mais c’est la rumeur qui circule, et il n’y a pas de doute qu’il y ait eu une guerre, finalement perdue par Yoda.
La conséquence de la victoire de la DZ Mafia est que les homicides baissent. Il faut comprendre que les trafiquants ne cherchent pas nécessairement à utiliser la violence, car elle attire l’attention et gêne le commerce. Même si le trafic de drogue est souvent associé à des menaces ou à de l’intimidation, les actes de violence sont souvent déclenchés par des incidents mineurs – mais ils peuvent ensuite devenir incontrôlables.
Vous avez enquêté sur le terrain et rencontré de nombreux jeunes des cités marseillaises, y compris engagés dans le trafic. Quel regard portez-vous sur leurs parcours ?
D. R. : Le choix de s’engager dans le trafic est lié à une situation de violence structurelle, d’inégalités, de discrimination. Les jeunes hommes et femmes qui font ce choix n’ont pas un bon accès au marché du travail formel. Faire la petite main, même si ce n’est pas très bien payé, représente une opportunité concrète. Pour ces jeunes, cela permet de rêver d’obtenir mieux un jour.
J’insiste sur le fait que le contexte structurel ne doit jamais être ignoré dans cette question des trafics. J’ai constaté qu’à l’école primaire de la cité Félix-Pyat, qui bénéficie du programme de soutien aux quartiers prioritaires REP+, les jeunes bénéficient d’opportunités fabuleuses : ils voyagent, peuvent faire de la musique, de la cuisine, les professeurs sont très disponibles. C’est pour ainsi dire une véritable expérience des valeurs républicaines de liberté, d’égalité et de fraternité. Mais dès le collège, ces jeunes sont le plus souvent orientés vers des filières professionnelles ou découragés de poursuivre des études. Ensuite, ils se retrouvent au chômage pour des raisons qui dépassent le cadre éducatif. Un jeune avec lequel j’ai fait un entretien en 2022 m’a raconté qu’après une centaine de CV envoyés, il n’avait rien obtenu. Un jour, il a changé l’adresse sur son CV et a trouvé du travail très vite…
Les discriminations vis-à-vis des habitants des cités, des origines ou de la religion sont profondes, et restent un angle mort de la politique française. Si on veut vraiment agir contre des trafics, il faut prendre au sérieux ces problématiques.
Propos recueillis par David Bornstein.
Les recherches de Dennis Rodgers bénéficient d’une aide du gouvernement français au titre de France 2030, dans le cadre de l’initiative d’Excellence d’Aix-Marseille Université – AMIDEX (Chaire d'Excellence AMX-23-CEI-117).
20.11.2025 à 16:16
Les textes des COP parlent-ils vraiment de climat ? Le regard de l’écolinguistique
Texte intégral (2297 mots)
Derrière les grandes déclarations de la diplomatie climatique, que disent vraiment les textes des COP ? Une étude de leurs discours, passés au crible du « text mining », montre comment les mots des COP sont davantage centrés sur les mécaniques institutionnelles que sur l’urgence environnementale. Le langage diplomatique sur le climat fabrique ainsi un récit institutionnel dont la nature est presque absente.
Alors que la COP30 se tient au Brésil en ce mois de novembre 2025, des voix s’élèvent : ces montagnes onusiennes accoucheraient-elles de souris ? En effet, ces grand-messes du climat aboutissent le plus souvent à des textes consensuels. Certes, ils reconnaissent – sur le papier – la réalité des enjeux climatiques, mais ils ne sont que rarement suivis d’effets. On se souvient, par exemple, du texte de la COP26, à Glasgow (2021), qui évoquait enfin clairement la question de la sortie des énergies fossiles. Mais la mise en œuvre de cette promesse, non réitérée lors de la COP29, à Bakou (2024), reste encore à concrétiser.
Leur processus de décision même est de plus en plus critiqué. Il ne fait intervenir que les délégations nationales à huis clos, tout en donnant un poids important aux lobbies. On y retrouve bien sûr des ONG, mais aussi des grandes entreprises, comme Coca-Cola lors de la COP27, à Charm el-Cheikh (2022). L’occasion pour les États producteurs d’énergie fossile de se livrer à des opérations remarquables d’écoblanchiment – comme les Émirats arabes unis furent accusés de le faire lors de la COP28 à Dubaï. Dans le même temps, les populations autochtones et les mouvements des jeunes pour le climat peinent à se faire entendre à l’occasion de ces événements.
Afin de mieux comprendre l’évolution sémantique dans les déclarations des COP et de voir dans quelle mesure celles-ci reflètent l’urgence climatique, j’ai mené une analyse de discours à partir des déclarations officielles (en anglais) des COP entre 2015 – soit juste après la signature de l’accord de Paris – et 2022. Cela permet de mieux saisir les représentations sociales des instances internationales à propos du changement climatique, dans la mesure où ces discours prennent sens au cours de leur circulation dans la société.
Écolinguistique et text mining, mode d’emploi
Cette étude s’inscrit dans l’approche écolinguistique héritée des travaux d’Arran Stibbe ; une approche qui permet notamment d’explorer la manière dont les institutions cadrent les discours sur l’environnement, tout en aidant à comprendre comment les intérêts divergents d’acteurs différents aboutissent à des positions médianes. Pour le climat comme pour les autres grands sujets politiques internationaux, la façon dont les acteurs en parlent est capitale pour aboutir à des consensus, des prises de décision et des textes engageant les États.
J’ai mené cette analyse grâce à l’outil Iramuteq, développé par Pascal Marchand et Pierre Ratinaud. Il permet une approche statistique du nombre de mots présents dans un corpus textuel, des mots avec lesquels ils apparaissent le plus souvent, mais également de les croiser avec les définitions et leur sens en contexte.
Par ordre de poids statistique, on retrouve ainsi les thèmes suivants :
Fonds de soutien international (26,2 %, en vert fluo, classe 3), qui recoupe les discussions sur l’aide aux pays en voie de développement et la proposition d’un fonds afin de faire face au changement climatique.
Textes des COP (14,2 %, en bleu, classe 5). Cette catégorie intègre les passages qui évoquent le fonctionnement des COP elles-mêmes et des leurs organes administratifs, dont les objectifs sont actés grâce aux textes.
Préparation des COP (13,7 %, en rouge, classe 1). Il s’agit de tout le jargon lié aux coulisses des COP et aux travaux d’organisation qui permettent aux COP d’aboutir et à leurs décisions d’être appliquées de manière concrète.
Organisation des COP (13,6 %, en gris, classe 2). Il s’agit du détail concernant les événements des COP elles-mêmes, c’est-à-dire leur organisation et leur calendrier, avec le fonctionnement par réunions et documents à produire.
Conséquences négatives du changement climatique (11,6 % seulement, en violet, classe 6). Il s’agit des passages où l’accent est mis sur les dommages, les risques et les vulnérabilités, c’est-à-dire les conséquences négatives du réchauffement climatique.
Écologie (11,3 %, rose, classe 7). Cette classe traite des éléments d’ordre écologique liés au changement climatique, ainsi que des causes du réchauffement planétaire.
Gouvernance de la COP (9,2 %, vert pâle, classe 4). Dans cette dernière classe, on retrouve les éléments d’ordre stratégique liés aux COP, à savoir la gouvernance, les parties prenantes, les groupes de travail et les plans à suivre.
À lire aussi : Les mots de la COP : dictionnaire portatif des négociations climatiques
Que retenir de ce découpage ? Les questions strictement climatiques et écologiques ne totalisent que 22,9 % des occurrences dans les textes, ce qui paraît assez faible alors qu’il s’agit des raisons pour lesquelles ces COP existent. Dans une grande majorité des thématiques abordées par le corpus, les COP parlent d’abord d’elles-mêmes.
C’est peu surprenant pour une institution internationale de ce calibre, mais cela pose de sérieuses questions concernant la prise en compte des dimensions extra-institutionnelles du problème.
L’écologie déconnectée des autres mots clés
J’ai ensuite poussé le traitement des données un peu plus loin grâce à une méthode statistique appelée « analyse factorielle de correspondance ». Celle-ci permet de comprendre comment les différentes thématiques sont articulées entre elles dans les discours au sein du corpus.
Les récits en lien avec les thèmes qu’on retrouve au centre droit du graphe, liés aux textes des COP (bleu), à leur préparation (rouge), à leur organisation (gris) et à leur gouvernance (vert pâle) forment ainsi un ensemble homogène.
On note toutefois, dans la partie en bas à gauche, que la gouvernance des COP (vert pâle) a un positionnement hybride et semble jouer le rôle d’interface avec la thématique des conséquences négatives du réchauffement climatique (violet) et celle des fonds de soutien internationaux (vert fluo).
En d’autres termes, ces observations confirment que les COP se donnent bien pour objectif de remédier aux conséquences du changement climatique. Et cela, à travers la gouvernance mise en place par les COP, et avec la proposition d’aides aux pays les plus vulnérables comme moyen.
Quant au thème de l’écologie (en rose), il se retrouve en haut à gauche du graphe. Surtout, il semble comme déconnecté du reste des thématiques. Ceci montre que, dans ces textes, il existe peu de liens entre les propos qui traitent de l’écologie et ceux qui évoquent le fonctionnement des COP ou la mise en œuvre concrète de solutions.
À lire aussi : Les classes populaires en ont-elles vraiment marre de l’écologie ?
L’absence de termes pourtant centraux
Plus intéressant encore, les textes analysés brillent par l’absence relative de certains termes clés.
Ainsi, le terme animal (en anglais) n’est jamais utilisé. Certains termes n’apparaissent qu’une fois dans tous les textes étudiés, comme life, river ou ecological. D’autres apparaissent, mais très peu, comme natural (trois occurrences), earth (quatre occurrences). Des termes comme water, biodiversity ou ocean, aux enjeux colossaux, ne totalisent que six occurrences.
Ainsi, alors que les COP ont pour objectif de s’intéresser aux conséquences du réchauffement climatique sur les sociétés humaines et le vivant en général, il est marquant de constater que la plupart des champs thématiques du corpus parlent non pas des problèmes liés au changement climatiques, mais surtout des COP elles-mêmes, plus précisément de leur fonctionnement.
En d’autres termes, les COP se parlent à elles-mêmes, dans une logique de vase clos qui vise d’abord à s’assurer que les dispositions prises pour respecter l’accord de Paris sont bien respectées.
À lire aussi : À quoi servent les COP ? Une brève histoire de la négociation climatique
Cet état de fait contraste avec les conséquences concrètes du réchauffement climatique. Il illustre la vivacité de représentations d’ordre gestionnaire et institutionnel, qui s’autoalimentent en voyant d’abord l’environnement, la biodiversité et le vivant comme des ressources à préserver ou des objectifs à accomplir. En restant focalisées sur l’accord de Paris, les déclarations officielles voient ainsi le vivant et la biodiversité comme autant d’outils, d’objets ou de cases à cocher pour rendre compte d’engagements pris au niveau international.
C’est compréhensible étant donnée la nature des textes des COP et du contexte socio-institutionnel qui encadrent leur production. Il n’en reste pas moins que cela trahit bon nombre de représentations qui continuent de percoler nos imaginaires. Dans cette logique, les éléments d’ordre naturel, environnemental ou écologique constituent soit des ressources à utiliser ou préserver, soit des éléments à gérer, soit des objectifs à remplir. Or, cette représentation est loin d’être neutre, comme l’explique George Lakoff.
Ici, le changement climatique est donc traité comme un ensemble de problèmes auxquels il s’agit d’apporter de simples solutions techniques ou des mécanismes de compensation, sans que les conditions qui alimentent ce même dérèglement climatique (notamment liées au système économique et aux modes de production et de consommation) ne soient abordées à aucun moment dans les textes.
C’est cette même logique qui semble condamner les instances internationales à tenter de gérer les conséquences du réchauffement climatique, tout en évitant soigneusement d’en traiter les causes.
Albin Wagener ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
20.11.2025 à 16:16
On peut réactiver un souvenir ou le faire disparaître de façon réversible – chez la souris
Texte intégral (1892 mots)

Après avoir démontré que les souvenirs s’inscrivent de façon matérielle dans notre cerveau, les scientifiques s’attèlent à la tâche de réactiver des souvenirs attaqués par des maladies neurodégénératives chez des souris.
Chacun sait ce qu’est un souvenir : un événement, une odeur, une sensation de notre passé que nous pouvons rappeler. Mais à quoi ressemble-t-il dans notre cerveau ?
Il est porté par des groupes de neurones interconnectés. À cette échelle, le support du souvenir est appelé « engramme ». Ce mot désigne le substrat matériel constitué par un réseau spécifique de neurones, dont les interconnexions se sont renforcées durablement lors de la mémorisation. Ainsi, quand on se souvient, une partie de ce réseau est réactivée. Les recherches récentes montrent comment se fait cette réactivation et comment on peut la contrôler de façon réversible chez la souris.
Mieux comprendre les mécanismes cellulaires qui sous-tendent nos souvenirs est un enjeu de taille, car nombre de maladies neurodégénératives et de traumatismes altèrent notre mémoire, non seulement en perturbant l’accès aux images de notre passé, mais aussi en s’attaquant directement au matériel biologique dans lequel ces images sont fixées.
Comment les souvenirs s’inscrivent dans le cerveau
L’idée que nos souvenirs ne sont pas quelque chose d’immatériel mais ont un support physique est ancienne. Déjà Platon imaginait que l’âme recèle des tablettes de cire dans lesquelles se grave ce que nous voulons retenir.
Mais il a fallu bien longtemps pour affiner cette intuition, puis pour la démontrer expérimentalement. À la fin du XIXe siècle, l’Espagnol Santiago Ramon y Cajal pense que les connexions entre certains neurones sont renforcées lors d’activations répétées accompagnant l’apprentissage – ainsi se formerait le souvenir.
Dans les années 1960, ces spéculations commencent à trouver une assise expérimentale. C’est d’abord chez un mollusque marin, l’aplysie, qu’on les démontre. Lorsqu’on stimule mécaniquement une partie de son dos, il rétracte ses branchies pour les protéger. Mais si cette stimulation est répétée quelques fois, le réflexe s’atténue durablement. Cette adaptation repose sur une réduction prolongée de l’excitabilité synaptique et du nombre de synapses dans le circuit moteur qui pilote la rétraction.
À l’inverse, une sensibilisation de ce réflexe, déclenchée par une stimulation nociceptive (douleur déclenchée par une agression de l’organisme, ndlr) appliquée sur la queue de l’animal, provoque une augmentation persistante de l’excitabilité synaptique et fait apparaître des connexions additionnelles. En 1973, un mécanisme du même type est décrit dans l’hippocampe du lapin – il est nommé « potentialisation à long terme ».
Pour désigner l’encodage permanent dans le substrat cérébral des éléments d’une expérience vécue, rappelons la formule laconique de Carla Shatz :
« Neurons that fire together, wire together » (Les neurones qui se coactivent s’interconnectent.) Carla Shatz, 1992, « Scientific American »
Observer directement les souvenirs en « allumant » les neurones interconnectés
Si les neurones coactivés au cours de l’encodage se réactivent pour permettre le rappel d’un souvenir (Figure 1), on doit pouvoir prouver que leur réactivation accompagne le rappel du souvenir et montrer que leur destruction l’empêche.
Pour ce qui est de la réactivation lors du rappel, le groupe de Mark Mayford a appris à des souris à reconnaître un signal sonore annonçant un choc électrique désagréable. Lorsque plus tard, les souris réentendent ce son, leur immobilité traduit la peur, donc une réactivation du souvenir de ce qu’annonce le son.
Pour imager les neurones qui portent la réactivation du souvenir, voici la procédure : avant l’apprentissage, on infecte des cellules de l’amygdale
– une structure cruciale pour les émotions, dont la peur – avec un virus qui permettra de rendre fluorescents les neurones activés pendant l’apprentissage. Ultérieurement, une fois que ces souris ont réentendu le son, elles sont mises à mort et, à l’aide d’un second marquage, on visualise les neurones qui se sont activés pendant ce rappel. Du coup, les neurones doublement marqués auront été activés pendant l’apprentissage et réactivés pendant le rappel. Or, Mayford et ses collègues constatent qu’il y a bien eu augmentation du double marquage chez les souris ayant eu peur pendant le rappel (comparativement aux différentes conditions de contrôle).
Pour ce qui est de la destruction des neurones qui aboutissent à l’anéantissement du souvenir, on utilisera également une stratégie reposant sur une infection virale des neurones de l’amygdale, mais cette fois, les neurones activés pendant l’apprentissage seront tués avant le rappel à l’aide d’une toxine. De cette manière, le groupe de Paul Frankland a pu montrer qu’une destruction de ces neurones faisait disparaître toute réaction de peur chez les souris car, du fait de la mort des neurones « souvenir », elles ont oublié la signification du signal sonore.
Comment réactiver un souvenir ou le faire disparaître de façon réversible ?
Aujourd’hui, les chercheurs ont peaufiné cette démonstration en parvenant à manipuler ponctuellement et réversiblement l’engramme (le réseau de neurones souvenirs) pour induire l’expression ou la disparition d’un souvenir.
C’est là qu’intervient une technique relativement récente : l’optogénétique. Elle permet de contrôler (soit activer, soit inhiber) avec une grande précision l’activité de certains neurones en les exposant à de la lumière par l’intermédiaire d’une fibre optique plongée dans une région d’intérêt du cerveau. Il suffit pour cela de rendre ces neurones sensibles à une longueur d’onde lumineuse par introduction de gènes codant pour des protéines photosensibles. De plus, il est possible de faire dépendre l’expression de ces gènes de l’activation même des neurones.
C’est ainsi que le groupe de Susumu Tonegawa a pu montrer, chez la souris, qu’après l’apprentissage d’un danger lié à un contexte donné, l’activation par la lumière des neurones ayant participé à l’apprentissage induisait un comportement de peur, donc un rappel… et cela dans un contexte sans danger bien connu de la souris, et sans rapport avec celui de l’apprentissage ! Par ailleurs, lorsque ces neurones étaient inhibés par la lumière dans le contexte dangereux, la souris ne manifestait plus aucune peur.
Implanter un faux souvenir
Il y a même mieux, puisque le groupe de Tonegawa a aussi réussi à implanter un faux souvenir dans la mémoire des souris.
Les souris ont d’abord encodé un premier contexte parfaitement neutre. Les neurones ayant été activés pendant l’encodage de ce contexte ont exprimé une protéine photoactivable avec de la lumière bleue. Les chercheurs ont ensuite exposé ces souris à un autre contexte, celui-là désagréable, tout en activant conjointement la trace du premier avec de la lumière bleue.
Lorsque les souris étaient ultérieurement réexposées au premier contexte (pourtant neutre, à la base), elles se sont mises à le craindre.
Enfin, dans un modèle murin de maladie d’Alzheimer, le groupe de Tonegawa est même allé jusqu’à ressusciter un souvenir le temps d’une photoactivation d’un engramme d’abord rendu photoactivable mais ultérieurement oublié, alors même que celui-ci était invalidé du fait de l’évolution d’un processus neurodégénératif.
Pour l’heure, ces résultats, bien que spectaculaires, et avec lesquels s’alignent les données produites par d’autres groupes de recherche, se limitent à des mémoires simples qui pilotent des comportements simples dans des modèles animaux raisonnablement complexes.
Reste à savoir si les travaux menés sur ces modèles sont généralisables sans nuances à l’humain, et par quel mécanisme un motif d’activation neuronale peut générer des images et des impressions passées dans une phénoménologie consciente actuelle.
Cet article est publié dans le cadre de la Fête de la science (qui a eu lieu du 3 au 13 octobre 2025), dont The Conversation France est partenaire. Cette nouvelle édition porte sur la thématique « Intelligence(s) ». Retrouvez tous les événements de votre région sur le site Fetedelascience.fr.
Jean-Christophe Cassel a reçu des financements de l'ANR. ANR-14-CE13-0029-01 ANR-23-CE37-0012-02
20.11.2025 à 16:15
« Les Dents de la mer » : genèse d’une bande originale mythique
Texte intégral (3010 mots)

La séquence de deux notes légendaires, qui fait monter la tension dans « les Dents de la mer », géniale trouvaille du compositeur John Williams, trouve son origine dans la musique classique du début du XXᵉ siècle, mais aussi chez Mickey Mouse et chez Hitchcock.
Depuis les Dents de la mer, deux petites notes qui se suivent et se répètent – mi, fa, mi, fa – sont devenues synonymes de tension, et suscitent dans l’imaginaire collectif la terreur primitive d’être traqué par un prédateur, en l’occurrence un requin sanguinaire.
Il y a cinquante ans, le film à succès de Steven Spielberg – accompagné de sa bande originale composée par John Williams – a convaincu des générations de nageurs de réfléchir à deux fois avant de se jeter à l’eau.
En tant que spécialiste de l’histoire des médias et de la culture populaire, j’ai décidé d’approfondir la question de la longévité de cette séquence de deux notes et j’ai découvert qu’elle était l’héritage direct de la musique classique du XIXe siècle, mais qu’elle a aussi des liens avec Mickey Mouse et le cinéma d’Alfred Hitchcock.
Le premier blockbuster estival de l’histoire
En 1964, le pêcheur Frank Mundus tue un grand requin blanc de deux tonnes au large de Long Island au nord-est des États-Unis.
Après avoir entendu cette histoire, le journaliste indépendant Peter Benchley se met à écrire un roman qui raconte comment trois hommes tentent de capturer un requin mangeur d’hommes, en s’inspirant de Mundus pour créer le personnage de Quint. La maison d’édition Doubleday signe un contrat avec Benchley et, en 1973, les producteurs d’Universal Studios, Richard D. Zanuck et David Brown, achètent les droits cinématographiques du roman avant même sa publication. Spielberg, alors âgé de 26 ans, est engagé pour réaliser le film.
Exploitant les peurs à la fois fantasmées et réelles liées aux grands requins blancs – notamment une série tristement célèbre d’attaques de requins le long de la côte du New Jersey en 1916 –, le roman de Benchley publié en 1974, devient un best-seller. Le livre a joué un rôle clé dans la campagne marketing d’Universal, qui a débuté plusieurs mois avant la sortie du film.
À partir de l’automne 1974, Zanuck, Brown et Benchley participent à plusieurs émissions de radio et de télévision afin de promouvoir simultanément la sortie de l’édition de poche du roman et celle à venir du film. La campagne marketing comprend également une campagne publicitaire nationale à la télévision qui met en avant le thème à deux notes du compositeur émergent John Williams. Le film devait sortir en été, une période qui, à l’époque, était réservée aux films dont les critiques n’étaient pas très élogieuses.
À l’époque, les films étaient généralement distribués petit à petit, après avoir fait l’objet de critiques locales. Cependant, la décision d’Universal de sortir le film dans des centaines de salles à travers le pays, le 20 juin 1975, a généré d’énormes profits, déclenchant une série de quatorze semaines en tête du box-office américain.
Beaucoup considèrent les Dents de la mer comme le premier véritable blockbuster estival. Le film a propulsé Spielberg vers la célébrité et marqué le début d’une longue collaboration entre le réalisateur et Williams, qui allait remporter le deuxième plus grand nombre de nominations aux Oscars de l’histoire, avec 54 nominations, derrière Walt Disney et ses 59 nominations.
Le cœur battant du film
Bien qu’elle soit aujourd’hui considérée comme l’une des plus grandes musiques de l’histoire du cinéma, lorsque Williams a proposé son thème à deux notes, Spielberg a d’abord pensé qu’il s’agissait d’une blague.
Mais Williams s’était inspiré de compositeurs des XIXe et XXe siècles, notamment Claude Debussy (1862-1918), Igor Stravinsky (1882-1971) et surtout de la Symphonie n° 9 (1893), d’Antonin Dvorak (1841-1904), dite Symphonie du Nouveau Monde. Dans le thème des Dents de la mer, on peut entendre des échos de la fin de la symphonie de Dvorak, et reconnaître l’emprunt à une autre œuvre musicale, Pierre et le Loup (1936), de Sergueï Prokofiev.
Pierre et le Loup et la bande originale des Dents de la mer sont deux excellents exemples de leitmotivs, c’est-à-dire de morceaux de musique qui représentent un lieu ou un personnage.
Le rythme variable de l’ostinato – un motif musical qui se répète – suscite des émotions et une peur de plus en plus intenses. Ce thème est devenu fondamental lorsque Spielberg et son équipe technique ont dû faire face à des problèmes techniques avec les requins pneumatiques. En raison de ces problèmes, le requin n’apparaît qu’à la 81ᵉ minute du film qui en compte 124. Mais sa présence se fait sentir à travers le thème musical de Williams qui, selon certains experts musicaux, évoque les battements du cœur du requin.
Des sons pour manipuler les émotions
Williams doit également remercier Disney d’avoir révolutionné la musique axée sur les personnages dans les films. Les deux hommes ne partagent pas seulement une vitrine remplie de trophées. Ils ont également compris comment la musique peut intensifier les émotions et amplifier l’action.
Bien que sa carrière ait débuté à l’époque du cinéma muet, Disney est devenu un titan du cinéma, puis des médias, en tirant parti du son pour créer l’une des plus grandes stars de l’histoire des médias, Mickey Mouse.
Lorsque Disney vit le Chanteur de jazz en 1927, il comprit que le son serait l’avenir du cinéma.
Le 18 novembre 1928, Steamboat Willie fut présenté en avant-première au Colony Theater d’Universal à New York. Il s’agissait du premier film d’animation de Disney à intégrer un son synchronisé avec les images.
Contrairement aux précédentes tentatives d’introduction du son dans les films en utilisant des tourne-disques ou en faisant jouer des musiciens en direct dans la salle, Disney a utilisé une technologie qui permettait d’enregistrer le son directement sur la bobine de film. Ce n’était pas le premier film d’animation avec son synchronisé, mais il s’agissait d’une amélioration technique par rapport aux tentatives précédentes, et Steamboat Willie est devenu un succès international, lançant la carrière de Mickey et celle de Disney.
L’utilisation de la musique ou du son pour accompagner le rythme des personnages à l’écran fut baptisée « mickeymousing ».
En 1933, King Kong utilisait habilement le mickeymousing dans un film d’action réelle, avec une musique calquée sur les états d’âme du gorille géant. Par exemple, dans une scène, Kong emporte Ann Darrow, interprétée par l’actrice Fay Wray. Le compositeur Max Steiner utilise des tonalités plus légères pour traduire la curiosité de Kong lorsqu’il tient Ann, suivies de tonalités plus rapides et inquiétantes lorsque Ann s’échappe et que Kong la poursuit. Ce faisant, Steiner encourage les spectateurs à la fois à craindre et à s’identifier à la bête tout au long du film, les aidant ainsi à suspendre leur incrédulité et à entrer dans un monde fantastique.
Le mickeymousing a perdu de sa popularité après la Seconde Guerre mondiale. De nombreux cinéastes le considéraient comme enfantin et trop simpliste pour une industrie cinématographique en pleine évolution et en plein essor.
Les vertus du minimalisme
Malgré ces critiques, cette technique a tout de même été utilisée pour accompagner certaines scènes emblématiques, avec, par exemple, les violons frénétiques qui accompagne la scène de la douche dans Psychose (1960), d’Alfred Hitchcock, dans laquelle Marion Crane se fait poignarder.
Spielberg idolâtrait Hitchcock. Le jeune Spielberg a même été expulsé des studios Universal après s’y être faufilé pour assister au tournage du Rideau déchiré, en 1966.
Bien qu’Hitchcock et Spielberg ne se soient jamais rencontrés, les Dents de la mer sont sous l’influence d’Hitchcock, le « maître du suspense ». C’est peut-être pour cette raison que Spielberg a finalement surmonté ses doutes quant à l’utilisation d’un élément aussi simple pour représenter la tension dans un thriller.
L’utilisation du motif à deux notes a ainsi permis à Spielberg de surmonter les problèmes de production rencontrés lors de la réalisation du premier long métrage tourné en mer. Le dysfonctionnement du requin animatronique a contraint Spielberg à exploiter le thème minimaliste de Williams pour suggérer la présence inquiétante du requin, malgré les apparitions limitées de la star prédatrice.
Au cours de sa carrière légendaire, Williams a utilisé un motif sonore similaire pour certains personnages de Star Wars. Chaque fois que Dark Vador apparaissait, la « Marche impériale » était jouée pour mieux souligner la présence du chef du côté obscur.
Alors que les budgets des films avoisinent désormais un demi-milliard de dollars (plus de 434 millions d’euros), le thème des Dents de la mer – comme la façon dont ces deux notes suscitent la tension – nous rappelle que dans le cinéma, parfois, le minimalisme peut faire des merveilles.
Jared Bahir Browsh ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
20.11.2025 à 16:15
Brésil : la dimension politique du massacre de Rio
Texte intégral (2043 mots)
Au moins 121 personnes ont été tuées lors d’une gigantesque opération de police qui a tourné au massacre, le 28 octobre, à Rio de Janeiro. Les violences policières de masse ne sont pas un phénomène nouveau au Brésil, cependant, cette fois, on observe qu’elles sont présentées par les autorités les ayant organisées non plus comme une simple intervention sécuritaire, mais pratiquement comme une victoire civilisationnelle du « bien contre le mal ».
Le 28 octobre dernier, un nouveau carnage a eu lieu à Rio de Janeiro. Cette opération policière menée contre un groupe criminel, le Comando Vermelho, est devenue la plus meurtrière de l’histoire du Brésil : elle a fait au moins 121 morts dans les rues de deux favelas.
J’étudie les événements de ce type depuis près de trois décennies. Certains de ces massacres sont devenus des blessures nationales : c’est notamment le cas du carnage de Carandiru en 1992, lorsque la police a exécuté 111 prisonniers après une mutinerie, et des crimes de mai 2006 que j’ai suivis lorsque je réalisais mon terrain de doctorat. La police de Sao Paulo avait alors tué au moins 493 civils en une semaine, en représailles à la mort de 45 de ses agents survenue dans une seule nuit, ordonnée par le Primeiro Comando da Capital (premier commandement de la capitale, PCC). J’étudiais déjà cette fraternité criminelle qui était alors en pleine expansion et qui est devenue aujourd’hui la plus grande organisation du monde du crime en Amérique latine.
À l’époque, ce qui m’avait frappé c’était l’ampleur industrielle de ces événements sporadiques. Avec le temps, j’ai réalisé que les spectacles de violence massive étaient liés à une répétition silencieuse des morts du même profil, mais à petite échelle, dans la routine. Pour la seule année 2024, le ministère brésilien de la justice a enregistré 6 014 personnes officiellement tuées par des policiers, sur un total d’environ 45 000 homicides et 25 000 disparitions dans tout le pays. À titre de comparaison, sur l’ensemble des années 2023 et 2024, la police britannique a abattu deux personnes.
Qui trouve la mort dans ces tueries ?
En réfléchissant à mon ethnographie, j’ai constaté que tant les carnages spectaculaires que les homicides routiniers frappaient pratiquement toujours les mêmes victimes : de jeunes hommes pauvres et racisés qui, comme je l’ai progressivement compris, avaient été recrutés comme exécutants au service des marchés illégaux. Leurs pairs présentant un profil similaire, mais non impliqués dans ces activités, n’étaient pas exposés à cette forme de violence.
Selon l’Atlas de la violence 2025 publié par le Forum brésilien de la sécurité publique, la grande majorité des victimes de l’usage de la force létale par la police sont des hommes (91,1 %) et des Noirs (79 %). Près de la moitié (48,5 %) avaient moins de 30 ans. La plupart ont été tués par arme à feu (73,8 %) et plus de la moitié (57,6 %) sont morts dans des lieux publics.
Ces jeunes étaient engagés pour vendre de la drogue, assurer une protection informelle ou commettre de petits délits. Beaucoup d’entre eux avaient été mes interlocuteurs réguliers pendant ma recherche, et j’ai assisté à leurs funérailles, qui se tiennent toujours dans un grand silence, car leurs morts sont considérées comme des morts de bandits.
Mon intérêt sociologique pour cette violence n’a jamais été motivé par la mort elle-même. Je ne trouve aucun intérêt aux documentaires sur les tueurs en série ou les psychopathes. En revanche, je m’intéresse beaucoup aux formes violentes et non létales d’expression politique : les émeutes, les soulèvements et les explosions d’indignation. La coercition étatique contre cette violence retient également mon attention depuis des décennies.
C’est sous cet angle que j’examine le massacre de Rio : il s’agit d’une violence aux effets politiques immédiats. Un événement critique qui remet en cause les fondements de l’autorité de l’État et donc les contours de la vie quotidienne à venir.
Une légitimité nouvelle de la violence
Malgré le profil répétitif des victimes, les répercussions politiques du massacre de Rio ont été radicalement nouvelles. Lorsque j’ai commencé mes recherches dans les favelas, ces meurtres étaient perpétrés par des escadrons masqués. Le discours public insistait sur le fait que les groupes d’extermination n’avaient rien à voir avec les policiers, et condamnait toute action hors de la loi.
Or le 28 octobre, à Rio de Janeiro, il n’y a eu ni masques ni ambiguïté. Après le massacre, le gouverneur s’est présenté devant les caméras, entouré de ses secrétaires, et a célébré le succès de l’opération, qui a également coûté la vie à quatre policiers – une proportion de policiers tués par rapport aux « criminels » éliminés près de deux fois supérieure à la moyenne nationale. En 2024, 170 policiers ont été tués au Brésil, soit 2 % des 6 000 personnes décédées après l’utilisation de la force létale par la police.
Le politicien a parlé d’action planifiée, d’efficacité, de rétablissement de l’État de droit. Dans un pays où 99,2 % des meurtres commis par la police ne feront jamais l’objet d’une enquête officielle, un tel ton jubilatoire ne devrait pas me surprendre, mais c’est pourtant le cas.
Au cours de l’interview, le gouverneur a annoncé que cinq autres gouverneurs d’extrême droite – rappelons que le Brésil est une fédération et que la sécurité publique relève de la responsabilité des États ; les gouverneurs de chaque État peuvent décider de leur politique de sécurité indépendamment du gouvernement fédéral – se rendraient à Rio le lendemain pour le féliciter, partageant ainsi une propagande électorale écrite avec du sang. Leurs réseaux politiques s’inspirent de Nayib Bukele, le président du Salvador, devenu le parrain de la propagande politique par le massacre. Une partie de la presse a salué cette action, et les sondages d’opinion ont montré un soutien massif de la population.
Cette fois-ci, le massacre n’a pas été présenté comme une nécessité tragique contre une organisation criminelle, mais comme un acte vertueux, point final. Des consultants en marketing politique sont apparus sur YouTube pour annoncer que le gouverneur avait habilement occupé un espace politique vide et s’imposer comme l’homme fort de la droite brésilienne. En réalité, les soldats morts des deux côtés seront remplacés le lendemain, et le cœur de l’organisation criminelle visée reste intact, comme cela s’est produit à plusieurs reprises au cours des quarante dernières années.
La légitimation de la terreur au Brésil n’a pas tardé. Le lendemain du massacre, un projet de nouvelle législation antiterroriste a été présenté à la Chambre des députés, élargissant nettement la définition de « terroriste », qui s’applique désormais aux personnes soupçonnées de trafic de drogue, a été présenté à la Chambre des députés. Lorsque l’on passe de l’explosion violente aux processus sociaux ordinaires, la terreur contre les favelas apparaît comme un mode de gouvernance de plus en plus légitime, et non comme une déviation.
L’échec à long terme de la politique de terreur
Après le massacre, on a vu les politiciens brésiliens arriver avec leurs rituels symboliques. D’un côté, le gouverneur d’extrême droite triomphait avec son action extrêmement meurtrière. Ses collègues des autres États gouvernés par l’extrême droite, dont Sao Paulo et Minas Gerais, tentent de surfer sur la vague de popularité de la terreur.
De l’autre, on a vu un Lula embarrassé, acculé par le fait que la politique de sécurité relève de la responsabilité des États de la fédération, mais surtout parce qu’il sait qu’il doit faire face à une opinion publique favorable au massacre, douze mois avant l’élection présidentielle de 2026.
La terreur n’est plus seulement un moment d’extrême violence ; avant l’événement, il y a des intentions délibérées et après, des modes de communication politiques professionnels. Si les massacres sont récurrents dans les favelas de Rio, leur légitimation publique est nouvelle. La terreur s’avère politiquement efficace et marque un changement d’hégémonie.
Alors que je commençais mon travail de terrain, dans les années 1990, la terreur s’accomplissait quand il n’y avait pas de punition, mais promotion silencieuse des policiers violents ; quand il n’y avait pas de réparation, mais humiliation cachée des familles des victimes ; quand on ne voyait pas l’interdiction politique de ceux qui mettaient cette terreur en œuvre, mais quelques votes peu assumés en leur faveur.
La situation a désormais changé. L’élection triomphale de ceux qui ordonnent la terreur dans les États et les villes les plus importants du pays est devenue la norme lors des élections pour les gouvernements des 27 États de la fédération, et les législatives de 2022, bien que lors des municipales de 2024. La victoire de justesse de Lula contre Bolsonaro à la présidentielle en 2022 aura pratiquement été la seule exception. Un seul des 27 États qui constituent le pays, Bahia, est gouverné par la gauche… et sa police est la deuxième plus violente du pays.
Les auteurs de la terreur imaginent que la violence met fin à l’histoire, mais il reste toujours quelque chose : le traumatisme, le deuil, la soif de vengeance, la lucidité politique, la mémoire collective, les façons obstinées d’imaginer la paix et le tissu fragile de la vie quotidienne. De ces résidus naissent des chemins divergents : une radicalisation renouvelée ou des pratiques de mémoire et de réconciliation, des mécanismes bureaucratiques ou des forces criminelles insurgées. La vie insiste pour révéler que les vainqueurs sont eux-mêmes des meurtriers, et cette histoire se répète, marquant l’échec à long terme de la terreur malgré sa force immédiate.
Gabriel Feltran ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
20.11.2025 à 16:14
Philippe Aghion, le Nobel d’économie qui s’inscrit dans une tradition française valorisant les liens entre économie, société et institutions
Texte intégral (1402 mots)
Si les travaux de Philippe Aghion sur « la théorie de la croissance durable à travers la destruction créatrice » s’inscrivent dans la lignée de Schumpeter, ils se situent aussi dans une tradition bien française. En effet, la pensée du récent Prix Nobel d’économie valorise les liens entre économie, société et institutions, comme l’ont fait avant lui Saint-Simon ou, plus récemment, François Perroux.
Le 13 octobre 2025, l’Académie royale des sciences de Suède a décerné le prix de la Banque de Suède en sciences économiques en mémoire d’Alfred Nobel à l’économiste français Philippe Aghion, ainsi qu’à Peter Howitt et Joel Mokyr. Ainsi sont récompensés leurs travaux sur l’impact des nouvelles technologies sur la croissance économique.
Philippe Aghion et Peter Howitt ont été parmi les premiers à modéliser l’idée originale de Joseph Schumpeter du processus de destruction créatrice. Dans cette perspective, les progrès de la science conduisent à l’apparition et à la diffusion de nouvelles idées, de nouvelles technologies, de nouveaux produits, de nouveaux services, de nouveaux modes d’organisation du travail qui ont pour effet de remplacer, plus ou moins brutalement, ce qui avait cours avant elles. Ces nouveautés ont pour origine la concurrence que se livrent les entreprises, chacune désirant être la première à introduire et exploiter son innovation.
Favoriser la destruction créatrice
À la suite de Joseph Schumpeter, Philippe Aghion fait partie des économistes français, qui, tels Henri Saint Simon (1760-1825) au XIXe siècle, ou François Perroux (1903-1987) au XXe siècle, ont mis en évidence le rôle de l’innovation, de l’entrepreneur et du crédit dans la dynamisme du capitalisme.
À lire aussi : Emmanuel Macron a-t-il eu un moment saint-simonien ?
Philippe Aghion analyse dans ses travaux, la corrélation positive entre la croissance du niveau de vie (PIB par habitant) et le taux de destruction créatrice, mesuré par l’écart entre le taux de création et de taux de destruction d’entreprises.
Philippe Aghion estime que les pouvoirs publics doivent favoriser ce processus de destruction créatrice par l’innovation. L’État doit, d’une part, développer avec le secteur privé un ensemble d’infrastructures publiques de qualité, afin d’accéder aux savoirs nouveaux, fer de lance des nouvelles technologies. Au-delà de l’effort financier dans le domaine de l’enseignement et de la recherche, l’appétence pour l’entrepreneuriat et le risque, l’aptitude à apprendre de ses échecs, les partenariats public-privé, doivent être soutenus.
Accompagner les chômeurs
D’autre part l’État doit corriger les effets négatifs à court terme de la destruction créatrice. En effet, l’écart temporel entre l’arrivée d’une innovation et sa diffusion dans les différents secteurs d’activité engendre du chômage avant que l’innovation n’alimente de nouvelles embauches. Les pouvoirs publics, dans cette vision, doivent s’attacher au traitement du chômage issu de la destruction créatrice. Pour cela, ils doivent assurer la flexibilité et la sécurité du marché du travail, ceci en combinant indemnisation du chômage et développement de la formation professionnelle. Ainsi, pour maximiser l’impact positif de l’intelligence artificielle sur l’emploi, Philippe Aghion estime nécessaire d’améliorer aujourd’hui notre système éducatif et de mettre en place des politiques de « flexisécurité » à l’image de celles en vigueur au Danemark.
La pensée de François Perroux s’inspire, comme celle d’Aghion, de Joseph Schumpeter, sur plusieurs points fondamentaux, tout en développant ensuite une approche originale de l’économie au service de l’homme. Perroux reprend ainsi cette idée de schumpeterienne du rôle central de l’innovation en soulignant que le développement économique ne résulte pas d’un simple équilibre des marchés, mais d’un processus dynamique, déséquilibrant, impulsé par des « foyers d’innovation » ou des « centres de décision ».
L’État, un entrepreneur ?
Perroux s’inscrit dans une vision dynamique d’un capitalisme en perpétuelle transformation. Il insiste notamment sur les asymétries de pouvoir et les inégalités spatiales dans le développement, ce qui l’amène à formuler sa théorie des pôles de croissance. Perroux reprend cette figure de l’entrepreneur schumpetérien, innovateur et agent de rupture, mais l’élargit. Selon lui, les agents moteurs du développement peuvent être aussi bien des entreprises que des institutions ou des États, capables de concentrer et diffuser l’innovation.
Aghion comme Perroux, influencés par Schumpeter, critiquent la théorie de l’équilibre général néoclassique harmonieux de Léon Walras (1834-1910). À la place, ils développent une économie des déséquilibres, où le développement est un processus conflictuel, inégal, et souvent polarisé.
François Perroux s’est inspiré de Joseph Schumpeter en adoptant une vision dynamique, déséquilibrée et innovante du développement économique. Toutefois, il enrichit cette perspective en y intégrant des dimensions spatiales, institutionnelles et de pouvoir, ce qui le distingue nettement de son prédécesseur.
Œuvre collective
C’est sur ces dimensions qu’il fut notamment inspiré par l’industrialisme de Saint-Simon. Saint-Simon proposait une société dirigée par les plus compétents (industriels, scientifiques, artistes), selon des principes rationnels et fonctionnels. Perroux reprend cette idée en insistant sur la nécessité d’une planification économique fondée sur des vecteurs de développement (comme les pôles de croissance), plutôt que sur des institutions politiques traditionnelles.
Par ailleurs, Perroux reprend à Saint-Simon l’idée selon laquelle l’industrie est une œuvre collective, orientée vers le bien commun. Il voit dans l’organisation industrielle non seulement un moteur économique, mais aussi un vecteur de transformation sociale, capable de structurer la société autour de la coopération autant que de la compétition. Perroux s’inspire de Saint-Simon pour développer une philosophie du dialogue et une approche non antagoniste de la socialisation. Il privilégie les luttes non violentes et les dynamiques de coopération entre les acteurs économiques.
Nécessaire bonne gouvernance
L’insistance sur la politique industrielle se retrouve aujourd’hui chez Aghion pour qui celle-ci dépend beaucoup moins des moyens des pouvoirs publics que de la bonne gouvernance. Le rôle des savants et de ceux que nous appelons aujourd’hui les « experts » dans la politique économique était une thématique constante chez Saint-Simon.
Philippe Aghion accorde de l’importance aux institutions, à la concurrence, à la politique industrielle et à la mobilité sociale dans le processus de croissance. Quatre points de convergence avec le saint-simonisme peuvent être mentionnés sur le progrès technique, le rôle des producteurs, le rôle des institutions et la vision sociale d’un capitalisme régulé. Si nous ne pouvons pas parler d’influence directe c’est bien l’environnement intellectuel français qui marque Aghion qui, comme Perroux de 1955 à 1976, enseigne aujourd’hui au Collège de France.
Patrick Gilormini est membre de la CFDT
20.11.2025 à 16:08
Nutri-Score : pourquoi exempter les aliments AOP et IGP n’aurait aucun sens
Texte intégral (1870 mots)
Les discussions parlementaires concernant l’obligation d’afficher Nutri-Score, le logo qui associe cinq lettres à cinq couleurs pour informer les consommateurs sur la qualité nutritionnelle des aliments, se poursuivent à l’Assemblée nationale et au Sénat. Mais s’il était adopté, l’un des sous-amendements débattus pourrait créer une brèche dans le dispositif, en excluant les produits bénéficiant d’une appellation d’origine protégée (AOP) ou une indication d’origine protégée (IGP). Une décision dépourvue de tout fondement scientifique.
Le 7 novembre 2026, dans le cadre de la discussion sur le projet de loi de financement de la Sécurité sociale (PLFSS) à l’Assemblée nationale, les députés ont adopté deux amendements rendant obligatoire l’affichage du Nutri-Score sur les emballages de tous les aliments. Les entreprises qui souhaiteraient déroger à cette mesure se verraient dans l’obligation de s’acquitter d’une taxe de 5 % de leur chiffre d’affaires.
Si les parlementaires résistent aux pressions des lobbies qui s’y opposent et maintiennent cette disposition jusqu’à l’issue du processus législatif, il s’agira d’une très bonne nouvelle pour les consommateurs, et d’une victoire en matière de santé publique.
Toutefois, une nuance de taille tempère l’enthousiasme que pourrait susciter un tel texte de loi : quelques députés ont en effet réussi, par un sous-amendement, à faire exclure de l’obligation d’afficher le Nutri-Score les produits ayant une appellation d’origine protégée (AOP) ou une indication d’origine protégée (IGP).
Pourtant de telles exemptions n’ont pas de sens ni en termes scientifiques, ni en matière de santé publique, ni même pour la défense des produits AOP/IGP.
AOP et IGP ne donnent aucune indication nutritionnelle
Rappelons que le fait qu’un aliment soit « traditionnel », « gastronomique » ou « fabriqué selon une méthode ancestrale » ne donne aucune information sur sa valeur nutritionnelle, et ne signifie pas qu’il peut-être consommé sans restriction.
Les appellations et indications d’origines protégées informent uniquement sur le rattachement à un terroir, à un mode de production vertueux et un savoir-faire reconnu avec un cahier des charges précis. Si intéressants que soient ces éléments, ils n’ont rien à voir avec le sujet sur lequel renseigne le Nutri-Score, qui est, rappelons-le, la qualité nutritionnelle des aliments.
Les arguments en faveur de l’exemption des aliments AOP et IGP, mis en avant de longue date par certains lobbies agroalimentaires, s’appuient sur des arguments que l’on pourrait qualifier de « gastro-populistes ». Il s’agit de promouvoir certaines caractéristiques ou qualités des aliments, comme le terroir ou la tradition, pour occulter leur composition nutritionnelle ou leurs effets sur la santé. Avec, en arrière-plan, la volonté de défendre des intérêts économiques.
Dans un tel contexte, un « aliment avec un signe d’identification de la qualité et de l’origine » n’est pas forcément un « aliment favorable à la santé ». En effet, dans le cahier des charges pour attribuer une AOP ou une IGP, ne figure aucune référence à la composition et la qualité nutritionnelle des produits. Les critères d’attribution portent sur d’autres éléments que les aspects nutritionnels.
À l’inverse, la notion de profil nutritionnel n’implique que cette dimension spécifique : il ne s’agit pas de qualifier les caractéristiques des aliments en termes d’autres qualités, notamment liées à l’origine des produits. Mais la qualité nutritionnelle est assurément la dimension principale à prendre en compte si l’on veut préserver sa santé.
Les aliments AOP et IGP sont, sur le plan nutritionnel, des aliments comme les autres
On l’a vu, ce n’est pas parce qu’un produit est traditionnel, qu’il fait partie du patrimoine culinaire et qu’il est lié aux terroirs (ce sont des éléments tout à fait respectables) que cela lui confère une qualité nutritionnelle favorable. Même avec une appellation d’origine (AOP/IGP), si un produit traditionnel est gras, sucré ou salé, il reste un produit gras, sucré ou salé !
C’est le cas de la majorité des fromages et des charcuteries, du fait de leur teneur en graisses saturées et en sel ainsi que de leur densité calorique, qui, même s’ils ont une AOP ou une IGP, se retrouvent légitimement classés D ou E (et C pour les moins salés et les moins gras, comme les fromages emmental ou mozzarella, ou encore certains jambons).
Il faut souligner que fromages et charcuteries sont les principales catégories de produits traditionnels qui ont un Nutri-Score défavorable. Une étude de l’UFC Que Choisir a montré qu’en réalité, 62 % des aliments « traditionnels » sont classés A, B ou C.
Aucune interdiction à consommer ces aliments, mais avec modération
Comme il est fait état dans la communication qui accompagne le Nutri-Score, le fait d’être classé D ou E n’indique pas que le produit ne doit pas être consommé, mais qu’il peut l’être dans le cadre d’une alimentation équilibrée en petites quantités et/ou pas trop fréquemment, en évitant des consommations excessives.
Selon les recommandations du Programme national nutrition santé (PNNS), il faut limiter la consommation de charcuterie à 150 grammes par semaine et le nombre de produits laitiers à 2 par jour (ce qui comprend le lait, les yaourts et les fromages). En outre, la recommandation générale sur le fait de ne pas manger trop gras et trop salé amène à limiter la consommation de fromages et charcuteries (qui sont riches en graisses saturées et en sel !).
En réalité, il n’y a donc rien de révolutionnaire dans le fait d’afficher un Nutri-Score mettant en évidence la réalité de la composition nutritionnelle, non optimale sur le plan santé, de ces produits.
Le classement des fromages et des charcuteries par le Nutri-Score (qu’ils bénéficient d’une AOP/IGP ou non) est en totale cohérence avec les recommandations nutritionnelles générales du PNNS et celles en vigueur au niveau international, qui soulignent toutes la nécessité de limiter leur consommation.
Pourrait-on imaginer que ces recommandations de santé publique, en matière de consommation de fromages et de charcuteries, s’appliquent à tous les produits de ce type, mais que ceux bénéficiant d’une AOP ou d’une IGP en soient exclus ? Une telle décision viderait de leur sens lesdites recommandations. C’est pourtant le même raisonnement qui sous-tend le sous-amendement sur le Nutri-Score proposé dans le cadre de la discussion sur le PLFSS.
Les intérêts économiques avant la santé publique ?
Il semblerait en réalité que, derrière cette pseudo-défense des fromages avec une AOP ou une IGP, se cache la défense d’intérêts économiques considérables.
Rappelons que la multinationale française Lactalis, qui commercialise la marque Société, est la n°1 mondiale des produits laitiers (30,3 milliards d’euros de chiffre d’affaires en 2024). Elle se partage la grande majorité des AOP fromagères avec Savencia Saveurs & Spécialités (5ᵉ groupe fromager mondial, 7,1 milliards d’euros de chiffre d’affaires en 2024), qui commercialise la marque Papillon, ainsi qu’avec le groupe coopératif laitier Sodiaal (Société de diffusion internationale agroalimentaire, 5,5 milliards de chiffre d’affaires en 2022).
S’il y a moins de grands industriels derrière les charcuteries affichant une IGP, on retrouve, comme pour les fromages, des élus des régions productrices qui montent au créneau pour défendre ces produits, avec des arguments identiques de déni de leurs compositions nutritionnelles (jusqu’à la ministre de l’agriculture elle-même, élue du Doubs, zone de production de charcuteries et de fromages avec une AOP ou une IGP).
Consommer moins mais mieux, grâce au double affichage
Pour finir, soulignons qu’il ne s’agit pas d’opposer deux systèmes d’affichage caractérisant des dimensions différentes des aliments, ce qui aurait d’autant moins de sens que, comme nous l’avons rappelé, leur vocation n’est pas la même.
Il est important d’afficher les labels AOP/IGP, afin de valoriser les aliments qui, dans leur catégorie, ont un mode de production vertueux et sont rattachés aux terroirs, par rapport aux produits équivalents qui n’en ont pas.
Mais cela ne dispense pas de renseigner de façon claire les consommateurs sur leur composition nutritionnelle. Or, pour cela, le Nutri-Score a démontré, études à l’appui, son intelligibilité.
Il serait donc plutôt utile de rappeler que l’affichage du label AOP/IGP aux côtés du Nutri-Score est parfaitement en ligne avec le concept « consommer moins, mais mieux ». Les consommateurs qui consommeront en connaissance de cause ces produits, en respectant les recommandations nutritionnelles qui visent à limiter leur consommation, auront ainsi leurs possessions tous les éléments qui leur permettront de s’orienter vers des produits qualitatifs, locaux, artisanaux. À l’inverse, les produits avec une AOP ou une IGP qui n’affichent pas le Nutri-Score pourraient bien se voir perdre leur confiance.
Chantal Julia a reçu des financements de publics (Santé publique France, Ministère de la Santé, Joint Action prevent NCDs, IRESP...).
Mathilde Touvier a reçu des financements d'organismes publics ou associatifs à but non lucratif (ERC, INCa, ANR...).
Aline Meirhaeghe, Pilar Galan et Serge Hercberg ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur poste universitaire.
20.11.2025 à 15:13
Sainte-Soline, gilets jaunes, retraites : comment les manifestants ont revu leur organisation face à la répression policière
Texte intégral (1871 mots)
Les vidéos de la manifestation contre la mégabassine de Sainte-Soline (Deux-Sèvres) en 2023 récemment publiées par « Médiapart » mettent en lumière la violence de la répression qui y a été exercée par les forces de l’ordre envers les manifestants. Loin d’être isolé, cet épisode s’inscrit dans une transformation profonde des pratiques de gestion des manifestations en France depuis deux décennies, marquée par une logique de remilitarisation du maintien de l’ordre et de judiciarisation croissante des mouvements sociaux. Face à ce tournant répressif, comment s’organisent les militants ?
À l’échelle de plusieurs mobilisations françaises (gilets jaunes, manifestations contre la réforme des retraites, « Bloquons tout »…), on remarque une généralisation de la mise en place de fonctions « support » du côté des manifestants : équipes juridiques, personnes chargées de la documentation des violences subies, street medics (médecins de rue), formation aux premiers secours, etc.
Dans cette lignée, un dispositif de soutien nommé « base arrière » est conçu pour le rassemblement de Sainte-Soline (Deux-Sèvres), en réponse à des manifestations antérieurement réprimées. Une équipe juridique s’organise en mars 2022, lors du Printemps maraîchin contre les mégabassines. En rendant accessible des ressources juridiques pour les militants, celle-ci constitue un maillon important du soin en manifestation. Elle aide à protéger de l’épuisement émotionnel et psychologique lié aux procédures judiciaires, souvent longues, stressantes, et financièrement coûteuses, d’autant plus lorsqu’on les affronte seul. Le soutien psychologique, lui, se structure à la suite des affrontements lors de la première manifestation à Sainte-Soline, en octobre 2022.
Sur le terrain, ces équipes assurent la prise en charge des personnes arrêtées ou blessées. Mais leur action ne se limite pas aux urgences : avant le rassemblement, elles font de la prévention. Par exemple, le pôle médical propose des recommandations pour l’équipement à apporter, conseillant d’amener des masques et des lunettes de protection contre les gaz lacrymogènes tout en partageant des astuces pour en limiter leurs effets (mélange à base de Maalox ou citron). De leur côté, les juristes identifient des avocats disponibles pour soutenir les personnes interpellées, et diffusent leur contact ainsi que des réflexes à adopter en cas d’arrestation.
Des pratiques éminemment politiques
Avec le mouvement des gilets jaunes et l’adoption d’une doctrine de maintien de l’ordre plus offensive, de nouveaux acteurs, souvent professionnels de santé, émergent partout sur le territoire pour prodiguer des soins en manifestation. Ceux-ci adoptent souvent une posture de secouristes volontaires apartisans, proche du devoir humanitaire, et prennent en charge tous les blessés : militants, journalistes mais aussi policiers.
Au contraire, la « base arrière » de Sainte-Soline incarne une réflexion explicitement politique sur la mise en œuvre du soin dans les mouvements sociaux, en réponse à la répression accrue. De la sorte, elle s’inscrit dans l’approche historique des street medics.
Apparus en France dans les années 2010 lors de l’occupation de la zone à défendre de Notre-Dame-des-Landes (Loire-Atlantique), ces derniers sont à l’origine proches des mouvances anarchistes et de gauche, loin de cette neutralité revendiquée. Les fonctions support de la « base arrière » sont alors pensées comme des pratiques militantes, qui s’inscrivent dans une dynamique de soin engagé et d’autodéfense qui vise à assurer avant tout la protection des manifestants. Les membres des équipes rappellent d’ailleurs être présents « en soutien aux camarades qui manifestent ».
Ensuite, le mouvement promeut une posture partagée, où le soin n’est pas délégué à des experts. L’objectif est ici de rendre possible une certaine autonomisation, notamment dans un contexte où il peut être difficile ou risqué d’accéder au soin dispensé par les institutions. Cela peut par exemple être lorsque des médecins transmettent aux ministères de l’intérieur ou de la justice des fichiers recensant les identités et descriptions de blessés en manifestation. Par ailleurs, une approche collective évite de recréer des relations asymétriques et des hiérarchies entre soignants, ceux qui détiennent le savoir et le pouvoir de décision, et soignés, qui sont en position de dépendance sans toujours comprendre les choix.
Enfin, les organisateurs tentent d’étendre cette culture du soin à d’autres aspects de la mobilisation. Une garderie autogérée, un pôle dévalidiste (pour lutter contre les discriminations et faciliter la participation des personnes en situation de handicap), et un dispositif consacré aux violences sexistes et sexuelles sont, par exemple, mis en place pour permettre au plus grand nombre de participer, quelles que soient ses contraintes.
De surcroît, l’information circule sous de multiples formats (flyers, briefings oraux, lignes téléphoniques, etc.). Elle est traduite en plusieurs langues, pour que tout le monde puisse y avoir accès. Il y a donc une attention particulière portée à l’inclusivité des dispositifs et une volonté d’insuffler une responsabilité commune. Ainsi, le pôle psychoémotionnel souligne vouloir se détacher des « cultures militantes […] virilistes qui glorifient un certain rapport à la violence » et permettre à chacun de demander de l’aide en cas de besoin sans se sentir faible.
Les défis d’une approche politique du soin en contexte répressif
Développer une culture du soin partagée et inclusive pose néanmoins de nouvelles questions. Un premier défi est celui du suivi du soin après les manifestations : comment faire en sorte de garantir une continuité dans le soin à l’échelle des groupes locaux après un rassemblement ? Sous quelles modalités ? Et comment s’assurer que des personnes plus isolées puissent en bénéficier ?
Dans mes recherches en cours, certains militants racontent avoir bénéficié d’un soutien psychologique collectif qui a joué un rôle crucial pour digérer leurs vécus. C’est le cas de Thérèse qui explique :
« Ça nous a permis de faire en sorte que notre cerveau qui avait été vraiment malmené puisse se dire “Voilà, ça s’est passé comme ça. C’est une réalité, c’est pas du délire. Je peux dire très précisément que Darmanin a cherché à nous bousiller avec sa force armée”. »
Cependant, d’autres personnes racontent ne pas avoir bénéficié d’une telle expérience, comme le soulignent mes entretiens avec Katia, puis avec Chloé. La première me dit ne pas avoir participé aux événements de soin collectif après la manifestation et s’être reposée plutôt sur ses proches. La seconde exprime s’être « sentie très très seule après » et pas toujours à sa place dans les espaces de discussion. Plusieurs personnes interrogées expliquent aussi ne pas avoir rejoint les moments de soutien car habitant loin des centres urbains. D’autres soulignent ne pas s’être sentis légitimes pour utiliser les dispositifs existants, car certains militants en auraient eu plus besoin qu’eux, notamment les blessés graves.
Un autre défi de taille pour l’avenir des mobilisations est celui du soin des soignants, qui peuvent vite se retrouver débordés. Plusieurs membres des équipes rapportent avoir été physiquement et mentalement traumatisés de leur expérience, parfois sous le choc pendant plusieurs jours après l’événement. C’est aussi un constat que Vincent, un manifestant présent à Sainte-Soline et proche des équipes de street medics, fait lors de notre entretien :
« J’ai échangé avec les copains qui étaient « medics » là-bas. Je pense qu’eux, ils auraient eu besoin d’un soutien psy derrière parce qu’ils étaient vraiment choqués ».
À l’aune des révélations sur la manifestation de Sainte-Soline, la répression semble s’imposer comme un enjeu crucial des luttes sociales et environnementales. Alors que de nombreux manifestants sont prêts à accepter le risque de s’exposer à des gaz lacrymogènes voire à de potentielles blessures, le soin ne peut pas rester un impensé.
Elise Lobbedez ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
20.11.2025 à 14:34
Affaire Epstein et MAGA : comprendre le calcul politique derrière le revirement de Trump
Texte intégral (2442 mots)
Avec le dernier revirement du président Donald Trump concernant la divulgation des éléments d’enquête de l’affaire Jeffrey Epstein détenus par le ministère américain de la justice – revirement, puisqu’après s’y être opposé, l’hôte de la Maison Blanche s’y déclare aujourd’hui favorable –, les partisans de MAGA pourraient enfin avoir accès aux documents qu’ils attendent depuis longtemps. Dans l’après-midi du 18 novembre 2025, la Chambre a voté à une écrasante majorité en faveur de leur divulgation, un seul républicain ayant voté contre la mesure. Plus tard dans la journée, le Sénat a approuvé à l’unanimité l’adoption de la mesure, ensuite transmise au président pour signature.
Naomi Schalit, notre collègue du service politique de « The Conversation » aux États-Unis, s’est entretenue avec Alex Hinton, qui étudie le mouvement MAGA depuis des années, au sujet de l’intérêt soutenu des républicains du mouvement Make America Great Again pour l’affaire Jeffrey Epstein, accusé de trafic sexuel d’enfants. Hinton explique comment cet intérêt s’accorde avec ce qu’il connaît du noyau dur des partisans de Trump.
The Conversation : Vous êtes un expert du mouvement MAGA. Comment avez-vous constitué vos connaissances en la matière ?
Alex Hinton : Je suis anthropologue culturel, et notre travail consiste à mener des recherches sur le terrain. Nous allons là où les personnes que nous étudions vivent, agissent et parlent. Nous observons, nous passons du temps avec elles et nous voyons ce qui se passe. Nous écoutons, puis nous analysons ce que nous entendons. Nous essayons de comprendre les systèmes de signification qui structurent le groupe que nous étudions. Et puis, bien sûr, il y a les entretiens.
Il semble que les partisans inconditionnels de Trump, les MAGA, soient très préoccupés par divers aspects de l’affaire Epstein, notamment la divulgation de documents détenus par le gouvernement des États-Unis. Sont-ils réellement préoccupés par cette affaire ?
A. H. : La réponse est oui, mais elle comporte aussi une sorte de « non » implicite. Il faut commencer par se demander ce qu’est le mouvement MAGA.
Je le perçois comme ce que l’on appelle en anthropologie un « mouvement nativiste », centré sur les « habitants du pays ». C’est là que prend racine le discours « America First ».
C’est aussi un mouvement xénophobe, marqué par la peur des étrangers, des envahisseurs. C’est un mouvement populiste, c’est-à-dire tourné vers « le peuple ».
Tucker Carlson a interviewé Marjorie Taylor Greene, et il a déclaré : « « Je vais passer en revue les cinq piliers du MAGA. » Il s’agissait de l’Amérique d’abord, pilier absolument central ; des frontières – qu’il faut sécuriser ; du rejet du mondialisme, ou du constat de l’échec de la mondialisation ; de la liberté d’expression ; et de la fin des guerres à l’étranger. J’ajouterais l’insistance sur « Nous, le peuple », opposé aux élites.
Chacun de ces piliers est étroitement lié à une dynamique clé du mouvement MAGA, à savoir la théorie du complot. Et ces théories du complot sont en général anti-élites et opposant « Nous, le peuple » à ces dernières.
Et si l’on prend l’affaire Epstein, on constate qu’elle fait converger de nombreuses théories du complot : Stop the Steal, The Big Lie, la « guerre juridique », l’« État profond », la théorie du remplacement. Epstein touche à tous ces thèmes : l’idée d’une conspiration des élites agissant contre les intérêts du peuple, avec parfois une tonalité antisémite. Et surtout, si l’on revient au Pizzagate en 2016, où la théorie affirmait que des élites démocrates se livraient à des activités « démoniaques » de trafic sexuel, Epstein est perçu comme la preuve concrète de ces accusations.
Une sorte de fourre-tout où Epstein est le plus souvent impliqué qu’autre chose ?
A. H. : On le retrouve partout. Présent dès le début, car il fait partie de l’élite et qu’on pense qu’il se livrait au trafic sexuel. Et puis il y a les soupçons envers un « État profond », envers le gouvernement, qui nourrissent l’idée de dissimulations. Que promettait MAGA ? Trump a dit : « Nous allons vous donner ce que vous voulez », n’est-ce pas ? Kash Patel, Pam Bondi, tout le monde disait que tout serait dévoilé. Et, à y regarder de plus près, cela ressemble fortement à une dissimulation.
Mais en fin de compte, beaucoup de membres de MAGA ont compris qu’il fallait rester fidèles à Trump. Dire qu’il n’y a pas de MAGA sans Trump serait peut-être excessif. S’il n’y a certainement pas de trumpisme sans Trump, le MAGA sans Trump serait comme le Tea Party : le mouvement disparaîtrait tout simplement.
La base MAGA soutient Trump plus que les républicains traditionnels sur ce sujet. Je ne pense donc pas que cela provoquera une rupture, même si cela crée des tensions. Et on voit bien en ce moment que Trump traverse certaines tensions.
La rupture que nous observons est celle de Trump avec l’une de ses principales partisanes du MAGA, l’élue républicaine de Géorgie Marjorie Taylor Greene, et non celle de la partisane du MAGA avec Trump.
Avec Greene, sa relation avec Trump ressemble parfois à un yo-yo : tensions, séparation, puis réconciliation. Avec Elon Musk c’était un peu la même chose. Une rupture, puis un retour en arrière – comme Musk l’a fait. Je ne pense pas que cela annonce une fracture plus large au sein de MAGA.
Il semble que Trump ait fait volte-face au sujet de la publication des documents afin que le mouvement MAGA n’ait pas à rompre avec lui.
A. H. : C’est tout à fait vrai. Trump est extrêmement habile pour retourner n’importe quelle histoire à son avantage. Il est un peu comme un joueur d’échecs
– sauf quand il laisse échapper quelque chose – avec toujours deux coups d’avance, et, d’une certaine manière, nous sommes toujours en retard. C’est impressionnant.
Il y a une autre dimension de la mouvance MAGA : l’idée qu’il ne faut pas « contrarier le patron ». C’est une forme d’attachement excessif à Trump, et personne ne le contredit. Si vous vous écartez de la ligne, vous savez ce qui peut arriver – regardez Marjorie Taylor Greene. Vous risquez d’être éliminé lors des primaires.
Trump a probablement joué un coup stratégique brillant, en déclarant soudainement : « Je suis tout à fait favorable à sa divulgation. Ce sont en réalité les démocrates qui sont ces élites maléfiques, et maintenant nous allons enquêter sur Bill Clinton et les autres. » Il reprend le contrôle du récit, il sait parfaitement comment faire, et c’est intentionnel. On peut dire ce qu’on veut, mais Trump est charismatique, et il connaît très bien l’effet qu’il produit sur les foules. Ne le sous-estimez jamais.
Le mouvement MAGA se soucie-t-il des filles qui ont été victimes d’abus sexuels ?
A. H. : Il existe une réelle inquiétude, notamment parmi les chrétiens fervents du mouvement MAGA, pour qui le trafic sexuel est un sujet central.
Si l’on considère les principes de moralité chrétienne, cela renvoie aussi à des notions d’innocence, d’attaque par des forces « démoniaques », et d’agression contre « Nous, le peuple » de la part des élites. C’est une violation profonde, et, bien sûr, qui ne serait pas horrifié par l’idée de trafic sexuel ? Mais dans les cercles chrétiens, ce sujet est particulièrement important.
Alex Hinton a reçu des financements du Rutgers-Newark Sheila Y. Oliver Center for Politics and Race in America, du Rutgers Research Council et de la Henry Frank Guggenheim Foundation.
20.11.2025 à 11:22
L’IA générative est-elle soutenable ? Le vrai coût écologique d’un prompt
Texte intégral (2749 mots)
Circulez, il n’y a rien à voir ? Les estimations du bilan environnemental de l’intelligence artificielle générative, comme celles réalisées à l’été 2025 par Google sur son IA Gemini, semblent rassurantes : seulement 0,003 g de CO2 et cinq gouttes d’eau par « prompt ». Des résultats qui dépendent en réalité beaucoup des choix méthodologiques réalisés, alors que de telles études sont le plus souvent menées en interne et manquent de transparence. Le problème est que ces chiffres font de plus en plus souvent figure d’argument marketing pour inciter à l’utilisation de l’IA générative, tout en ignorant le risque bien réel d’effet rebond lié à l’explosion des usages.
Depuis la sortie de ChatGPT fin 2022, les IA génératives ont le vent en poupe. En juillet 2025, OpenAI annonçait que ChatGPT recevait 18 milliards de « prompts » (instructions écrites par les utilisateurs) par semaine, pour 700 millions d’utilisateurs – soit 10 % de la population mondiale.
Aujourd’hui, la ruée vers ces outils est mondiale : tous les acteurs de la Big Tech développent désormais leurs propres modèles d’IA générative, principalement aux États-Unis et en Chine. En Europe, le Français Mistral, qui produit l’assistant Le Chat, a récemment battu les records avec une capitalisation proche de 12 milliards d’euros. Chacun de ces modèles s’inscrit dans un environnement géopolitique donné, avec des choix technologiques parfois différents. Mais tous ont une empreinte écologique considérable qui continue d’augmenter de façon exponentielle, portée par la démultiplication des usages. Certains experts, dont ceux du think tank spécialisé The Shift Project, sonnent l’alerte : cette croissance n’est pas soutenable.
À lire aussi : L’IA peut-elle vraiment être frugale ?
Or, tous les acteurs du domaine – y compris les consommateurs – sont aujourd’hui bien conscients que du coût environnemental qui accompagne les usages liés au numérique, mais pas forcément des chiffres que cela représente.
Poussés par de multiples raisons (obligations réglementaires, marketing, parfois par conscience environnementale), plusieurs des grands acteurs de la tech ont récemment réalisé l’analyse de cycle de vie (ACV, méthodologie permettant d’évaluer l’impact environnemental global d’un produit ou service) de leurs modèles.
Fin août 2025, Google a publié la sienne pour quantifier les impacts de son modèle Gemini. Que valent ces estimations, et peut-on s’y fier ?
Une empreinte carbone étonnement basse
Un modèle d’IA générative, pour fonctionner, doit d’abord être « entraîné » à partir d’une grande quantité d’exemples écrits. Pour mesurer l’électricité consommée par un « prompt », Google s’est donc concentré sur la phase d’utilisation – et non pas d’entraînement – de son IA Gemini. Selon ses propres calculs, Google annonce donc qu’un prompt ne consommerait que 0,24 wattheure (Wh) en moyenne – c’est très faible : environ une minute de consommation d’une ampoule électrique standard de 15 watts.
Comment les auteurs sont-ils arrivés à ce chiffre, significativement plus faible que dans les autres études déjà réalisées à ce sujet, comme celle menée par Mistral IA en juillet 2025 ?
La première raison tient à ce que Google mesure réellement. On apprend par exemple dans le rapport que l’électricité consommée par un prompt est utilisée pour 58 % par des processeurs spécialisés pour l’IA (l’unité de traitement graphique, ou GPU, et le circuit intégré spécifique Tensor Processing Unit, ou TPU), 25 % par des processeurs classiques et à hauteur d’environ 10 % par les processeurs en veille, et les 7 % restants pour le refroidissement des serveurs et le stockage de données.
Autrement dit, Google ne tient ici compte que de l’électricité consommée par ses propres data centers, et pas de celle consommée par les terminaux et les routeurs des utilisateurs.
Par ailleurs, aucune information n’est donnée sur le nombre d’utilisateurs ou le nombre de requêtes prises en compte dans l’étude, ce qui questionne sa crédibilité. Dans ces conditions, impossible de savoir comment le comportement des utilisateurs peut affecter l’impact environnemental du modèle.
À lire aussi : Impact environnemental du numérique : l’inquiétant boom à venir
Google a racheté en 2024 l’équivalent de la production d’électricité annuelle de l’Irlande
La seconde raison tient à la façon de convertir l’énergie électrique consommée en équivalent CO2. Elle dépend du mix électrique de l’endroit où l’électricité est consommée, tant du côté des data centers que des terminaux des utilisateurs. Ici, on l’a vu, Google ne s’intéresse qu’à ses propres data centers.
Depuis longtemps, Google a misé sur l’optimisation énergétique, en se tournant vers des sources décarbonées ou renouvelables pour ses centres de données répartis partout dans le monde. Selon son dernier rapport environnemental, l’effort semble porter ses fruits, avec une diminution de 12 % des émissions en un an, alors que la demande a augmenté de 27 % sur la même période. Les besoins sont colossaux : en 2024, Google a consommé, pour ses infrastructures de calcul, 32 térawattsheures (TWh), soit l’équivalent de la production d’électricité annuelle de l’Irlande.
À lire aussi : Un data center près de chez soi, bonne ou mauvaise nouvelle ?
De fait, l’entreprise a signé 60 contrats exclusifs de fourniture en électricité à long terme en 2024, pour un total de 170 depuis 2010. Compte tenu de l’ampleur des opérations de Google, le fait d’avoir des contrats d’électricité exclusifs à long terme compromet la décarbonation dans d’autres secteurs. Par exemple, l’électricité à faibles émissions qui alimente les prompts pourrait être utilisée pour le chauffage, secteur qui dépend encore fortement des combustibles fossiles.
Dans certains cas, ces contrats impliquent la construction de nouvelles infrastructures de production d’énergie. Or, même pour la production d’énergie renouvelable décarbonée, leur bilan environnemental n’est pas entièrement neutre : par exemple, l’impact associé à la fabrication de panneaux photovoltaïques est compris entre 14 gCO2eq et 73 gCO2eq/kWh, ce que Google ne prend pas en compte dans ses calculs.
Enfin, de nombreux services de Google font appel à de la « colocation » de serveurs dans des data centers qui ne sont pas nécessairement décarbonés, ce qui n’est pas non plus pris en compte dans l’étude.
Autrement dit, les choix méthodologiques réalisés pour l’étude ont contribué à minimiser l’ampleur des chiffres.
Cinq gouttes d’eau par prompt, mais 12 000 piscines olympiques au total
La consommation d’eau douce est de plus en plus fréquemment prise en compte dans les rapports environnementaux liés au numérique. Et pour cause : il s’agit d’une ressource précieuse, constitutive d’une limite planétaire récemment franchie.
L’étude de Google estime que sa consommation d’eau pour Gemini est de 0,26 ml – soit cinq gouttes d’eau – par prompt. Un chiffre qui semble dérisoire, ramené à l’échelle d’un prompt, mais les petits ruisseaux font les grandes rivières : il faut le mettre en perspective avec l’explosion des usages de l’IA.
Globalement, Google a consommé environ 8 100 millions de gallons (environ 30 millions de mètres cubes, l’équivalent de quelque 12 000 piscines olympiques) en 2024, avec une augmentation de 28 % par rapport à 2023.
Mais là aussi, le diable est dans les détails : le rapport de Google ne comptabilise que l'eau consommée pour refroidir les serveurs (selon un principe très similaire à la façon dont nous nous rafraîchissons lorsque la sueur s’évapore de notre corps). Le rapport exclut de fait la consommation d’eau liée à la production d’électricité et à la fabrication des serveurs et autres composants informatiques, qui sont pourtant prises en compte pour le calcul de son empreinte carbone, comme on l’a vu plus haut. En conséquence, les indicateurs d’impact environnemental (carbone, eau…) n’ont pas tous le même périmètre, ce qui complique leur interprétation.
À lire aussi : Les métaux de nos objets connectés, face cachée de l’impact environnemental du numérique
Des études encore trop opaques
Comme la plupart des études sur le sujet, celle de Google a été menée en interne. Si on comprend l’enjeu de secret industriel, un tel manque de transparence et d’expertise indépendante pose la question de sa légitimité et surtout de sa crédibilité. On peut néanmoins chercher des points de comparaisons avec d’autres IA, par exemple à travers les éléments présentés par Mistral IA en juillet 2025 sur les impacts environnementaux associés au cycle de vie de son modèle Mistral Large 2, une première.
Cette étude a été menée en collaboration avec un acteur français reconnu de l’analyse du cycle de vie (ACV), Carbone4, avec le soutien de l’Agence de l'environnement et de la maîtrise de l’énergie (Ademe), ce qui est un élément de fiabilité. Les résultats sont les suivants.
Pendant les dix-huit mois de durée de vie totale du modèle, environ 20 000 tonnes équivalent CO2 ont été émises, 281 000 m3 d’eau consommée et 660 kg équivalent antimoine (indicateur qui prend en compte l’épuisement des matières premières minérales métalliques).
Mistral attire l’attention sur le fait que l’utilisation du modèle (inférence) a des effets qu’ils jugent « marginaux », si on considère un prompt moyen utilisant 400 « tokens » (unités de traitement corrélées à la taille du texte en sortie) : ce prompt correspond à l’émission de 1,14 g équivalent CO2, de 50 ml d’eau et 0,5 mg équivalent antimoine. Des chiffres plus élevés que ceux avancés par Google, obtenus, comme on l’a vu, grâce à une méthodologie avantageuse. De plus, Google s’est basé dans son étude sur un prompt « médian » sans donner davantage de détails statistiques, qui seraient pourtant bienvenus.
En réalité, l’une des principales motivations, que cela soit celles de Google ou de Mistral, derrière ce type d’étude reste d’ordre marketing : il s’agit de rassurer sur l’impact environnemental (ce qu’on pourrait qualifier de « greenwashing ») de l’IA pour pousser à la consommation. Ne parler que de l’impact venant des prompts des utilisateurs fait également perdre de vue la vision globale des coûts (par exemple, ceux liés à l’entraînement des modèles).
À lire aussi : Comment rendre l’électronique plus soutenable ?
Reconnaissons que le principe d’effectuer des études d’impacts est positif. Mais l’opacité de ces études, même lorsqu’elles ont le mérite d’exister, doit être interrogée. Car, à ce jour, Mistral pas plus que Google n’ont pas dévoilé tous les détails des méthodologies utilisées, les études ayant été menées en interne. Or, il faudrait pouvoir disposer d’un référentiel commun qui permettrait de clarifier ce qui doit être pris en compte dans l’analyse complète du cycle de vie (ACV) d’un modèle d’IA. Ceci permettrait de réellement comparer les résultats d’un modèle à l’autre et de limiter les effets marketing.
Une des limites tient probablement à la complexité des IA génératives. Quelle part de l’empreinte environnementale peut-on rattacher à l’utilisation du smartphone ou de l’ordinateur pour le prompt ? Les modèles permettant le fine-tuning pour s’adapter à l’utilisateur consomment-ils plus ?
La plupart des études sur l’empreinte environnementale des IA génératives les considèrent comme des systèmes fermés, ce qui empêche d’aborder la question pourtant cruciale des effets rebonds induits par ces nouvelles technologies. Cela empêche de voir l’augmentation vertigineuse de nos usages de l’IA, en résumant le problème au coût environnemental d’un seul prompt.
Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.
20.11.2025 à 11:22
Pourquoi la transformation numérique n’est pas une voie royale vers la neutralité carbone
Texte intégral (2280 mots)
Souvent présenté comme un levier indispensable pour décarboner nos économies, le numérique est loin d’être une solution miracle. Derrière ses promesses techniques et économiques se cachent des coûts environnementaux et humains croissants. La planète ne bénéficiera pas nécessairement d’une numérisation massive qui risque, au contraire, d’aggraver notre dépendance en termes de ressources et d’énergie.
Au cours des dernières années, la transformation numérique a souvent été présentée comme nécessaire pour atteindre la neutralité carbone. Le Forum économique mondial de Davos, par exemple, estimait que le secteur des technologies numériques constitue le levier d’influence « le plus puissant pour accélérer l’action pour limiter la hausse des températures mondiales à moins de 2 °C ».
Lors de la COP29, fin 2024, la déclaration sur l’action numérique verte (Green Digital Action) affirmait « le rôle vital des technologies numériques dans l’action climatique », tout l’enjeu étant d’en tirer parti pour atténuer le changement climatique. Mais dans le même temps, cette même déclaration « prenait note avec inquiétude des effets néfastes pour le climat dus aux […] technologies numériques et aux outils, dispositifs et infrastructures connexes ». Au final, le numérique est-il plutôt porteur de promesses ou de menaces pour l’atteinte des objectifs de neutralité carbone ? La déclaration ne le dit pas.
Dans une étude récente, nous avançons que le problème au cœur de l’idée d’un secteur numérique allié du climat repose sur plusieurs hypothèses clés, discutables à bien des égards.
Certes, il existe déjà – et existera à l’avenir – de nombreux exemples qui montrent que la numérisation peut soutenir la cause de la neutralité carbone. Par exemple, lorsqu’il s’agit de solutions qui permettent des gains d’efficacité énergétique, le pilotage de la production décentralisée d’électricité renouvelable, ou encore lorsqu’elles accélèrent les processus de recherche et développement (R&D).
À lire aussi : Impact environnemental du numérique : l’inquiétant boom à venir
Mais l’argument selon lequel la numérisation de l’économie permettra d’atteindre la neutralité carbone repose sur quatre hypothèses implicites, selon lesquelles elle entraînerait nécessairement :
- davantage de dématérialisation,
- des gains d’efficacité énergétique,
- une réduction des coûts de main-d’œuvre,
- enfin, des décisions économiques plus respectueuses de l’environnement de la part des acteurs économiques.
Or nous montrons qu’aucune de ces hypothèses n’est réaliste.
Ne pas confondre numérisation et dématérialisation
Le lien entre numérisation et dématérialisation, souvent présenté comme allant de soi, doit être interrogé. En effet, la numérisation s’accompagne d’une dépendance aux infrastructures informatiques aux capteurs électroniques utilisés pour convertir et traiter toujours plus d’information sous forme numérique.
Cela implique de construire de nouvelles infrastructures et de nouveaux appareils informatiques. Ces derniers ont une matérialité : leur fabrication implique d’utiliser des ressources minérales limitées, en particulier des métaux rares. Ce problème est encore amplifié par la dépréciation et l’obsolescence plus rapide des appareils informatiques.
Certes, on pourrait dire que ces frais sont compensés par les avantages supplémentaires générés par les services numériques. Cependant, ces avantages ont eux-mêmes un coût pour l’environnement.
À lire aussi : Pourquoi l’IA générative consomme-t-elle tant d’énergie ?
Cela tient d’abord à leur consommation d’énergie. Par exemple, une seule requête ChatGPT consomme entre 50 et 90 fois plus d’énergie qu’une recherche Google classique. Le fonctionnement des systèmes d’intelligence artificielle (IA) nécessite aussi de grandes quantités d’eau pour le refroidissement des infrastructures informatiques, certains modèles consommant, à large échelle, des millions de litres pendant leurs phases d’entraînement et d’utilisation. Enfin, l’essor des IA génératives pourrait faire croître la demande en cuivre d’un million de tonnes d’ici 2030.
Selon un rapport du ministère de la transition écologique, le secteur du numérique représentait 2,5 % de l’empreinte carbone annuelle de la France et 10 % de sa consommation électrique en 2020. Sans intervention, les émissions de gaz à effet de serre du secteur pourraient croître de plus de 45 % d’ici à 2030. Selon un rapport des Nations unies, en 2022, les data centers du monde entier ont consommé 460 térawattheures d’électricité, soit l’équivalent de la consommation d’électricité annuelle de la France. Il est attendu que cette consommation sera multipliée quasiment par deux en 2026 pour atteindre 1 000 térawattheures.
Les risques d’effet rebond
La promesse de gains d’efficacité énergétique dans le numérique doit également être interrogée, car ces technologies produisent des effets rebond. Les gains d’efficacité font baisser les prix, ce qui augmente la demande, augmentant la consommation d’énergie et la quantité de déchets électroniques produits. La conséquence : une pression accrue sur les limites planétaires.
Ces effets rebond peuvent être directs ou indirects. Un exemple d’effet rebond direct tient à la facilité d’usage des services numériques : en témoigne par exemple l’augmentation constante du nombre de messages en ligne, de visioconférences, de photos et de vidéos stockées sur nos téléphones et/ou dans le cloud, etc.
On peut illustrer l’idée d’effet rebond indirect ainsi : lorsque l’argent, économisé par une entreprise grâce à la réduction des déplacements professionnels (grâce aux réunions virtuelles ou au télétravail), versé sous forme d’augmentations au salarié, lui sert à acheter un billet d’avion pour partir en vacances.
Prenons enfin l’exemple des cryptomonnaies, souvent défendues pour leurs avantages en termes de décentralisation financière. Celle-ci s’accompagne d’un coût énergétique élevé : leur consommation d’électricité a dépassé celle de l’Argentine et devrait continuer à augmenter à mesure que la finance décentralisée se développe.
Moins de main-d’œuvre mais davantage d’impacts environnementaux
Le numérique est souvent vu par les décideurs comme une façon de réduire les coûts de main-d’œuvre, et cela dans la plupart des secteurs. La main-d’œuvre a un coût économique, mais elle est également la plus durable de tous les intrants :il s’agit d’une ressource abondante et renouvelable dont l’utilisation n’affecte pas directement les limites de la planète.
La numérisation du travail, si elle permet de réaliser des économies en remplaçant une partie de la main-d’œuvre humaine (et durable) par des machines gourmandes en énergie et en ressources, se fait donc au détriment de l’environnement et amoindrit la durabilité des activités économiques – et non l’inverse.
Même en considérant qu’une partie de la main-d’œuvre déplacée pourrait être absorbée par de nouveaux business models, ces derniers ne seront pas forcément plus durables que les business models d’aujourd’hui. De plus, cela ne ferait que renforcer les tendances actuelles en matière d’inégalités, qui ont des effets délétères sur la durabilité. Une neutralité carbone qui serait atteinte au prix d’un appauvrissement massif de la population et au mépris des objectifs de développement durable des Nations unies paraît inacceptable.
Enfin, l’argument selon lequel le numérique permettrait aux entreprises de prendre des décisions plus soutenables n’est pas fondé. Ces décisions sont prises en tenant d’abord compte de la maximisation des profits, des opportunités de croissance et de l’amélioration de son efficacité en interne, conformément aux structures de gouvernance en place. Les décisions en matière de numérique n’échappent pas à cette règle.
Tant que la maximisation de la valeur pour les actionnaires restera le principe directeur de la gouvernance d’entreprise, il n’y a aucune raison de s’attendre à ce que la numérisation impulsée par les entreprises privilégie le développement d’une économie neutre en carbone plutôt que les préoccupations de rentabilité. Au contraire, les technologies de l’information semblent avoir jusque-là surtout renforcé les tendances actuelles.
Se méfier du solutionnisme technologique
Les arguments qui précèdent montre que la numérisation en soi ne soutient pas toujours la neutralité carbone. Comme toutes les innovations majeures, elle permet d’élargir l’éventail des possibles au plan économique. Cela signifie qu’il existe des opportunités significatives d’investissements durables et transformateurs.
Mais il convient de se méfier des solutions purement technologiques aux problèmes de durabilité, même si elles sont réconfortantes car elles n’impliquent aucun changement réel du statu quo. Ce faux sentiment de sécurité est pourtant précisément ce qui nous a conduits collectivement à épuiser les limites planétaires.
Le numérique peut soutenir la transition verte, mais, pour que ses opportunités puissent être exploitées, un véritable changement dans les processus décisionnels doit s’opérer. Pour l’heure, les États et quelques entreprises restent les seuls niveaux auxquels ces décisions sont prises. En d’autres termes, nous avons besoin d’un déclic collectif pour mieux appréhender les liens entre technologie, énergie et société, sans quoi atteindre la neutralité carbone grâce au numérique ne restera qu’un vœu pieux.
Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.
19.11.2025 à 16:24
Les marques et savoir-faire culturels français : des atouts convoités à l’étranger
Texte intégral (3004 mots)
Le patrimoine culturel, les musées et monuments jouent un rôle prépondérant dans les motivations des touristes qui visitent la France. Mais ce patrimoine est aussi, dans sa dimension immatérielle, un vecteur d’expertise valorisée au-delà de nos frontières.
Première destination touristique mondiale, la France a attiré 100 millions de visiteurs internationaux en 2024.
L’intérêt porté aux musées et monuments, dans leur composante matérielle – en tant que lieux qui se visitent – se mesure aussi dans leur composante immatérielle. L’apport du patrimoine culturel à l’économie se traduit par l’accueil de touristes se rendant en France, mais aussi à travers l’exportation des institutions culturelles hors des frontières françaises.
C’est précisément en raison de son patrimoine culturel que la France est arrivée en tête du classement annuel Soft Power 30 en 2017 et en 2019.
De nombreux rapports publics ont investi cette question, percevant les musées ou monuments comme détenteurs d’actifs immatériels susceptibles d’être valorisés à l’international.
Le tournant de l’économie de l’immatériel
Dès 2006, les auteurs du rapport remis à Bercy sur l’économie de l’immatériel écrivaient : « Aujourd’hui, la véritable richesse n’est pas concrète, elle est abstraite. » Au capital matériel a succédé le capital immatériel, le capital des talents, de la connaissance et du savoir. Ce rapport invitait les acteurs français à miser davantage sur leur capital intangible, gisement devenu stratégique pour rester compétitif. Identifiant trois atouts immatériels culturels – le nom des établissements culturels, leur image et leur expertise –, Maurice Lévy et Jean-Pierre Jouyet recommandaient d’engager une transition vers leur valorisation.
Un rapport spécifique a ainsi été commandé en 2014 par le ministère de la culture au haut fonctionnaire Jean Musitelli, « La valorisation de l’expertise patrimoniale à l’international ». En 2019, la Cour des comptes se penchait sur la valorisation internationale de l’ingénierie et des marques culturelles.
Plus récemment, en 2023, le Sénat a publié un rapport d’information réalisé par les parlementaires Else Joseph et Catherine Morin-Desailly sur l’expertise patrimoniale internationale française, faisant état d’un savoir-faire complet, ancien et reconnu, la qualité scientifique de l’expertise française étant établie « sur l’ensemble du champ patrimonial ».
L’expertise culturelle française : un vivier de métiers hautement qualifiés
La notion d’expertise renvoie à des connaissances ou compétences qui ne sont juridiquement pas protégées par brevet et qui permettent la création de produits ou services. L’expertise peut faire l’objet d’une transmission dans le cadre d’une transaction, son transfert se matérialisant par des missions de conseil ou de formation.
Les musées regorgent d’une variété de métiers et savoir-faire liés aux activités exercées par les professionnels y travaillant. Véritable « conservatoire de talents », ils détiennent une expertise technique particulièrement qualifiée et recherchée.
Constitué en interne en 2014, le département Louvre conseil a la charge de valoriser l’expertise des équipes du musée. Cette expertise porte sur les collections, les publics mais aussi sur le management. La brochure présentant l’ingénierie patrimoniale du Centre Pompidou énumère la liste des prestations possibles dans la création et la gestion d’espaces culturels : conseil en muséographie, en médiation… mais aussi accompagnement sur le plan administratif.
Les savoir-faire patrimoniaux français ont bénéficié d’une large couverture médiatique lors du chantier de restauration de Notre-Dame. Les sénatrices à l’origine du rapport précité jugeaient judicieux de profiter de la grande visibilité du chantier – servant ainsi de vitrine des métiers d’art français – pour « valoriser l’ensemble des savoir-faire qui ont collaboré à cette entreprise (archéologues, artisans d’art, architectes, maîtres d’ouvrage, restaurateurs, facteurs d’instruments…) ».
Une expertise recherchée en majorité par les pays émergents
Les pays émergents sont les principaux demandeurs de cette expertise, le patrimoine étant perçu comme un levier d’attractivité et suscitant ainsi un intérêt croissant. Faute de compétences suffisantes pour construire, agencer et gérer des musées, ils font appel à des institutions disposant de cette expérience. Les pays du Moyen-Orient, d’Asie et d’Afrique constituent « les marchés les plus prometteurs » sur ce plan.
Le rapport du Sénat considère que la France possède de sérieux atouts pour prendre part à ce marché :
« Il est clair que la réputation de ses savoir-faire et la renommée de certains de ses établissements au niveau mondial, qu’il s’agisse du Louvre, du château de Versailles ou du Mont Saint-Michel, contribuent à asseoir sa position sur le plan international. »
Une combinaison gagnante : l’apport de marque et d’ingénierie
Les grands accords internationaux s’accompagnent fréquemment d’un élément complémentaire à l’expertise : la marque des institutions culturelles.
Le Louvre Abou Dhabi incarne cette pluralité. Signé en 2007 entre la France et les Émirats arabes unis, l’accord prévoyait la création d’un musée constitué avec l’expertise des équipes muséales françaises et portant le nom du Louvre. Plusieurs volets composent cet accord : l’accompagnement en ingénierie, le prêt d’œuvres des collections françaises (plusieurs musées étant parties prenantes) ainsi que le prêt du nom du Louvre à travers un contrat de licence de marque.
Il en va de même dans l’expérience du Centre Pompidou, qui valorise tant ses savoir-faire que sa marque, celle-ci étant apposée sur le devant des nouveaux musées, dont les façades s’ornent ainsi du sceau de l’institution française. Présent sur tous les continents, il a collaboré en Europe avec la ville de Malaga (Espagne) et la Fondation bruxelloise Kanal. En Asie, il s’est associé avec la société d’aménagement West Bund pour accompagner la création d’un musée à Shanghai (Chine). Son action se mesure aussi en Amérique du Sud (Brésil) et dans les pays du Golfe (Arabie saoudite).
On notera cependant que la valorisation de la marque, a fortiori dans un contexte international, n’a de sens que pour des institutions notoires. Si l’expertise des musées français peut relever tant d’institutions nationales que de structures territoriales, le rayonnement de la marque semble limité aux grands musées, qualifiés par certains auteurs, dont l’économiste Bruno S. Frey, de « superstar » en raison de leur statut et de leur aura.
Une économie fondée sur l’excellence française ?
L’affirmation constante de la nécessité de valoriser l’expertise et les marques culturelles peut être vue comme l’application de la théorie de l’avantage comparatif développée par l’économiste britannique David Ricardo au XIXe siècle. Selon cette théorie, « chaque nation a intérêt à se spécialiser dans la production où elle possède l’avantage le plus élevé comparativement aux autres ». Aussi s’agit-il de « concentrer ses efforts à l’export sur des secteurs où le pays possède de réels avantages comparatifs ».
Il convient toutefois de nuancer ce postulat, car si la France possède assurément des marques fortes et une expertise patrimoniale reconnue, elle n’est pas la seule à en disposer ni à les proposer sur la scène internationale, ce marché étant concurrentiel et, au demeurant, occupé par d’autres États « également bien positionnés », notamment le Royaume-Uni, l’Allemagne ou l’Italie.
Les marques muséales américaines s’exportent également. D’aucuns auront en tête l’exemple très connu du Guggenheim, à l’origine même du concept de « marque muséale », au sens de « brand » et de « trademark », c’est-à-dire un outil de développement économique et d’expansion internationale. Le Guggenheim de Bilbao (Espagne) en témoigne : la fondation new-yorkaise a cédé le droit d’usage de son nom et perçu, en échange, 20 millions de dollars (17,2 millions d'euros) de royalties pour l’usage de sa marque.
Le Museum of Modern Art de New York (MoMA) valorise aussi son nom et son expertise. Il a, par exemple, exporté son concept de boutique de design hors des frontières américaines, avec l’implantation de deux MoMA Design Stores au Japon, à Tokyo et à Kyoto.
Des outils de diversification des ressources propres
On rappellera qu’historiquement, les musées apportaient leur savoir-faire dans une logique, non pas de valorisation mais de solidarité avec d’autres pays. C’est le cas des chantiers de fouilles archéologiques relevant avant tout d’une logique de coopération. La valorisation économique des savoir-faire est un phénomène nouveau, dont l’émergence s’explique par une demande croissante d’ingénierie culturelle émanant de certains pays mais aussi par le contexte budgétaire.
Ce désir de valorisation ne saurait être appréhendé indépendamment du contexte économique contemporain. Il s’agit également de favoriser le développement de ressources propres, venant abonder les budgets, de plus en plus tendus, des institutions culturelles. Les subsides publics n’étant pas mirifiques, les musées doivent répondre à l’impérieuse nécessité de diversifier leurs sources de financement.
Le Centre Pompidou perçoit entre 14 millions et 16 millions d’euros par an au titre de ses partenariats internationaux. S’agissant de l’exemple emblématique du Louvre Abou Dhabi, le montant total de l’accord s’élève à 1 milliard d’euros, la valorisation de la marque « Louvre » représentant 400 millions d’euros.
Ces redevances de licence de marque et d’ingénierie culturelle viennent compléter les ressources propres des établissements, rejoignant ainsi d’autres recettes, parmi lesquelles le mécénat, la location d’espaces, la vente de produits en boutique…
Des partenariats adaptés au contexte local
Face au constat d’un intérêt marqué de la part de pays émergents auprès de musées européens et états-uniens pour construire une offre culturelle, se pose la question de la construction de cette offre et de la confrontation de regards différents.
Ainsi que le relève la juriste Marie Maunand :
« Le développement des échanges internationaux dans le domaine patrimonial induit une dynamique de transfert d’expertise des pays du Nord – pays développés à économie de marché – vers des pays dits du Sud – qui sont soit émergents soit moins avancés – qui pourrait contribuer à la diffusion d’un modèle culturel unique. »
La diversité doit être au cœur de ces accords afin d’éviter toute forme de standardisation. Une approche pragmatique adaptée au contexte local, propre à celui qui est demandeur de l’expertise, s’avère primordiale.
Un transfert de savoir-faire suppose une transmission d’informations ou de compétences. En dépit de la nature commerciale de ces partenariats, il ne saurait s’agir d’un discours simplement descendant de la part de l’expert ou du « sachant » vers son partenaire, mais bien d’un échange favorisant la rencontre de points de vue variés. Dans ce sens, Émilie Girard, présidente d’ICOM France observe un « changement de paradigme et de posture dans le mode de construction d’une expertise plus tournée vers le dialogue ».
Mentionnant la mise en œuvre du partenariat avec les Émiriens, Laurence des Cars, présidente-directrice générale du Louvre, évoque la question de la médiation et de l’explication des œuvres, et, dans le cadre de cet échange entre la France et les Émirats arabes unis, de « l’altérité culturelle » et des manières permettant aux différents publics de partager des œuvres d’art en l’absence de références culturelles ou religieuses communes.
En 2015, le rapport livré par Jean Musitelli cité par Marie Maunand relevait :
« La valorisation dans le contexte de la mondialisation doit […] concourir à la diversification des expressions culturelles […] en se montrant attentif aux attentes et aux besoins des partenaires et en ajustant l’offre aux réalités et traditions locales, [avec] […] des alternatives au modèle standard tel qu’il est véhiculé par la globalisation. »
C’est aussi un rôle que souhaitent allouer à l’expertise française les autrices du rapport de la mission sénatoriale d’information.
Si sa valorisation procède pour partie d’une démarche économique, elle est aussi le reflet d’enjeux diplomatiques, dont l’objectif est de renforcer le rayonnement et l’influence de la France sur la scène internationale. Else Joseph, sénatrice des Ardennes, notait ainsi :
« Ces dernières années, combien l’influence de la France est, si ce n’est en recul, du moins de plus en plus contestée et fragilisée. C’est particulièrement vrai dans les instances internationales en matière culturelle, à l’instar de l’Unesco, où les pays occidentaux se voient régulièrement reprocher une attitude néocoloniale. »
En vue d’y apporter une réponse, la parlementaire suggérait de « tirer parti de la solide expertise de la France dans le domaine patrimonial pour maintenir notre capacité d’influence ».
En ce sens, l’expertise et les marques culturelles sont assurément une incarnation du soft power de la France, qu’il importe autant de valoriser que de préserver.
Cécile Anger a soutenu sa thèse de doctorat en 2024 à l'Université Paris 1 Panthéon-Sorbonne. Elle est depuis jeune docteure associée à l'Ecole de Droit de la Sorbonne. Son domaine de recherche porte sur les marques culturelles ainsi que la protection et la valorisation de l'image des œuvres d'art, musées et monuments. Elle a commencé sa carrière au musée de Cluny, puis occupé le poste de Cheffe du service marque et mécénat au Domaine national de Chambord avant de rejoindre l'équipe de l'Établissement public du Mont Saint-Michel.
19.11.2025 à 16:23
Ukraine : le scandale de corruption dans le secteur énergétique qui fragilise le pouvoir
Texte intégral (2092 mots)
Alors que la Russie pilonne les infrastructures énergétiques ukrainiennes, une affaire de corruption dans le secteur de l’énergie touche directement des associés de longue date de Volodymyr Zelensky. En temps de guerre, la corruption, surtout dans un domaine aussi vital pour le pays, compromet non seulement la capacité du chef de l’État à gouverner mais, surtout, celle du pays à continuer de résister.
Le scandale de corruption qui secoue actuellement l’Ukraine n’aurait pas pu survenir à un pire moment ni dans un secteur plus sensible de l’économie pour le gouvernement, de plus en plus contesté, de Volodymyr Zelensky.
L’armée ukrainienne est désormais sur la défensive dans plusieurs secteurs clés du front. Parallèlement, la campagne de frappes menée par la Russie pour dévaster les infrastructures énergétiques du pays provoque des difficultés croissantes pour les Ukrainiens ordinaires à l’approche de l’hiver.
Le fait que le dernier scandale de corruption en date touche le secteur de l’énergie est donc particulièrement préjudiciable au gouvernement et au moral de la population.
Les agences anticorruption ukrainiennes, qui sont indépendantes du pouvoir, viennent de publier les conclusions de l’opération Midas, une enquête de 15 mois menée sur Energoatom, l’opérateur public de toutes les centrales nucléaires ukrainiennes. Avec une capacité totale de près de 14 000 mégawatts, Energoatom est le plus grand producteur d’électricité d’Ukraine.
Les enquêteurs affirment avoir mis au jour l’existence d’un vaste système de pots-de-vin représentant entre 10 % et 15 % de la valeur des contrats des fournisseurs, soit l’équivalent d’environ 86 millions d’euros. Des perquisitions ont été menées en 70 lieux à travers le pays le 10 novembre. Sept personnes ont été inculpées et cinq sont en détention.
Le cerveau de ce système corrompu serait Timur Mindich, un homme d’affaires et producteur de films, qui s’est enfui précipitamment d’Ukraine à la veille des perquisitions. Ce qui rend cette affaire très dangereuse pour Zelensky, c’est que Mindich est copropriétaire, avec le président ukrainien, du studio Kvartal 95, la boîte de production qui a tourné les séries et émissions ayant rendu Zelensky célèbre en tant que comédien avant son accession à la présidence en 2019.
Une fois de plus, de proches collaborateurs du président sont éclaboussés par un scandale, ce qui compromet Zelensky par association. La question se pose de savoir s’il aurait pu agir plus tôt pour mettre fin à ces agissements.
Mais la façon dont cette affaire s’est déroulée indique également qu’il s’agit de la manifestation d’un conflit beaucoup plus profond qui se déroule en coulisses entre des groupes de l’élite qui se disputent le contrôle du dernier actif précieux de l’État : le secteur de l’énergie.
Campagnes de dénigrement
Ce dernier épisode est le dernier en date d’une série d’événements qui remonte à l’été dernier, lorsque le groupe parlementaire « Serviteur du peuple » – le parti de Zelensky – a tenté de mettre fin à l’indépendance des agences anticorruption ukrainiennes. Des manifestations massives, qui ont rassemblé essentiellement de jeunes Ukrainiens, ont alors contraint le gouvernement à revenir sur sa décision.
À ce moment-là, des rumeurs concernant l’existence d’enregistrements secrets de conversations impliquant Mindich ont commencé à circuler dans les médias ukrainiens. Cependant, aucun détail sur le contenu de ces conversations n’a été divulgué à l’époque, et les allégations de corruption ne sont restées que des spéculations.
Alors que le gouvernement s’est retrouvé sous une pression croissante après les frappes aériennes massives menées par la Russie contre le secteur énergétique le 10 octobre, qui ont privé la population ukrainienne d’électricité pendant près d’une journée entière, les accusations ont commencé à fuser. L’attention s’est portée sur Volodymyr Kudrytsky, l’ancien directeur d’Ukrenergo, le principal opérateur du réseau électrique ukrainien.
Kudrytsky, figure influente de la société civile ukrainienne pro-occidentale et anti-corruption, a été arrêté le 28 octobre pour fraude présumée dans le cadre d’un complot visant à détourner l’équivalent de 1,4 million d’euros de fonds publics en 2018. L’enquête le visant a été menée par le Service d’audit de l’État ukrainien et le Bureau d’enquête de l’État, deux institutions qui sont directement subordonnées à Zelensky.
Kudrytsky a vigoureusement défendu son bilan contre ce qu’il a qualifié d’attaques à motivation politique visant à détourner l’attention de la responsabilité que porte le gouvernement dans la destruction du réseau énergétique ukrainien par la campagne aérienne russe.
Bien que Kudrytsky ait été libéré sous caution, l’enquête le concernant est toujours en cours.
Luttes de pouvoir
Quelle que soit leur issue sur le plan juridique, les rumeurs qui circulent à l’encontre de Mindich et les attaques contre Kudrytsky semblent, du moins pour l’instant, être des campagnes d’information classiques visant à détruire leur réputation et à nuire aux personnes et aux programmes qui leur sont associés.
Opposant les camps pro- et anti-Zelensky au sein de l’élite ukrainienne, les dernières révélations sur la corruption mettent en lumière une lutte de pouvoir pour le contrôle des actifs les plus précieux de l’État et des leviers du pouvoir en Ukraine. Même si les adversaires du président ne parviennent pas à le destituer, sa capacité à gouverner pourrait être sévèrement limitée du fait des attaques visant ses proches alliés tels que Mindich.
Un autre des principaux conseillers de Zelensky, le ministre de la justice (et ex-ministre de l’énergie) Herman Halouchtchenko, a également été suspendu de ses fonctions à la suite de l’opération Midas.
Ces luttes intestines au sein de l’élite, qui touchent un secteur essentiel pour la capacité de l’Ukraine à continuer de résister à l’agression russe, se déroulent alors que le pays est menacé dans son existence même. Si leur issue reste incertaine pour l’instant, plusieurs conclusions importantes peuvent déjà en être tirées.
Il est essentiel que le pays revienne pleinement à une vie politique concurrentielle aussi normale que possible, où la liberté d’expression, des médias et d’association, serait pleinement respectée. Cette vie politique a été dans une large mesure en raison de la guerre. Si certains estiment que mettre en évidence l’ampleur de la corruption en Ukraine ferait le jeu de la propagande russe, la réalité est que plus les fonctionnaires corrompus pourront continuer à abuser de leur pouvoir, plus les chances du pays de l’emporter sur la Russie s’amenuiseront.
Une implication plus directe de l’Union européenne et des États-Unis dans la lutte contre la corruption en Ukraine est nécessaire. La corruption réduit les fonds alloués à la guerre et alimente également les doutes de l’opinion publique dans les pays donateurs quant à l’efficacité du soutien à Kiev.
Cette corruption a eu des conséquences extrêmement néfastes sur le recrutement dans les forces armées. Une enquête récente a révélé que 71 % des Ukrainiens considèrent que le niveau de corruption a augmenté depuis l’invasion à grande échelle lancée par la Russie en février 2022.
Le taux mensuel de désertion dans l’armée s’élève actuellement à environ deux tiers parmi les nouvelles recrues. Cela représente 21 000 déserteurs pour 30 000 engagements. Cette situation n’est pas viable pour la défense de l’Ukraine et explique en partie les récents revers subis sur le front.
Ce qui est en jeu ici, ce n’est plus seulement la réputation du pays et de ses perspectives d’intégration à l’Union européenne. Assainir la politique ukrainienne – et montrer que cela a été fait – est désormais aussi essentiel pour la survie de l’Ukraine que de renforcer ses défenses aériennes et terrestres contre la Russie.
Tolérer la corruption est un luxe que l’Ukraine ne peut plus se permettre si elle veut survivre en tant que pays indépendant.
Stefan Wolff a bénéficié par le passé de subventions du Conseil britannique de recherche sur l'environnement naturel, de l'Institut américain pour la paix, du Conseil britannique de recherche économique et sociale, de la British Academy, du programme « Science pour la paix » de l'Otan, des programmes-cadres 6 et 7 de l'UE et Horizon 2020, ainsi que du programme Jean Monnet de l'UE. Il est administrateur et trésorier honoraire de la Political Studies Association du Royaume-Uni et chercheur principal au Foreign Policy Centre de Londres.
Tetyana Malyarenko a reçu des financements de l'Elliott School of International Affairs de l'université George Washington.
19.11.2025 à 16:23
Sols appauvris : l’autre menace qui pèse sur l’agriculture ukrainienne
Texte intégral (1631 mots)

L’Ukraine a longtemps été l’un des piliers de l’approvisionnement alimentaire mondial, mais la guerre et des décennies de déséquilibres dans l’usage des engrais ont profondément appauvri ses sols. Une crise silencieuse qui menace la reprise agricole du pays.
Pendant des décennies, l’Ukraine était connue comme le grenier du monde. Avant l’invasion russe de 2022, elle figurait parmi les principaux producteurs et exportateurs mondiaux d’huile de tournesol, de maïs et de blé. Ces productions contribuaient à nourrir plus de 400 millions de personnes. Mais derrière l’enjeu actuel des blocus céréaliers se cache une crise plus profonde et plus lente : l’épuisement même des nutriments qui rendent si productive la terre noire d’Ukraine.
Alors que la guerre a attiré l’attention mondiale sur les chaînes d’approvisionnement alimentaires de l’Ukraine, on sait bien moins de choses sur la durabilité des systèmes agricoles qui les sous-tendent. Si on ne se penche pas rapidement sur l’état de son sol, le pays pourrait perdre son rôle d’acteur majeur de la production alimentaire. Et cela pourrait avoir des conséquences bien au-delà de ses frontières.
Pour nos recherches, nous avons examiné la gestion des intrants dans l’agriculture ukrainienne au cours des 40 dernières années et constaté un renversement spectaculaire. Pendant l’ère soviétique, les terres agricoles ukrainiennes étaient suralimentées en engrais. Des intrants comme l’azote, le phosphore et le potassium étaient appliqués à des niveaux bien supérieurs à ce que les cultures pouvaient absorber. Cela a engendré une pollution de l’air et de l’eau.
À lire aussi : Crimes contre l’environnement dans la guerre en Ukraine : que dit le droit ?
Mais depuis l’indépendance en 1991, le balancier est reparti dans la direction opposée. L’usage d’engrais, en particulier le phosphore et le potassium, s’est effondré à mesure que les importations diminuaient, que le cheptel déclinait (réduisant la disponibilité du fumier) et que les chaînes d’approvisionnement se désagrégeaient. En 2021, juste avant l’invasion, les sols ukrainiens montraient déjà des signes de fatigue. Les agriculteurs apportaient beaucoup moins de phosphore et de potassium que ce que les cultures prélevaient, environ 40 à 50 % de phosphore en moins et 25 % de potassium en moins, et la matière organique des sols avait chuté de près de 9 % depuis l’indépendance.
Dans de nombreuses régions, les agriculteurs utilisaient trop d’azote, mais souvent pas assez de phosphore et de potassium pour maintenir la fertilité à long terme. En outre, bien que le cheptel ait fortement diminué au cours des dernières décennies, notre analyse montre qu’environ 90 % du fumier encore produit est gaspillé. Cela équivaut à environ 2,2 milliards de dollars américains (1,9 milliard d’euros) d’engrais chaque année. Ces déséquilibres ne sont pas seulement un enjeu national. Ils menacent la productivité agricole de l’Ukraine à long terme et, par extension, l’approvisionnement alimentaire mondial qui en dépend.
La guerre a nettement aggravé le problème. L’invasion russe a perturbé les chaînes d’approvisionnement en engrais et endommagé des installations de stockage. Les prix des engrais ont flambé. De nombreux agriculteurs ont volontairement réduit leurs apports en engrais en 2022-2023 pour limiter les risques financiers, sachant que leurs récoltes pouvaient être détruites, volées ou rester invendue si les circuits d’exportation étaient fermés.
Nos nouvelles recherches mettent en lumière une tendance inquiétante au niveau national. En 2023, les cultures récoltées ont prélevé dans le sol jusqu’à 30 % d’azote, 80 % de phosphore et 70 % de potassium de plus que ce qu’elles recevaient via la fertilisation, les microbes du sol et l’air (y compris ce qui tombe avec la pluie et ce qui se dépose depuis l’atmosphère). Si cette tendance se confirme, le sol ukrainien, réputé pour sa fertilité, pourrait subir une dégradation durable, compromettant la capacité du pays à se relever et à approvisionner les marchés alimentaires mondiaux une fois la paix revenue.
Reconstituer la fertilité des sols
Certaines solutions existent et beaucoup sont réalisables même en temps de guerre. Notre équipe de recherche a élaboré un plan pour les agriculteurs ukrainiens qui pourrait rapidement faire la différence. Ces mesures pourraient améliorer sensiblement l’efficacité des intrants et réduire les pertes, en maintenant des exploitations productives et rentables tout en limitant la dégradation des sols et la pollution environnementale.
Ces solutions s’appuient sur :
Une fertilisation de précision – appliquer les engrais au bon moment, au bon endroit et en bonne quantité afin de répondre efficacement aux besoins des cultures.
Une meilleure valorisation du fumier – mettre en place des systèmes locaux pour collecter le fumier excédentaire et le redistribuer à d’autres exploitations, réduisant ainsi la dépendance aux engrais de synthèse (importés).
Un meilleur usage des engrais – utiliser des engrais à l’efficacité renforcée, qui libèrent les nutriments lentement, limitant les pertes dans l’atmosphère ou dans l’eau.
La plantation de légumineuses (comme les pois ou le soja). Les intégrer dans les rotations améliore la santé des sols tout en apportant naturellement de l’azote.
Certaines de ces actions nécessitent des investissements, notamment pour créer de meilleures installations de stockage et pour améliorer le traitement ou l’application du fumier sur les parcelles. Mais beaucoup peuvent être mises en œuvre, au moins partiellement, sans avoir à injecter d’argent. Le fonds de relance de l’Ukraine, soutenu par la Banque mondiale pour aider le pays une fois la guerre terminée, inclut l’appui à l’agriculture et il pourrait jouer, ici, un rôle essentiel.
Pourquoi est-ce important au-delà de l’Ukraine ?
La crise des intrants en Ukraine est un avertissement pour le monde. Une agriculture intensive et déséquilibrée, qu’il s’agisse d’un usage excessif, insuffisant ou inadapté des engrais, n’est pas durable. Une mauvaise gestion contribue à l’insécurité alimentaire comme à la pollution de l’environnement.
Nos travaux s’inscrivent dans le cadre du futur International Nitrogen Assessment, attendu en 2026, qui soulignera la nécessité d’une gestion mondiale efficace de l’azote et présentera des solutions concrètes pour maximiser les bénéfices de l’azote : amélioration de la sécurité alimentaire, résilience climatique, qualité de l’eau et de l’air.
Soutenir les agriculteurs ukrainiens offre l’occasion non seulement de reconstruire un pays, mais aussi de transformer l’agriculture mondiale afin de contribuer à un avenir plus résilient et durable.
À lire aussi : Les politiques climatiques, ces autres victimes de la guerre de Poutine en Ukraine
Mark Sutton travaille pour le UK Centre for Ecology & Hydrology, basé à sa station de recherche d’Édimbourg. Il est professeur honoraire à l’Université d’Édimbourg, au sein de l’École des géosciences. Il reçoit des financements de UK Research and Innovation (UKRI) via son Global Challenges Research Fund (GCRF), du ministère britannique de l’Environnement, de l’Alimentation et des Affaires rurales (Defra), du Programme des Nations unies pour l’environnement (PNUE) et du Fonds pour l’environnement mondial (FEM). Il est directeur du Système international de gestion de l’azote (INMS), financé par le FEM/PNUE, ainsi que du South Asian Nitrogen Hub du GCRF. Il est coprésident du groupe de travail de la CEE-ONU sur l’azote réactif (TFRN) et du Partenariat mondial pour la gestion des nutriments (GPNM), convoqué par le PNUE.
Sergiy Medinets reçoit des financements de UKRI, de Defra, de DAERA, de la British Academy, du PNUE, du FEM, du PNUD et de l’UE.
19.11.2025 à 16:21
Pourquoi à l'adolescence, les filles se sentent-elles moins bien que les garçons ?
Texte intégral (2163 mots)

Dans l’ombre de la hausse du mal-être chez les jeunes, une réalité persiste : la puberté marque une rupture nette entre filles et garçons. Des études menées auprès de plus de 10 000 adolescents en Espagne révèlent un écart émotionnel qui s’installe tôt – et qui ne cesse de se creuser.
Ces dernières années, on observe une hausse préoccupante des problèmes de santé mentale chez les jeunes. Pourtant, un aspect essentiel passe souvent inaperçu : cette crise psychique ne touche pas les adolescents et les adolescentes de la même manière.
Dans nos récentes études sur le sommeil, l’anxiété, la dépression, la qualité de vie et le risque de troubles alimentaires, nous avons analysé les données de plus de 10 000 adolescents espagnols âgés de 11 à 19 ans. Les résultats sont sans équivoque : non seulement le fossé émotionnel entre filles et garçons existe, mais il se manifeste tôt et s’intensifie avec l’âge.
Le fossé apparaît à la puberté
La différence entre les sexes n’est pas innée. Elle apparaît avec les changements hormonaux et sociaux de la puberté. Au départ, filles et garçons affichent un bien-être émotionnel similaire. Cependant, à partir de l’âge de 14 ans environ chez les filles, lorsque la puberté bat son plein et que les changements physiques et hormonaux s’accélèrent, les trajectoires commencent à diverger. À partir de ce moment, les filles dorment moins bien, manifestent davantage d’anxiété et rapportent plus de symptômes dépressifs.
Pour beaucoup d’entre elles, l’adolescence devient une période émotionnellement plus intense. De nombreuses jeunes filles décrivent un sentiment de vide, une confusion identitaire et une plus grande difficulté à comprendre ou à réguler leurs émotions. Il ne s’agit pas simplement d’un mal-être passager : à ce stade, l’équilibre émotionnel se fragilise et la réponse au stress s’amplifie.
Un sentiment d’autonomie et de contrôle en recul
Cette phase s’accompagne également d’un changement notable dans la perception de leur autonomie. Certaines adolescentes expriment le sentiment d’avoir moins de prise sur leur temps, leur corps ou leurs décisions. Alors que, pour beaucoup de garçons, la maturité rime avec indépendance, elle s’accompagne chez les filles d’une pression accrue, d’attentes plus fortes et d’exigences plus lourdes envers elles-mêmes.
L’estime de soi chute nettement, tandis que la relation au corps devient plus critique. Les préoccupations liées au poids, à l’apparence ou à l’auto-évaluation constante se multiplient, augmentant le risque de troubles alimentaires. Parallèlement, de nombreuses adolescentes disent se sentir plus fatiguées, avec moins d’énergie et une forme physique en déclin par rapport à la période précédant la puberté.
À lire aussi : Las chicas adolescentes presentan más síntomas de depresión que los chicos
Ce schéma rejoint les conclusions internationales du rapport de l’Organisation mondiale de la santé (OMS), qui souligne une détérioration plus marquée du bien-être psychologique des femmes à partir de la puberté, ainsi qu’une sensibilité émotionnelle accrue pendant cette période.
Ce n’est pas l’environnement qui change, mais la perception de soi
Un point clé ressort : la sphère sociale n’explique pas cet écart. Les relations familiales, scolaires et amicales évoluent de manière similaire chez les deux sexes. Les données ne révèlent pas de différences significatives en matière de soutien social, d’amitiés ou d’expériences de harcèlement.
Le fossé émotionnel ne provient donc pas d’un environnement plus hostile pour les filles. Il émerge de l’intérieur : dans la manière dont elles se sentent, se perçoivent et évaluent le contrôle qu’elles exercent sur leur vie. Il s’agit d’un déséquilibre intime, plutôt que social.
À lire aussi : Instagram de chicas, instagram de chicos
Hormones et pression esthétique
Pourquoi cette divergence ? L’explication est complexe et multifactorielle. La puberté féminine survient plus tôt et s’accompagne de changements hormonaux plus intenses qui influent sur le sommeil, l’humeur et la gestion du stress. Mais ces transformations, naturelles et communes aux deux sexes, ne constituent ni la cause unique ni la solution. La différence tient à la manière dont elles sont vécues et interprétées dans un environnement social saturé d’attentes autour du corps féminin.
À cela s’ajoute un contexte contemporain dominé par la pression esthétique, l’exposition permanente aux réseaux sociaux et l’injonction à « être parfaite » sur tous les plans. Les dernières études disponibles établissent un lien entre ces dynamiques et la hausse du mal-être émotionnel chez les jeunes filles.
La puberté devient ainsi une période biologique et culturelle particulièrement exigeante pour elles.
Un fossé qui persiste à l’âge adulte
Ce schéma ne disparaît pas avec les années. Les données de notre groupe de recherche et les travaux scientifiques portant sur la population adulte montrent que les femmes continuent de présenter une qualité de sommeil moindre, des niveaux d’anxiété et de dépression plus élevés, ainsi qu’une insatisfaction corporelle plus marquée que les hommes.
Le fossé émotionnel qui s’ouvre à la puberté ne se comble pas spontanément avec le temps.
Le sport, un facteur de protection
Nos données montrent que l’activité physique, et en particulier la pratique du sport de compétition, est associée à un meilleur sommeil, une plus grande satisfaction de vie et un moindre mal-être émotionnel, aussi bien chez les garçons que chez les filles. Lorsque la pratique sportive est équivalente, les bénéfices le sont aussi : le sport protège de la même manière.
Cependant, l’écart de bien-être entre filles et garçons demeure. Non pas parce que le sport serait moins efficace pour elles, mais parce que les adolescentes font globalement moins d’exercice et participent moins aux compétitions sportives, comme le confirment notre étude et d’autres travaux antérieurs.
Le sport, à lui seul, ne peut compenser les facteurs sociaux qui pèsent plus lourdement sur les adolescentes. En revanche, encourager leur participation, notamment à des niveaux compétitifs, permet de réduire l’écart en leur donnant accès aux mêmes bénéfices que les garçons.
D’autres leviers pour réduire l’écart
La bonne nouvelle, c’est que d’autres stratégies contribuent également à diminuer cet écart émotionnel. Les études montrent que les interventions les plus efficaces sont celles qui renforcent la relation au corps, réduisent la comparaison sociale et améliorent l’estime de soi.
Les programmes scolaires axés sur l’éducation à l’image corporelle et à la perception de soi ont permis de réduire le risque de troubles alimentaires et d’améliorer le bien-être émotionnel des adolescentes.
Les initiatives visant à enseigner une utilisation critique des réseaux sociaux et à identifier les messages nuisibles à l’image de soi se révèlent également efficaces pour limiter la pression esthétique et numérique.
À lire aussi : Cómo mejorar el bienestar de los universitarios con psicología positiva
Enfin, les stratégies de régulation émotionnelle et de pleine conscience, axées sur l’apprentissage de la gestion du stress, l’apaisement de l’esprit et la connexion avec le présent, ont été associées à une amélioration du bien-être psychologique et à une diminution des niveaux d’anxiété chez les adolescentes.
Ce n’est pas seulement leur responsabilité
Mais tout ne dépend pas d’elles. Les recherches montrent également que le contexte joue un rôle clé. Les familles qui écoutent, valident les émotions et encouragent l’autonomie protègent la santé mentale de leurs filles.
Quand les écoles enseignent des compétences socio-émotionnelles universelles, telles que la reconnaissance des émotions, la résolution des conflits ou le renforcement de l’estime de soi, les symptômes d’anxiété et de dépression dus à l’adolescence diminuent.
Et les médias et les réseaux sociaux ont une énorme responsabilité : la manière dont ils représentent les corps et la réussite influence directement la façon dont les jeunes filles se perçoivent.
En outre, les politiques publiques qui encadrent les messages liés au corps et à l’image, tout en favorisant des environnements éducatifs et sportifs inclusifs, contribuent à réduire la pression esthétique et à améliorer le bien-être des adolescentes.
Une période critique (et une occasion à saisir)
L’adolescence est une étape décisive. En soutenant les filles à ce moment clé, en renforçant leur autonomie, leur estime de soi et leur relation à leur corps et à leurs émotions, nous posons les bases d’un bien-être durable.
Il ne s’agit pas de leur demander d’être fortes. Il s’agit de créer des environnements qui ne les fragilisent pas. Investir aujourd’hui dans la santé mentale des adolescents, c’est construire une société plus juste et plus équilibrée demain.
Alejandro Legaz Arrese a reçu des financements du Groupe de recherche sur le mouvement humain financé par le gouvernement d'Aragon.
Carmen Mayolas-Pi a reçu des financements associés au groupe de recherche Movimiento Humano de la part du gouvernement d'Aragon.
Joaquin Reverter Masia a reçu des financements du programme national de recherche, développement et innovation axé sur les défis de la société, dans le cadre du plan national de R&D&I 2020-2025. Le titre du projet est : « Évaluation de divers paramètres de santé et niveaux d'activité physique à l'école primaire et secondaire » (numéro de subvention PID2020-117932RB-I00). En outre, la recherche bénéficie du soutien du groupe de recherche consolidé « Human Movement » de la Generalitat de Catalunya (référence 021 SGR 01619).
19.11.2025 à 16:21
L’IA générative, un moyen de développer l’approche par compétences
Texte intégral (1136 mots)
En aidant à personnaliser les parcours, l’intelligence artificielle enrichit la dimension interactive des dispositifs d’apprentissage, permettant à l’approche par compétences de se déployer pleinement.
Si les changements débutés dans l’enseignement avec et par le numérique constituent depuis leur émergence un phénomène intéressant à étudier, la sortie de ChatGPT 5 (GPT-5), le 7 août 2025, par OpenAI, donne à ces questions de recherche une acuité particulière. Les évolutions des pratiques éducatives se sont en effet considérablement accélérées ces derniers mois, laissant une plus large place aux outils technologiques issus notamment de l’intelligence artificielle (IA) générative.
Les enseignants, les élèves, les étudiants et les responsables de formation se sont emparés de ces nouvelles conditions de transmission d’informations, et de partages d’idées.
Cette palette d’outils peut-elle aider à développer de nouvelles manières d’envisager les apprentissages, en privilégiant une approche par compétences ?
L’approche par compétences, une démarche en pleine mutation
L’approche par compétences a pris forme avec le texte de cadrage national des formations conduisant à la délivrance des diplômes nationaux de licence, de licence professionnelle et de master, en 2014. Elle a été complétée, en 2018, par l’arrêté relatif au diplôme de licence et, en 2019, par celui relatif au diplôme de licence professionnelle.
Cette approche impulse des changements nouveaux et profonds dans les universités. Elle se définit comme un mode de conception de l’enseignement qui tente de dépasser certaines limites de la pédagogie par objectifs.
Pour les enseignants, les changements associés à l’approche par compétences se situent notamment dans les modalités de transmission des connaissances et de l’aide apportée à chacun des étudiants. Au niveau des modalités de transmission, l’approche par compétences apparaît comme un mouvement où les objectifs d’enseignement ne se définissent plus comme des contenus à transmettre mais plutôt comme des capacités d’actions qu’un apprenant doit développer afin de pouvoir accomplir ses activités dans une situation professionnelle.
Confronté à ces situations professionnelles nouvelles, l’étudiant est amené à appréhender ses propres besoins en termes de savoirs, savoir-faire et savoir-être pour ensuite mettre en place une démarche de sélection de connaissances personnelles (déjà acquises), de recherches documentaires et de questionnements auprès de professionnels.
Des exemples d’usages de l’IA générative, pour les apprenants
D’abord, dans des activités stimulant l’apprentissage par la découverte, l’apprenant peut explorer et questionner. Il peut par exemple demander à une IA générative de lui proposer des situations propres à un métier, celui qu’il envisage, afin de lui permettre d’entrevoir toute leur diversité, mais aussi de s’entraîner dans la formulation d’hypothèse de résolution pour chacune d’entre elles.
Ensuite, l’apprenant peut demander à l’IA de lui donner des exemples de métiers en lien avec ses propres compétences, qu’il aura lui-même identifiées. Attention, il ne s’agit pas d’imposer un métier en particulier mais plutôt de le renvoyer vers des métiers possibles. Restera à sa charge alors, la nécessité de vérifier les missions associées à ces métiers et les compétences qui lui sont rattachées.
Enfin, ChatGPT peut l’aider à « apprendre à apprendre » en lui permettant de planifier ses révisions (« Quelles sont tes priorités ? »), d’identifier une répartition du temps (« Quels sont tes temps de pause ? »), d’envisager une méthode de travail (« Qu’as-tu trouvé facile aujourd’hui ? », « Pourquoi ? », ou « Aurais-tu pu faire différemment ? »), de bénéficier d’un encouragement dans la formulation d’objectifs personnels (« Que veux-tu comprendre aujourd’hui ? », « Quel était ton objectif du jour ? », « Es-tu fier de toi ? »)
Des exemples d’usages de l’IA générative, pour les enseignants
D’abord, des scénarios pédagogiques peuvent être envisagés à partir de données originales, amenant les enseignants à proposer des escape games (jeux d’évasion), quiz, jeux de société ou encore des contextes immersifs, propres à un métier ciblé par la formation.
Ensuite, des pratiques d’usage d’IA génératives peuvent proposer des activités visant à développer des compétences que l’apprenant a lui-même sélectionnées, celles que cible l’enseignant, mais aussi de répondre à des questions en lien avec un concept particulier qui n’aurait pas été compris en classe.
En analysant plusieurs supports, les outils d’IA peuvent aider à identifier des besoins collectifs (sur une même classe) ou encore créer des supports de formations, des explications, des retours sous différents formats (textes, podcasts, vidéos et montages d’images), adaptés à différents apprenants ou groupes d’apprenants.
Enfin, l’enseignant peut envisager de proposer des activités visant l’esprit critique, en utilisant différentes méthodologies de création de prompts, en comparant les résultats de plusieurs IA tout en développant la capacité d’argumentation.
Cet article est publié dans le cadre de la Fête de la science (qui a eu lieu du 3 au 13 octobre 2025), dont The Conversation France est partenaire. Cette nouvelle édition porte sur la thématique « Intelligence(s) ». Retrouvez tous les événements de votre région sur le site Fetedelascience.fr.
Chrysta Pelissier ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
19.11.2025 à 14:57
Comment les spectateurs des événements sportifs réagissent-ils face aux sponsors « polluants » ?
Texte intégral (1712 mots)

La présence de Coca-Cola aux Jeux olympiques et paralympiques de Paris 2024 et celle de Dacia à l’Ultra-Trail du Mont-Blanc (UTMB) ont cristallisé les critiques. Ce qui est en jeu pour les organisateurs d’évènements sportifs : trouver un équilibre entre critères financiers, avec l’apport de ces marques commerciales, et environnementaux.
Alors que les grands événements sportifs internationaux (GESI) affichent des objectifs environnementaux ambitieux, la cohérence entre ces engagements et le choix des sponsors deviennent cruciaux.
Comment le mesurer ? Avec Maël Besson, fondateur d’une agence en transition écologique du sport, et l’agence The Metrics Factory, nous avons étudié les perceptions en ligne, principalement sur les réseaux X et YouTube, de deux partenariats – Coca-Cola pour les Jeux olympiques et paralympiques de Paris 2024, et Dacia pour l’Ultra-Trail du Mont-Blanc (UTMB).
Notre analyse souligne que les marques perçues comme « polluantes » peuvent affaiblir durablement l’image d’écoresponsabilité des événements qu’elles financent. Les critères environnementaux ne sont plus des variables secondaires ; ils déterminent l’acceptabilité et la légitimée de la tenue même de l’évènement.
Virage écologique du sponsoring sportif
Dans le cadre de notre étude, nous avons analysé 28 des principaux travaux liant responsabilité sociale et sponsoring sportif entre 2001 et 2024. Nous observons que, longtemps centré sur la visibilité et la performance, le sponsoring sportif se transforme.
Sous l’effet conjugué des attentes citoyennes, de la pression réglementaire et des impératifs climatiques, la question de l’impact environnemental s’invite au cœur des stratégies de partenariat. Une marque ne peut plus se contenter de saturer un événement avec son logo. Elle doit prouver qu’elle partage ses valeurs, notamment en matière de durabilité.
Entre discours marketing et réalité mesurable, le fossé est parfois béant. Notre recherche a révélé un paradoxe frappant. La responsabilité sociale des entreprises dans le sport est surtout abordée sous l’angle économique – intention d’achat, notoriété, image de marque –, tandis que les impacts environnementaux sont largement ignorés.
Coca-Cola et Paris 2024
À première vue, les organisateurs des Jeux olympiques et paralympiques de Paris 2024 ont multiplié les initiatives pour réduire l’impact environnemental de l’évènement : sobriété, sites réutilisés, compensation carbone, végétalisation de l’alimentation, sensibilisation des spectateurs, « interdiction » à TotalEnergies d’être partenaire, mobilités douces, 100 % des sites accessibles en transports publics, etc. Pourtant, la présence de Coca-Cola parmi les sponsors a cristallisé les critiques.
Selon notre analyse des réseaux sociaux X et YouTube, plus d’un tiers des messages associant Coca-Cola, Paris 2024 et l’environnement exprime un sentiment négatif.
Plus grave encore : Coca-Cola est mentionnée dans 56 % des publications critiques à l’égard de l’impact écologique des Jeux, représentant 63 % des impressions générées. En clair, pour beaucoup d’internautes, la présence de la marque incarne à elle seule l’incohérence entre les ambitions écologiques des Jeux et la mise en avant d’un sponsor vécu comme non écologique.
Le reproche principal, toujours selon notre étude, est la production massive de bouteilles en plastique à usage unique, perçue comme incompatible avec un discours de sobriété environnementale. Cette dissonance nourrit un sentiment de greenwashing, où l’écologie devient un simple vernis pour des pratiques peu vertueuses.
UTMB et Dacia : un impact durable sur l’image
Du côté de l’Ultra-Trail du Mont-Blanc, l’impact du partenariat avec Dacia, constructeur automobile, a été durablement négatif. Un an et demi après une polémique très médiatisée, le partenariat – contrat de naming de l’évènement – n’a pas été renouvelé. Notre étude montre qu’un tiers des messages environnementaux sur l’UTMB restent critiques, et que plus de 80 % de ces critiques portent toujours sur le sponsoring par Dacia.
À lire aussi : Sport, nature et empreinte carbone : les leçons du trail pour l’organisation des compétitions sportives
Malgré le temps passé et les nombreuses actions en faveur de la préservation de l’environnement mis en place par l’organisateur selon leur plan d’engagement, la perception négative demeure. Elle démontre que certains partenariats peuvent laisser une trace durable dans la mémoire collective, bien au-delà de la période de l’événement lui-même.
Loi Evin climat
L’un des enseignements majeurs de notre étude : la cohérence perçue devient une nouvelle norme de légitimité. L’impact négatif d’un partenariat ne se mesure plus uniquement à des données d’émissions, mais à sa capacité à convaincre les parties prenantes – citoyens, élus, ONG, médias – de sa sincérité.
Le sport reproduit une dynamique déjà connue dans le domaine de la santé publique dans les années 1980. Comme pour le tabac ou l’alcool, l’acceptabilité sociale de certains sponsors diminue. Faut-il, dès lors, envisager une « loi Evin pour le climat » interdisant la présence de marques à forte empreinte carbone dans les stades et les événements ?
Montée des exigences des parties prenantes
Au-delà des réactions du grand public analysées dans ces deux études de cas, les exigences environnementales montent chez tous les acteurs du sport.
Chez les sponsors eux-mêmes
Selon l’association Sporsora qui regroupe 280 acteurs du monde du sport, le groupe Accor s’assure que ses nouveaux partenariats soient en cohérence avec ses propres engagements climatiques. Onet exclut catégoriquement toute pratique sportive trop polluante.
Dans le champ des médias
France Télévisions a cessé de diffuser le rallye Dakar (au bénéfice de l’Équipe), invoquant entre autres l’incompatibilité entre l’image de l’évènement et les attentes exigeantes des téléspectateurs.
Pour les collectivités locales
Nous pouvons citer le rejet du sponsor TotalEnergies un temps envisagé pour les JOP 2024 par la Ville de Paris.
Face à la pression sociale croissante, le modèle du sponsoring sportif est à un tournant. Ignorer les enjeux écologiques, ou s’y attaquer de façon purement cosmétique, expose les marques et les organisateurs à des risques réputationnels majeurs, à un rejet du public et à des contraintes institutionnelles nouvelles.
Il est primordial que les partenariats sportifs s’alignent sincèrement avec les limites planétaires.
Cet article a été co-rédigé avec Maël Besson, expert en transition écologique du sport, fondateur de l’agence SPORT 1.5.
Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.
19.11.2025 à 12:14
Grands travaux et démesure : Trump réinvente la Maison Blanche
Texte intégral (2101 mots)
Donald Trump n’est pas le premier président des États-Unis à lancer de grands travaux à la Maison Blanche. Mais il existe une différence fondamentale entre les rénovations précédentes, dont les finalités étaient essentiellement fonctionnelles, et son projet d’immense salle de bal, reflet d’une vision très personnelle du décorum lié à la fonction présidentielle…
À l’orée de son second mandat présidentiel, Donald Trump a exprimé le souhait de doter la Maison Blanche d’un espace architectural inédit : une salle de bal destinée à accueillir des réceptions officielles, des dîners d’État et des événements diplomatiques de haute tenue.
Ce projet s’inscrit dans une longue tradition de réaménagements présidentiels, mais en déplace sensiblement la finalité. Le dispositif envisagé consisterait en l’édification, à la place de l’East Wing (l’aile orientale du complexe de la Maison Blanche), en cours de destruction, d’un espace d’environ 8 500 mètres carrés, conçu dans un style néoclassique afin de ne pas rompre avec l’esthétique originelle du bâtiment pensé par James Hoban à la fin du XVIIIᵉ siècle.
Trump n’est pas le premier président des États-Unis à ordonner un aménagement d’envergure du célèbre bâtiment. Depuis son achèvement en 1800, la Maison Blanche n’a cessé d’être transformée pour répondre aux exigences politiques, technologiques ou symboliques du moment. Thomas Jefferson (1801-1809) fit construire les premières terrasses et agrandir le bâtiment, Ulysses S. Grant (1869-1877) introduisit des commodités modernes, Theodore Roosevelt (1901-1909) décida de séparer espaces domestiques et professionnels en créant la West Wing en 1902, Harry S. Truman (1945-1953) entreprit une rénovation structurelle majeure entre 1948 et 1952.
Les modifications successives ont toujours été envisagées comme des réponses à des nécessités fonctionnelles ou institutionnelles. Le projet de Trump se distingue donc des précédents, dans la mesure où il semble poursuivre une finalité de prestige plus qu’une finalité pratique ou structurelle. De fait, il s’inscrit avant tout dans une logique de monumentalisation personnelle.
Les coûts historiques des grandes rénovations présidentielles
Les transformations de la Maison Blanche ont toujours reflété, au-delà des nécessités matérielles, la conception que chaque président se fait de la fonction et du prestige de sa fonction.
La rénovation la plus célèbre reste celle conduite sous Harry S. Truman de 1948 à 1952. Après des décennies d’affaissement structurel, le bâtiment principal dut être intégralement vidé, ne conservant que les façades extérieures. Cette reconstruction, menée par l’architecte Lorenzo Winslow (1892-1976), coûta environ 5,7 millions de dollars à l’époque – soit près de 70 millions à 85 millions de dollars actuels (de 60,4 millions à 73,3 millions d’euros).
L’enjeu était avant tout sécuritaire et fonctionnel : il s’agissait de sauver le bâtiment, non d’en rehausser le prestige décoratif. Truman lui-même s’était installé à Blair House (la résidence des invités officiels du président des États-Unis lors de leur séjour à Washington) pendant les quatre années de travaux – une décision qui soulignait la dimension institutionnelle plutôt que personnelle du chantier.
Une décennie plus tard, Jacqueline Kennedy mena une autre forme de rénovation : esthétique, patrimoniale et culturelle. Dès son arrivée en 1961, la First Lady déplorait l’aspect hétéroclite et moderne du mobilier et entreprit une vaste campagne de restauration historique. Elle fit appel à des experts en art, des conservateurs et des mécènes privés pour redonner à la Maison Blanche le caractère d’un musée vivant de l’histoire nationale. Le budget total de cette opération fut d’environ 2 millions de dollars de l’époque (soit 21,5 millions de dollars actuels, ou près de 19 millions d’euros), dont une large part provenait de dons privés via la White House Historical Association, qu’elle fonda pour l’occasion. L’objectif était autant de préserver un patrimoine que de renforcer la sacralité culturelle du lieu.
Sous Barack Obama, plusieurs projets de modernisation furent également entrepris, notamment en matière de durabilité énergétique, de systèmes de communication et d’accessibilité. Ces travaux, moins visibles et donc moins médiatisés, ont coûté environ 4,5 millions de dollars (3,8 millions d’euros) par an entre 2010 et 2016.
Le projet de Donald Trump : un chantier somptuaire et symbolique
Dans ce contexte historique, le projet de salle de bal lancé par Donald Trump apparaît d’une nature tout à fait différente. En effet, le coût estimé pour cette nouvelle aile colossale s’élève à 200 millions de dollars (plus de 172 millions d’euros) initialement, puis 250 millions (215,8 millions d’euros), avant d’être réévalué à 300 millions de dollars (259 millions d’euros). En proportion, cette somme est entre trois et six fois supérieure à la reconstruction intégrale de Truman, et représente quatorze fois le coût du projet Kennedy.
Même si la justification officielle invoque un besoin d’espace et de représentation, la nature du projet révèle une approche profondément marquée par la culture du spectacle. À travers ce chantier, Trump semble poursuivre la logique esthétique et narrative qui caractérise son image publique : magnifier la puissance présidentielle par la monumentalité et le luxe, quitte à brouiller les frontières entre espace civique et personnel.
Ce projet a suscité des réactions contrastées au sein même de la sphère Trump, à commencer par son épouse. Melania Trump a en effet exprimé des réserves quant à la pertinence et au calendrier d’un tel chantier, estimant que celui-ci risquait d’alimenter une perception publique centrée sur le faste plutôt que sur la gouvernance.
Les opposants politiques de Donald Trump ont, pour leur part, dénoncé l’inutilité et le caractère narcissique d’un tel aménagement. Hillary Clinton a évoqué un projet « révélateur d’un président davantage occupé à mettre en scène son héritage qu’à gouverner le pays », position qui a rapidement été relayée par plusieurs figures du parti démocrate.
La portée symbolique des travaux
Au-delà des réactions immédiates, la portée symbolique d’un tel projet mérite une analyse approfondie, tant il touche à la fonction quasi rituelle de la Maison Blanche dans l’imaginaire politique états-unien. La construction d’une salle de bal conférerait à la résidence présidentielle une dimension plus monarchique que républicaine, en renforçant une théâtralisation du pouvoir que plusieurs chercheurs identifient comme un trait marquant de la présidence contemporaine. Cette scénographie du politique permettrait à Trump de faire de la Maison Blanche non seulement un lieu de décision, mais aussi un espace spectaculaire conçu pour magnifier la figure du président en tant qu’incarnation de la nation.
La salle de bal, pensée comme un espace d’apparat, fonctionnerait comme un décor destiné à mettre en scène la puissance et la grandeur, à la manière des salles d’apparat européennes, telles que Versailles ou Buckingham. Cette analogie souligne le déplacement symbolique qu’impliquerait une telle construction, en rapprochant la présidence états-unienne d’une forme de souveraineté cérémonielle.
D’ailleurs, dès le début de son second mandat, Donald Trump avait décidé de faire quelques travaux de rénovation. En janvier 2025, il s’attaque au Bureau ovale et commande des dorures massives (moulures, plafonds, cadres) et de nombreux objets dorés pour refléter son goût pour le luxe. Il impose une esthétique bling-bling dans un espace traditionnellement marqué par la sobriété.
En outre, la salle de bal constituerait un espace de sociabilité élitaire, réservé à une audience sélectionnée de dignitaires, de mécènes et d’alliés politiques, ce qui renforcerait la dimension exclusive de l’exercice du pouvoir. La portée symbolique d’un tel édifice dépasserait ainsi la seule question architecturale pour investir le champ du politique, du culturel et du mémoriel, en projetant dans l’espace bâti une conception du pouvoir centrée sur la magnificence, la visibilité permanente et la sacralisation de la figure présidentielle.
Trump et la postérité
Chaque président contribue, à sa manière, à l’inscription matérielle de la fonction dans le temps. Toutefois, la tentation d’assimiler Trump aux « bâtisseurs » de la présidence semble relever d’une construction narrative plus que d’une réalité fonctionnelle.
Là où Roosevelt, Truman ou même Kennedy cherchaient à adapter la résidence aux exigences de l’État moderne, Trump semble viser une empreinte mémorielle, visible et spectaculaire, dont la salle de bal serait le symbole. Une telle initiative interroge sur la conception trumpienne de la postérité, fondée non sur l’action politique durable, mais sur l’établissement d’un signe architectural destiné à survivre à son mandat.
Frédérique Sandretto ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
19.11.2025 à 12:14
Cinquante ans après la mort de Franco, que reste-t-il de sa dictature ?
Texte intégral (2469 mots)
La mort du dictateur Francisco Franco, le 20 novembre 1975, a ouvert la voie à la démocratisation de l’Espagne. Pour autant, les quatre décennies durant lesquelles il a exercé le pouvoir dans son pays ont laissé une trace qui ne s’est pas encore estompée. Sophie Baby, maîtresse de conférences en histoire contemporaine à l’Université Bourgogne Europe, spécialiste du franquisme et de la transition démocratique en Espagne, autrice en 2024 de Juger Franco ? Impunité, réconciliation, mémoire, aux éditions La Découverte, revient dans cet entretien sur le parcours du Caudillo, de son rôle dans la guerre civile (1936 à 1939) à la répression que son régime a mise en œuvre, sans oublier les enjeux mémoriels autour de la commémoration de cette époque qui secouent aujourd’hui l’Espagne contemporaine.
The Conversation : Pouvez-vous nous rappeler qui était Francisco Franco et la façon dont il est arrivé au pouvoir ?
Sophie Baby : Franco, né en 1892 dans le village d’El Ferrol, en Galice, est un officier de carrière qui s’illustre dans la guerre du Rif (1921-1926), alors seul terrain d’action de l’armée espagnole. Il devient à 33 ans l’un des plus jeunes généraux d’Europe. Après la proclamation de la Seconde République espagnole en 1931, il occupe plusieurs postes de haut rang. En 1936, il se rallie, assez tardivement, au coup d’État militaire qui cherche à renverser la toute jeune République. D’autres généraux que lui ont fomenté ce putsch, mais il y jouera un rôle clé.
Depuis les Canaries, il rallie le Maroc, soulève l’armée d’Afrique qui lui était fidèle et débarque en Andalousie. Avec la mort des autres chefs putschistes, les généraux Sanjurjo et Mola, dans des accidents d’avion, il s’affirme comme le leader du camp rebelle dit « national ». Face à l’échec du coup d’État et à la résistance du gouvernement républicain, d’une partie de l’armée restée loyale à la République et de la population, une guerre civile s’engage, qui durera trois ans. Installé à Burgos, dans le nord du pays, Franco fonde les bases de son futur régime, et s’impose sur tout le territoire après la victoire proclamée le 1er avril 1939.
Sur quelles valeurs ce nouveau régime repose-t-il ?
S. B. : Le régime franquiste s’appuie sur le Movimiento Nacional (Mouvement national) qui devient le seul parti autorisé en Espagne. C’est un mouvement nationaliste, antilibéral, catholique et profondément anticommuniste, hostile aux réformes laïques et sociales de la République. Centré sur la Phalange, organisation inspirée du fascisme italien, il vise à restaurer un ordre traditionnel fondé sur l’armée, l’Église et les hiérarchies sociales. Son idéologie mêle nationalisme, conservatisme et croisade religieuse contre une « anti-Espagne » identifiée au communisme, à la franc-maçonnerie, au libéralisme.
Quel a été le bilan humain de la guerre civile et du régime de Franco ?
S. B. : Il faut distinguer ce qui est le strict bilan de la guerre civile, de 1936 à 1939, et le bilan de la répression franquiste, qui s’entremêlent dans le temps. Ces bilans ne sont pas totalement définitifs, on ne dispose toujours pas de liste précise des noms et du nombre des victimes. Mais les historiens ont énormément travaillé et l’ordre de grandeur est fiable aujourd’hui.
On estime que la guerre civile a fait 500 000 victimes. Parmi elles, 100 000 étaient des soldats tombés au front, donc une minorité. Environ 200 000 personnes ont été exécutées à l’arrière – 49 000 dans la zone contrôlée par les républicains et 100 000 dans la zone franquiste. Le reste sont des victimes des conséquences de la guerre, des déplacements, de la famine et des bombardements des villes.
Après 1939, la répression franquiste se poursuit, avec environ 50 000 exécutions dans les années 1940. Par ailleurs, l’Espagne est plongée dans une grave famine provoquée non pas par le simple isolement conséquent à la Seconde Guerre mondiale, comme l’a clamé la propagande franquiste, mais par la politique d’autarcie du régime qui avait fait le pari de l’autosuffisance, interrompant les importations notamment d’engrais, fixant autoritairement les prix, réquisitionnant la production, laissant la population en proie du marché noir et à la faim, pour un bilan d’au moins 200 000 morts.
En outre, on estime qu’au tout début des années 1940, il y a à peu près 1 million de prisonniers en Espagne : environ 300 000 dans les prisons et plus d’un demi-million dans les presque 200 camps de concentration répartis sur le territoire espagnol, qui existent jusqu’en 1947. On estime que quelque 100 000 prisonniers de ces camps de concentration ont trouvé la mort pendant cette période.
Par ailleurs, 140 000 travailleurs forcés sont passés dans les camps de travail du régime, qui fonctionnaient encore dans les années 1950. Tandis que 500 000 personnes fuient la répression franquiste ; les deux tiers ne reviendront pas.
Le régime franquiste s’est clairement rangé pendant le conflit mondial du côté de Hitler et de Mussolini, qui avaient massivement contribué à la victoire du camp national par l’envoi de dizaines de milliers de soldats, d’avions, de matériel de guerre. Oscillant entre un statut de neutralité et de non-belligérance, Franco s’était engagé, lors de sa rencontre avec Hitler à Hendaye en octobre 1940, à entrer en guerre au moment opportun – moment qui ne s’est jamais présenté. Mais les Alliés n’étaient pas dupes : l’Espagne de Franco fut mise au ban de la communauté internationale et ne put pas rejoindre l’Organisation des Nations unies avant 1955.
Aujourd’hui, qu’en est-il de la question de la reconnaissance des victimes de la guerre et du régime ?
S. B. : Le régime franquiste a mis en place une politique mémorielle offensive et durable, reposant d’abord sur l’exaltation des héros et des martyrs de la « croisade ». Les victimes du camp national ont obtenu des tombes avec des noms et des monuments leur rendant hommage – ces monuments « a los caídos » (« aux morts ») qui parsèment les villages de la Péninsule. Elles ont pu bénéficier de pensions en tant qu’anciens combattants, invalides de guerre, veuves ou orphelins.
Ce qui n’était pas le cas de celles et ceux du camp vaincu, voués à l’exclusion, à la misère et à l’oubli. Paul Preston parle à cet égard de politique de la vengeance. La persécution se poursuivra jusqu’à la fin du régime, les dernières exécutions politiques datant de quelques semaines avant la mort du dictateur.
C’est ce déséquilibre que les collectifs de victimes issues du camp républicain, constitués dans les années 1960 et 1970, demanderont à compenser une fois le dictateur disparu, réclamant réparation puis reconnaissance.
En 2025, le gouvernement de Pedro Sánchez a lancé l’année commémorative des « Cinquante ans de liberté » pour célébrer les acquis démocratiques et les luttes antifranquistes. L’accent est mis sur ceux qui ont lutté et, pour certains, perdu leur vie sur l’autel de ce combat pour la liberté. Cette initiative s’inscrit dans une politique mémorielle amorcée avec l’exhumation de Franco en 2019 – son corps reposait jusque-là dans la basilique de Valle de los Caídos, en Castille au nord-ouest de Madrid, construite par des prisonniers du régime ; Pedro Sanchez, tout juste arrivé au pouvoir, avait fait une priorité de son transfert vers le caveau de sa famille – et renforcée par la loi sur la mémoire démocratique de 2022, qui rompt avec la logique d’équivalence entre les deux camps, condamne sans détour la dictature et affirme la supériorité définitive de la légitimité démocratique sur la légitimité franquiste.
Face à ces politiques de mémoire orchestrées par la gauche, quelles sont les positions de la droite traditionnelle et de l’extrême droite ?
S. B. : Il est certain que la droite – que ce soit le parti conservateur traditionnel, le Parti populaire (PP), ou la formation d’extrême droite Vox, apparue en 2014 – s’est toujours opposée à cette politique de mémoire qu’elle considère comme une façon d’entretenir la division des Espagnols susceptible, dit-elle, de reconduire la guerre civile d’antan. Ces partis estiment qu’il ne faut pas « rouvrir les blessures du passé », même si un relatif consensus existe aujourd’hui, au moins localement, sur la nécessité d’identifier et de restituer les corps des disparus. Mais ils s’opposent à toute forme de réhabilitation des victimes et refusent toute forme de responsabilité de l’État.
La droite, qui n’a jamais rompu avec la dictature franquiste et qui a majoritairement refusé d’adopter la Constitution de 1978, s’est depuis le début des années 2000 approprié l’héritage de la transition à la démocratie, brandissant la concorde, le consensus, la réconciliation comme arguments pour rejeter les politiques de mémoire.
Comment la question des symboles franquistes dans l’espace public est-elle traitée ?
S. B. : La première loi mémorielle de 2007, adoptée par le gouvernement socialiste de José Luis Rodríguez Zapatero, a engagé l’effacement de l’espace public des symboles franquistes qui étaient encore omniprésents : changement des noms de rues, suppression des emblèmes de la Phalange (le joug et les flèches) présents sur tous les bâtiments publics, déboulonnage des statues équestres de Franco, destruction d’un certain nombre de monuments à la gloire du régime et de la « croisade » parce qu’ils exaltaient de façon trop évidente les valeurs du franquisme. Il en subsiste un certain nombre et, tout récemment, le gouvernement a annoncé la publication d’un recensement de ces symboles encore en place.
Le déboulonnage des statues peut rappeler la vague que l’on a pu observer aux États-Unis et ailleurs, notamment au Royaume-Uni, à la suite du mouvement Black Lives Matter. Mais en Espagne, il n’a rien eu d’un tel élan populaire ; à l’inverse, il a relevé d’une politique menée d’en haut par les pouvoirs publics.
À lire aussi : Vandalisme et déboulonnage de statues mémorielles : l’histoire à l’épreuve de la rue
Aujourd’hui, que reste-t-il de la figure de Franco ?
S. B. : La commémoration des cinquante ans de la mort de Franco soulève une question centrale : que commémorer exactement ? La mort d’un dictateur ? Ce qu’il en reste, c’est, je dirais, majoritairement de l’ignorance. Dans le cursus scolaire classique, la part consacrée à l’enseignement de l’histoire de l’Espagne du XXe siècle est très réduite. Cela conduit à une méconnaissance globale de ce qu’a été réellement le franquisme et encourage une vision très édulcorée de ce régime.
Un discours familial et social persiste dans certains milieux, surtout de droite et dans certaines régions comme Madrid ou la Castille, qui tend à minimiser l’ampleur de la répression franquiste, à renier toute comparaison de Franco avec Hitler ou Mussolini, à valoriser les bienfaits du régime. Jusqu’à considérer, pour un cinquième de la population, selon un sondage récent, que les années de la dictature de Franco furent bonnes, voire très bonnes, pour les Espagnols. On observe ainsi une apparente résurgence de cette vision positive du régime franquiste ces dix dernières années, à la faveur de l’essor de Vox : de plus en plus de jeunes participent aux messes en l’honneur de Franco, chantent dans la rue le Cara al Sol (l’hymne phalangiste) et certains enseignants du secondaire déplorent que des élèves choisissent Franco comme héros de l’histoire de l’Espagne à l’occasion de travaux à rendre.
Cela explique en partie la politique du gouvernement socialiste actuel, destinée notamment à cette jeunesse, qui insiste non seulement sur la cruauté du régime par le biais de la réhabilitation des victimes, mais aussi sur les conséquences concrètes de l’absence de libertés et sur l’importance de la lutte antifranquiste et des acquis démocratiques.
Propos recueillis par Mathilde Teissonnière.
Sophie Baby a reçu des financements de l'Institut universitaire de France.
19.11.2025 à 12:12
‘Digital sovereignty’: why the EU may be shifting from internet regulation to building homegrown tech
Texte intégral (2021 mots)
Over the past decade, prominent European politicians seemed to think that legal regulation would be enough to control the internet. They focused primarily on drafting laws to regulate foreign platforms rather than prioritising investment in developing European alternatives. This focus contributed to producing the internet Europeans experience today, in which users typically must rely on foreign private platforms for modern necessities like search engines, maps, communication, online commerce, social media, cloud storage, and AI software, owing to the lack of compelling homegrown services.
Why did EU legislators place so much stock in the promise and power of legislation? And why have those same legislators gradually moved, since 2020 – and particularly since Donald Trump’s election to a second term as US president in late 2024 – towards a viewpoint that instead emphasises the limitations of legal solutions and the need for ownership and control of digital infrastructure?
Two policy paradigms
European political leaders have paid lip service to the need for so-called digital sovereignty), a slogan that typically refers to the need for control of digital technology, not just regulation. French President Emmanuel Macron and former German chancellor Angela Merkel began emphasising the issue in 2017 and 2019, respectively. In 2020, Merkel committed to establish “digital sovereignty as a leitmotif of European digital policy”. And since then, European Commission President Ursula von der Leyen has made sovereignty a “centrepiece of her Commission’s digital agenda”.
But at the same time – at least until 2024 – politicians’ actual solution has been “an almost exclusive focus on the regulation of services by US tech platforms”. This focus was based on a more optimistic presumption: that the EU could achieve its objectives by controlling foreign tech platforms through law because the bloc sat in the driver’s seat for governing the global internet.
This optimistic view of Europe’s role was encouraged by legal scholarship between 2012 and 2022, which promoted a positive and confident vision of Europe’s “global regulatory power” – the idea that the EU writes the rulebook for the global internet – and the idea of “digital constitutionalism” – that this rulebook has the power “to rein in” platforms such as Meta, X and TikTok, thus manifesting European notions of privacy and the rule of law in the online platform economy.
But it’s important to understand that unlike the idea of digital sovereignty, which emphasises the need for concrete policy change, digital constitutionalism is primarily an interpretive movement. By looking through a “constitutionalist lens”, scholars reinterpreted a period of intense privatisation online as a more benign development, which gained “superficial appeal” from the legitimating vocabulary of constitutional law. This encouraged a rose-coloured view of Europe’s position in the internet economy, allowing scholars and policymakers to miss the deepening crisis of its technological dependence until it was arguably too late: the return of Trump in 2024.
The influence of ‘The Brussels Effect’
In 2012, Columbia University law professor Anu Bradford published “The Brussels Effect”, a seminal article that influenced a generation of legal scholars and policymakers. It painted a compelling picture of the EU as a “benign regulatory hegemon”, or rulemaking superpower. For Bradford, it was US citizens who were subject to European power every day. As the author put it: “Few Americans are aware that EU regulations determine the makeup they apply in the morning, the cereal they eat for breakfast, the software they use on their computer, and the privacy settings they adjust on their Facebook page.”
Bradford explained that the EU could leverage access to its huge consumer market to impose stringent standards on internet companies, and those companies, in many cases, would apply those standards globally to benefit from economies of scale, rather than engage in the costly business of tailoring services to the particular regulations of each country. “All the EU needs to do,” she said after publishing the book version of The Brussels Effect in 2020, “is to regulate its internal market, and it is then the global companies that globalise those EU rules”.
In her book, Bradford demonstrated how tech giants like Facebook and Google had complied with EU online privacy standards and applied them globally. An important question, however, which Bradford never quite resolved, was who had made the decision really: the EU legislator or the companies in Silicon Valley? Had the EU legislator actually compelled the platforms to comply, or had the platforms, for reasons of their own, merely decided it was in their interest to play ball with the EU for the time being?
Since late 2024, it has seemed increasingly likely that the apparent power of EU law has actually been dependent upon the platforms’ willingness to comply, and their willingness has now run out.
A reality check… and a path forward?
Trump’s election win shook European politicians’ belief in the optimistic vision espoused by Bradford and the constitutionalists. So did the events that followed. In early January 2025, Meta announced major changes in its content moderation policies, including that it would stop working with outside fact-checkers, signalling allegiance to the White House’s vision of online free speech. Later that month, big tech executives were prominently in attendance at the inauguration in Washington. It has become gradually more difficult for Europeans to sustain the optimistic constitutionalist view of the past decade. Even authors prominently associated with digital constitutionalism have begun to see the glass half empty. Writing in Verfassungsblog in February, Giovanni De Gregorio and Simona Demková recognised a “looming enforcement crisis” and a “need to reassess the European approach to regulating the digital age”.
The publication in September 2024 of a major report, “The future of European competitiveness” by former European Central Bank president Mario Draghi, had already sent shockwaves through the EU political community. With dire warnings regarding the costs of the EU’s status-quo regulatory strategies and the depth of Europe’s technological dependence – “the EU relies on foreign countries for over 80% of digital products, services, infrastructure and intellectual property”, according to the text – the report weakened the bloc’s belief in legal solutions.
Following the report and Trump’s win, and amid the first year of the new US administration, members of the European parliament such as Alexandra Geese, Axel Voss and Aura Salla have swung towards the sovereignty paradigm with a new fervour, embracing an enforcement-focused legal “simplification” agenda that borders on deregulation, and supporting research for funding and policy proposals that would likely have seemed farfetched even two years ago. Ideas for public service media alternatives include an AI-powered “European News Streaming Platform”. And then there’s the EuroStack, an initiative for investment in Europe-based digital infrastructures.
The news platform is still somewhat speculative, but the EuroStack initiative has gained significant traction in Brussels. The EU commissioner for technological sovereignty, Henna Virkunnen, spoke at a EuroStack event in June. Her speech came a little more than six months after a EuroStack pitch document criticised the bloc’s years of US-focused regulation as a misstep that has likely condemned the EU to a future “as a definitive and irreversible ‘US colony’ in digital infrastructure”. Today, as the European Commission “prepares to simplify digital rules with a new omnibus plan”, it appears that EU politicians’ belief in the optimistic, constitutionalist paradigm has significantly deteriorated, if not collapsed.
But old habits die hard, and the EU has for decades been described as a “regulatory state” that effects change primarily through legal rulemaking. It must now resist slipping back into that comfort zone, and also take care, while simplifying the rules, not to destroy the essence of the regulations it has built. If the EU is to offer a genuinely alternative and rights-conscious vision of the internet, it must cast off idealistic visions of achieving hegemony through law and redirect its energies towards technological creation. Initiatives like the Eurostack and the European News Streaming Platform appear to offer promising places to start.
A weekly e-mail in English featuring expertise from scholars and researchers. It provides an introduction to the diversity of research coming out of the continent and considers some of the key issues facing European countries. Get the newsletter!
Michael FitzGerald ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
19.11.2025 à 11:52
Pourquoi publier une « nouvelle » histoire de France en 2025
Texte intégral (2155 mots)

La connaissance du passé évolue au fil des recherches. Du big data à l’archéologie préventive, la palette d’outils à disposition de l’historien s’enrichit. Et on s’intéresse aujourd’hui à des sujets longtemps restés sous silence, comme l’environnement ou le genre. Regard sur cette nouvelle approche de l’histoire.
L’histoire de France est un inépuisable sujet de discussion pour les personnalités politiques de tous bords, les médias, les Français et les étrangers qui observent les querelles qui agitent notre pays autour de son passé avec un mélange d’admiration, d’amusement et d’agacement. Les représentations qui en ont été proposées lors de la cérémonie des Jeux olympiques de Paris, à l’été 2024, ont ainsi fait couler beaucoup d’encre.
De fait, la connaissance du passé progresse au fil des recherches. Le contexte de naguère n’est plus celui d’aujourd’hui et les interprétations de l’histoire s’entrechoquent. On ne peut ainsi pas parler du passé colonial de la France en 2025 comme on le faisait au « temps béni des colonies », pour reprendre le titre de la chanson ironique et critique, en 1976, de Michel Sardou, Pierre Delanoë et Jacques Revaux – pour ne donner que cet exemple.
C’est pourquoi nous avons entrepris avec une centaine de spécialistes une Nouvelle Histoire de France. Publiée en octobre 2025 aux éditions Passés composés, cette somme de 340 éclairages, des Francs à la crise actuelle de la Ve République, de Vercingétorix à Simone Veil, tient compte des renouvellements de la discipline. Explications.
Une histoire trop longtemps tiraillée entre roman national et déconstruction
Non seulement la France a été au cœur de la plupart des principaux événements qui ont scandé l’histoire mondiale des derniers siècles, mais elle a également été en proie à des clivages politiques, religieux et idéologiques majeurs : les catholiques face aux protestants, les républicains contre les monarchistes ou encore la droite face à la gauche.
Ce passé, long, riche et tumultueux, n’a cessé d’être instrumentalisé. À partir du XIXe siècle, et plus particulièrement de la IIIe République, a dominé un « roman national » qui présentait la France sans nuances, puissante et rayonnante, et faisait de tous ces affrontements un préalable douloureux mais nécessaire à un avenir radieux.
À partir des années 1970, cette histoire a commencé à être déconstruite par le postmodernisme soucieux de rompre avec la modernité née pendant les Lumières, de libérer la pensée et de délivrer l’individu du passé pour l’inscrire pleinement dans le présent, en fustigeant les grands récits historiques.
Cette approche a été salutaire car elle a fait réfléchir, a remis en cause de fausses évidences et a fait progresser notre connaissance. Ainsi, pour reprendre le cas de l’histoire coloniale, Edward Saïd (1935-2003) a-t-il souligné, dans l’Orientalisme. L’Orient créé par l’Occident (1978, 1980 pour l’édition française), ce que le regard occidental porté sur l’Orient et sur les colonisés avait pu avoir de biaisé, voire de méprisant, même s’il a pu pécher lui-même par réductionnisme et caricature pour défendre sa thèse.
Et certains déconstructeurs en sont venus à noircir systématiquement l’histoire de France, comme le fit par exemple Claude Ribbe avec son Crime de Napoléon (2005) comparant l’esclavage et la traite négrière à la Shoah et Napoléon à Hitler.
Cependant, d’autres ont rapidement profité de ces derniers excès pour proposer de nouveau un roman national qui a pu prendre un tour essentialiste. Il existe pourtant et évidemment une voie entre la fierté aveugle des uns et la passion destructrice des autres.
Un troisième moment historiographique
De la fin des années 2000 au milieu de la décennie suivante, trois grandes entreprises collectives ont contribué à explorer une autre voie, à distance des interprétations partisanes.
À partir de 2009, Joël Cornette a ainsi dirigé, pour l’éditeur Belin, une Histoire de France en plus de dix volumes et 10 000 pages, faisant la part belle aux sources et aux illustrations. Claude Gauvard a pris peu après la tête d’une Histoire personnelle de la France en six volumes aux Presses universitaires de France, avant que Patrick Boucheron et un autre collectif ne publient, en 2017, aux éditions du Seuil, une Histoire mondiale de la France autour d’événements destinés à faire réfléchir.
Ces trois histoires proposaient un récit chronologique et s’appuyaient sur des spécialistes reconnus pour essayer de recentrer un pendule de l’histoire qui avait sans nul doute trop oscillé. Il nous est cependant apparu qu’il y avait nécessité de proposer un autre projet de grande ampleur, une Nouvelle Histoire de France. Nous avons emprunté cette même voie médiane, en rassemblant d’ailleurs plusieurs des autrices et auteurs qui avaient participé aux entreprises précédentes, mais en procédant aussi différemment, sous forme encyclopédique et chronologico-thématique.
Pierre Nora (1931-2025) qui avait dirigé une somme pionnière au milieu des années 1980, les Lieux de mémoire, nous disait au début du processus éditorial, en 2023, que le temps était sans doute venu d’ouvrir un troisième moment historiographique, celui d’une histoire soustraite à la fausse modernité qui conduit à ne lire le passé qu’avec des schémas actuels de pensée, celui d’une histoire renonçant au nouveau mantra qui rend l’Occident coupable de tous les maux et qui pare le reste du monde de toutes les vertus par un excès symétrique à celui par lequel le premier s’est longtemps pris pour le phare de la planète renvoyant le second à sa supposée arriération, celui enfin d’une histoire extraite du cadre étroit de notre hexagone pour montrer ce que la France doit au monde mais aussi ce qu’elle lui a apporté, dans un incessant mouvement de circulation à double sens, à la fois humain, matériel et immatériel.
De nouveaux sujets et des méthodes nouvelles
Avec cette Nouvelle Histoire de France, il s’agit de renoncer aux effets de mode, d’accorder toute leur place aux incontournables – les personnalités, les faits marquants, les œuvres majeures – sans omettre aucun des renouvellements majeurs de ces dernières années. La discipline a évolué en effet tant dans les objets (histoire impériale et coloniale, histoire des voix oubliées et des marges négligées, histoire du genre et des femmes, histoire environnementale…), que dans les méthodes (archéologie préventive, prosopographie, approche par le bas, jeu sur les échelles, big data…).
Parmi les nouveaux sujets historiques, l’environnement est très certainement l’un de ceux qui ont pris le plus de place dans la recherche en raison de la dégradation accélérée de la planète due au double processus de marchandisation du monde
– porté par un imaginaire économique de croissance infinie – et d’artificialisation de la planète – reposant sur un imaginaire technoscientifique prométhéen – qui se développe depuis la fin du XVIIIe siècle. En mettant en avant ces alertes précoces et les alternatives proposées dans le passé, l’histoire environnementale est porteuse de sens pour l’avenir et c’est pourquoi nous voulions lui accorder une grande place en confiant à Charles-François Mathis, son chef de file en France, le soin de l’aborder.
Quant aux méthodes nouvelles à disposition de l’historien, il nous faut dire un mot, là encore à titre d’exemple, de l’archéologie préventive. Celle-ci a commencé à se développer en France à partir des années 1970, avec l’ambition de préserver et d’étudier les éléments significatifs du patrimoine archéologique français menacés par les travaux d’aménagement et les projets immobiliers. Elle a permis de mieux comprendre l’héritage gaulois de la France et ses limites. Et qui mieux que Dominique Garcia, grand spécialiste de la Gaule préromaine et directeur de l’Institut national de la recherche archéologique préventive (Inrap) pour traiter le chapitre « Gaulois » de notre ouvrage ?
En outre, l’histoire n’est pas une discipline isolée mais elle s’enrichit du dialogue avec les autres sciences humaines et sociales et c’est dans cet esprit que nous avons aussi fait appel à 17 auteurs et autrices de 14 autres disciplines, habitués à travailler en profondeur historique : le géographe Jean-Robert Pitte, le spécialiste de la littérature française Robert Kopp, l’historienne de l’art Anne Pingeot, le philosophe Marcel Gauchet… Tous ont accepté de mettre leur savoir à la portée du plus grand nombre au prix d’un effort de synthèse et de vulgarisation.
C’est à ce prix que cette histoire en 100 chapitres, 340 éclairages et 1 100 pages se veut renouvelée et tout à la fois érudite et vivante, encyclopédique et ludique, dépassionnée… mais passionnante !
Éric Anceau a dirigé la « Nouvelle histoire de France » publiée aux éditions Passés composés.
18.11.2025 à 16:49
Loi de finances : le Parlement sous la menace d’un recours à l’ordonnance
Texte intégral (1897 mots)
Selon la Constitution, le Parlement doit se prononcer sur le projet de loi de finances dans un délai de soixante-dix jours pour permettre à l'État de fonctionner au 1er janvier 2026. En cas de non-respect de ce délai, le gouvernement peut mettre le projet de loi en œuvre par ordonnance, en retenant les amendements qu’il souhaite parmi ceux qui ont été votés. Cette option, de plus en plus crédible, serait une première sous la Ve République. Un coup porté à la démocratie parlementaire ?
En France, la loi de finances autorise le prélèvement des recettes (dont les impôts) et l’exécution des dépenses publiques pour une année civile. Pour que l’État puisse fonctionner au 1er janvier, la loi de finances doit être adoptée au plus tard le 31 décembre de l’année précédente (principe d’antériorité budgétaire).
Sous la IVe République, les lois financières étaient rarement adoptées dans les temps. La discussion se prolongeait souvent longtemps l’année suivante, parfois même jusqu’au mois d’août. Dans l’intervalle, le gouvernement était autorisé à fonctionner avec des « douzièmes provisoires », c’est-à-dire avec un douzième du budget de l’année précédente pour chaque mois entamé. Cette situation était jugée très insatisfaisante.
Lors de la rédaction de la Constitution de 1958, la décision fut prise de soumettre la procédure budgétaire à un calendrier strict. En cas de non-respect, le gouvernement peut reprendre la main.
L’encadrement de la procédure budgétaire dans les délais
L’article 47 de la Constitution prévoit dans son alinéa 3 :
« si le Parlement ne s’est pas prononcé dans un délai de soixante-dix jours, les dispositions du projet peuvent être mises en vigueur par ordonnance. »
L’idée du constituant était de contraindre le Parlement à ne pas utiliser plus de temps que ce qui lui était accordé avant la fin de l’année civile pour son travail législatif et de garantir, ainsi, l’adoption d’une loi de finances avant le 31 décembre. Pour les projets de lois de financement de la Sécurité sociale, le Parlement dispose de cinquante jours (art. 47-1 de la Constitution).
Le cadre général de soixante-dix jours a été complété par plusieurs autres règles temporelles, d’abord dans l’ordonnance organique du 2 janvier 1959, puis dans la loi organique relative aux lois de finances du 1er août 2001 (appelée Lolf). Celles-ci concernent, d’abord, la date du dépôt qui doit intervenir au plus tard le premier mardi d’octobre (art. 39 de la Lolf). Le Conseil constitutionnel se montre souple et tolère les retards tant que le Parlement dispose de son délai global.
En 2024, le gouvernement Barnier l’a déposé avec neuf jours de retard (le 10 octobre au lieu du 1er octobre au plus tard) et, en 2025, le gouvernement Lecornu avec sept jours de retard (le 14 octobre au lieu du 7 octobre au plus tard). Dans les deux cas, le calendrier a été bousculé, mais pas au point de priver le Parlement de soixante-dix jours calendaires pour l’examen.
Ensuite, chaque assemblée doit respecter un délai intermédiaire (quarante jours pour l’Assemblée nationale et vingt jours pour le Sénat). L’objectif est de donner aux députés et aux sénateurs le temps d’examiner le texte dans le délai imparti. Il reste alors dix jours pour adopter le texte, au besoin avec l’intervention d’une commission mixte paritaire (CMP) chargée de proposer un texte de compromis en cas de désaccord entre les deux assemblées.
Si le désaccord persiste, le gouvernement peut donner le dernier mot à l’Assemblée nationale (art. 45 alinéa 4 de la Constitution) ou engager sa responsabilité sur le texte (art. 49 alinéa 3 de la Constitution). Cette dernière procédure, souvent décriée, permet au gouvernement de considérer la loi de finances comme adoptée sans la faire voter, sauf si les députés le renversent au moyen d’une motion de censure.
L’ordonnance, une sanction dirigée contre le Parlement
Tant pour les projets de lois de finances (PLF, soixante-dix jours) que pour les projets de lois de financement de la Sécurité sociale (PLFSS, cinquante jours), la possibilité d’une mise en œuvre par ordonnance se présente comme une sanction de l’incapacité du Parlement à finir son travail dans les temps. La Constitution est claire sur ce point : l’ordonnance n’intervient que si le Parlement « ne s’est pas prononcé » dans le délai de soixante-dix jours.
Si le Parlement rejette formellement le projet, le gouvernement ne peut pas prendre d’ordonnance. Il est contraint de proposer un projet de loi de finances spéciale dans l’attente de l’adoption d’une loi de finances complète (art. 40 de la Lolf). C’est ce qui s’est produit en 1979 et en 2024.
Depuis 1958, jamais un gouvernement n’a eu besoin de recourir à de telles ordonnances, ce qui leur donne plus un caractère dissuasif que répressif. Il s’agit surtout d’inciter le Parlement à tenir ses délais. Comme le dispositif n’a jamais été testé, plusieurs questions restent à ce jour sans réponse.
Quel contenu pour l’ordonnance ?
L’article 47 alinéa 3 de la Constitution se contente d’indiquer que le gouvernement met en œuvre « le projet de loi de finances » par ordonnance. Le premier réflexe est de penser au projet initial déposé par le gouvernement. C’est la lecture que le secrétariat général du gouvernement a proposée dans une note d’août 2024 relative « aux PLF et PLFSS » révélée par le média Contexte.
Cette lecture interpelle. Une analogie est possible avec le dessaisissement d’une chambre pour non-respect de son délai. Dans un tel cas, le gouvernement transmet à l’autre chambre le texte initialement présenté, « modifié le cas échéant par les amendements votés par l’assemblée (dessaisie) et acceptés par lui ». La logique peut être transposée à l’ordonnance. Le gouvernement pourrait choisir les amendements qu’il souhaite parmi ceux qui ont été votés, mais il ne pourrait pas intégrer des amendements qui ne l’auraient pas été.
Dans un contexte où l’Assemblée nationale est très divisée, les choix du gouvernement pourraient être critiqués, mais ils ne seraient pas nécessairement contestables en droit.
Quel recours contre l’ordonnance ?
L’ordonnance mettant en œuvre un projet de loi de finances ne peut pas être déférée au Conseil constitutionnel au titre de l’article 61 de la Constitution (contrôle avant entrée en vigueur) et une question prioritaire de constitutionnalité (QPC) ne serait, en principe, pas recevable puisqu’elle ne serait pas dirigée contre une « disposition législative » (art. 61-1 de la Constitution).
Une analogie avec les ordonnances de l’article 38 de la Constitution permet de déterminer leur régime juridique. Ces dernières sont prises sur habilitation du Parlement et ont un caractère réglementaire tant qu’elles ne sont pas ratifiées. Pour les ordonnances de l’article 47 de la Constitution, l’habilitation provient de la Constitution elle-même et, surtout, elles n’ont pas besoin d’être ratifiées par le Parlement. Elles ont donc un caractère réglementaire et peuvent être contestées devant le Conseil d’État, c’est-à-dire comme des ordonnances de l’article 38 de la Constitution dans l’attente de leur ratification.
Devant le Conseil d’État, un recours pour excès de pouvoir aurait, cependant, une portée limitée. En 1924, dans un célèbre arrêt Jaurou, la haute juridiction a jugé que les crédits prévus par la loi de finances ne créent pas de droits au profit des administrés, ce qui les empêche de les contester. Il reste d’autres dispositions, notamment celles touchant à la fiscalité. Il ne fait pas de doute que si un gouvernement était amené à prendre une ordonnance de l’article 47 de la Constitution pour mettre en œuvre le budget, des contribuables saisiraient le Conseil d’État pour tester l’étendue du contrôle qu’il voudra bien exercer.
Quid de la démocratie parlementaire ?
Pendant le mois de novembre, des voix se sont élevées au sein de l’Assemblée pour accuser le gouvernement de vouloir contrôler les débats (retarder le vote de la taxe Zucman, supprimer les débats prévus pendant un week-end). Pourtant, si le gouvernement peut demander des modifications du calendrier, c’est la conférence des présidents de l’Assemblée nationale qui en décide. En outre, le premier ministre a annoncé qu’il n’aurait recours ni à l’article 49 alinéa 3 ni aux ordonnances. Surtout, si les délais ne sont pas respectés, c’est moins la conséquence des modifications du calendrier que du dépôt de milliers d’amendements par les députés.
Quoi qu’il en soit, si le gouvernement devait avoir recours aux ordonnances, ce que la Constitution lui permet de faire, il s’expose au risque d’une censure par les députés (vote d’une motion de censure spontanée comme celle qui a fait tomber le gouvernement Barnier en décembre 2024).
Le principe du consentement à l’impôt par les représentants de la nation est une conquête de la Révolution française. Pour doter la France d’un budget, le gouvernement serait bien avisé de ne pas court-circuiter l’Assemblée nationale, même si celle-ci est très divisée. En cas de blocage, un moindre mal serait l’adoption d’une loi de finances spéciale, comme en 2024. Celle-ci ne résout pas tout, mais elle a le mérite de ne pas constituer un passage en force.
Guigue Alexandre est membre de membre de la Société française de finances publiques, association reconnue d'utilité publique réunissant universitaires et praticiens des finances publiques.
18.11.2025 à 16:18
La société du concours : entre admis et recalés, quelques points d’écart, mais des conséquences pour toute une vie
Texte intégral (2446 mots)
Des grandes écoles à la télévision, de la mode à l’agriculture, en passant par la programmation informatique ou la cuisine, les concours sont aujourd’hui légion. Comment expliquer une telle expansion, alors même qu’on sait les biais induits par la compétition et qu’on revendique égalité et justice sociale ?
Autrice de la Société du concours (2017), d’un essai sur le Mérite (2021) et d’une enquête sur les Nouvelles Portes des grandes écoles (2022), Annabelle Allouch nous explique ce que cette logique du « concours partout, pour tous », dit des incertitudes de notre époque. Interview.
The Conversation : Derrière le terme de « concours », on trouve une variété de modalités et d’enjeux. Quel est leur point commun ?
Annabelle Allouch : Des émissions télévisées, comme le Meilleur Pâtissier, au recrutement de grandes écoles, comme Polytechnique, le concours est une forme institutionnelle de mise en compétition des individus et d’évaluation de leurs capacités. C’est un construit social, qui évolue donc selon les contextes et les époques.
La forme du concours est intimement liée aux sociétés occidentales bureaucratiques, où les États sont dotés d’une administration chargée de gérer leurs affaires sur un spectre de domaines de plus en plus large (le mot « bureaucratie » étant à prendre ici dans le sens que lui donne le sociologue Max Weber).
Mais la réalité du concours dépasse largement le champ de l’État, elle peut aussi concerner le secteur privé. Les comices agricoles (associations de cultivateurs qui organisent des manifestations professionnelles et des concours) en sont un bon exemple. Elles visent à assurer une standardisation des normes de production et une productivité par l’émulation dans une filière donnée. Il y a aujourd’hui une porosité entre formes étatiques et formes marchandes de mise en compétition, qui se rejoignent sur cet objectif de productivité.
Qui a inventé les concours tels qu’on les connaît ?
A. A. : D’un point de vue historique, on considère par convention qu’il faut revenir à la Chine impériale et à la dynastie des Han (en 200 de notre ère environ). L’empereur est à Pékin et, pour administrer son très large territoire, il a besoin d’appuis locaux parmi les élites sociales. Pour acheter la loyauté de ces fameux mandarins, il leur donne un statut qui leur octroie des droits, comme des exemptions d’impôts, et un prestige symbolique et social lié à la reconnaissance de leur capital culturel par le concours.
Le concours, c’est donc une forme institutionnelle où celui qui est mis en compétition acquiert soit un statut social, soit des biens spécifiques ou encore des capitaux qu’il peut ensuite réinvestir ailleurs. La question du mérite ou de la méritocratie qu’on associe avec le concours n’est pas forcément présente.
Un certain nombre d’historiens considèrent que les Jésuites, dans leurs voyages en Chine impériale, découvrent le concours et le mettent en place dans les institutions scolaires qu’ils organisent, les fameux collèges jésuites, futurs collèges royaux, en prônant la mise en compétition comme source de gouvernement et de mise en discipline des enfants.
Durkheim, lui, pense que le concours comme forme institutionnelle n’a pas eu besoin des Jésuites pour arriver en France et qu’il est surtout lié à une organisation sociale fondée sur les corporations qu’on trouve bien avant, dès le Moyen Âge. Durkheim s’intéresse particulièrement aux corporations universitaires dans son livre sur l’évolution pédagogique depuis l’Antiquité. Toute corporation, pour être reconnue comme une profession autonome, doit contrôler son recrutement. Et les universitaires, selon Durkheim, sont particulièrement doués pour inventer des rituels et des cérémonials qu’ils dotent d’une force sacrée.
Néanmoins, les Jésuites contribuent à la traduction des rituels fondés sur la compétition en une forme d’évaluation permanente à destination des enfants et des adolescents qui doit créer une émulation. C’est cette forme scolaire que l’on retrouve dans notre système éducatif.
En quoi assiste-t-on aujourd’hui à ce que l’on pourrait qualifier d’extension de la logique de concours ?
A. A. : Le concours a été associé au développement de l’État régalien au XIXe siècle, dans un premier temps, puis de l’État-providence au XXe siècle, où l’on a de plus en plus besoin de bureaucrates dans des domaines très variés. Pour les recruter, on va utiliser cette forme institutionnelle qui paraît alors la plus légitime, dans la mesure où elle est fondée sur les « capacités » et qu’elle est déjà à l’œuvre depuis la fin du XVIIIe siècle dans l’armée, notamment.
Aujourd’hui, cette forme tend à s’éloigner du seul cadre bureaucratique pour être appliquée à un grand nombre de situations sociales qui n’ont plus rien à voir ni avec l’État ni avec le politique au sens strict.
Dès mon recrutement (sur concours !), j’ai été saisie, en tant que jeune maîtresse de conférences, de constater que ma pratique professionnelle de recherche et d’enseignement (où je suis invitée à noter mes étudiants pour valider leurs apprentissages) se dédoublait – en quelque sorte – d’une culture populaire des concours. Quand je rentrais chez moi et qu’il m’arrivait d’allumer la télévision, il était ainsi fréquent que je tombe sur un concours, notamment dans le cadre d’émissions de télé-réalité – avec des notes délivrées par des jurys, des coachs chargés de préparer les élèves à une série d’épreuves minutieusement organisées. Qu’on pense par exemple aux émissions culinaires de type Top Chef. L’inspiration de ces épreuves, à la fois scolaire et sportive, témoigne d’une circulation des représentations de l’évaluation entre univers sociaux.
Comment expliquer un tel succès ? La forme du concours résonne-t-elle particulièrement avec notre époque ?
A. A. : Le paradoxe, c’est qu’on réclame plus d’égalité alors que, tous les soirs, vous pouvez assister sur vos écrans à des concours qui classent des candidats. On en déduit donc avec John Rawls que la justice sociale dans nos sociétés relève en fait d’une croyance dans les « inégalités justes ».
Pour Pierre Bourdieu, le concours est précisément un rituel qui est là pour institutionnaliser des différences, y compris quand elles sont infimes. C’est la fameuse frontière entre le dernier de la liste d’admis et le premier recalé aux concours de l’École polytechnique : la différence est minime entre ces candidats, mais le résultat de concours entérine irrémédiablement cet écart et l’associe à un statut social différencié. Et avec le couperet du classement se joue l’accès à des ressources de tous types : symboliques, matérielles, et même amicales ou amoureuses.
Ce qui m’intéresse dans cette extension du domaine du concours, c’est la fusion entre les formes bureaucratiques et marchandes de mise en compétition et de mise en ordre du social. On a d’autant plus l’impression de vivre dans une société du concours qu’avec le capitalisme contemporain, il paraît tout à fait légitime de tester et d’évaluer constamment les candidats pour s’assurer de la productivité et des capacités des personnes.
Bref, en exaltant les valeurs individuelles du mérite, on renforce une espèce de « gouvernement par le concours », même s’il s’agit moins d’un concours corporatiste, et beaucoup plus d’une sélection de gré à gré entre une institution ou une organisation et un individu.
Sur quoi l’adhésion aux concours repose-t-elle ?
A. A. : La légitimité contemporaine de cette forme institutionnelle se fonde sur l’adhésion au mérite qu’on peut comprendre comme un récit, une rhétorique de légitimation. Malgré les critiques, ce récit apparaît alors comme une fiction nécessaire, pour reprendre les termes de François Dubet, c’est-à-dire quelque chose auquel on croit malgré tout pour se donner l’illusion de gérer l’incertitude du monde social. « Le mérite, j’y crois, mais c’est plus un acte de foi qu’autre chose », me disait un étudiant de Sciences Po qui venait de réussir l’ENA.
Si on ne peut qu’adhérer au mérite, c’est parce que ça nous permet d’avoir l’impression de contrôler notre environnement, malgré le Covid, malgré la crainte de la guerre, etc.
Le monde du travail s’organise aussi sur cette mise en scène méritocratique, avec le développement d’une rhétorique de la performance où l’on vous dit que vous aurez un meilleur salaire si vous travaillez plus, ou si vous travaillez mieux, ce qui reste très théorique.
Cette circulation rhétorique renforce malgré nous l’adhésion au concours, et elle le naturalise aussi : on ne voit plus, quand on allume la télé, que, sur toutes les chaînes, il y a des formes de jeux fondés sur le concours, que ce soit Koh-Lanta, Top Chef, etc.
Que signifie la recherche de la légitimité des concours ?
A. A. : Quelle que soit la société, quel que soit l’angle sous lequel on examine les concours, on constate la même chose : des inégalités sociales de genre fondamentales, une reproduction d’inégalités sociales et familiales, une cristallisation d’inégalités scolaires plus anciennes… Il n’y a pas de concours parfaitement équitable. Il peut y avoir des concours qui, éventuellement, corrigent certaines de leurs imperfections à destination d’un public identifié, mais cela se fera nécessairement à la défaveur d’autres publics.
Il ne faut pas oublier que les concours des grandes écoles sont conçus pour différencier les gens et identifier des élites. L’idée du concours, par essence, c’est la différenciation.
Qu’est-ce que le concours produit comme émotions chez celles et ceux qui les vivent ?
A. A. : Quand j’ai sorti la Société du concours, en 2017, j’ai été – à ma grande surprise – submergée de courriers de lecteurs. Les gens avaient envie de me parler de leur concours, souvent, d’ailleurs, en négatif, ou avec une forme d’association à la souffrance. Les concours suscitent des émotions parce qu’ils sont très investis socialement, très investis par les familles, très investis politiquement.
D’Albert Camus à Annie Ernaux, il y a différentes lectures du parcours de transfuge de classe, mais on y retrouve toujours l’exaltation de sentiments méritocratiques. Et quelle est l’émotion ou la sensation typique liée à la méritocratie ? C’est la souffrance, qu’elle advienne avant une réussite associée à la fierté, à un sentiment de félicité qu’elle rend possible, ou qu’elle précède l’échec vécu avec humiliation.
Ce qui est commun à tout ça, c’est que le concours donne l’impression de permettre d’exalter le meilleur de soi, c’est aussi ce qui va nourrir le sentiment de l’élection en cas de réussite.
Selon les grandes périodes scolaires, les émotions mises en avant varient. Dans la période qui précède la massification scolaire à la Ernaux, le concours se solde par la honte ou par la fierté. Dans notre période néolibérale, c’est l’anxiété et l’angoisse qui dominent. Paradoxalement, c’est là qu’il va finalement peut-être y avoir égalité, comme le soulignait François Dubet. La différence, c’est que nous ne sommes pas tous armés de la même façon pour la gérer.
Propos recueillis par Aurélie Djavadi.
Annabelle Allouch ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
18.11.2025 à 16:17
Jeux vidéo : comment mieux protéger les données personnelles des joueurs les plus accros ?
Texte intégral (1903 mots)

L’addiction aux jeux vidéo est un trouble comportemental dont la reconnaissance scientifique et juridique divise les experts. Or, les éditeurs de jeu collectent les données des joueurs potentiellement concernés. En l’absence de consensus scientifique sur la question de ce type de dépendance, qu’en est-il de la protection juridique des gameurs ?
L’addiction se définit comme la perte de contrôle d’un objet qui était à l’origine une source de gratification pour l’usager. De nombreuses études scientifiques ont tenté d’établir des liens entre l’utilisation d’écrans et une forme de dépendance chronique assimilable à de l’addiction.
Par conséquent, cette question s’est imposée logiquement dans les discussions et expériences scientifiques. Le trouble du jeu vidéo (gaming disorder) est un trouble du comportement reconnu par l’Organisation mondiale de la santé (OMS) depuis 2018 (CIM-11), mais aussi par l’American Psychiatric Association depuis 2013 (DSM-5-TR). Ces deux classifications reposent sur une série de symptômes dont la combinaison tend à indiquer une forme d’addiction aux jeux vidéo. Toutefois, la communauté scientifique est divisée sur sa reconnaissance en tant que pathologie.
Ce constat appelle à l’approfondissement des études sur le sujet. Toutefois, avant le stade « pathologique », il est possible de considérer plusieurs niveaux de gravité de l’addiction, qui traduisent déjà des formes de dépendance aux jeux vidéo.
En effet, les formes les plus graves d’addiction concerneraient de 0,5 % à 4 % des joueurs, tandis que d’autres études montrent que la consommation problématique des jeux vidéo est bien plus répandue, avec 44,7 % des personnes présentant des difficultés avec la consommation des écrans.
La première conséquence de cette addiction est la perte de contrôle du temps de jeu, d’ailleurs accrue pour les joueurs de moins de 18 ans, dont le lobe frontal responsable de l’autocontrôle est en cours de formation. Néanmoins, les formes d’addiction aux jeux vidéo représentent aussi une opportunité pour l’industrie du jeu vidéo à travers la mise en place d’une économie de l’attention très lucrative.
Retenir l’utilisateur, collecter des données
Sa logique est la création de services en ligne conçus pour retenir l’utilisateur et collecter le maximum de données liées à l’activité du joueur pour effectuer de la publicité comportementale. L’industrie du jeu vidéo s’est d’ailleurs particulièrement démarquée dans son expertise pour la collecte de données des joueurs, d’un côté, et, d’un autre côté, pour sa maîtrise des mécaniques de jeu (game pattern) afin de susciter l’engagement des joueurs.
Certains industriels, eux-mêmes, avertissent des dangers de la « weaponized addiction », lorsque la tendance à l’addiction est instrumentalisée au profit de l’optimisation du ciblage publicitaire. À l’inverse, d’autres experts rejettent en bloc la vision d’un rôle joué par l’industrie dans l’addiction des joueurs, malgré les nombreuses critiques de la recherche en science de l’information et les dérives documentées périodiquement.
Quelles protections juridiques pour les joueurs concernés ?
Par ricochet, l’absence de consensus scientifique impacte les systèmes juridiques qui éprouvent des difficultés à protéger les joueurs concernés. Concrètement, les juridictions nationales peinent à reconnaître l’addiction comme source de préjudice pour les joueurs.
Récemment, les exemples se multiplient avec des contentieux autour du jeu Fortnite d’Epic Games au Canada et aux États-Unis lui reprochant de n’avoir pas assez protégé les données personnelles des enfants, mais aussi des pratiques commerciales trompeuses où l’addiction a été soulevée par les associations de joueurs.
De même, des plaintes ont été déposées contre la plate-forme de jeux vidéos Roblox de Google, mais aussi contre le jeu Call of Duty d’Activision aux États-Unis, qui se sont globalement soldées par des refus des juridictions, soit de recevoir les plaintes, soit de reconnaître la responsabilité des éditeurs de jeux vidéo vis-à-vis des designs addictifs.
En France, la question ne s’est pas spécialement judiciarisée, toutefois, le législateur a adopté des mesures de pédagogie à travers la loi visant à sécuriser et à réguler l'espace numérique dite loi SREN du 21 mai 2024 qui amende l’article L. 611-8 du Code de l’éducation en ajoutant une formation à la « sensibilisation aux addictions comportementales au numérique » dans l’enseignement supérieur.
L’autorité de protection des données personnelles en France (CNIL) a d’ailleurs consacré une série de travaux de recherche à la question de l’économie des données dans le jeu vidéo.
Malgré les efforts d’adaptation des systèmes juridiques, la position de vulnérabilité psychologique des personnes addictes aux jeux vidéo appelle à une prise en compte plus conséquente.
Considérant les liens entre l’économie de la donnée et l’instrumentalisation potentielle de l’addiction des joueurs, il est nécessaire de considérer l’encadrement de cette activité sous l’angle du droit à la protection des données à caractère personnel. Celui-ci, dans l’Union européenne, peut protéger les joueurs de deux façons : en encadrant l’utilisation des données personnelles qui servent à identifier les joueurs addictes, et en instaurant une limitation spécifique de la publicité comportementale par les dispositions relatives aux traitements automatisés.
Une surveillance commerciale insuffisamment encadrée
En pratique, le temps de jeu, la fréquence et le caractère compulsif des achats sont des données couramment utilisées par l’industrie pour identifier les habitudes de consommation des joueurs. D’ailleurs, les joueurs les plus dépensiers sont communément surnommés les « baleines », comme dans le monde du casino.
L’utilisation de ces données est strictement encadrée, soit en tant que données sensibles si ces données sont relatives à la condition médicale de la personne au stade de la pathologie, ce qui demeure peu probable, soit en tant que donnée personnelle comportementale. Si ces données sont sensibles, l’éditeur du jeu vidéo doit demander l’autorisation explicite au joueur d’utiliser ces données.
Si ces données ne sont pas sensibles, l’utilisation de ces données reste bien encadrée, puisque l’éditeur doit tout de même justifier de la finalité du traitement et d’une base légale, c’est-à-dire présenter un fondement juridique (exécution du contrat, intérêt légitime qui prévaut sur les intérêts du joueur, ou consentement du joueur). À noter que la publicité comportementale semble n’être autorisée que sur la base du consentement du joueur.
En Union européenne, le Règlement général à la protection des données (RGPD) encadre les traitements automatisés qui sont au cœur du fonctionnement de la publicité comportementale. Pour résumer, la loi garantit que le joueur puisse refuser le traitement de ses données personnelles pour de la prospection commerciale. Cette garantie est constitutive de la liberté de choix du joueur. De plus, le nouveau Règlement européen des services numériques (ou Digital Services Act, DSA) interdit la publicité comportementale auprès des enfants joueurs.
Néanmoins, de nombreux jeux ne sont pas encore en conformité avec ces règles, malgré les efforts des autorités de protection européennes. Finalement, le poids du respect des droits du joueur à refuser cette forme de surveillance commerciale repose encore sur le joueur lui-même, qui doit rester vigilant sur l’utilisation de ces données.
Ce constat est problématique, notamment lorsque l’on considère la vulnérabilité des joueurs dans leur prise de décision sur l’utilisation de leurs données, notamment lorsqu’ils souffrent de troubles addictifs du jeu vidéo.
Cependant, la possibilité récente de recours collectifs pour les préjudices liés à la violation du RGPD, comme l'énonce l’article 80, pourrait ouvrir la voie à un contrôle des données personnelles par les communautés de joueurs et un rééquilibrage des forces en présence. Les développements jurisprudentiels sont attendus par les associations de joueurs, les autorités de protection des données et l’industrie avec impatience.
Arthur Champéroux ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
18.11.2025 à 16:17
Et si le « backlash écologique » en Europe était une conséquence de l’accord de Paris ?
Texte intégral (1726 mots)
C’était le grand mérite de l’accord de Paris en 2015 : transformer les déclarations d’intention diplomatiques sur le climat en engagements nationaux. Dix ans plus tard, l’ambition écologique se heurte désormais à un retour de bâton en Europe, où l’action climatique, au lieu de rassembler, polarise les débats et nourrit les divisions politiques.
La COP30 marque les dix ans de l’accord de Paris et l’heure est au bilan. En 2015, les États s’étaient engagés, lors de la COP21 à Paris, à contenir le réchauffement en dessous de 2 °C, avec l’ambition d’atteindre 1,5 °C. Dix ans plus tard, les émissions continuent d’augmenter – bien qu’à un rythme moins élevé – et l’objectif de 1,5 °C semble désormais hors de portée, révélant les limites du cadre diplomatique fixé à Paris.
L’accord de Paris, en demandant à chaque État de se fixer des objectifs de réduction d’émissions de gaz à effet de serre et de se donner les moyens de les atteindre, a profondément transformé les débats politiques en Europe. On assiste aujourd’hui à un « backlash » (retour de bâton) écologique. C’est-à-dire, une réaction politique généralisée en Europe contre les politiques de transition, qui en freine la mise en œuvre et en fragilise la légitimité.
Ce phénomène peut être compris comme une conséquence indirecte de Paris. En ramenant le climat au cœur des débats nationaux, l’accord a rendu plus visibles les arbitrages économiques et sociaux qu’implique la transition et les conflits qu’elle suscite. C’est précisément cette dynamique, le passage d’un enjeu longtemps consensuel à un objet de conflictualité, que j’étudie dans ma thèse, en analysant comment les partis européens adaptent leurs stratégies face aux tensions nouvelles engendrées par la mise en œuvre des politiques climatiques.
Accord de Paris et nationalisation de l’action climatique
Là où le protocole de Kyoto (1997) fixait des objectifs contraignants à un nombre limité de pays industrialisés, l’accord de Paris a marqué un tournant dans la gouvernance climatique. Il confie désormais à chaque État la responsabilité de définir puis de réviser régulièrement ses propres engagements.
Ce passage d’un système d’obligations internationales à un modèle fondé sur la responsabilité nationale a déplacé le centre de gravité de l’action climatique de l’échelle internationale au niveau national. Or, ce changement a profondément modifié la place du climat dans le débat politique. Longtemps cantonné à la scène diplomatique des négociations internationales, il est devenu, depuis l’accord de Paris, un enjeu domestique majeur.
En Europe notamment, les engagements pris à la COP21 ont ouvert un espace inédit de contestation face à l’inaction des gouvernements. En 2018 et en 2019, dont les étés ont été marqués par des vagues de chaleur exceptionnelles, les marches pour le climat ont rassemblé des centaines de milliers de personnes dénonçant le décalage entre les promesses de l’accord de Paris et les politiques mises en œuvre. Dans le même temps, les contentieux climatiques se sont multipliés, comme en France avec l’Affaire du siècle,confrontant les États à leurs responsabilités.
Sous la pression des engagements pris à Paris et des critiques de militants quant à l’inaction des pouvoirs publics, la question climatique s’est imposée dans la compétition politique, c’est-à-dire comme un enjeu central des stratégies électorales. À partir de 2018, la plupart des partis européens ont intégré le climat à leurs programmes pour gagner en crédibilité face à l’urgence climatique. Les élections européennes de 2019 l’ont bien illustré, avec une « vague verte » voyant une progression inédite des listes écologistes dans plusieurs pays.
Cette dynamique a favorisé l’adoption de nouvelles politiques publiques plus ambitieuses, européennes (comme le Pacte vert) puis nationales, visant la neutralité carbone. Au niveau national, elle s’est traduite par la multiplication des « lois Climat », parmi lesquelles la loi Climat et résilience qui, en France, fait figure d’exemple emblématique. Ces textes inscrivent dans le droit national les objectifs et les moyens censés permettre le respect des engagements pris à Paris.
Si leur ambition fait débat, ces politiques ont déjà contribué à infléchir, au moins partiellement, les trajectoires d’émissions dans plusieurs pays, comme la France. On ne peut donc les qualifier d’inefficaces.
À lire aussi : Les classes populaires en ont-elles vraiment marre de l’écologie ?
Un nouveau terrain où s’expriment les clivages politiques
Lors de sa ratification, et encore aujourd’hui, l’accord de Paris a suscité peu de contestations en Europe, ce qui contraste avec les décisions symboliques de Donald Trump de retirer la signature des États-Unis lors de ses deux mandats, choix qu’il a habilement mis en scène sur le plan politique.
En revanche, la mise en œuvre des politiques climatiques découlant de l’accord de Paris pour tenir les engagements provoque désormais de fortes résistances politiques en Europe. Le passage d’un débat centré sur le choix des objectifs à atteindre à un débat national sur la façon d’y parvenir a rendu plus tangibles, au niveau national, les effets sociaux et économiques de la transition. Les coûts de l’action climatique, les inégalités qu’elle peut accentuer et les changements qu’elle impose aux modes de vie sont désormais au cœur du débat politique.
Une forte conflictualisation des enjeux climatiques en Europe a émergé dans ce contexte, portée notamment par des partis de droite radicale et d’extrême droite. Ceux-ci cherchent à délégitimer les politiques de transition écologique et à mobiliser les électorats susceptibles d’en être les perdants.
Certains, comme l’AfD en Allemagne ou Reform UK en Grande-Bretagne, en ont même fait un axe central de leur stratégie, alors que la question climatique restait jusque-là largement absente de leurs programmes.
À lire aussi : Comment le Pacte vert est instrumentalisé par les populistes en Europe centrale et de l’Est
Un « backlash » né de la politisation des enjeux climatiques
Cette contestation a mis en difficulté les partis qui avaient soutenu les objectifs de neutralité carbone et porté les politiques de transition. Face à la montée des oppositions, plusieurs ont freiné leurs ambitions, de peur d’en assumer le coût électoral.
Au Royaume-Uni, le Labour a ainsi renoncé en 2024 à la promesse faite en 2021 d’investir chaque année 28 milliards de livres (31,7 milliards d’euros) pour le changement climatique. En France, Emmanuel Macron a cherché à réduire l’ambition de l’objectif de la Commission européenne pour la neutralité carbone, qui était de réduire de 90 % les émissions de gaz à effet de serre d’ici 2040. D’autres ont repris à leur compte certains arguments des droites radicales, dénonçant des mesures jugées impopulaires ou socialement injustes. Par exemple, après avoir longtemps affiché une forte ambition climatique, le Parti conservateur britannique cherche désormais à abroger la principale loi climatique du pays.
Les négociations internationales pendant les COP sur le climat donnent souvent lieu à une mise en scène de l’ambition climatique des pays européens, leurs dirigeants cherchant à afficher leur volontarisme et leur exemplarité. Pourtant, à l'échelle nationale, l’action climatique et sa légitimité se trouvent fragilisées par les tensions sur la répartition des coûts économiques et sociaux de la transition. L’accord de Paris a indirectement contribué à faire émerger cette dynamique.
Ainsi, dix ans après Paris, le climat n’apparaît plus seulement comme un enjeu de coopération internationale, mais comme une ligne de fracture politique majeure en Europe. La nationalisation de la question climatique, amorcée par l’accord de Paris, avait d’abord suscité un consensus relatif autour de la nécessité de transformer l’action publique. Le backlash écologique reflète la politisation qui en découle.
Si cette polarisation a le mérite de clarifier les lignes de clivage sur le climat, elle affaiblit en retour la position des États européens sur la scène internationale, en rendant plus difficile l’élaboration d’une position commune et en fragilisant la crédibilité de leurs engagements.
Malo Jan a reçu des financements de SciencesPo Paris.
18.11.2025 à 16:16
Les œuvres d’art, cibles de choix pour le crime organisé ?
Texte intégral (1673 mots)
Certaines caractéristiques du marché de l’art, à commencer par la pratique de l’anonymat, le rendent attractif pour les activités de blanchiment. Comment s’en protège-t-il ? Ces outils sont-ils adaptés à l’objectif poursuivi ? Comment mieux faire ?
En 2024, le marché mondial de l’art a atteint 57,5 milliards de dollars (soit 49,5 milliards d’euros) selon l’étude The Art Basel and UBS Global Art Market, illustrant sa solidité en tant qu’actif. Mais si l’art est traditionnellement lié à des motivations nobles, telles que le goût du beau et la transmission, sa relation avec le crime organisé mérite également d’être explorée.
C’est ce que nous avons tenté de faire dans un récent travail de recherche dans lequel nous analysons les ressorts du blanchiment, les nouvelles fragilités du marché de l’art (via sa transformation numérique notamment) et les solutions qui existent face à ce fléau.
Manque de transparence
Il est estimé qu’entre 2 % et 5 % du PIB mondial est blanchi chaque année. Le blanchiment d’argent par le biais des œuvres d’art ne constitue qu’un exemple parmi d’autres. Cependant, l’industrie de l’art se distingue par son manque de transparence et ses mécanismes subjectifs d’évaluation de la valeur des œuvres (étroitement liés à la spéculation), ce qui en fait l’un des marchés les moins régulés en matière de lutte contre le blanchiment. Après la drogue et les armes, le trafic d’œuvres d’art est ainsi la source de financement la plus lucrative pour les activités illégales.
Ainsi, par exemple, en 2007, une affaire concernant un tableau de Jean-Michel Basquiat a illustré la difficulté à estimer le prix d’une œuvre d’art. Franchissant la douane avec une facture mentionnant une valeur de 100 dollars (82 euros), ce tableau valait en réalité 8 millions (6,8 millions d’euros). Derrière cette opération se trouvait une opération de blanchiment d’argent menée par un ancien banquier brésilien. Cette affaire révèle la façon dont le marché de l’art, de par ses caractéristiques mêmes, peut se retrouver au cœur d’activités illicites.
À lire aussi : Comment les trafiquants de cocaïne blanchissent l’argent des cartels
Une mécanique bien rodée
Le blanchiment d’argent consiste à dissimuler l’origine de fonds acquis illégalement pour les convertir en sources légitimes. Son objectif est donc de transformer de l’« argent sale », qui ne peut être utilisé ouvertement, en argent propre pouvant circuler librement dans l’économie légale. En ce sens, pour l’art, les organisations criminelles s’appuient sur une mécanique bien rodée, comme celle utilisée par exemple par les narcotrafiquants mexicains pour la filière du fentanyl.
L’art peut jouer deux rôles distincts dans les activités criminelles. Premièrement, avec la production de faux et la vente d’œuvres d’art volées comme sources directes de revenus illicites ; deuxièmement, en tant qu’instrument dans le processus de blanchiment via l’achat et la revente d’œuvres authentiques.
Le processus de blanchiment d’argent se déroule en trois phases : le placement, l’empilement et l’intégration.
- Le placement consiste à transformer de l’argent liquide « sale » (ou bien des cryptomonnaies) en argent placé sur des comptes bancaires. Par exemple, les criminels peuvent acheter des œuvres d’art en espèces, puis les revendre en exigeant d’être payés sur des comptes bancaires par les nouveaux acheteurs. Cela se fait principalement par le biais de la corruption d’employés de galeries, de maisons de vente aux enchères ou d’agents de ports francs.
L’empilement vise à transférer l’argent placé vers d’autres comptes bancaires pour dissimuler ses traces. Le marché de l’art présente un intérêt supplémentaire dans cette étape du blanchiment d’argent, en raison de la spéculation sur certains types d’œuvres d’art ainsi que des ventes aux enchères, qui peuvent faire grimper de manière irrationnelle le prix des œuvres. Cela permet aux criminels d’investir des sommes considérables dans un nombre limité de transactions sans attirer l’attention.
Enfin, l’intégration consiste à investir l’argent blanchi dans divers actifs légaux grâce à des sociétés-écrans.
Des vulnérabilités multiples
À de nombreux égards, le marché de l’art est vulnérable aux activités criminelles. Ces vulnérabilités sont particulièrement prononcées dans les domaines où l’opacité et l’anonymat sont courants, comme, par exemple, les ventes privées dans les maisons de vente, les transactions numériques impliquant des paiements en cryptomonnaie et l’utilisation de ports francs pour le stockage et le transfert.
Le premier point de contact dans la chaîne de valeur en termes d’activités illicites est la production de contrefaçons ou la vente d’œuvres volées, qui génèrent des fonds destinés à être blanchis. Par exemple, une opération européenne majeure menée en 2024, impliquant l’Espagne, la France, l’Italie et la Belgique, a conduit à la saisie de plus de 2 000 œuvres d’art contemporain contrefaites, pour un préjudice économique estimé à 200 millions d’euros.
Dangereuse opacité
Un deuxième moment vulnérable survient lorsque les œuvres d’art sont acheminées par le biais de plateformes de vente (galeries, foires…). Cette étape est particulièrement délicate dans le contexte des ventes privées, où la provenance et l’identité du vendeur sont rarement divulguées. Cette opacité offre aux criminels d’importantes possibilités de blanchir de l’argent en dissimulant l’origine et l’historique de propriété de l’œuvre.
Enfin, tout au bout de la chaîne de valeur, les sociétés-écrans sont souvent utilisées pour acheter des œuvres d’art, dissimulant ainsi le véritable bénéficiaire et rendant difficile pour les autorités de retracer l’origine des fonds.
De nouveaux outils plus efficaces ?
L’environnement réglementaire qui encadre le marché de l’art a récemment évolué vers des normes plus exigeantes.
Au sein de l’Union européenne, la sixième directive anti-blanchiment de 2021 a étendu les obligations en matière de lutte contre le blanchiment d’argent aux professionnels du marché de l’art. Elle impose à ces derniers de procéder à une vérification de l’identité des clients et d’adopter un suivi pour les transactions dépassant 10 000 euros.
Au niveau des États, des mesures nationales ont renforcé les sanctions antiblanchiment d’argent sur le marché de l’art. Par exemple, aux États-Unis, la loi sur l’intégrité du marché de l’art (Art Market Integrity Act) de 2025 vise à imposer au secteur de l’art des obligations spécifiques en matière de lutte contre le blanchiment d’argent, de vérification de l’identité des clients, de surveillance des transactions supérieures à 10 000 dollars, de conservation de registres détaillés et de signalement des activités suspectes au Trésor américain.
Sensibiliser le public
Enfin, les musées ont également un rôle à jouer, notamment en sensibilisant le grand public. Par exemple, en 2024, plus de 80 œuvres d’art liées au crime organisé (incluant des pièces de Salvador Dali et d’Andy Warhol) ont été exposées à Milan pour sensibiliser le public à la problématique du trafic international d’œuvres d’art.
Par sa complexité et son opacité, le marché de l’art est un terreau propice aux activités de blanchiment d’argent. Si les récentes avancées réglementaires marquent un progrès important, elles restent insuffisantes pour tenir en échec les faiblesses de la chaîne de valeur de l’art : manque de transparence, corruption, lacunes réglementaires dans les ports francs, pour n’en citer que quelques-unes. Il reste à espérer que l’importance que revêt l’art – en lui-même, aux yeux des citoyens ou encore pour le soft power – incite les pouvoirs publics à renforcer leurs moyens d’action, tout en instaurant une véritable culture de la transparence et de la responsabilité.
Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.
18.11.2025 à 16:16
L’Afrique à l’assaut de l’IA, avec le Rwanda, le Maroc et le Kenya en moteurs
Texte intégral (2237 mots)

En adoptant la Déclaration africaine sur l’intelligence artificielle, en avril 2025, les pays africains visent à développer la souveraineté du continent sur ces enjeux stratégiques et à réduire leur dépendance aux puissances étrangères. Cette stratégie repose sur les pays moteurs tels que le Rwanda, le Maroc ou encore le Kenya.
La capitale rwandaise, Kigali, a accueilli les 3 et 4 avril 2025 le premier Sommet mondial de l’intelligence artificielle en Afrique (Global AI Summit on Africa). L’événement, organisé par le Centre pour la quatrième révolution industrielle (C4IR) et le ministère rwandais des technologies de l’information, de la communication et de l’innovation (MINICT), en partenariat avec le Forum économique mondial, a réuni plus de 3 000 participants venus de 97 pays. Chercheurs, responsables politiques, dirigeants d’entreprises et investisseurs s’y sont rencontrés pour débattre de l’avenir de l’intelligence artificielle sur le continent.
En 2020, lors de la réunion annuelle du Forum économique mondial à Davos, le gouvernement rwandais avait signé un accord avec le Forum pour créer le C4IR. Composante d’un réseau de 19 centres à travers le monde, le C4IR façonne la trajectoire de la quatrième révolution industrielle grâce à des connaissances locales susceptibles de favoriser un changement global. En s’appuyant sur les priorités nationales de développement, le Rwanda a décidé de concentrer les travaux de son Centre sur l’économie des données, sur la gouvernance des données et sur l’intelligence artificielle
Le sommet d’avril dernier a marqué une étape symbolique. Pour la première fois, l’Afrique a placé la question de l’IA au cœur d’un agenda commun, en donnant naissance à la Déclaration africaine sur l’intelligence artificielle. Celle-ci définit un socle de principes et d’engagements autour de trois axes majeurs : stimuler l’innovation et la compétitivité grâce à l’IA ; construire une intelligence artificielle éthique et inclusive, ancrée dans les valeurs africaines – unité, patriotisme, cohésion sociale, résilience, travail acharné et partage ; et garantir une gouvernance responsable, capable d’encadrer la collecte, la sécurité et la souveraineté des données.
Que contient la Déclaration ?
Ce texte, signé par une cinquantaine d’États, dont l’Algérie, le Nigeria, le Kenya, le Maroc et l’Afrique du Sud, vise à rééquilibrer les rapports de force mondiaux dans le domaine technologique. Il s’agit de ne plus dépendre exclusivement des modèles et infrastructures venus d’Asie, d’Europe ou des États-Unis, mais de faire émerger une approche spécifiquement africaine, sensible aux réalités locales : agriculture, santé, climat, sécurité, inclusion financière. Cette ambition s’appuie sur trois piliers : la formation, la gouvernance et l’investissement.
Le texte prévoit ainsi la création d’un Panel scientifique africain sur l’IA, composé d’experts du continent et de la diaspora, chargé de conseiller les gouvernements sur les risques, les usages et les opportunités socio-économiques. Il propose également la mise en place d’un cadre continental de gouvernance des données, harmonisé avec les standards de l’Union africaine, et la constitution d’un Fonds africain pour l’IA doté de 60 milliards de dollars, qui servira à financer les infrastructures de calcul, les programmes de recherche et les start-ups du continent. Enfin, la Déclaration encourage la création de pôles régionaux d’incubation, appuyés par la Zone de libre-échange continentale africaine (ZLECAf), pour stimuler la coopération entre États et attirer les capitaux.
Au-delà de son contenu, le sommet de Kigali a surtout incarné une nouvelle étape du leadership technologique africain. Pour le Rwanda, il a constitué un instrument d’influence et un levier diplomatique. Depuis plusieurs années, le pays se positionne comme un hub continental de l’innovation numérique, au même titre que le Maroc ou le Kenya. L’organisation du premier sommet mondial sur l’IA en Afrique consacre ce positionnement : celui d’un État qui entend participer à la définition des règles du jeu, et non simplement les subir.
Le Rwanda, pionnier et artisan d’une IA africaine
Le Rwanda aborde l’intelligence artificielle comme une politique publique à part entière. Le gouvernement a fixé pour horizon 2035 un objectif d’un milliard de dollars d’investissements directs étrangers dans le secteur numérique, en s’appuyant sur un environnement administratif fluide et une culture de la transparence qui attire les investisseurs. Le pays est aujourd’hui l’un des plus rapides du continent pour la création d’entreprises, avec des démarches intégralement dématérialisées et un accès facilité au financement pour les jeunes pousses.
Cette stratégie repose sur un écosystème cohérent. À Kigali, la Kigali Innovation City incarne cette ambition : un espace intégré réunissant universités, centres de recherche, start-ups et investisseurs, conçu pour favoriser les transferts de technologie. Le Centre pour la quatrième révolution industrielle (C4IR), partenaire du Forum économique mondial, pilote plusieurs programmes d’IA appliqués à la santé, à l’agriculture et à l’éducation. La Norrsken House, inaugurée en 2021, accueille des dizaines de jeunes entreprises africaines et internationales dans les secteurs des fintech, de la santé numérique et des services à impact social.
Dans la santé, le Rwanda est devenu un modèle continental grâce à la société américaine Zipline, qui opère depuis 2016 un réseau de livraison de médicaments, de vaccins et de poches de sang par drones. Ces vols automatisés couvrent aujourd’hui 90 % du territoire et ont permis de réduire significativement les délais d’acheminement vers les zones enclavées. Dans l’agriculture, des programmes d’analyse de données et d’imagerie satellitaire optimisent les rendements de cultures stratégiques comme le café et le sorgho, tandis que des capteurs connectés permettent de suivre la qualité des sols et l’humidité des plantations.
Le gouvernement a également adopté une stratégie nationale fintech 2024–2029, centrée sur l’accès universel aux services financiers numériques. L’objectif est de positionner Kigali comme centre financier régional tout en favorisant l’inclusion économique. L’éducation complète cette approche : plus de 5 000 ingénieurs sont formés chaque année aux technologies de l’information, et des partenariats avec l’Université Carnegie Mellon Africa ou la Hochschule Bonn-Rhein-Sieg allemande visent à développer des cursus spécialisés en IA et en cybersécurité.
Cette vision cohérente commence à produire des effets mesurables. Le Rwanda attire chaque année davantage de fonds étrangers et devient une plateforme d’expérimentation privilégiée pour les acteurs mondiaux de la technologie. L’amélioration des services publics, la modernisation de l’agriculture et l’essor des fintechs témoignent d’une transformation structurelle, où la technologie est pensée comme un outil de développement humain avant d’être un vecteur de croissance économique.
Le Maroc et le Kenya, moteurs complémentaires
La réussite de cette stratégie continentale repose sur plusieurs pays moteurs. Le Maroc s’impose déjà comme un centre régional de recherche appliquée. L’AI Movement, fondé en 2021 par le groupe OCP à Rabat, soutient des projets d’intelligence artificielle au service de l’inclusion et de la durabilité. Parmi eux, une application mobile convertit les documents administratifs en fichiers audio pour les femmes rurales analphabètes, tandis que le programme AgriEdge utilise l’imagerie satellite pour estimer les apports d’azote nécessaires aux cultures, réduisant les coûts de production tout en améliorant les rendements.
En parallèle, l’Université Mohammed-VI Polytechnique, à Ben Guérir, forme des chercheurs et des ingénieurs issus de tout le continent et organise chaque année une AI Winter School consacrée aux applications économiques de l’intelligence artificielle.
Le Kenya, de son côté, confirme son statut de « Silicon Savannah ». Le projet Konza Technopolis, à 60 kilomètres de Nairobi, vise à créer une ville intelligente africaine regroupant data centers, universités et entreprises innovantes. En mai 2024, un partenariat entre Microsoft et G42 a abouti à un investissement d’un milliard de dollars dans un centre de données, à Olkaria, qui fonctionne entièrement à l’énergie géothermique renouvelable conçu pour héberger la future région cloud Azure pour l’Afrique de l’Est. L’infrastructure a été construite par G42 et ses partenaires pour exploiter Microsoft Azure dans une nouvelle région cloud d’Afrique de l’Est.
Alimentée par l’énergie renouvelable locale, cette infrastructure accueillera aussi un laboratoire de recherche consacré aux modèles linguistiques africains et à la formation de jeunes ingénieurs. Le pays a également adopté une stratégie nationale de l’IA (2025–2030) qui prévoit le développement d’incubateurs technologiques, le soutien aux start-ups locales et la mise en place de normes éthiques et de protection des données.
Vers une souveraineté technologique africaine
Ces trajectoires parallèles – rwandaise, marocaine et kényane – traduisent une ambition commune : faire de l’intelligence artificielle et de la robotique des leviers d’émancipation économique. Chacun à sa manière incarne un modèle : le Maroc par la recherche appliquée et l’agriculture intelligente, le Kenya par l’infrastructure et la formation, le Rwanda par la gouvernance et la cohérence stratégique.
La démonstration du taxi-drone autonome EHang EH-216-S, réalisée à Kigali en septembre 2025, illustre cette dynamique. Première du genre sur le continent, elle a prouvé que la robotique pouvait contribuer à désenclaver les territoires, réduire les coûts de transport et ouvrir la voie à des mobilités aériennes à faible émission de carbone. En conjuguant innovation technologique et politiques publiques volontaristes, ces pays montrent que l’Afrique n’est plus seulement un terrain d’expérimentation pour les technologies venues d’ailleurs : elle en devient un acteur à part entière, capable d’inventer ses propres modèles de développement.
Thierry Berthier ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
18.11.2025 à 16:13
Soins et hospitalisations à domicile : des algorithmes et technologies de santé pour améliorer la prise en charge des patients
Texte intégral (1563 mots)
Planifier les tournées des infirmiers et infirmières au domicile des personnes malades en prenant en compte les urgences, délivrer dans les temps une chimiothérapie basée sur des médicaments dont la stabilité est limitée à quelques heures… Des solutions émergent pour optimiser les soins à domicile en s’appuyant sur des nouvelles technologies de santé
Face au vieillissement de la population et à la pression croissante sur les hôpitaux, les soins à domicile représentent une alternative prometteuse pour l’avenir des systèmes de santé. Toutefois, pour que ce modèle soit véritablement efficace et durable, il est essentiel de l’optimiser.
En supportant la prise de décision, les algorithmes d’optimisation et certaines technologies de santé (télémédecine, dispositifs de santé connectés, etc.) permettent d’améliorer l’adéquation de la capacité des services de soins avec les besoins des patients, notamment via la création des plannings et des itinéraires des personnels soignants.
Ce processus d’optimisation est d’autant plus crucial dans les systèmes d’hospitalisation à domicile, qui ont pris une ampleur particulière avec la pandémie de Covid-19.
Soins et hospitalisations se développent au domicile
Tandis que les soins à domicile étaient, dans le passé, traditionnellement tournés vers des soins de routine, l’essor de l’hospitalisation à domicile (HAD) permet à présent à des patients nécessitant des soins aigus d’être pris en charge à leur domicile plutôt qu’à l’hôpital. Cela représente une véritable révolution dans l’organisation des soins de santé, ce qui permet de libérer des lits hospitaliers pour les cas les plus graves et d’offrir aux patients un cadre de soins plus confortable, moins risqué en termes d’infections nosocomiales (ces infections contractées au sein d’un établissement hospitalier, ndlr) et souvent plus adapté à leurs besoins.
En Belgique, ce modèle a été particulièrement développé pour des traitements comme la chimiothérapie ou l’antibiothérapie, et a encore gagné en popularité à la suite de la crise sanitaire liée au Covid-19.
Les soins à domicile, cependant, ne sont pas exempts de défis. La gestion des soins, la coordination des équipes soignantes, ainsi que la réactivité face aux imprévus nécessitent des modèles de planification complexes et flexibles.
L’optimisation de l’allocation des ressources – humaines et matérielles – et des itinéraires du personnel soignant est essentielle pour garantir la qualité des soins tout en optimisant les coûts, permettant ainsi une prise en charge efficace et sûre du plus grand nombre possible de patients.
Une approche innovante pour organiser les tournées des personnels infirmiers
Les soins à domicile posent des défis opérationnels majeurs. L’un des plus importants est la gestion des plannings des soignants, qui déterminent l’affectation du personnel aux différentes pauses de travail. Ces plannings sont généralement établis sur une base mensuelle, en tenant compte des prévisions de la demande, d’hypothèses concernant la disponibilité des soignants, des contraintes légales et des accords contractuels. Ils doivent donc être souvent révisés afin de prendre en compte les données réelles dès que des informations précises concernant les patients et les soignants sont disponibles.
Le problème des tournées des infirmiers et des infirmières est au cœur de plusieurs travaux de recherche. Ce problème consiste à planifier efficacement les itinéraires des soignants tout en respectant les contraintes de temps, de ressources et de préférences des patients.
Dans le cadre de l’hospitalisation à domicile, la qualité des tournées des personnels infirmiers dépend très souvent d’autres décisions, prises en amont, notamment la planification des horaires des soignants. C’est pourquoi nos recherches proposent une approche innovante en considérant simultanément les décisions de modifications d’horaires à court terme et celles de création des tournées.
Concrètement, notre modèle agit comme un outil d’aide à la décision intégrée : il permet de déterminer en même temps quels patients admettre, comment ajuster les plannings des infirmiers, et comment organiser leurs tournées quotidiennes. Cette approche conjointe évite les incohérences qui apparaissent souvent lorsqu’on traite ces questions séparément (par exemple, accepter plus de patients que le personnel ne peut en visiter, ou planifier des horaires irréalistes).
L’objectif principal est de soigner le plus grand nombre de patients possible à domicile, tout en préservant l’efficacité et la charge de travail raisonnable du personnel soignant.
Sur le plan technique, la méthode repose sur un algorithme itératif de type « ruiner et recréer », qui explore différentes configurations, quitte à assouplir temporairement certaines contraintes pendant le processus algorithmique, afin d’aboutir à un plan globalement plus robuste et plus réaliste.
Gérer des chimiothérapies en HAD avec des médicaments à stabilité limitée
Un autre exemple est celui de la chimiothérapie à domicile, qui nécessite l’administration de médicaments qui ne restent parfois stables que quelques heures après leur production à la pharmacie de l’hôpital.
Nous avons développé une méthode d’optimisation qui permet de planifier conjointement la préparation des médicaments et les tournées des infirmiers. En effet, certains traitements injectables ne pouvant pas être produits à l’avance, la production et l’administration doivent être parfaitement synchronisées. Notre méthode s’appuie sur un algorithme intelligent de type « recherche à voisinage large », combiné à un modèle d’optimisation linéaire qui ajuste avec précision les horaires de production et de soins.
Ce système explore de multiples scénarios, corrige les incompatibilités et aboutit à une organisation efficace et réaliste. La durée totale de travail des pharmaciens et infirmiers est minimisée, tout en garantissant la faisabilité opérationnelle et la qualité du service rendu aux patients.
L’approche illustre le rôle croissant des technologies d’aide à la décision dans l’organisation des soins à domicile. À ce stade, elle est validée en simulation sur des données hospitalières synthétiques et constitue une étape de recherche appliquée avant une mise en œuvre concrète en milieu hospitalier.
Les technologies de santé : défis et limites pour les soins à domicile
Les technologies de santé jouent un rôle essentiel dans l’optimisation des soins à domicile. Des outils comme la télémédecine et les plateformes de gestion des soins permettent aux professionnels de la santé de suivre les patients à distance, d’adapter leurs traitements et de maintenir une communication constante.
À titre d’exemple, en Belgique, dans le cadre des plans nationaux d’action e-santé, le gouvernement a instauré la plateforme MaSanté, afin de garantir le suivi et le partage d’informations avec les patients en un seul endroit. Une autre plateforme dédiée aux dispositifs de santé connectés, qui agissent en tant que dispositifs médicaux, a également été créée.
Toutefois, l’accès aux technologies nécessaires pour des soins à domicile efficaces est inégalement réparti, au détriment notamment des habitants des zones rurales et/ou des patients à faibles revenus. Ces inégalités sociales demeurent un obstacle majeur à l’universalisation de ce modèle.
Cet article a été rédigé avec l’aide du Dr Arnaud Stiepen, expert en communication et vulgarisation scientifiques.
Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.
18.11.2025 à 16:13
Pour prédire si un volcan sera effusif ou explosif, il faut s’intéresser à ses bulles
Texte intégral (1771 mots)

Une étude publiée très récemment dans la revue « Science » permet de mieux comprendre le moteur des éruptions volcaniques : la formation des bulles dans le magma.
Les observations faites depuis des décennies dans diverses régions du monde montrent que les éruptions volcaniques sont caractérisées par deux types de comportement en surface. D’un côté du spectre, le magma qui remonte depuis les profondeurs de la Terre est émis calmement sous forme de coulées ou de dômes de lave, caractérisant ainsi le style « effusif ». C’est le cas des volcans d’Hawaï ou de La Réunion dont les éruptions quasi annuelles font souvent l’actualité dans les médias.
À l’opposé, un mélange turbulent de gaz et de cendres est éjecté violemment dans l’atmosphère, définissant ainsi le style « explosif ». Le mélange forme un panache qui s’élève dans un premier temps à des altitudes pouvant atteindre 40-50 kilomètres et qui finit souvent par s’effondrer sous l’effet de la gravité pour former des nuées ardentes dévastatrices qui se propagent à haute vitesse le long du sol. Un exemple célèbre est l’éruption du Vésuve en l’an 79 de notre ère qui détruisit les villes de Pompéi et d’Herculanum.
Les données collectées par les scientifiques montrent que le comportement d’un volcan comme le Vésuve peut changer au cours du temps, alternant les périodes effusives et explosives, à cause de variations de la nature des magmas et des conditions de stockage en profondeur. Dans ce contexte, comprendre les mécanismes fondamentaux des éruptions volcaniques afin de mieux prédire leurs conséquences est un enjeu sociétal et environnemental majeur compte-tenu qu’environ 600 millions de personnes dans le monde vivent dans des zones potentiellement touchées par les aléas volcaniques.
Comprendre l’origine des bulles dans le magma
Le moteur des éruptions volcaniques est la formation des bulles de gaz dans le magma. En particulier, la temporalité de la formation puis de la croissance des bulles, le volume qu’elles occupent et leur capacité à ne pas se séparer du liquide magmatique contrôlent la dynamique de la remontée du mélange dans le conduit volcanique vers la surface et, au final, le style éruptif décrit ci-dessus (Figure 1A). C’est dans ce cadre que nous avons mené une étude pour mieux comprendre l’origine de la formation des bulles, un phénomène appelé « nucléation ». Les résultats de nos travaux ont été publiés le 6 novembre dans la revue Science.
Jusqu’à présent, les volcanologues ont considéré que la nucléation des bulles était déclenchée principalement par la décompression du magma saturé en gaz dissous (essentiellement de la vapeur d’eau) lors de l’ascension dans le conduit. En effet, chacun a déjà constaté l’effet produit par l’ouverture trop rapide d’une bouteille de boisson gazeuse : lorsque la pression chute, le liquide qui contient du gaz dissous (CO2 dans ce cas) devient sursaturé, et des bulles de gaz se forment alors rapidement, croissent, et entraînent le liquide vers le goulot de la bouteille. Au cours de la nucléation, la différence de pression entre un embryon de bulle et le liquide est connue comme une source d’énergie mécanique qui contribue à faire croître l’amas gazeux alors que la tension superficielle du liquide s’y oppose, et au-delà d’une taille critique, l’embryon devient une bulle qui croît spontanément.
Or, les différences de vitesse au sein d’un magma en mouvement génèrent des forces dites de cisaillement qui pourraient être une autre source d’énergie mécanique apte à déclencher la nucléation. C’est le cas en particulier dans un conduit volcanique en raison d’une différence de vitesse entre les bords, où le frottement est important, et le centre (Figure 1A).
L’importance des forces de cisaillement
Nous avons testé cette hypothèse au moyen d’expériences dites analogiques, réalisées dans des conditions de température et avec des matériaux différents de ceux dans la nature. Les expériences sont faites dans un rhéomètre, un équipement utilisé pour mesurer la capacité des fluides à se déformer. Ce dispositif permet de cisailler une couche d’oxyde de polyéthylène liquide à 80 °C et sursaturé en CO2, laquelle simule le magma dans la nature. Les expériences montrent que la nucléation de bulles de gaz est déclenchée lorsque la force de cisaillement appliquée atteint une valeur seuil qui décroît avec la teneur en CO2 (Figure 1B). De plus, le cisaillement cause le rapprochement puis l’agglomération en de plus grosses bulles et ainsi leur croissance. Nos données expérimentales sont en accord avec un modèle qui indique que la taille minimale pour qu’un embryon de bulle puisse croître est de près d’un millionième de millimètre. Ces résultats sont complétés par des simulations moléculaires qui confirment que la nucléation se produit si le cisaillement est suffisamment fort (Figure 1C).
Nous avons finalement extrapolé nos résultats aux systèmes volcaniques en tenant compte du rapport des pressions mises en jeu et des propriétés des magmas. L’analyse montre que la nucléation par cisaillement peut se produire dans un conduit dans presque tous les cas, et nous en tirons deux conclusions principales. La première est qu’un magma pauvre en gaz dissous, et donc a priori non explosif, pourrait néanmoins conduire à une éruption violente en raison d’un important cisaillement causant une nucléation massive. La seconde est qu’une nucléation efficace dans un magma très visqueux et très riche en gaz dissous, couplée à la décompression lors de la remontée et à une agglomération et à une croissance rapide des bulles, peut conduire à la formation de chenaux de dégazage connecté à la surface et engendrer, paradoxalement, une éruption non violente. Ce processus peut être renforcé lorsque la nucléation se produit à proximité de bulles préexistantes, comme le montrent nos expériences. Ce mécanisme explique l’observation contre-intuitive faite depuis longtemps par les volcanologues selon laquelle les magmas très visqueux et contenant de fortes teneurs en gaz dissous peuvent produire des éruptions effusives.
Nos travaux suggèrent que la nucléation induite par cisaillement doit désormais être intégrée aux modèles mathématiques de conduits volcaniques développés par les volcanologues et qui permettent de prédire les dynamismes éruptifs. En couplant cette approche à d’autres modèles qui simulent des coulées de la lave, des panaches ou des nuées ardentes, il est ainsi possible de définir les zones potentiellement atteintes par les produits des éruptions. Cette tâche est essentielle pour la gestion des risques naturels et pour la protection des populations qui vivent à proximité des volcans actifs.
Olivier Roche a reçu des financements du programme I-SITE CAP 20-25 piloté par l'UCA.
Jean-Michel Andanson a reçu des financements ANR, CNRS, Université Clermont Auvergne, commission européenne, Fond national Suisse.
18.11.2025 à 13:28
Pourquoi il n’est pas toujours facile d’évaluer sa douleur sur une échelle de 0 à 10
Texte intégral (2681 mots)

Il vous est peut-être déjà arrivé de vous trouver désemparé face à un soignant qui vous demande d’évaluer, sur une échelle de cotation, l’intensité de votre douleur. Rien d’étonnant à cela : la douleur est une expérience complexe qu’il n’est pas évident de résumer par un simple chiffre.
En serrant son bras contre elle, dans la salle des urgences, ma fille m’a dit : « Ça fait vraiment mal. » — « Sur une échelle de zéro à dix, à combien évalues-tu ta douleur ? », lui a demandé l’infirmière. Le visage couvert de larmes de ma fille a alors exprimé une intense confusion. — « Qu’est-ce que ça veut dire, dix ? », a-t-elle demandé. — « Dix, c’est la pire douleur que tu puisses imaginer. » Elle a eu l’air encore plus déconcertée.
Je suis son père et en tant que tel mais aussi spécialiste de la douleur, j’ai pu constater à cette occasion à quel point les systèmes d’évaluation de la douleur dont nous disposons, pourtant conçus à partir d’une bonne intention et en apparence simples d’utilisation, s’avèrent parfois très insuffisants.
Les échelles de la douleur
L’échelle la plus couramment utilisée par les soignants pour évaluer la douleur existe depuis une cinquantaine d’années. Son utilisation requiert de demander aux patients d’évaluer leur douleur en lui attribuant un chiffre allant de 0 (« aucune douleur ») à 10 (généralement « la pire douleur imaginable »).
Cette méthode d’évaluation se concentre sur un seul aspect de la douleur – son intensité – pour tenter de comprendre au plus vite ce que ressent le patient : à quel point cela fait-il mal ? Est-ce que la douleur empire ? Le traitement l’atténue-t-il ?
De telles échelles de cotation peuvent s’avérer utiles pour suivre l’évolution de l’intensité de la douleur. Si la douleur passe de 8 à 4 au fil du temps, cela signifie que le patient se sent probablement mieux – quand bien même l’intensité 4 ressentie par un individu peut ne pas être exactement la même que celle ressentie par une autre personne.
Les travaux de recherche suggèrent qu’une diminution de deux points (30 %) de la sévérité d’une douleur chronique correspond généralement à un changement qui se traduit par une différence significative dans la vie quotidienne des malades.
Mais c’est la borne supérieure de ces échelles – « la pire douleur imaginable » – qui pose problème.
Un outil trop limité pour rendre compte de la complexité de la douleur
Revenons au dilemme de ma fille. Comment quelqu’un parvient-il à imaginer la pire douleur possible ? Tout le monde imagine-t-il la même chose ? Les travaux de recherches suggèrent que non. Même les enfants ont une interprétation toute personnelle du mot « douleur ».
Les individus ont tendance – et c’est compréhensible – à ancrer leur évaluation de la douleur dans les expériences qu’ils ont vécues par le passé. Cela crée des écarts considérables d’une personne à l’autre. Ainsi, un patient qui n’a jamais subi de blessure grave sera peut-être plus enclin à donner des notes élevées qu’une personne ayant déjà souffert de brûlures sévères.
La mention « aucune douleur » peut également poser problème. Un patient dont la douleur a diminué mais qui reste inconfortable peut se sentir paralysé face à ce type d’échelle, car elle ne comporte pas de chiffre de 0 à 10 qui traduise fidèlement son ressenti physique.
Les spécialistes de la douleur sont de plus en plus nombreux à reconnaître qu’un simple chiffre ne peut rendre compte d’une expérience aussi complexe, multidimensionnelle et éminemment personnelle que la douleur.
Notre identité influence notre douleur
Divers facteurs influent sur notre façon d’évaluer la douleur : la mesure dans laquelle celle-ci perturbe nos activités, le degré d’angoisse qu’elle engendre, notre humeur, notre fatigue, ou encore la façon dont ladite douleur se compare à celle que nous avons l’habitude de ressentir.
D’autres paramètres entrent également en ligne de compte, notamment l’âge, le sexe, le niveau de littératie et de numératie du patient, ou encore le contexte culturel et linguistique. Si le soignant et le patient ne parlent pas la même langue, la communication autour de la douleur et de sa prise en charge s’avérera encore plus difficile…
Autre difficulté : certaines personnes neurodivergentes peuvent interpréter le langage de manière plus littérale que la moyenne, ou traiter l’information sensorielle différemment des autres. Comprendre ce que les gens expriment de leur douleur exige alors une approche plus individualisée.
Les cotations « impossibles »
Pour autant, nous devons faire avec les outils dont nous disposons. Des travaux ont démontré que lorsque les patients utilisent l’échelle de 0 à 10, ils tentent de communiquer bien davantage que la seule « intensité » de leur douleur.
Ainsi, lorsqu’un individu affirme « ma douleur est à 11 sur 10 », cette cotation « impossible » va probablement au-delà de la simple évaluation de la sévérité de sa souffrance. Cette personne se demande peut-être : « Est-ce que ce soignant me croit ? Quel chiffre me permettra d’obtenir de l’aide ? » Dans ce seul nombre se trouve condensée une grande quantité d’informations. Il est très probable que le chiffre énoncé signifie en réalité : « La situation est grave. Aidez-moi, s’il vous plaît. »
Dans la vie courante, nous mobilisons une multitude de stratégies de communication différentes. Pour exprimer nos ressentis, nous pouvons gémir, changer notre façon de nous mouvoir, utiliser un vocabulaire riche en nuances, recourir à des métaphores… Lorsqu’il s’agit d’évaluer un niveau de douleur, recueillir et évaluer de telles informations complexes et subjectives n’est pas toujours possible, car il est difficile de les standardiser.
En conséquence, de nombreux chercheurs qui travaillent sur la douleur continuent de s’appuyer largement sur les échelles de cotation. En effet, elles ont pour elles d’être simples, rapides à présenter, et de s’être révélées valides et fiables dans des contextes relativement contrôlés.
Les cliniciens, en revanche, peuvent exploiter ces autres informations, plus subjectives, afin de se représenter une image plus complète de la douleur de la personne.
Comment mieux communiquer sur la douleur ?
Pour atténuer les effets que peuvent avoir les différences de langue ou de culture sur la manière d’exprimer la douleur, différentes stratégies existent.
L’emploi d’échelles visuelles en est une. L’« échelle des visages » (Faces Pain Scale–Revised, FPS-R) invite les patients à choisir sur un document une expression faciale parmi plusieurs, pour communiquer leur douleur. Elle peut se révéler particulièrement utile lorsqu’il s’agit d’évaluer la douleur des enfants, ou celle de personnes peu à l’aise avec les chiffres et la lecture (soit d’une façon générale, ou parce qu’elles ne maîtrisent pas la langue utilisée dans le système de soins qui les prend en charge).
L’« échelle visuelle analogique » verticale requiert quant à elle d’indiquer sa douleur sur une ligne verticale, un peu comme si l’on imaginait que celle-ci était progressivement « remplie » par la douleur).
(En France, les échelles considérées comme valides pour mesurer la douleur ont été listées par la Haute Autorité de santé (HAS), NdT)
Qui peut améliorer les choses, et comment ?
Professionnels de santé
Prenez le temps d’expliquer correctement aux patients le principe de l’échelle de cotation de la douleur choisie, en gardant à l’esprit que la formulation des bornes (de 0 à 10) a son importance.
Soyez attentif à l’histoire que raconte le chiffre donné par la personne, car un simple numéro peut signifier des choses très différentes d’une personne à l’autre.
Servez-vous de la cotation comme point de départ pour un échange plus personnalisé. Prenez en compte les différences culturelles et individuelles. Demandez aux patients d’employer un vocabulaire descriptif, et vérifiez auprès d’eux que votre interprétation est la bonne, afin d’être sûrs que vous parlez bien de la même chose.
Patients
Pour mieux décrire votre douleur, utilisez l’échelle numérique qui vous est proposée, mais ajoutez-y du contexte. Essayez de qualifier votre douleur (s’agit-il d’une brûlure ? D’un élancement ? La ressentez-vous comme un coup de poignard ?), et comparez-la à des expériences passées.
Expliquez l’impact que la douleur a sur vous – non seulement émotionnellement, mais aussi sur vos activités quotidiennes.
Parents
Demandez aux soignants d’utiliser une échelle de la douleur adaptée aux enfants. Il existe des outils spécifiques, pour différents âges, tels que l’« échelle des visages ».
Dans les services de pédiatrie, les soignants sont formés pour employer un vocabulaire adapté à chaque stade du développement de l’enfant, car la compréhension des nombres et de la douleur n’évolue pas de la même façon chez chacun.
Les échelles, un simple point de départ
Les échelles de cotation de la douleur ne permettront jamais de mesurer parfaitement la douleur. Il faut les voir comme des amorces de conversation, destinées à aider les personnes à communiquer à l’autre une expérience profondément intime.
C’est ce qu’a fait ma fille. Elle a trouvé ses propres mots pour décrire sa douleur : « C’est comme quand je suis tombée des barres de singe, mais dans mon bras au lieu de mon genou, et ça ne diminue pas quand je reste immobile. »
À partir de ce point de départ, nous avons pu commencer à nous orienter vers un traitement permettant une prise en charge efficace de sa douleur. Parfois, les mots fonctionnent mieux que les chiffres.
Joshua Pate a reçu des honoraires pour des conférences sur la douleur et la physiothérapie. Il perçoit des droits d'auteur pour des livres pour enfants.
Dale Langford a reçu des honoraires et un soutien à la recherche de la part du réseau ACTTION (Analgesic, Anesthetic, and Addiction Clinical Trials, Translations, Innovations, and Opportunities Network), un partenariat public-privé avec la Food & Drug Administration des États-Unis. Elle a également bénéficié du soutien des National Institutes of Health américains.
Tory Madden travaille pour l'université du Cap, où elle dirige l'African Pain Research Initiative (Initiative africaine de recherche sur la douleur). Elle bénéficie d'un financement des National Institutes of Health (Instituts nationaux de la santé) américains. Elle est affiliée à l'université d'Australie du Sud, à la KU Leuven et à l'organisation à but non lucratif Train Pain Academy.
18.11.2025 à 13:28
Douleurs chroniques : en France, elles concerneraient plus de 23 millions de personnes
Texte intégral (2340 mots)
En France, selon une enquête de la fondation Analgesia, 23,1 millions de personnes vivent avec des douleurs chroniques. Seul un tiers d’entre elles voit sa situation s’améliorer grâce à une prise en charge, faute de traitement adapté notamment. Un lourd fardeau qui pèse non seulement sur les individus, mais aussi sur l’ensemble de la société. Pour l’alléger, il faut faire de la lutte contre les douleurs chroniques une grande cause nationale.
Imaginez vivre avec une douleur constante, jour après jour, sans espoir de soulagement. Pour des millions de personnes en France, c’est la réalité de la douleur chronique, une expression désignant une douleur récurrente, qui persiste au-delà de trois mois consécutifs, et qui a des conséquences physiques, morales et sociales importantes.
Cette maladie invisible a un impact très important sur la qualité de vie, et représente un défi non seulement pour notre système de santé, mais aussi pour l’ensemble de la société, car ce fardeau majeur n’est pas sans conséquence sur le plan économique.
Agréée par le ministère de l’enseignement supérieur et de la recherche, la fondation Analgesia, à travers son Observatoire français de la douleur et des antalgiques, a réalisé en début d’année 2025, avec la société OpinionWay, une enquête nationale auprès de 11 940 personnes représentatives de la population générale française adulte.
L’objectif était d’évaluer la prévalence des douleurs chroniques en France, leur caractérisation et leurs répercussions sur leur qualité de vie. Voici ce qu’il faut en retenir.
Quatre personnes sur dix en France concernées par la douleur chronique
Contrairement à la douleur aiguë, qui a une fonction de signal d’alarme permettant de prendre les mesures nécessaires face à un événement qui représente un danger pour le corps humain (fracture, brûlure, coupure, piqûre, etc.), la douleur chronique n’a pas d’utilité. Elle présente uniquement des répercussions délétères chez le patient.
Très schématiquement, les douleurs chroniques sont fréquemment dues à un foyer douloureux dit « périphérique », car affectant le système nerveux périphérique – c’est-à-dire les parties du système nerveux situées à l’extérieur du système nerveux central, constitué par le cerveau et la moelle épinière.
Les nombreux signaux douloureux qui inondent le cerveau modifient son comportement : il y devient plus sensible (on parle de sensibilisation centrale), et leur traitement ne se fait plus correctement. Dans cette situation, la modulation de la douleur, qui passe en temps normal par des voies neurologiques dites « descendantes » (du cerveau vers la périphérie), dysfonctionne également. L’activité de l’ensemble du système nerveux se modifie, de manière persistante : tout se passe comme si au lieu d’atténuer la réponse aux signaux douloureux, cette dernière devenait plus intense.
Une douleur aiguë intense non contrôlée, une lésion nerveuse résultant d’une opération chirurgicale ou d’un traumatisme, une anxiété de fond ou une altération du sommeil consolident aussi cette sensibilisation centrale. Plusieurs mécanismes physiopathologiques peuvent expliquer l’installation de ces douleurs « maladie ».
Une lésion postopératoire peut induire une douleur neuropathique (due à un dysfonctionnement du système nerveux plutôt qu’à une stimulation des récepteurs de la douleur), une hyperexcitabilité centrale sans inflammation ou lésion évidente peut induire une fibromyalgie ou un syndrome de l’intestin irritable. Une inflammation persistante, comme dans les lésions articulaires (arthropathies) d’origine inflammatoires ou les tendinopathies (maladies douloureuses des tendons), abaisse également les seuils d’activation des récepteurs du message douloureux.
Les douleurs chroniques ont de lourdes répercussions sur les patients, puisqu’elles affectent non seulement leurs capacités physiques et mentales, mais aussi leurs vies professionnelles et familiales. Au point que certains d’entre eux, dont les douleurs sont réfractaires, c’est-à-dire rebelles à tous les traitements, en arrivent parfois à demander une assistance à mourir.
L’analyse des données recueillies par l’Observatoire français de la douleur et des antalgiques indique qu’en France, plus de 23 millions de Français, majoritairement des femmes (57 %), vivraient avec des douleurs, la plupart du temps depuis au moins trois mois.
Sur le podium des douleurs les plus fréquentes figurent les douleurs musculo-squelettiques, dont l’arthrose ou les lombalgies ; les différentes céphalées, dont les migraines ; et les douleurs abdominales, dont l’intestin irritable ou l’endométriose.
Avec un âge moyen de 46 ans, la tranche d’âge des 35-64 ans représente 51 % de la population souffrant de douleurs chroniques. Près de 36 % sont inactifs sur le plan professionnel.
Cette maladie chronique est un fardeau d’autant plus lourd qu’il est très mal pris en charge : seul un tiers des patients se dit satisfait de ses traitements.
Un défaut de prise en charge
Près d’un patient sur deux évalue l’intensité de sa douleur à 7 ou plus sur une échelle de 1 à 10, c’est-à-dire une douleur chronique sévère, et 44 % en souffrent depuis plus de trois années.
Au cours des six mois précédant la réalisation de l’enquête, moins d’un patient sur trois avait vu ses symptômes s’améliorer. Par ailleurs, plus d’un tiers des patients interrogés présentent un handicap fonctionnel modéré à sévère et la moitié déclare des qualités physiques et mentales altérées.
Lorsqu’on les interroge sur leur prise en charge, seuls 37 % des patients s’en disent satisfaits. L’un des problèmes est que les traitements disponibles sont rarement spécifiques de la douleur concernée. Ils réduisent le plus souvent partiellement l’intensité des symptômes, mais n’ont pas toujours un impact significatif sur le fardeau que représente cette maladie dans la vie des malades.
Le paracétamol, les anti-inflammatoires et les opioïdes (morphine et dérivés) sont les trois sortes de médicaments prescrits pour traiter les douleurs chroniques. Signe d’un soulagement insuffisant, 87 % des patients rapportent pratiquer l’automédication pour tenter d’atténuer leurs souffrances.
Un coût sociétal important
En raison de leur prévalence élevée dans la société, les douleurs chroniques ont un coût estimé à plusieurs milliards d’euros par an, si l’on ajoute aux dépenses de santé nécessaires à leur prise en charge les conséquences économiques de la perte de productivité qu’elles entraînent.
Une étude datant de 2004 évaluait le coût total moyen annuel par patient à plus de 30 000 d’euros. Ce chiffre souligne l’impact économique considérable de cette condition, qui dépasse son coût direct pour le système de santé.
Ainsi, les arrêts de travail des personnes souffrant de douleurs chroniques sont cinq fois plus fréquents que ceux de la population générale. En outre, la durée moyenne cumulée des arrêts de travail de 45 % des patients douloureux chroniques dépasse quatre mois par an.
Une autre étude épidémiologique, menée en 2010, auprès de plus de 15 000 personnes adultes en France, a permis d’évaluer l’impact de la douleur sur les situations professionnelles et sur l’utilisation des systèmes de soins. Elle montre que les patients souffrant de douleurs chroniques consultent deux fois plus souvent que les autres.
En extrapolant cette année-là à la population générale, ce sont 72 millions de consultations supplémentaires par an qui sont dues aux douleurs chroniques, ce qui représente un surcoût annuel évalué à 1,16 milliard d’euros. Ces travaux révélaient aussi que l’absentéisme dû à ces douleurs représentait alors 48 millions de journées de travail perdues par an, à l’échelon national.
À la recherche du « mieux vivre avec » plutôt que du « zéro douleur »
L’évaluation et le traitement d’un patient souffrant de douleur chronique nécessitent de considérer simultanément les facteurs biologiques, psychologiques et sociaux, sans faire montre d’aucun a priori quant à l’importance relative de chacun, selon le modèle médical dit « biopsychosocial ».
« Il est temps que chaque patient ait accès à un parcours de soins digne, sans errance ni abandon », souligne Audrey Aronica, présidente de l’Association francophone pour vaincre la douleur (AFVD).
Seuls quatre patients sur dix bénéficient d’une prise en charge pluriprofessionnelle pour leur douleur chronique. Si, on l’a vu, seuls 37 % des patients se disent satisfaits de leur prise en charge, ce chiffre s’élève significativement lorsque les personnes sont suivies par une structure spécialisée dans la douleur chronique : on atteint alors 47 % de satisfaits.
La satisfaction est plus faible pour certaines douleurs comme la fibromyalgie, l’endométriose, les douleurs liées au cancer ainsi que les douleurs inflammatoires ou neuropathiques.
L’objectif thérapeutique pour une personne souffrant de douleur chronique est rarement la rémission totale ou la guérison de cette maladie. En douleur chronique, se donner comme objectif la résolution totale de la douleur est souvent irréaliste et parfois même contre-productif, menant souvent à des escalades thérapeutiques potentiellement délétères. Cela aboutit fréquemment à la prescription, sur une longue durée, de médicaments opioïdes (morphine ou équivalents), alors que ceux-ci ne sont pas recommandés pour toutes les douleurs. Avec le risque de développer une dépendance à ces traitements.
Face aux douleurs chroniques, le but de la prise en charge est essentiellement réadaptatif (mieux vivre avec sa douleur). L’objectif est de faire diminuer la douleur à un niveau acceptable pour le patient, et d’améliorer des capacités fonctionnelles et de la qualité de vie du patient. La réadaptation est éminemment centrée sur la personne, ce qui signifie que les interventions et l’approche choisies pour chaque individu dépendent de ses objectifs et préférences.
Il peut également être intéressant de favoriser la promotion de thérapeutiques non médicamenteuses scientifiquement validées comme la neuromodulation – technique qui consiste à envoyer, au moyen d’électrodes implantées par exemple sur la moelle épinière du patient, des signaux électriques visant à moduler les signaux de douleur envoyés au cerveau.
Les « thérapies digitales » qui accompagnent le développement de la « santé numérique » peuvent aussi s’avérer intéressantes. Elles rendent en effet accessibles, à l’aide d’applications consultables sur smartphone, un contenu scientifiquement validé ainsi que des approches complémentaires, psychocorporelles, qui permettent de mieux gérer la douleur et de réduire ses répercussions négatives au quotidien sur la qualité de vie des patients : fatigue, émotions négatives, insomnie, baisse de moral, inactivité physique.
Une grande cause nationale pour combattre le fardeau des douleurs chroniques
Pour améliorer la situation, il est essentiel que les autorités s’emparent du sujet de la lutte contre les douleurs chroniques en le déclarant « grande cause nationale ». L’attribution de ce label permettrait de mieux communiquer sur ce grave problème, et de soutenir et coordonner les efforts de recherche.
« Les résultats du baromètre Douleur 2025 obligent notre collectivité nationale à une réponse sanitaire de grande ampleur », selon le Dr Éric Serra, président de la Société française d’étude et de traitement de la douleur (SFETD).
Parmi les autres objectifs à atteindre, citons la sanctuarisation d’un enseignement de médecine de la douleur plus conséquent dans les études médicales, le financement ciblé de programmes de recherche nationaux, la mise en application concrète d’initiatives permettant de réduire les délais d’accès aux soins spécialisés et de lutter contre les inégalités territoriales ou économiques d’accès à certaines thérapeutiques.
Président de la Fondation Analgesia (fondation de recherche sur la douleur chronique). Président du comité de suivi de l'expérimentation d'accès au cannabis médical de l'Agence Nationale de Sécurité du Médicament et des produits de santé. (ANSM). Membre du conseil d'administration de la Fondation IUD.
17.11.2025 à 16:04
Biodiversité alimentaire, microbiote et bien-être : la recherche explore les liens potentiels
Texte intégral (2198 mots)
Une alimentation variée en termes de diversité d’espèces végétales consommées est essentielle à la santé pour son apport en fibres et en nutriments. La recherche s’intéresse à cette biodiversité alimentaire qui pourrait aussi se révéler précieuse pour le bien-être mental, notamment par l’entremise du microbiote intestinal.
L’industrialisation de l’agriculture et le développement de l’industrie agroalimentaire ont favorisé les monocultures induisant une baisse drastique de la biodiversité alimentaire, depuis le XXe siècle.
Actuellement, douze espèces végétales et cinq espèces animales fournissent 75 % des cultures alimentaires mondiales, selon l’organisation non gouvernementale World Wide Fund (WWF). Et trois espèces végétales sont produites majoritairement dans le monde : le maïs, le blé et le riz, malgré une estimation de plus de 7 000 (peut-être même 30 000) espèces végétales comestibles, rappelle l’Organisation des Nations unies pour l’alimentation et l’agriculture (FAO).
De l’intérêt de la biodiversité alimentaire pour le microbiote intestinal
Il est important de différencier la diversité alimentaire qui représente la consommation de grands groupes alimentaires comme les produits laitiers ou les fruits et les légumes… de la biodiversité alimentaire qui prend en compte chaque espèce biologique (animale et végétale) consommée par un individu.
Par exemple, si un individu mange des carottes, des poivrons et des artichauts, en termes de diversité alimentaire, un seul groupe – celui des légumes – sera comptabilisé, contre trois espèces en biodiversité alimentaire. Or, tous les légumes n’apportent pas les mêmes nutriments et molécules actives. La biodiversité alimentaire est donc importante pour couvrir tous nos besoins.
Une fois ingérés, les aliments impactent notre organisme, et ce, jusqu’au cerveau, notamment via le microbiote intestinal. Le microbiote intestinal représente l’ensemble des microorganismes (bactéries et autres) qui se trouvent dans le tube digestif, en particulier au niveau du côlon. Cela représente un écosystème complexe avec environ 10 000 milliards de microorganismes.
Un microbiote sain et équilibré est caractérisé par une grande diversité bactérienne et la présence de certaines espèces bactériennes. L’état de santé ou l’alimentation peuvent moduler la composition de notre microbiote en quelques jours. Par ailleurs, l’impact de l’alimentation pourrait, après plusieurs mois, se répercuter sur le bien-être mental.
Fibres, microbiote, neurotransmetteurs et bien-être mental
Parmi les molécules de notre alimentation, qui impactent de façon bénéfique notre microbiote, se trouvent les fibres végétales. Ces longues chaînes glucidiques ne sont pas hydrolysées par les enzymes humaines, mais constituent le substrat principal de bactéries importantes du microbiote. En dégradant les fibres, des métabolites sont produits par certaines bactéries (par exemple, Bifidobacterium, Lactobacillus, des espèces du phylum des Bacillota), dont les acides gras à chaîne courte (AGCC) : acétate, propionate et butyrate.
Le butyrate, en particulier, agit sur certains paramètres biologiques et pourrait exercer des effets bénéfiques sur la santé physique et mentale. En effet, le butyrate module la réponse immunitaire par stimulation des cellules immunitaires et exerce une action anti-inflammatoire en augmentant l’expression de certains gènes. Il permet également de diminuer la perméabilité de l’épithélium intestinal et donc de limiter le passage de molécules inflammatoires ou toxiques dans la circulation sanguine.
Par ailleurs, certains neurotransmetteurs comme la sérotonine, l’acide gamma-aminobutyrique (GABA) ou la dopamine sont synthétisés à partir de précurseurs apportés par l’alimentation.
L’augmentation de la concentration des précurseurs suivants aurait un impact positif sur le cerveau :
le tryptophane (présents notamment dans le riz complet, les produits laitiers, les œufs, la viande et le poisson, les fruits à coque…) pour la sérotonine ;
le glutamate qui représente 8 à 10 % de la teneur en acides aminés dans l’alimentation humaine, les acides aminés étant les constituants de base des protéines alimentaires (on retrouve le glutamate dans les produits laitiers, graines oléagineuses, viandes et produits de la mer). Il est le précurseur du neurotransmetteur GABA (qui est également directement présent dans le riz brun germé ou les aliments fermentés) ;
la tyrosine (présente notamment dans les fromages à pâtes pressées cuites, les graines de soja ou la viande) pour la dopamine.
De l’intérêt de consommer davantage de fibres végétales
Il est recommandé de consommer de 25 grammes à 38 grammes de fibres quotidiennement, apportées via la consommation de végétaux (cf. tableau ci-après). Or la moyenne française en 2015 était inférieure à 18 grammes d’après une étude de Santé publique France.
On soulignera néanmoins que, lorsqu’on souhaite augmenter son apport en fibres, pour éviter les effets indésirables de leur fermentation dans le colon, il est conseillé de les réintroduire progressivement dans son alimentation au cours de plusieurs semaines.
Favoriser aussi un bon ratio oméga-3/oméga-6, vitamines, minéraux, etc.
Enfin, d’autres nutriments jouant un rôle important sur la santé mentale par une action directe sur le cerveau ont aussi une action indirecte en modulant le microbiote intestinal ou en étant précurseurs de métabolites bactériens ayant un effet au niveau du système nerveux central (qui inclut le cerveau).
Ainsi, un ratio équilibré oméga-3/oméga-6 (1 :4) exerce des effets bénéfiques sur le microbiote intestinal. Mais dans l’alimentation occidentale, le ratio est déséquilibré en faveur des oméga-6, ce qui engendre un état inflammatoire.
Les aliments les plus riches en oméga-3 sont issus de végétaux terrestres (l’huile de lin, de colza, etc.) et d’animaux marins (les poissons gras comme le saumon, le maquereau, le hareng, la sardine et l’anchois, etc.), explique l’Agence nationale de sécurité sanitaire (Anses). En revanche, l’huile de tournesol et de pépin de raisin sont très riches en oméga-6, participant ainsi au déséquilibre des apports.
Une alimentation riche en polyphénols (certaines épices, cacao, baies de couleur foncée, artichauts…) confère également des effets bénéfiques anti-inflammatoires via la modification du profil du microbiote intestinal.
Enfin, les vitamines ou minéraux participent aux fonctions de base de l’organisme.
Quels aliments apportent quelles classes de nutriments ?
Une alimentation biodiversifiée permet un apport complet de tous ces nutriments (cf. les recommandations sur le site de l’Anses et du Programme national nutrition santé [PNNS]). Des données existent sur la teneur moyenne en nutriments de ces aliments et leur saisonnalité (site Ciqual). Cependant, les aliments n’apportent pas tous les mêmes classes de nutriments.
Pour donner un exemple concret, un artichaut cuit contient assez de fibres (11 g/100 g) pour satisfaire les besoins journaliers, mais sera pauvre en vitamine C (moins de 0,5 mg/100 g), contrairement au brocoli cuit plus riche en vitamine C (90 mg/100 g), mais assez pauvre en fibre (2,4 g/100 g). Ainsi, la prise en compte de la biodiversité alimentaire est essentielle pour évaluer les apports totaux en ces différents nutriments.
Afin d’avoir un bon état de santé physique et mentale, il est recommandé de diversifier les sources alimentaires pour couvrir l’ensemble des besoins. Cependant, la disponibilité en aliments varie selon les saisons. Le tableau ci-dessous présente quelques propositions d’associations d’aliments de saison pour couvrir nos besoins quotidiens en fibres.
Exemples d’aliments de saison à consommer pour avoir un apport journalier suffisant en fibres totales (Sources : Ciqual et ministère de l’agriculture et de la souveraineté alimentaire)
L’impact des PFAS, pesticides et perturbateurs endocriniens à ne pas négliger
A contrario, l’organisme est impacté négativement par d’autres facteurs, comme l’exposome qui représente l’ensemble des expositions environnementales au cours de la vie.
Ainsi, les xénobiotiques (par exemple, les pesticides), qui impactent la croissance et le métabolisme des bactéries du microbiote intestinal, qui, en retour, peut bioaccumuler ou modifier chimiquement ces composés. Les aliments issus de l’agriculture biologique contiennent beaucoup moins de xénobiotiques et sont donc recommandés.
Enfin, l’utilisation d’ustensiles de cuisine en plastique ou en téflon, entre autres, peut notamment engendrer la libération de perturbateurs endocriniens ou de polluants persistants (comme les substances per- et polyfluroalkylées PFAS) qui vont se bioaccumuler dans les bactéries du microbiote intestinal. De ce fait, il est recommandé de limiter leur utilisation au profit d’autres matériaux alimentaires (inox, verre).
Différentes molécules et facteurs impactant le microbiote intestinal et susceptibles d’agir sur le bien-être mental
Adopter une alimentation variée est donc essentiel pour couvrir les besoins nutritionnels à l’échelle moléculaire, et cela impacte de manière bénéfique la santé physique mais aussi mentale, notamment via le microbiote.
Toutefois, il est important de prendre soin de son alimentation sans tomber dans une anxiété excessive, qui pourrait engendrer des troubles alimentaires et nuire finalement au bien-être global, la notion de plaisir restant essentielle dans l’alimentation.
Déborah Maurer Nappée (étudiante en master 2 Nutrition et sciences des aliments de l’Université de Rennes) a contribué à la rédaction de cet article.
ROUX Emeline a reçu un financement de la Fondation de l'Université de Rennes, chaire Aliments et bien-manger.
Gaëlle Boudry ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
17.11.2025 à 16:04
Château de Chambord : pourquoi les Français financent-ils « leur » patrimoine ?
Texte intégral (1652 mots)
La campagne de financement participatif des travaux du château de Chambord est un vrai succès. Que dit cette réussite de l’intérêt des Français pour le patrimoine ? Les résultats obtenus sont-ils transposables à d’autres monuments ? Ou faut-il craindre que ces campagnes pour des édifices d’intérêt national ne détournent le public d’opérations moins ambitieuses mais indispensables ?
Le domaine national de Chambord (Loir-et-Cher), deuxième château le plus visité de France après celui de Versailles (Yvelines), a fermé l’accès à l’aile François Ier. Fragilisée par le temps et le climat, cette partie du monument nécessite des travaux de restauration estimés à 37 millions d’euros.
Bien que disposant d’un modèle économique solide, le domaine ne peut absorber seul un tel coût. Aux côtés du mécénat, Chambord a choisi de mobiliser aussi le grand public en lançant, le 19 septembre 2025, une campagne de financement participatif à l’occasion des Journées européennes du patrimoine. Intitulée « Sauvez l’aile François Ier, devenez l’ange gardien de Chambord », elle visait à collecter 100 000 euros.
Deux mois plus tard, la collecte a déjà dépassé l’objectif initial, atteignant 218 139 euros grâce aux 2 191 dons, déclenchant un nouveau palier à 300 000 euros. Ce succès interroge : pourquoi des citoyens choisissent-ils de contribuer à la restauration d’un monument déjà emblématique soutenu par l’État et par des mécènes privés ?
À lire aussi : Culture : faut-il mettre à contribution les touristes étrangers pour mieux la financer ?
Un mode de financement à géométrie variable
Le cas de Chambord n’est pas isolé. Le financement participatif consacré au patrimoine est devenu une pratique courante en France, malgré de fortes fluctuations. Selon le baromètre du financement participatif en France, 1,4 million d’euros ont été collectés en 2022, 5,7 millions en 2023, puis seulement 0,8 million en 2024. Les raisons de ces écarts restent à documenter, mais ces chiffres révèlent un mode de financement ponctuel, voire incertain.
Ce mode de financement repose sur les dons principalement en ligne des citoyens. Il ne remplace ni l’argent public ni le mécénat d’entreprise, mais les complète, parfois même symboliquement. Dans certains cas, il joue un rôle de déclencheur. En effet, en apportant la preuve d’une mobilisation locale, la participation citoyenne peut débloquer des subventions publiques conditionnées à cet engagement. En partenariat avec certaines régions, la Fondation du patrimoine peut ainsi apporter une bonification à la souscription, comme ce fut le cas pour la restauration de l’église de Sury-en-Vaux (Cher) dans le Sancerrois.
Les projets financés sont divers : restauration d’églises rurales, sauvegarde de moulins, mise en valeur de jardins historiques, consolidation de lavoirs… Cette diversité reflète la richesse du patrimoine français, mais aussi sa fragilité et le besoin constant de mobilisation pour sa préservation.
Une question de proximité
Des recherches menées en région Centre-Val de Loire montrent que la décision de contribuer repose sur divers éléments, notamment sur le lien, appelé proximité, entre le contributeur et le bien patrimonial. Les donateurs entretiennent souvent un lien particulier avec le monument qu’ils soutiennent. Ce lien est d’abord géographique. Il peut être lié au lieu de résidence, mais aussi à des séjours passés, des vacances ou encore des visites. Il n’implique donc pas toujours d’habiter à proximité.
Il est aussi affectif. Certains contributeurs expriment un attachement direct au bien patrimonial, car ce monument peut évoquer des origines familiales, des souvenirs personnels ou susciter une émotion particulière. D’autres s’y intéressent de manière plus indirecte, parce qu’il incarne, au même titre que d’autres biens, une identité territoriale ou encore une passion pour le patrimoine en général.
Chambord cumule les atouts
La campagne de Chambord se distingue des projets plus modestes. Contrairement à une petite église de village ou à un lavoir communal, ce château touristique active simultanément plusieurs types de liens, ce qui explique en partie son potentiel de mobilisation exceptionnelle. Les premiers témoignages de participants à la campagne de Chambord illustrent ces logiques de proximité.
Chambord est un marqueur d’identité territoriale fort, dont le lien géographique et affectif fonctionne à plusieurs échelles. Chambord est avant tout un symbole du patrimoine culturel français. Pour de nombreux contributeurs, soutenir cette restauration vise à préserver un emblème de la France et de son rayonnement culturel.
« Tout comme Notre-Dame de Paris, c’est un symbole de notre patrimoine que nous devons préserver », souligne Julie.
« Ce patrimoine exceptionnel contribue au rayonnement de la France à travers le monde », précise Benjamin.
Ce sentiment d’appartenance ne s’arrête pas au niveau national. Chambord est aussi un marqueur d’identité territoriale locale. Pour les habitants du Loir-et-Cher et de la région Centre-Val de Loire, Chambord est « leur » château, le fleuron de leur territoire, comme le confie un autre donateur anonyme.
« J’habite à proximité du château de Chambord et le domaine est mon jardin ! »
Cette capacité à créer un sentiment élargi d’appartenance géographique multiplie considérablement le potentiel de contributeurs.
Passion pour l’histoire
Ce lien affectif indirect s’exprime également lorsqu’il est nourri par une passion pour l’histoire ou pour le patrimoine en général. Ces passionnés ne soutiennent pas Chambord parce qu’ils y ont des souvenirs personnels, mais parce qu’il incarne, à leurs yeux, l’excellence de l’architecture française, le génie de la Renaissance ou l’héritage culturel commun. Leur engagement s’inscrit dans une forme d’adhésion à l’idée même de sauvegarder le patrimoine.
C’est le cas de Carole,
« passionnée d’histoire, je souhaite participer à la conservation d’un patrimoine qui doit continuer à traverser les siècles pour que toutes les générations futures puissent en profiter et continuer cette préservation unique ».
Au-delà de l’identité territoriale nationale ou locale ou encore de la passion patrimoniale, les commentaires des contributeurs expriment un lien affectif direct avec le monument. L’état alarmant de Chambord réveille des émotions patrimoniales profondes, liées aux valeurs que le monument incarne, comme la beauté et la grandeur.
« Personne ne peut rester insensible à la beauté de ce château », estime Dorothée.
Urgence et souvenirs
L’urgence de la restauration suscite également une forme de tristesse et d’inquiétude,
« C’est très triste de voir un tel chef-d’œuvre en péril », pour Mickaël.
Ce lien affectif direct s’exprime également à travers l’évocation de souvenirs personnels, témoignant d’une identité singulière attachée au lieu, comme la sortie scolaire inoubliable, la visite en famille ou entre amis, les vacances familiales ou encore la découverte émerveillée de l’escalier à double révolution.
Cette accumulation de liens entre le bien patrimonial et les contributeurs explique en partie pourquoi Chambord peut viser un objectif au-delà des 100 000 euros, là où la plupart des projets patrimoniaux se contentent de quelques dizaines de milliers d’euros. Tous les monuments ne disposent pas des mêmes atouts.
L’exemple de Chambord montre la force de l’attachement des Français au patrimoine. Il illustre aussi à quel point la réussite d’un financement participatif patrimonial repose en partie sur une bonne compréhension des liens géographiques et affectifs qui unissent les citoyens à un monument.
Ce succès interroge. Le recours au don pour les « monuments stars » comme Chambord ne risque-t-il pas de détourner l’attention des patrimoines plus fragiles et moins visibles, ou au contraire de renforcer la sensibilisation des Français à leur sauvegarde ? Dans ce contexte, le ministère de la culture, sous l’impulsion de Rachida Dati, explore l’idée d’un National Trust à la française, inspiré du modèle britannique, pour soutenir l’ensemble du patrimoine.
Aurore Boiron ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
17.11.2025 à 16:03
Miné par l’inflation, le Japon a-t-il vraiment fait un virage à droite avec sa nouvelle première ministre ?
Texte intégral (2756 mots)
*Pour la première fois, une femme se trouve à la tête du gouvernement au Japon. Un apparent progrès sociétal qui, pour autant, n’est pas synonyme de progressisme, au vu de ses opinions ultraconservatrices. Le gouvernement de Sanae Takaichi va avant tout devoir relever le défi de l’inflation qui frappe les foyers japonais… et, pour cela, peut-être assouplir certaines de ses positions. *
Le 4 octobre 2025, Sanae Takaichi remportait les élections internes à la présidence du Parti libéral-démocrate (PLD). Après deux semaines de suspense marquées par de multiples tractations et recompositions des alliances, elle est devenue, le 21 octobre, la première femme à se retrouver à la tête d’un gouvernement au Japon. Depuis, nombreux ont été les articles de presse à l’étranger soulignant le caractère historique de cet événement dans un pays que le pourcentage de femmes au Parlement place à la 141ᵉ position sur 193 dans le classement de l’Union interparlementaire, tout en rappelant à juste titre les positions très conservatrices de la nouvelle dirigeante, notamment sur les questions sociétales, mais aussi mémorielles).
Ce n’est certes pas la première fois qu’une femme se retrouve à la tête d’un parti politique au Japon. En 1986, Takako Doi devenait en effet la secrétaire générale du Parti socialiste (jusqu’en 1991 puis de 1996 à 2003) ; elle est aussi la première et seule femme à avoir été présidente de la Chambre basse (1993-1996). Néanmoins, Mme Takaichi est bien la première à devenir cheffe de gouvernement.
Un parcours classique de femme politique dans un monde d’hommes
Afin d’expliquer cette nomination, on peut commencer par lui reconnaître une habileté certaine en politique et une bonne maîtrise des stratégies communicationnelles.
À l’instar de l’actuelle gouverneure de Tokyo, Yuriko Koike, et de plusieurs autres femmes politiques japonaises, elle a été un temps présentatrice télé avant sa première élection à la Diète (Parlement japonais) en 1993.
Elle a ensuite navigué entre plusieurs partis politiques avant de s’arrimer au PLD et de se rapprocher de son aile droite, en particulier de l’ancien premier ministre Shinzō Abe (2012-2020, assassiné en 2022).
À plus d’un titre, Sanae Takaichi, 64 ans aujourd’hui, a en réalité mené une carrière typique… d’homme politique. Elle a progressivement gravi les échelons au sein d’un parti qui, malgré quelques évolutions, privilégie encore largement l’ancienneté (son principal adversaire, Shinjirō Koizumi, âgé de 44 ans, en a sûrement fait les frais). Elle n’a, par ailleurs, jamais eu à concilier maternité et vie professionnelle, contrairement à bien des Japonaises (les enfants de son mari, ancien parlementaire du PLD, étaient déjà âgés quand ils se sont mariés en 2004).
Le pari du PLD pour redynamiser son image
Mais l’arrivée de Mme Takaichi à la tête du PLD résulte avant tout d’un pari réalisé par une frange du parti (notamment par certains de ses caciques autrefois proches de Shinzō Abe, comme Tarō Asō) pour remédier aux récentes défaites électorales subies d’abord à la Chambre basse en 2024, puis à la Chambre haute en 2025.
En faisant d’elle le nouveau visage du parti, les objectifs étaient multiples. Il s’agissait tout d’abord de redonner une image dynamique à un PLD frappé par plusieurs scandales (liens avec la secte Moon, financements de campagne illégaux, etc.), ce que les trois précédents premiers ministres (2020-2025), aux styles parfois très austères, avaient peiné à réaliser.
Cette personnalisation de la politique n’est pas nouvelle au Japon, mais il est clair, depuis les années 2000, que la figure et le style du premier ministre ont désormais un impact déterminant sur les résultats électoraux du parti. Les cadres du PLD, conscients que leur destin est étroitement lié à la perception que l’opinion publique a de leur chef, n’hésitent pas à mettre entre parenthèses leurs éventuels désaccords et leurs luttes intrapartisanes.
Bien entendu, le parti n’avait aucun doute quant au fait que la candidate avait la ferme intention de ne surtout rien changer en substance concernant la gouvernance du PLD ou les règles de financement de campagne – en dépit du slogan et mot-dièse #KawareJimintō (#ChangePLD !) utilisé dans les réseaux sociaux officiels du parti lors de cette élection à la présidence.
Ainsi, Sanae Takaichi sait également qu’elle doit cette élection à la tête du parti au soutien de personnages essentiels qui n’hésiteront pas à la pousser vers la sortie s’ils estiment qu’elle les dessert plus qu’elle ne les sert. Elle qui a plusieurs fois évoqué son admiration pour Margaret Thatcher doit sûrement se rappeler de la violence et de la rapidité avec laquelle le Parti conservateur britannique avait évincé la Dame de fer. Elle a conscience que seules de multiples victoires électorales pourraient lui permettre de consolider sa place à la tête du parti. C’est ce qui avait permis à son autre modèle, Shinzō Abe, de battre le record de longévité au poste de premier ministre (sept ans et huit mois).
C’est justement sur ce point que Mme Takaichi a su convaincre son parti. L’un de ses atouts évidents réside dans le fait qu’elle semblait être la seule à pouvoir potentiellement capter la fraction de l’électorat qui s’était tournée vers le parti d’extrême droite Sanseitō aux dernières élections à la Chambre haute (il y avait obtenu 14 sièges).
En ce sens, contrairement aux élections à la présidence du PLD de 2021 et 2024 où elle avait terminé respectivement troisième puis seconde, sa candidature arrivait cette fois-ci à point nommé puisque, sur bien des sujets, ses positions très conservatrices sont alignées sur celles du Sanseitō (par exemple sur les questions migratoires).
Une redéfinition des alliances : le « virage à droite »
Par ailleurs, ce « virage à droite » peut aussi être vu comme une manifestation du mouvement de balancier (furiko no genri) observé depuis longtemps au sein du PLD, qui consiste en une alternance à sa tête entre des figures tantôt plus libérales, tantôt plus conservatrices.
Ce phénomène, qualifié d’« alternance factice » (giji seiken kōtai) par les spécialistes, est souvent invoqué comme explication de l’extraordinaire longévité de la domination du PLD (soixante-cinq années au pouvoir entre 1955 et 2025) ; il donnerait en effet à l’électeur la vague impression d’un changement sans pour autant qu’une autre force politique s’empare du pouvoir.
Cela étant dit, certaines choses ont d’ores et déjà changé. À la suite de la nomination de Mme Takaichi à la présidence du PLD, le Kōmeitō, parti bouddhiste qui formait avec lui une coalition depuis vingt-six ans (1999), a décidé d’en sortir. Officiellement, le Kōmeitō a expliqué son geste par le refus de la première ministre de réguler davantage les dons réalisés par les entreprises aux partis politiques (le PLD perçoit la quasi-totalité des dons faits par des entreprises au Japon).
Cependant, on peine à voir pourquoi cette réforme deviendrait aussi soudainement une condition sine qua non de sa participation au gouvernement alors que le Kōmeitō a, au cours de cette dernière décennie, fait des concessions que son électorat – par ailleurs très féminin et essentiellement composé des membres de la secte Sōka gakkai – a eu bien du mal à digérer, notamment la réforme de 2015 qui a élargi les cas dans lesquels les Forces d’autodéfense japonaises peuvent intervenir à l’étranger. C’est en réalité plutôt là que se trouve la raison pour laquelle ce parti, pacifiste et présentant une fibre plus « sociale », a décidé de quitter cette alliance qui ajoutait désormais à l’inconvénient d’être une coalition minoritaire avec un PLD affaibli, celui d’opérer un virage à droite qui n’allait pas manquer de crisper ses soutiens.
Mais, alors que la situation du PLD semblait encore plus critique – au point que l’élection de sa présidente comme première ministre devenait très incertaine –, Nippon Ishin no kai, le parti de la restauration du Japon, est venu à sa rescousse.
Ce parti, dont l’assise électorale se concentre dans la région d’Ōsaka, était demeuré dans l’opposition depuis sa création en 2015. Pour autant, en dehors de son ancrage local, il ne se distinguait pas vraiment du PLD sur le plan idéologique et votait de fait en faveur de la plupart de ses projets de loi. Son président, l’actuel gouverneur d’Ōsaka Hirofumi Yoshimura, suit, tout comme son fondateur Tōru Hashimoto, avocat devenu célèbre sur les plateaux de télévision, une ligne néolibérale et sécuritaire, saupoudrée de déclarations populistes anti-establishment, nationalistes et parfois clairement révisionnistes.
La compatibilité avec le PLD, désormais menée par Sanae Takaichi, n’a probablement jamais été aussi grande. Le parti a néanmoins pris la précaution de ne pas intégrer le gouvernement, et il sait qu’en dépit du fait qu’il ne possède qu’une trentaine de sièges à la Chambre basse (environ 7 %), il est celui qui peut à tout moment le faire tomber (le PLD occupe à l’heure actuelle 196 sièges, sur les 465 de la Chambre basse).
De la Dame de fer à la Dame d’étain ?
Pour autant, doit-on s’attendre à ce que ces nouvelles alliances accouchent d’importantes évolutions au niveau des politiques publiques ? C’est plus qu’improbable.
Même sur la question migratoire, Mme Takaichi ne pourra pas revenir sur la politique volontariste engagée en 2019 par Shinzō Abe lui-même, lequel avait bien été obligé d’accéder aux doléances du monde économique (soutien indispensable du PLD) confronté à une pénurie de main-d’œuvre dans plusieurs secteurs (construction, hôtellerie, etc.). Le pays comptait en 2024 environ 3,6 millions d’étrangers sur son sol (3 % de la population totale), dont environ 56 % ont entre 20 ans et 39 ans. Plus de 23 % sont Chinois, 17 % Vietnamiens et 11 % Sud-Coréens. Bien que ces chiffres soient relativement modestes, il convient de rappeler que la population immigrée au Japon a augmenté de 69 % au cours de ces dix dernières années.
Bien sûr, tout comme Shinzō Abe, la première ministre ne manquera pas d’afficher sa fermeté et fera peut-être adopter quelques mesures symboliques qui n’auront qu’un impact numérique marginal.
Elle pourrait certes avoir les coudées plus franches si elle décidait de dissoudre la Chambre basse et remportait ensuite une large victoire électorale qui redonnerait à son parti une confortable majorité. Son taux de soutien actuel dans l’opinion publique (autour de 70 %), et les prévisions favorables au PLD concernant le report des votes des électeurs du Sanseitō, du parti conservateur et du parti de la restauration du Japon (environ 25 % de report vers le PLD), pourraient bien l’inciter à adopter cette stratégie.
Cependant, ce soutien dans l’opinion (notamment chez les jeunes où le taux atteint les 80 %) n’est guère le produit de ses positions conservatrices, mais plus le résultat d’une communication – aussi redoutable que superficielle – qui fait espérer un renouveau. C’est bien plus sur l’amélioration de la situation économique d’un Japon durement frappé par l’inflation (notamment liée à des importations rendues coûteuses par un yen faible) que la cheffe du gouvernement est attendue.
Ses premières déclarations en tant que première ministre montrent que Mme Takaichi en est bien consciente et qu’elle va par ailleurs devoir assouplir ses positions sur plusieurs thèmes. En somme, la Dame de fer va devoir opter pour un alliage plus malléable.
Arnaud Grivaud ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
17.11.2025 à 16:03
Comment la consommation précoce de pornographie affecte la sexualité des garçons et des filles
Texte intégral (1816 mots)

L’exposition des enfants et adolescents à la pornographie commence de plus en plus tôt, souvent avant l’âge de 10 ans, et façonne leur compréhension du désir, du consentement et des relations affectives. Elle influe sur la manière dont les jeunes apprennent à désirer, mais aussi sur celle dont les adolescentes apprennent à être désirées.
Le contact avec la pornographie se produit de plus en plus tôt. En Espagne par exemple, 20 % des adolescents ont accédé à ce type de contenu avant l’âge de 10 ans et plus de 90 % avant l’âge de 14 ans.
(En France, un rapport d’information du Sénat corrobore, en septembre 2022, ces tendances en dénombrant 1,1 million d’adolescents de 15 ans à 18 ans et 1,2 million d’enfants de moins de 15 ans sur 19 millions de visiteurs mensuels uniques de sites pornographiques, ndlr.)
Ces chiffres révèlent une enfance exposée trop tôt à des contenus qui façonnent leur manière de comprendre le désir, le consentement et les relations affectives. Dans un contexte où l’éducation sexuelle approfondie est pratiquement inexistante tant dans les familles qu’à l’école, Internet est devenu le professeur et la pornographie son programme.
À lire aussi : La pornografía miente: por qué no sirve para aprender
Une enfance exposée trop tôt
Les recherches les plus récentes réalisées en Espagne situent le début de la consommation de pornographie entre les âges de 8 ans et 13 ans. Le téléphone portable est le principal dispositif d’accès : il permet une consommation privée, immédiate et difficile à surveiller par l’entourage adulte.
Cet accès continu est dépourvu des filtres familiaux et éducatifs qui pourraient servir d’éléments de protection.
Ce que voient les enfants
L’exposition précoce à des contenus sexuels explicites dans lesquels sont reproduites des attitudes de violence, de domination et de machisme, et la consommation comme pratique intégrée dans la socialisation numérique des adolescents ont pour conséquence que la violence physique, la coercition ou l’humiliation des femmes, loin d’être reconnues comme des agressions, sont interprétées comme des comportements sexuels normaux, voire souhaitables.
Ce sont des contenus et des attitudes qui renforcent les modèles de virilité fondés sur la domination et le rabaissement.
Certains chercheurs ont constaté que les vidéos les plus visionnées comprenaient des scènes de cheveux tirés, de gifles ou d’insultes, et même un viol collectif (avec plus de 225 millions de vues). D’autres recherches ont confirmé que la consommation régulière de pornographie violente est associée à des attitudes de domination et d’agression sexuelle : 100 % des études ont établi un lien entre la pornographie et la violence sexuelle, 80 % avec la violence psychologique et 66,7 % avec la violence physique.
En définitive, à l’adolescence, cette exposition façonne les premières expériences affectives et normalise l’idée selon laquelle le pouvoir, la soumission et la violence font partie du désir
Les filles face au miroir de la violence
Les adolescentes consultent également la pornographie, bien que dans une moindre mesure et dans un contexte marqué par la pression esthétique, les normes de genre et le besoin de validation externe, facteurs qui influencent la manière dont elles construisent leur désir et leur relation avec leur corps.
Cette consommation est souvent vécue avec un malaise ou une ambivalence émotionnelle, et est rarement partagée entre pairs.
La nouvelle pornographie numérique renforce la chosification des femmes, en les présentant comme des instruments du plaisir masculin. Des plateformes, telles qu’OnlyFans, poursuivent cette logique, en commercialisant le corps féminin sous le couvert d’une liberté apparente qui répond à la demande masculine.
Ainsi, les jeunes filles apprennent que la reconnaissance sociale dépend de leur capacité à s’exposer, ce qui génère une socialisation fondée sur l’autosexualisation et le capital érotique.
Cet apprentissage perpétue les injonctions à la soumission et consolide un modèle de désir fondé sur l’inégalité. En conséquence, la pornographie non seulement façonne la manière dont les hommes apprennent à désirer, mais aussi la manière dont les adolescentes apprennent à être désirées.
Une éducation qui arrive trop tard
L’absence d’une éducation sexuelle adéquate est l’un des facteurs qui contribuent le plus à la consommation précoce de pornographie.
Dans le domaine éducatif, il existe toujours un manque de programmes abordant les relations affectives et sexuelles avec sérieux, naturel et dans une approche fondée sur les droits et les valeurs, ce qui favorise l’intériorisation des contenus pornographiques.
De plus, les écoles en Espagne, mais aussi dans d’autres pays, manquent de ressources pour une éducation sexuelle complète et, dans les familles, le silence et le tabou prévalent souvent.
Face à ce manque de repères, la pornographie devient la principale source d’information, annulant des dimensions essentielles de la sexualité telles que l’affection, l’égalité et le respect.
À lire aussi : Habilidades para gestionar los conflictos, clave en las parejas adolescentes
Éducation socio-affective et approche de genre
C’est pourquoi l’éducation socio-affective avec une approche de genre s’est avérée essentielle pour prévenir les effets de la consommation et promouvoir des relations égalitaires.
Intégrer une réflexion sur le consentement, le plaisir et la diversité permet de contrebalancer les messages de domination véhiculés par les écrans et de responsabiliser les adolescents à partir du respect mutuel.
Un défi pour la santé publique
La consommation de pornographie à l’adolescence constitue un problème émergent de santé publique. Ses effets transcendent l’individu et affectent le bien-être émotionnel, la socialisation et la construction des identités de genre, ce qui nécessite une approche préventive et globale de la part du système de santé.
De plus, il est prouvé que l’exposition précoce à des contenus sexuels explicites influence les comportements à risque, les addictions comportementales et la reproduction des inégalités de genre.
D’une question privée à un défi collectif
Les acteurs du travail social jouent un rôle clé en se positionnant entre le système de santé, la société et les familles. De cette position, les travailleurs sociaux peuvent détecter les conséquences psychosociales de la consommation (anxiété, isolement ou attitudes sexistes) et intervenir par des actions éducatives et d’accompagnement.
De même, le travailleur social en santé contribue à la conception de stratégies intersectorielles qui intègrent l’éducation affective et sexuelle dans les soins primaires et favorisent des relations saines dès le plus jeune âge. En fin de compte, accompagner les nouvelles générations vers une sexualité fondée sur l’empathie, le consentement et l’égalité est sa plus grande responsabilité.
La consommation de pornographie n’est plus une question privée, mais un défi collectif. Il ne s’agit pas d’un problème moral, mais d’un problème de santé et d’égalité. Si la pornographie enseigne à désirer avec violence, notre tâche est d’enseigner à désirer avec empathie. En ce sens, éduquer à l’égalité, à l’affection et au consentement n’est pas une option : c’est une urgence sociale.
Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.
17.11.2025 à 16:02
Elon Musk a raison de dire que Wikipédia est biaisé, mais Grokipedia et l’IA ne feront pas mieux
Texte intégral (2458 mots)

Grokipedia, le nouveau projet d’Elon Musk, mis en ligne le 27 octobre 2025, promet plus de neutralité que Wikipédia. Pourtant, les modèles d’IA sur lesquels il repose restent marqués par les biais de leurs données.
La société d’intelligence artificielle d’Elon Musk, xAI, a lancé, le 27 octobre 2025, la version bêta d’un nouveau projet destiné à concurrencer Wikipédia, Grokipedia. Musk présente ce dernier comme une alternative à ce qu’il considère être « le biais politique et idéologique » de Wikipédia. L’entrepreneur promet que sa plateforme fournira des informations plus précises et mieux contextualisées grâce à Grok, le chatbot de xAI, qui générera et vérifiera le contenu.
A-t-il raison ? La problématique du biais de Wikipédia fait débat depuis sa création en 2001. Les contenus de Wikipédia sont rédigés et mis à jour par des bénévoles qui ne peuvent citer que des sources déjà publiées, puisque la plateforme interdit toute recherche originale. Cette règle, censée garantir la vérifiabilité des faits, implique que la couverture de Wikipédia reflète inévitablement les biais des médias, du monde académique et des autres institutions dont elle dépend.
Ces biais ne sont pas uniquement politiques. Ainsi, de nombreuses recherches ont montré un fort déséquilibre entre les genres parmi les contributeurs, dont environ 80 % à 90 % s’identifient comme des hommes dans la version anglophone. Comme la plupart des sources secondaires sont elles aussi majoritairement produites par des hommes, Wikipédia tend à refléter une vision plus étroite du monde : un dépôt du savoir masculin plutôt qu’un véritable panorama équilibré des connaissances humaines.
Le problème du bénévolat
Sur les plateformes collaboratives, les biais tiennent souvent moins aux règles qu’à la composition de la communauté. La participation volontaire introduit ce que les sciences sociales appellent un « biais d’autosélection » : les personnes qui choisissent de contribuer partagent souvent des motivations, des valeurs et parfois des orientations politiques similaires.
De la même manière que Wikipédia dépend de cette participation volontaire, c’est aussi le cas de Community Notes, l’outil de vérification des faits de Musk sur X (anciennement Twitter). Une analyse que j’ai menée avec des collègues montre que sa source externe la plus citée, après X lui-même, est en réalité Wikipédia.
Les autres sources les plus utilisées se concentrent elles aussi du côté des médias centristes ou orientés à gauche. Elles reprennent la même liste de sources « approuvées » que Wikipédia ; c’est-à-dire précisément le cœur des critiques de Musk adressées à l’encyclopédie ouverte en ligne. Pourtant, personne ne reproche ce biais à Musk.
Wikipédia reste au moins l’une des rares grandes plateformes à reconnaître ouvertement ses limites et à les documenter. La recherche de la neutralité y est inscrite comme l’un de ses cinq principes fondateurs. Des biais existent, certes, mais l’infrastructure est conçue pour les rendre visibles et corrigibles.
Les articles contiennent souvent plusieurs points de vue, traitent des controverses et même consacrent des sections entières aux théories complotistes, comme celles entourant les attentats du 11-Septembre. Les désaccords apparaissent dans l’historique des modifications et sur les pages de discussion, et les affirmations contestées sont signalées. La plateforme est imparfaite mais autorégulée, fondée sur le pluralisme et le débat ouvert.
L’IA est-elle impartiale ?
Si Wikipédia reflète les biais de ses contributeurs humains et des sources qu’ils mobilisent, l’IA souffre du même problème avec ses données d’entraînement. Grokipedia : Elon Musk a raison de dire que Wikipédia est biaisée, mais son alternative fondée sur l’IA ne fera pas mieux
Les grands modèles de langage (LLM) utilisés par Grok sont formés sur d’immenses corpus issus d’Internet, comme les réseaux sociaux, les livres, les articles de presse et Wikipédia elle-même. Des études ont montré que ces modèles reproduisent les biais existants – qu’ils soient de genre, d’ordre politique ou racial – présents dans leurs données d’entraînement.
Musk affirme que Grok a été conçu pour contrer de telles distorsions, mais Grok lui-même a été accusé de partialité. Un test, dans laquelle quatre grands modèles de langage ont été soumis à 2 500 questions politiques, semble montrer que Grok est plus neutre politiquement que ses rivaux, mais présente malgré tout un biais légèrement orienté à gauche (les autres étant davantage marqués à gauche).
Si le modèle qui soustend Grokipedia repose sur les mêmes données et algorithmes, il est difficile d’imaginer comment une encyclopédie pilotée par l’IA pourrait éviter de reproduire les biais que Musk reproche à Wikipédia. Plus grave encore, les LLM pourraient accentuer le problème. Ceux-ci fonctionnent de manière probabiliste, en prédisant le mot ou l’expression la plus probable à venir sur la base de régularités statistiques, et non par une délibération entre humains. Le résultat est ce que les chercheurs appellent une « illusion de consensus » : une réponse qui sonne de manière autoritaire, mais qui masque l’incertitude ou la diversité des opinions.
De ce fait, les LLM tendent à homogénéiser la diversité politique et à privilégier les points de vue majoritaires au détriment des minoritaires. Ces systèmes risquent ainsi de transformer le savoir collectif en un récit lisse mais superficiel. Quand le biais se cache sous une prose fluide, les lecteurs peuvent même ne plus percevoir que d’autres perspectives existent.
Ne pas jeter le bébé avec l’eau du bain
Cela dit, l’IA peut aussi renforcer un projet comme Wikipédia. Des outils d’IA contribuent déjà à détecter le vandalisme, à suggérer des sources ou à identifier des incohérences dans les articles. Des recherches récentes montrent que l’automatisation peut améliorer la précision si elle est utilisée de manière transparente et sous supervision humaine.
L’IA pourrait aussi faciliter le transfert de connaissances entre différentes éditions linguistiques et rapprocher la communauté des contributeurs. Bien mise en œuvre, elle pourrait rendre Wikipédia plus inclusif, efficace et réactif sans renier son éthique centrée sur l’humain.
De la même manière que Wikipédia peut s’inspirer de l’IA, la plate-forme X pourrait tirer des enseignements du modèle de construction de consensus de Wikipédia. Community Notes permet aux utilisateurs de proposer et d’évaluer des annotations sur des publications, mais sa conception limite les discussions directes entre contributeurs.
Un autre projet de recherche auquel j’ai participé a montré que les systèmes fondés sur la délibération, inspirés des pages de discussion de Wikipédia, améliorent la précision et la confiance entre participants, y compris lorsque cette délibération implique à la fois des humains et une IA. Favoriser le dialogue plutôt que le simple vote pour ou contre rendrait Community Notes plus transparent, pluraliste et résistant à la polarisation politique.
Profit et motivation
Une différence plus profonde entre Wikipédia et Grokipedia tient à leur finalité et, sans doute, à leur modèle économique. Wikipédia est géré par la fondation à but non lucratif Wikimedia Foundation, et la majorité de ses bénévoles sont motivés avant tout par l’intérêt général. À l’inverse, xAI, X et Grokipedia sont des entreprises commerciales.
Même si la recherche du profit n’est pas en soi immorale, elle peut fausser les incitations. Lorsque X a commencé à vendre sa vérification par coche bleue, la crédibilité est devenue une marchandise plutôt qu’un gage de confiance. Si le savoir est monétisé de manière similaire, le biais pourrait s’accentuer, façonné par ce qui génère le plus d’engagements et de revenus.
Le véritable progrès ne réside pas dans l’abandon de la collaboration humaine mais dans son amélioration. Ceux qui perçoivent des biais dans Wikipédia, y compris Musk lui-même, pourraient contribuer davantage en encourageant la participation d’éditeurs issus d’horizons politiques, culturels et démographiques variés – ou en rejoignant eux-mêmes l’effort collectif pour améliorer les articles existants. À une époque de plus en plus marquée par la désinformation, la transparence, la diversité et le débat ouvert restent nos meilleurs outils pour nous approcher de la vérité.
Taha Yasseri a reçu des financements de Research Ireland et de Workday.
17.11.2025 à 16:02
Collaborations art-science : qui ose vraiment franchir les frontières ?
Texte intégral (2171 mots)

Les collaborations entre scientifiques et artistes font régulièrement parler d’elles à travers des expositions intrigantes ou des performances artistiques au sein de laboratoires scientifiques. Mais qu’est-ce qui motive vraiment les chercheuses et les chercheurs à s’associer à des artistes ?
Art et science se sont historiquement nourris mutuellement comme deux manières complémentaires de percevoir le monde.
Considérons ainsi les principaux instituts états-uniens de sciences marines : tous sont dotés d’ambitieux programmes de collaboration art/science, mis en place à partir du tournant des années 2000. Le prestigieux Scripps Institution of Oceanography a, par exemple, développé une collection d’art privée, ouverte au public, pour « refléter des connaissances scientifiques objectives dans des œuvres d’art à la fois réalistes et abstraites ». À l’Université de Washington, des résidences d’artiste sont organisées, au cours desquelles des peintres passent entre un et trois mois au milieu des scientifiques des Friday Harbor Laboratories (une station de recherche en biologie marine), sur l’île reculée de San Juan.
Ces démarches semblent indiquer que les institutions scientifiques sont déjà convaincues du potentiel de la collaboration entre art et science. L’initiative ne vient pas toujours des laboratoires : nombre d’artistes ou de collectifs sollicitent eux-mêmes les chercheurs, que ce soit pour accéder à des instruments, à des données ou à des terrains scientifiques. En France comme ailleurs, plusieurs résidences – au CNRS, à Paris-Saclay ou dans des centres d’art – sont ainsi nées d’une démarche portée d’abord par les artistes.
Mais qu’en est-il des chercheurs eux-mêmes ? ceux-là même qui conçoivent, développent et réalisent les projets de recherche et qui a priori ont une sensibilité artistique qui n’est ni inférieure ni supérieure à la moyenne de la population. Quels sont ceux qui choisissent d’intégrer l’art dans leurs projets scientifiques ? Et pour quoi faire ? Les études disponibles ne sont pas très éclairantes sur le sujet, car elles se sont focalisées sur des scientifiques atypiques, passionnés par l’art et artistes eux-mêmes. Peu de travaux avaient jusqu’ici procédé à un recensement « tout azimuts » des pratiques.
Dans une étude récente, nous avons recensé les pratiques, des plus originales aux plus banales, en analysant plus de 30 000 projets de recherche financés par la National Science Foundation (NSF) aux États-Unis entre 2003 et 2023, dans les domaines des géosciences et de la biologie.
Une analyse textuelle du descriptif des projets permet de sortir de l’anecdotique pour révéler des tendances structurelles inédites. Cette source comporte toutefois des biais possibles : les résumés de projets sont aussi des textes de communication, susceptibles d’amplifier ou d’édulcorer les collaborations art/science. Pour limiter ces écarts entre discours et réalité, nous combinons analyse contextuelle des termes artistiques, comparaison temporelle et vérification qualitative des projets. Ce croisement permet de distinguer les effets d’affichage des pratiques réellement intégrées.
En France aussi, les initiatives art/science existent mais restent dispersées, portées par quelques laboratoires, universités ou centres d’art, sans base de données centralisée permettant une analyse systématique. Nous avons donc choisi les États-Unis, car la NSF fournit depuis vingt ans un corpus homogène, public et massif de résumés de projets, rendant possible un recensement large et robuste des collaborations art/science.
Trois façons d’associer les artistes
Pour commencer, les collaborations entre art et science sont très rares : moins de 1 % des projets ! Ce chiffre reste toutefois une estimation basse, car il ne capture que les collaborations déclarées par les chercheurs dans des projets financés : nombre d’initiatives impulsées par des artistes ou des collectifs échappent à ces bases de données. En revanche, leur fréquence a augmenté sans discontinuer sur les vingt années d’observation.
En analysant plus finement les projets, on peut identifier que l’artiste peut y jouer trois grands rôles. D’abord, il peut être un disséminateur, c’est-à-dire qu’il aide à diffuser les résultats auprès du grand public. Il ne contribue pas vraiment à la recherche mais joue le rôle d’un traducteur sans qui l’impact des résultats du projet serait moindre. C’est, par exemple, la mise sur pied d’expositions ambulantes mettant en scène les résultats du projet.
Ensuite, l’artiste peut intervenir comme éducateur. Il intervient alors en marge du projet, pour faire connaître un domaine scientifique auprès des enfants, des étudiants, ou de communautés marginalisées. L’objectif est de profiter d’un projet de recherche pour faire connaître un domaine scientifique de manière plus générale et susciter des vocations. Par exemple, l’un des projets prévoyait la collaboration avec un dessinateur de bande dessinée pour mieux faire connaître aux enfants les sciences polaires.
Enfin, dans des cas beaucoup plus rares, les artistes jouent un rôle de cochercheurs. Le recours au travail artistique participe alors à la construction même des savoirs et/ou des méthodes. Par exemple, un des projets réunissait des artistes et des chercheurs en neurosciences pour concevoir de nouvelles façons de visualiser les circuits nerveux du cerveau, et in fine créer de nouvelles formes de données scientifiques.
Ces différentes formes reflètent une tension encore vive dans le monde académique : l’art est majoritairement mobilisé pour « faire passer » la science, plutôt que pour nourrir la recherche elle-même. Pourtant, les projets les plus ambitieux laissent entrevoir un potentiel plus grand : celui d’une science transformée par le dialogue avec d’autres formes de connaissance.
Cette réflexion fait également écho à des considérations plus générales sur la complémentarité entre l’art et la science, non pas comme des disciplines opposées, mais comme deux approches différentes pour questionner le monde. Comme le formulait joliment un article publié dans The Conversation, il s’agit moins d’opposer l’art à la science que de leur permettre de « faire l’amour, pas la guerre », c’est-à-dire de collaborer pour produire de nouvelles formes de compréhension et d’engagement citoyen.
Au-delà de ces différentes façons d’associer les artistes à un projet, notre étude montre également que ces collaborations ne sont pas réparties au hasard. Certains scientifiques les pratiquent bien plus que d’autres, en fonction de leurs caractéristiques personnelles, leur contexte institutionnel et enfin les objectifs scientifiques de leur projet.
Une science plus ouverte… mais pas partout
Première surprise : ce ne sont pas les universités les plus prestigieuses qui s’ouvrent le plus à l’art. Au contraire, ce sont les institutions les moins centrées sur la recherche dite « pure » qui s’y engagent plus largement. Ces établissements s’appuient probablement sur l’art pour conduire des projets plutôt éducatifs, visant essentiellement à faire connaître la science au plus grand nombre.
Deuxième enseignement : les femmes scientifiques sont bien plus nombreuses que leurs homologues masculins à s’engager dans ces démarches. Cette surreprésentation est à rapprocher d’autres résultats montrant que les femmes scientifiques sont en moyenne plus engagées dans les activités de vulgarisation que les hommes – qui, eux, ont tendance à investir plus exclusivement les domaines supposés plus prestigieux, notamment ceux liés à la publication purement académique.
Ce biais de genre, loin d’être anecdotique, soulève des questions sur la manière dont la reconnaissance académique valorise (ou ignore) certains types d’engagement. Incidemment, ce résultat suggère aussi que promouvoir et financer des collaborations entre art et science serait un moyen a priori efficace de rééquilibrer les différences régulièrement constatées entre hommes et femmes.
L’art, catalyseur d’impact sociétal, mais pas sur tous les sujets
Alors que l’on demande de plus en plus aux scientifiques de démontrer l’impact de leurs travaux sur la société, beaucoup se trouvent mal préparés à cette tâche. Peintres, sculpteurs, écrivains, photographes, etc., ont l’habitude de s’adresser à un public large, de captiver l’attention et déclencher les émotions qui garantissent une impression. Leur interprétation du travail et des résultats scientifiques peut ainsi accroître la visibilité des recherches et susciter le changement. On pourrait donc s’attendre à ce que les projets les plus orientés vers des objectifs sociétaux ambitieux aient plus souvent recours aux artistes.
C’est globalement le cas, mais avec toutefois de grosses différences selon les défis sociétaux concernés, que nous avons classés suivants les grands objectifs de développement durable (ODD) édictés par l’ONU. Notamment, la collaboration art/science est bien plus fréquente dans les projets portant sur la biodiversité marine (ODD 14 « Vie aquatique ») que dans ceux axés sur l’action climatique (ODD 13).
Cette différence s’explique probablement en partie par la grande difficulté à rendre visibles ou compréhensibles certains phénomènes plutôt lointains de la vie quotidienne du grand public : l’acidification des océans, la dégradation des écosystèmes marins, etc. Le travail artistique permet de mobiliser les sens, créer des émotions, des narrations, des imaginaires, qui vont faciliter les prises de conscience et mobiliser les citoyens ou les pouvoirs publics. Bref, il va augmenter l’impact sociétal de la recherche sur ces sujets.
Lever les freins : une affaire de politiques scientifiques
Comment expliquer que ces collaborations restent somme toute très marginales dans le monde de la recherche ? Des défis persistent, tels que le manque de financements qui y sont consacrés ou le cloisonnement disciplinaire des recherches. En outre, l’incitation à explorer ces frontières reste très faible pour les chercheurs, dans un monde académique où la production de publications dans des revues spécialisées reste le critère de performance essentiel.
Intégrer l’art à un projet scientifique nécessite du temps, de la confiance et un changement de posture, souvent perçu comme risqué dans un milieu académique très normé. Mais des solutions existent sans doute : il s’agirait de former mieux les scientifiques à la collaboration, de financer des projets transdisciplinaires et de changer les critères d’évaluation de la recherche, pour valoriser les prises de risque.
À l’heure où la science est appelée à jouer un rôle majeur dans la transition écologique et sociale, l’art ne doit plus être considéré comme un simple emballage esthétique : il pourrait devenir un allié stratégique ! Il ne s’agit pas uniquement de « vulgariser » la science, mais bien de la faire résonner autrement dans les imaginaires, les émotions et les débats publics.
En écoutant celles et ceux qui osent franchir les murs du laboratoire, nous comprendrons peut-être mieux comment faire de la science de manière plus sensible, plus accessible et surtout plus transformatrice.
Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.
17.11.2025 à 16:02
La guerre de communication derrière la pénurie de carburant au Mali
Texte intégral (3603 mots)
De nombreux articles ont déjà été publiés sur la pénurie de carburant provoquée au Mali par le blocus que les djihadistes imposent à la quasi-totalité du pays. La présente analyse propose une approche communicationnelle de cette crise sans précédent.
Dans une guerre, qu’elle soit conventionnelle ou asymétrique, comme c’est le cas au Mali et plus largement au Sahel, il est déconseillé de porter un coup avant d’en mesurer les conséquences. La pénurie de carburant actuelle résulte de l’amateurisme des autorités maliennes, qui ont été les premières à interdire la vente de carburant aux citoyens venant s’approvisionner avec des bidons. Cette décision s’inscrit dans leur stratégie visant à couper la chaîne d’approvisionnement des djihadistes afin de réduire la mobilité de ceux-ci. Dans la région de Nioro, les autorités militaires ont interdit, le 30 juillet 2025, « la vente de carburant dans des bidons ou des sachets plastiques ». Rappelons que les djihadistes ne sont pas les seuls à utiliser les bidons : les populations rurales s’en servent aussi, pour de multiples usages, notamment pour le fonctionnement des équipements agricoles.
À la suite de la décision du 30 juillet, le Groupe de soutien à l’islam et aux musulmans (Jama’at Nusrat ul-Islam wa al-Muslimin, JNIM) a étendu l’interdiction à l’ensemble de la population. Ainsi, dans une vidéo publiée le 3 septembre, l’organisation terroriste a adressé un message aux commerçants et aux chauffeurs de camions-citernes qui importent des hydrocarbures depuis les pays côtiers voisins du Mali, à savoir la Côte d’Ivoire, la Guinée, le Sénégal et la Mauritanie. Elle a annoncé des représailles à l’encontre de quiconque violerait cette décision.
Assis en tenue militaire, Nabi Diarra, également appelé Bina Diarra, porte-parole du JNIM, explique en bambara les raisons de ce blocus. Son porte-parolat met à mal l’argument selon lequel les djihadistes seraient exclusivement des Peuls, car Nabi Diarra est bambara. D’après lui :
« Depuis leur arrivée, les bandits qui sont au pouvoir [les militaires, ndlr] fatiguent les villageois en fermant leurs stations-service. Pour cette raison, nous avons également décidé d’interdire toutes vos importations d’essence et de gasoil, jusqu’à nouvel ordre. […] Ces bandits ont voulu priver les villageois d’essence et de gasoil, pensant que cela arrêterait notre activité de djihad. Est-ce qu’un seul de nos véhicules ou de nos motos s’est arrêté depuis le début de cette opération ? Aucun ! Nous continuons notre travail. Les conséquences ne touchent que les plus vulnérables. »
Après cette annonce, une centaine de camions-citernes ont été incendiés par les djihadistes sur différents axes. Des vidéos ont été publiées sur les réseaux sociaux par les auteurs afin de démontrer leurs capacités de nuisance. Dans une vidéo que nous avons pu consulter, un homme à moto montre près d’une quarantaine de camions-citernes incendiés sur la route nationale 7, entre Sikasso et la frontière ivoirienne.
Dans sa vidéo annonçant le blocus, le JNIM a également interdit la circulation de tous les autobus et camions de la compagnie Diarra Transport, qu’il accuse de collaborer avec l’État malien. Depuis, la compagnie a cessé ses activités. Après un mois d’inactivité, le 6 octobre, sa directrice générale Nèh Diarra a publié une vidéo sur les réseaux sociaux pour justifier les actions de son entreprise et, indirectement, présenter ses excuses aux djihadistes dans l’espoir que ces derniers autorisent ses véhicules à reprendre la route.
Le 17 octobre, dans une autre vidéo, arme de guerre et talkie-walkie en main, le porte-parole du JNIM a autorisé la reprise des activités de la compagnie de transport, dans un discours au ton particulièrement clément :
« Nous sommes des musulmans, nous sommes en guerre pour l’islam. En islam, si vous vous repentez après une faute, Allah accepte votre repentir. Donc, les gens de Diarra Transport ont annoncé leur repentir, nous allons l’accepter avec quelques conditions. La première est de ne plus vous impliquer dans la guerre qui nous oppose aux autorités. Transportez les passagers sans vérification d’identité. La deuxième condition va au-delà de Diarra Transport : tous les transporteurs, véhicules personnels, même les mototaxis, doivent exiger des femmes qu’elles portent le hijab afin de les transporter. »
Pour finir, il exige de tous les conducteurs qu’ils s’arrêtent après un accident afin de remettre les victimes dans leurs droits. Une manière de montrer que les membres du JNIM sont des justiciers, alors qu’ils tuent fréquemment des civils innocents sur les axes routiers. Le cas le plus récent et le plus médiatisé remontait à deux semaines plus tôt : le 2 octobre, le JNIM avait mitraillé le véhicule de l’ancien député élu à Ségou et guide religieux Abdoul Jalil Mansour Haïdara, sur l’axe Ségou-Bamako, le tuant sur place. Il était le promoteur du média Ségou TV.
Dans les gares routières de Diarra Transport, des scènes de liesse ont suivi l’annonce de la reprise. La compagnie a même partagé la vidéo du JNIM sur son compte Facebook, avant de la supprimer plus tard. Le lendemain, elle a annoncé la reprise de ses activités, avant que le gouvernement malien ne les suspende à son tour.
Revenons au blocus sur le carburant. Il ne concerne pas uniquement Bamako, comme on peut le lire dans de nombreux articles de presse. Il couvre l’ensemble du territoire national.
Cependant, les médias concentrent leur couverture sur la situation dans la capitale, principal symbole politique de la souveraineté des autorités en place. Les analyses, notamment celles des médias étrangers, gravitent autour d’une question centrale : Bamako va-t-elle tomber ? Nous répondons : le Mali ne se limite pas à Bamako. Toutes les localités du pays sont affectées par ce blocus. Les habitants des autres localités méritent autant d’attention que les Bamakois.
Pays enclavé, au commerce extérieur structurellement déficitaire, le Mali dépend totalement des importations. Les régions de Kayes, plus proche du Sénégal, et de Sikasso, plus proche de la Côte d’Ivoire, sont toutefois moins impactées par ce blocus, qui est particulièrement concentré autour de Bamako. Les attaques sont principalement menées sur les voies menant à la capitale. Des actions sporadiques ont également été signalées sur l’axe Bamako-Ségou, afin de priver les régions du centre, comme Ségou et Mopti, d’hydrocarbures. Dans la ville de Mopti, les habitants manquent de carburant depuis deux mois. Depuis un mois, ils n’ont pas eu une seule minute d’alimentation électrique. Ils ne réclament d’ailleurs plus l’électricité, devenue un luxe : ils recherchent plutôt du carburant pour pouvoir vaquer à leurs occupations.
La violence des mots pour camoufler l’insuffisance des actes
Confrontées à la crise, les autorités, tant régionales que nationales, ont préféré masquer l’impuissance par la désinformation, l’appel mécanique à la résilience et la censure des voix critiques.
Le 23 septembre, le gouverneur de la région de Mopti a présidé une réunion de crise consacrée à la pénurie de carburant. Au lieu de s’attaquer aux racines du mal, le directeur régional de la police, Ibrahima Diakité, s’en est pris aux web-activistes de la région, couramment appelés « videomen (ils prononcent videoman) » au Mali, qui, selon lui, se font particulièrement remarquer par leur « incivisme ». Les créateurs de contenus sont blâmés et menacés par la police pour avoir diffusé des faits et alerté sur les souffrances qu’ils vivent, à l’image de l’ensemble de la population. Au lieu de s’en prendre aux djihadistes, M. Diakité dénigre les citoyens qui publient sur les réseaux sociaux des images de longues files de conducteurs attendant désespérément d’être servis dans les stations-service :
« Si nous entendons n’importe quel “videoman” parler de la région de Mopti, il ira en prison. Il ira en prison ! Celui qui parle au nom de la région ira en prison, parce que c’est inadmissible ! […] Ils mettent Mopti en sellette, oubliant que les réseaux [sociaux, ndlr] ne se limitent pas au Mali. »
Il exige donc de censurer tout propos mettant en évidence l’incompétence des autorités à pallier un problème qui compromet leur mission régalienne. Au lieu de rassurer la population en annonçant des politiques qui atténueront sa souffrance, il opte pour la censure et la menace d’emprisonnement. Dans sa vocifération autoritaire, il mobilise un récit classique en appelant à préserver l’image du pays et en présentant les web-activistes comme des ennemis de celui-ci, des ignorants qui ne comprennent rien aux événements en cours :
« On est dans une situation où les gens ne comprennent rien de ce qui se passe dans leur pays et ils se permettent de publier ce genre de vidéo. Mais c’est le Mali tout entier qui est vilipendé à travers ce qu’ils disent, parce que le monde le voit. […] Ils sont en train d’aider l’ennemi contre le pays. Monsieur le gouverneur, il faut saisir le moment pour remettre ces gens à leur place, pour les amener à comprendre que, dans un État, tant que tu es Malien et que tu restes au Mali, tu respectes la loi ; sinon, tu quittes notre pays si tu ne veux pas te soumettre aux lois de la République. »
Le policier s’est substitué au législateur en appelant le gouverneur à adopter une loi autorisant la censure médiatique locale de cette crise.
Dans les heures qui ont suivi, de nombreux journalistes et web-activistes l’ont interpellé sur les réseaux sociaux pour obtenir des explications concernant l’existence d’une loi malienne prohibant la diffusion d’informations factuelles. Les contenus des web-activistes n’ont pas pour objectif de ternir l’image du pays. Contrairement à ce que laisse entendre le directeur régional de la police, il n’est pas plus malien qu’eux. Il ne lui revient pas non plus de décider qui doit quitter le pays.
Nous observons un clivage général au sein de la population malienne. Les dirigeants et leurs soutiens estiment que tous les citoyens doivent obligatoirement soutenir la transition. Ceux qui la critiquent sont qualifiés de mauvais citoyens, voire d’apatrides. Cette pression a étouffé le pluralisme et la contradiction dans l’espace médiatique.
« Ils ont su créer la pénurie de carburant dans la tête des Maliens »
Pendant que les citoyens passent la nuit dans les files d’attente pour s’approvisionner en carburant, l’un des désinformateurs du régime, adepte des théories du complot, Aboubacar Sidiki Fomba, membre du Conseil national de transition, a livré, dans un entretien avec un videoman, des explications qui défient tout entendement. Dans cette vidéo publiée le 7 octobre, il établit un lien entre la stratégie du JNIM et la volonté de l’Alliance des États du Sahel (AES, qui regroupe le Mali, le Burkina Faso et le Niger) de créer sa propre monnaie. D’après lui, l’objectif de ce blocus, qu’il présente comme la dernière stratégie des terroristes, est de porter atteinte au pouvoir d’Assimi Goïta et à l’AES :
« Ils attaquent les citernes, puis font croire aux populations qu’il y a une pénurie de carburant, alors qu’il n’y en a pas. Mais ils convainquent tout le monde qu’il y a une pénurie. Ils créent la psychose. Sous l’effet de la panique, les citoyens provoquent eux-mêmes une pénurie qui, à l’origine, n’existait pas. »
Dans la même vidéo, il dissocie les coupures d’électricité de la pénurie de carburant, expliquant les premières par des problèmes de remplacement de câbles électriques défaillants. Pourtant, c’est bien le manque de carburant qui est à l’origine des coupures d’électricité observées ces dernières années. Le blocus n’a été qu’un accélérateur d’une crise énergétique déjà déclenchée. Il a considérablement réduit les capacités de production énergétique. Selon une étude conduite par le PNUD, en 2020, « la production électrique était de 2 577,44 GWh (69 % thermique, 26,8 % hydraulique et 4,2 % solaire photovoltaïque) ».
Le pays doit accélérer sa transition énergétique afin de réduire sa dépendance aux importations d’hydrocarbures et de limiter ses émissions de gaz à effet de serre. En plus de la crise énergétique, ce blocus a également entraîné une pénurie d’eau potable dans la région de Mopti, le gasoil étant utilisé pour la production et la distribution d’eau.
Le même parlementaire s’est ensuite attaqué aux conducteurs de camions-citernes, les accusant de « complicité avec les terroristes ». Selon lui, les conducteurs simuleraient des pannes pour quitter les convois escortés par l’armée et revendre leur cargaison d’hydrocarbures aux groupes djihadistes. À la suite de cette déclaration, le Syndicat national des chauffeurs et conducteurs routiers du Mali (Synacor) a lancé un mot d’ordre de grève et déposé une plainte contre Fomba pour diffamation. Au lieu d’apporter la preuve de ses accusations, ce dernier a finalement présenté ses excuses aux conducteurs de camions-citernes. Il avait auparavant annoncé la mort de Nabi Diarra et qualifié de deepfake les vidéos du porte-parole du JNIM – une énième fausse information. Par la suite, le porte-parole a diffusé des vidéos dans lesquelles il précise la date d’enregistrement et se prononce sur des faits d’actualité.
Le pouvoir dénonce la piste ukrainienne
Au sommet de l’État, lors d’un déplacement dans la région de Bougouni le 3 novembre, le président de la transition a appelé les Maliens à faire preuve de résilience et à limiter les sorties inutiles. Assimi Goïta a tenté de rassurer la population et de dissuader ceux qui apportent leur aide aux djihadistes : « Si nous refusons de mener cette guerre, nous subirons l’esclavage qui en sera la conséquence », a-t-il déclaré face aux notables de la région. Il a salué le courage des chauffeurs et des opérateurs économiques pour leurs actes de bravoure. En effet, depuis l’instauration du blocus, les premiers risquent leur vie, et les seconds voient leur investissement menacé.
Assimi Goïta a laissé entendre que des puissances étrangères soutiennent les actions des djihadistes. Il convient de rappeler que l’Ukraine a apporté son aide aux rebelles séparatistes du Cadre stratégique permanent (CSP), lesquels coopèrent parfois avec le JNIM dans le nord du pays. Alors que les djihadistes revendiquent l’application de la charia, les rebelles exigent la partition du territoire. Les deux mouvements se sont, à plusieurs reprises, alliés pour combattre l’armée malienne. Le 29 juillet 2024, Andriy Yusov, porte-parole du renseignement militaire ukrainien (GUR), a sous-entendu, lors d’une émission de télévision locale, que son service était en relation avec les rebelles indépendantistes du nord du Mali. Après la dissolution du CSP fin 2024, l’Ukraine a poursuivi son aide au groupe rebelle qui a pris le relais au nord du Mali, le Front de Libération de l’Azawad (FLA). Parmi les actions, nous pouvons noter « la visite de conseillers militaires ukrainiens dans un camp du FLA l’an dernier. Dans la foulée, plusieurs combattants du FLA sont envoyés en Ukraine. De retour dans le désert, ils adoptent les mêmes tactiques que celles de l’armée ukrainienne contre les positions russes ».
Cette aide fournie par l’Ukraine s’inscrit dans le prolongement du conflit qui l’oppose à la Russie, devenue le principal partenaire du Mali dans la lutte contre le terrorisme depuis la fin de la coopération militaire avec la France en 2022. Grâce à ce nouveau partenariat, la ville de Kidal contrôlée par les rebelles depuis 2012 a pu être reprise en novembre 2023. Toutefois, la situation sécuritaire s’est détériorée dans le reste du pays, les djihadistes ayant renforcé leur influence et étendu leur présence à l’ensemble des régions.
Les autorités maliennes estiment que cette assistance ukrainienne est soutenue par la France, qui souhaiterait l’échec de la transition. Dans leurs éléments de langage, les responsables de la transition expliquent tous leurs problèmes par des complots contre leur régime et contre le Mali. Toutes les difficultés et incompétences sont justifiées par « l’acharnement de la France » contre la transition. L’ancienne puissance coloniale a pour sa part ouvertement montré son opposition à cette transition qu’Emmanuel Macron qualifie de « l’enfant de deux coups d’État ».
La guerre de communication est au cœur de la crise malienne et ne semble pas devoir s’arrêter si tôt. Pendant que les médias occidentaux commentent l’éventualité d’une prise de Bamako par le JNIM, le gouvernement malien a inauguré le 11 novembre le Salon international de la défense et de la sécurité intitulé Bamex 25. Cette exposition turque est, pour la transition malienne, un autre moyen de communiquer au monde que la situation sécuritaire est sous contrôle.
Ayouba Sow ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
17.11.2025 à 11:40
Le contrôle en cours de redéfinition à l’ère du travail à distance. Mais cela va-t-il dans le bon sens ?
Texte intégral (2372 mots)
Le télétravail en éloignant les salariés de leur manager a-t-il augmenté ou réduit le contrôle des tâches et du temps de travail ? De nouvelles formes et pratiques de management sont-elles apparues ? Dans quelle mesure sont-elles cohérentes avec les nouvelles façons de travailler à l’ère numérique ?
Alors que le contrôle du temps de travail et le droit à la déconnexion sont des obligations de l’employeur pour protéger la santé des salariés, l’étude 2025 de l’Observatoire du télétravail (Ugict-CGT) révèle que le Code du travail n’est pas respecté concernant ces deux dimensions.
En effet, malgré les bouleversements induits par le développement du travail à distance, les pratiques de contrôle restent assez limitées et s’orientent principalement vers la surveillance des temps de connexion, non pas dans l’objectif de les réguler comme le voudrait la loi, mais au contraire comme une attestation que le travail est effectué.
Cette pratique ne présage pas de l’implication et de la performance des télétravailleurs, mais révèle en revanche un manque de considération pour les conditions dans lesquelles le travail est exercé alors que l’employeur en est juridiquement responsable.
Du lien de subordination
Le contrôle fait partie inhérente du travail salarié et de la relation d’emploi formalisée par le lien contractuel employeur/employé, qui induit légalement un lien de subordination
Le contrat de travail est une
« convention par laquelle une personne s’engage à mettre son activité à la disposition d’une autre personne (physique ou morale), sous la subordination de laquelle elle se place, moyennant une rémunération ».
Le lien de subordination est donc consubstantiel à tout contrat de travail (quel qu’en soit le type) et renvoie au
« lien par lequel l’employeur exerce son pouvoir de direction sur l’employé : pouvoir de donner des ordres, d’en contrôler l’exécution et de sanctionner la mauvaise exécution des ordres ».
Le contrôle du travail concerne ainsi de manière très large l’exécution des tâches confiées par l’employeur.
À lire aussi : Le télétravail est-il devenu le bouc émissaire des entreprises en difficulté ?
Des modalités de contrôle peu novatrices
Avec le développement du télétravail et l’éclatement des unités de lieu, de temps et d’action, on aurait pu s’attendre à une évolution des modalités avec laquelle s’exerce ce lien de subordination et l’activité de contrôle qui lui est inhérente : la surveillance visuelle par les comportements n’est en effet plus possible lorsque les missions confiées sont réalisées à distance. L’enquête menée par l’Observatoire du télétravail de l’Ugict-CGT auprès de 5 336 télétravailleurs ne montre cependant pas de transformations profondes. Elle atteste en revanche de pratiques qui ne sont pas à la hauteur des enjeux.
Si de plus en plus de salariés se sentent surveillés en télétravail, ils restent une minorité. En outre, la perception du contrôle est relativement faible. C’est seulement le cas de 17 % des répondants, contre 8 % lors de la précédente enquête menée en 2023.
A contrario, tout comme dans l’enquête précédente (2023), une forte majorité de salariés (79 %) ne savent pas s’ils sont contrôlés et n’ont pas été informés des dispositifs utilisés. Ces chiffres suggèrent que ce contrôle pourrait s’exercer à leur insu ou au travers de pratiques informelles déviantes.
Par ailleurs, lorsqu’ils sont identifiés, les dispositifs de contrôle ne sont guère novateurs et s’appuient encore largement sur le traditionnel reporting a posteriori plutôt que sur de nouvelles modalités technologiques en temps réel (IA, frappes de clavier, mouvements de souris, caméras). Le contrôle s’exerce ainsi avant tout sur les résultats de l’activité (plutôt que sur l’activité en train de se faire), en phase avec un management par objectifs qui sied mieux au travail à distance que le micromanagement, mais qui est loin d’être nouveau puisqu’il a été théorisé dans les années 1950 par Peter Drucker.
Transposition du réel au virtuel
Les modalités de contrôle consistent souvent en une transposition simple dans le monde virtuel les pratiques qui avaient déjà cours sur site : système de badge numérique (22,6 %) et feuille de temps (12,67 %).
Les verbatim recueillis lors de l’enquête révèlent en outre que, pour les télétravailleurs interrogés, ce contrôle consiste avant tout à s’assurer qu’ils sont bien connectés : « Le logiciel utilise le contrôle des connexions et leur durée », « Contrôle connexion permanent », « Heure de connexion/déconnexion sur Teams », « Suspicion de surveillance par le statut en veille de Teams ».
Ces témoignages traduisent une forme de glissement, d’un contrôle de l’activité à un contrôle de la disponibilité. Autrement dit, le contrôle ne renvoie plus à une mesure de la performance, mais à une preuve de présence – qui n’assure pas pour autant que le travail demandé est effectivement réalisé. Il s’agit donc davantage de regarder « le nombre d’heures de connexion du salarié que la qualité des contributions ou des échanges »
Impératif de présence
Cet impératif de présence peut par ailleurs s’étendre au-delà du temps de travail avec des sollicitations hors horaires (avant 9 heures ou après 19 heures). Si ces pratiques restent minoritaires, elles concernent tout de même un peu plus d’un salarié sur cinq régulièrement, et seul un tiers des répondants disent ne jamais y être confrontés.
Cette situation présente ainsi le risque de voir se développer « des journées de travail à rallonge » qui ne respectent pas les temps de repos légaux. Notons cependant que pour les répondants, ces sollicitations hors horaires ne sont pas directement liées au télétravail : plus de neuf personnes sur dix déclarent que ces situations ne sont pas plus fréquentes lorsqu’elles sont en télétravail que lorsqu’elles sont sur site.
Ce phénomène serait ainsi davantage lié à la « joignabilité » permanente permise par les outils numériques et à leur usage non régulé, quel que soit le lieu où s’exerce l’activité professionnelle.
Des pratiques en décalage avec le Code du travail
Il en ressort ainsi une vision assez pauvre du contrôle, qui pose par ailleurs problème au regard de nombreux articles du Code du travail qui ne sont pas respectés :
Articles L3131-1 à L3131-3 : l’employeur doit contrôler le volume horaire, l’amplitude, les maxima et les temps de repos.
Article L4121-1 : l’employeur a l’obligation de protéger la santé et la sécurité des travailleurs.
Article L1121-1 : les restrictions des libertés individuelles ne sont possibles que si elles sont justifiées et proportionnées.
Article L1222-4 : aucune donnée personnelle ne peut être collectée sans information préalable du salarié.
Article L2242-17 : droit à la déconnexion qui impose la mise en place de dispositifs de régulation de l’utilisation des outils numériques, en vue d’assurer le respect des temps de repos et de congé ainsi que de la vie personnelle et familiale
Ainsi, le contrôle du travail n’implique pas seulement un droit de surveiller et de sanctionner de la part de l’employeur, il inclut également un devoir de protection des salariés.
Le télétravail lève ainsi le voile sur l’ambivalence du contrôle, tel qu’il est inscrit dans le Code du travail et tel qu’il est mis en œuvre par les entreprises. Comme le résume bien un télétravailleur interrogé dans le cadre des entretiens qualitatifs menés en complément de l’enquête :
« On a un outil qui permet non pas de contrôler qu’on travaille trop, mais de contrôler qu’on est bien connecté. »
Contrôler, c’est veiller… ou presque
À cet égard, il peut être utile de rappeler l’étymologie du terme « contrôle . En vieux français, le terme « contrerole » est le « rôle opposé », le « registre tenu en double », permettant de vérifier l’exactitude et de réguler. Il est proche du terme « surveiller », qui est un dérivé de « veiller ». Ces origines étymologiques acquièrent une nouvelle portée à l’heure du télétravail en questionnant l’objet et l’objectif du contrôle : s’agit-il de contrôler uniquement le travail pour sanctionner sa mauvaise exécution ? N’est-il pas aussi question de contrôler les conditions dans lesquelles il est réalisé dans l’objectif de veiller au respect des droits des travailleurs ?
La question du contrôle s’inscrit pleinement dans les problématiques du travail hybride, à la fois en télétravail mais également sur site.
En effet, alors que le débat sur le « retour au bureau » agite les organisations, avec des annonces très médiatisées de certaines grandes entreprises, on peut questionner là aussi la notion du contrôle.
Du côté des employeurs, l’argumentaire principalement utilisé pour justifier le retour au bureau est celui du délitement des liens sociaux et ses conséquences potentielles sur l’intelligence collective sous toutes ses formes. Du côté des salariés et de leurs représentants subsiste une légitime suspicion quant à l’association entre présence sur site et contrôle.
Insaisissable objet du contrôle
Il y a donc une tension dans les organisations. Mais on manque de précision sur ce qu’on souhaite contrôler. Deux ensembles de questions demeurent. D’une part, celles relatives à la surveillance. Est-on encore dans l’idée que la présence physique prouve le travail effectué ? Contrôle-t-on la quantité de travail ? Sa qualité ? La volonté d’une présence physique a-t-elle pour objectif de surveiller en temps réel le salarié à sa tâche, possiblement en l’absence de confiance ? D’autre part, celles relatives à l’accompagnement et au soutien. Le management est-il meilleur en co-présence ? Le soutien social est-il meilleur sur site ? La circulation de l’information trouve-t-elle de plus efficaces canaux ?
À l’évidence, le débat sur le retour au bureau est clivant, mais il pourrait l’être moins si l’on questionnait la valeur ajoutée réelle pour le salarié, pour son travail, pour sa satisfaction et donc pour sa performance, de se rendre sur site plutôt que de rester chez lui. La question n’est donc pas de savoir s’il faut contrôler, mais comment le faire !
Le lien de subordination demeure consubstantiel au contrat de travail – il fonde le pouvoir de direction, d’organisation et de sanction de l’employeur. Mais ce pouvoir doit s’exercer dans les bornes que fixe le droit : celles du respect, de la proportionnalité et de la santé au travail.
Ceci questionne une nouvelle éthique du management : veiller et protéger plutôt que surveiller ; réguler et animer plutôt que traquer. S’il est de sa responsabilité de garantir que ses équipes atteignent les performances attendues, le manager doit également le faire en s’assurant de la qualité et de la légalité des conditions dans lesquelles ces performances sont réalisées.
Cet article a été co-écrit avec Nicolas Cochard, directeur de la recherche du groupe Kardham, enseignant en qualité de vie au travail (QVT) en master RH à l’Université Paris Nanterre.
Suzy Canivenc est membre de l'OICN (Observatoire de l''Infobésité et de la Collaboration Numérique) et Directrice scientifique de Mailoop
Caroline Diard ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
17.11.2025 à 11:32
Pourquoi les réunions de travail nuisent au bien-être
Texte intégral (1147 mots)

Trop nombreuses, trop longues et inefficaces, les réunions de travail, loin d’être de simples outils de coordination, peuvent devenir de véritables moteurs de mal-être. Comment y remédier ? Analyse par la science… des réunions.
Quiconque travaille dans une organisation le sait : les réunions s’enchaînent à un rythme effréné. En moyenne, les managers y passent vingt-trois heures par semaine. Une grande partie de ces échanges est jugée de faible valeur, voire totalement contre-productive. Le paradoxe de cette frénésie est que de mauvaises réunions en génèrent encore davantage… pour tenter de réparer les précédentes.
Pendant longtemps, les réunions n’ont pas été étudiées comme un objet de recherche en soi ; elles servaient de contexte à l’analyse, mais rarement d’unité centrale. Un manuel publié en 2015 a posé les bases de ce champ émergent, la « science des réunions ». Le véritable problème ne tient pas tant au nombre de réunions qu’à leur conception, au manque de clarté de leurs objectifs, et aux inégalités qu’elles renforcent souvent inconsciemment.
Se réunir nourrit le bien-être, ou lui nuit
Notre série d’études menées pendant et après la pandémie de Covid-19 souligne que les réunions peuvent à la fois nourrir le bien-être des participants et lui nuire. Trop de réunions peuvent conduire au burn-out et à l’envie de quitter son organisation ; mais elles peuvent aussi renforcer l’engagement des employés.
Le recours massif au télétravail et aux réunions virtuelles, accéléré par la pandémie, a introduit de nouvelles sources de fatigue : surcharge cognitive, hyperconnexion, effacement des frontières entre vie professionnelle et personnelle. Ces réunions en ligne favorisent aussi des interactions sociales continues et permettent de mieux percevoir la place de chacun dans l’organisation.
Les femmes parlent moins en visioconférence
Ces nouveaux formats de réunion ne sont pas vécus par tous de la même manière.
Un constat frappant concerne le temps de parole. Dans notre enquête menée auprès de centaines d’employés, les résultats sont clairs. Les femmes rapportent avoir plus de difficultés à s’exprimer en réunion virtuelle qu’en présentiel. Les causes sont multiples : interruptions plus fréquentes, invisibilité sur les écrans partagés, difficulté à décoder les signaux non verbaux, ou encore la double charge mentale lorsque les réunions se tiennent à domicile.
Autrement dit, les réunions en ligne – censées démocratiser l’accès – peuvent, si l’on n’y prend pas garde, renforcer les inégalités de genre.
Une réunion doit se concevoir, pas se subir
Face à cette folie des réunions, la solution n’est pas de les supprimer, mais de mieux les concevoir. Tout commence par une question simple, souvent oubliée : pourquoi nous réunissons-nous ?
Selon notre série d’études couvrant plusieurs milliers de réunions, il existe quatre grands objectifs :
- Partager de l’information ;
- Prendre des décisions ;
- Exprimer des émotions ou des opinions ;
- Construire des relations de travail.
Chacun de ces objectifs exige des conditions spécifiques, comme voir les visages, entendre les intonations, observer les réactions, partager un écran, etc. Aucun format (audio, visioconférence, hybride ou présentiel) n’est universellement le meilleur. Le mode choisi doit dépendre de l’objectif principal, et non d’une habitude ou d’une commodité technologique.
Plus encore, la recherche identifie des leviers simples mais puissants pour améliorer l’expérience collective :
Partager à l’avance un ordre du jour clair et les documents nécessaires pour préparer les participants ;
Varier les modes de prise de parole grâce à des outils de « main levée », des chats anonymes, ou des tours systématiques ;
Jouer un vrai rôle de modération. Les responsables de réunion doivent équilibrer les interventions, encourager la participation et éviter les dynamiques d’exclusion.
Miroir de la culture organisationnelle
Les réunions ne sont jamais neutres. Elles reflètent – souvent inconsciemment – la culture, les rapports de pouvoir et les priorités implicites d’une organisation. Les données sont claires, les pistes d’amélioration existent. Reste aux entreprises et à leurs dirigeants à reconnaître le pouvoir transformateur des réunions.
Une organisation où seules les voix les plus fortes se font entendre en réunion est rarement inclusive en dehors. À l’inverse, des réunions bien menées peuvent devenir des espaces de respect et d’innovation collective.
L’objectif n’est pas d’avoir moins de réunions, mais de meilleures réunions. Des réunions qui respectent le temps et l’énergie de chacun. Des réunions qui donnent une voix à tous. Des réunions qui créent du lien.
Article écrit avec le Dr Arnaud Stiepen, expert en communication et vulgarisation scientifiques.
Willem Standaert ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
17.11.2025 à 11:32
Pour la première fois, une étude révèle ce qui se passe dans le cerveau d'un entrepreneur
Texte intégral (1471 mots)

L’entrepreneuriat façonne-t-il le cerveau ? Certaines personnes naissent-elles avec des caractéristiques cérébrales qui les prédisposent à entreprendre ? Pour tenter de répondre à ces questions, une étude récente explore le fonctionnement du cerveau d’entrepreneurs grâce à l’imagerie par résonance magnétique fonctionnelle, une technique qui permet de visualiser l’activité cérébrale.
Si l’on reconnaît l’importance des processus cognitifs chez les entrepreneurs
– comment pensent-ils et agissent-il face à l’incertitude ? –, on s’est peu intéressé à l’étude de leur cerveau lorsqu’ils prennent leurs décisions.
Pourquoi certains individus semblent exceller dans la création d’entreprises et naviguent habilement à travers l’incertitude, tandis que d’autres peinent à s’adapter ?
Pour tenter de faire la lumière sur la réponse à cette question, nous avons mené des travaux faisant converger neurosciences et recherche en entrepreneuriat. Nous avons en effet exploré l’activité cérébrale chez des entrepreneurs grâce à une technique d’imagerie médicale, l’imagerie par résonance magnétique fonctionnelle (IRMf).
Fruit d’une collaboration entre le centre de recherche interdisciplinaire en sciences biomédicales GIGA Consciousness Research Unit de l’Université de Liège (Belgique) et le Centre hospitalier universitaire (CHU) de Liège, notre étude ouvre de nouvelles perspectives sur la manière dont les entrepreneurs abordent la prise de décision, gèrent l’incertitude et exploitent de nouvelles opportunités.
Imagerie par résonance magnétique fonctionnelle (IRMf)
L’IRMf permet de visualiser l’activité cérébrale en mesurant les variations du flux sanguin dans le cerveau. Cette méthode repose sur un principe simple : lorsqu’une région du cerveau est activée, elle consomme plus d’oxygène, ce qui entraîne une augmentation du flux sanguin vers cette zone. Ce surplus d’oxygène modifie légèrement les propriétés magnétiques du sang. C’est cette différence que l’IRMf mesure pour créer des cartes d’activité cérébrale en temps réel, offrant ainsi une vue détaillée de la fonction cérébrale.
Plus précisément, notre étude s’est concentrée sur 23 entrepreneurs habituels
– c’est-à-dire ceux qui ont lancé plusieurs entreprises, en les comparant à 17 managers travaillant dans de grandes organisations.
L’analyse de connectivité en état de repos basée sur une région cérébrale d’intérêt (seed-based resting state fMRI) a révélé que ces entrepreneurs expérimentés présentent une connectivité neuronale accrue entre certaines régions de l’hémisphère droit du cerveau : l’insula et le cortex préfrontal. Ces zones jouent un rôle dans la flexibilité cognitive et la prise de décisions exploratoires, c’est-à-dire la capacité à ajuster sa stratégie et à penser autrement face à des situations nouvelles ou incertaines.
Mieux gérer l’incertitude
Ce réseau cérébral plus connecté pourrait contribuer à expliquer pourquoi ces entrepreneurs semblent mieux armés pour gérer l’incertitude et faire preuve de flexibilité cognitive, des capacités souvent associées à l’identification d’opportunités entrepreneuriales.
Que ce soit de manière séquentielle – les serial entrepreneurs, qui créent une entreprise après l’autre – ou de façon concurrente – les portfolio entrepreneurs qui gèrent plusieurs entreprises en même temps –, ces profils paraissent exceller dans l’art de s’adapter rapidement. Une compétence précieuse dans le monde des start-ups, où les repères sont rarement stables.
Une autre étude, portant sur le même groupe d’entrepreneurs et de managers met en lumière un autre phénomène intrigant : ces entrepreneurs habituels présentent un volume de matière grise plus important dans l’insula gauche. Bien que l’étude n’ait pas directement mesuré la pensée divergente, d’autres travaux ont montré que l’augmentation du volume de matière grise dans l’insula gauche est associée à cette capacité – c’est-à-dire la faculté de générer de nombreuses idées différentes pour résoudre un même problème.
Ce qui suggère que les différences observées chez ces entrepreneurs pourraient refléter une plus grande propension à la pensée divergente.
Une question essentielle reste ouverte : l’entrepreneuriat façonne-t-il le cerveau… ou bien certaines personnes naissent-elles avec ces caractéristiques cérébrales qui les prédisposent à entreprendre ?
Autrement dit, sommes-nous entrepreneurs par nature ou par culture ?
Nature ou culture ?
Cette interrogation est aujourd’hui au cœur des nouveaux projets de recherche menés par l’équipe d’HEC Liège et du Centre de recherche du cyclotron (CRC) de l’Université de Liège. Cette orientation de recherche s’appuie sur le concept de « plasticité cérébrale », c’est-à-dire la capacité du cerveau à se modifier sous l’effet des expériences et des apprentissages.
Si le cerveau est capable de renforcer certains réseaux neuronaux grâce à l’entraînement, comme on muscle son corps par le sport, alors l’expérience entrepreneuriale répétée pourrait elle-même être un facteur de développement de ces connexions particulières. À l’inverse, si ces différences cérébrales sont présentes dès le départ, cela poserait la question de traits cognitifs ou neurobiologiques favorisant l’esprit d’entreprise.
Pour répondre à ces questions, de nouveaux travaux sont en cours au sein du laboratoire et du GIGA-CRC, avec notamment des études longitudinales visant à suivre l’évolution des cerveaux d’entrepreneurs au fil de leur parcours, mais aussi des comparaisons avec de jeunes porteurs de projets ou des aspirants entrepreneurs.
L’enjeu est de mieux comprendre si, et comment, l’expérience de l’entrepreneuriat peut façonner notre cerveau. Cette nouvelle phase de la recherche est en cours et entre dans une phase clé : le recrutement des participants pour une étude en imagerie par résonance magnétique (IRM). Nous recherchons des volontaires, entrepreneurs ou non, prêts à contribuer à cette exploration scientifique inédite sur les effets de la pratique entrepreneuriale sur le cerveau.
Former les futurs entrepreneurs
L’intégration des neurosciences dans l’étude de l’entrepreneuriat offre une perspective novatrice sur les facteurs qui pourraient contribuer à l’esprit entrepreneurial. En comprenant si – et comment – l’expérience entrepreneuriale influence la structure et la fonction cérébrales, il deviendrait possible de concevoir des approches de formation spécifiques pour favoriser l’esprit d’entreprendre. On pourrait, par exemple, imaginer de mettre au point des exercices pratiques et des approches d’apprentissage immersif afin de développer chez les étudiants les compétences observées chez des entrepreneurs habituels.
Cet article a été rédigé avec l’aide du Dr Arnaud Stiepen, expert en communication et vulgarisation scientifiques.
Frédéric Ooms a été financé par une subvention ARC (Actions de Recherche Concertée) de la Fédération Wallonie‑Bruxelles.
17.11.2025 à 10:20
Intelligence économique : de la compétition à la coopération
Texte intégral (1219 mots)
La notion d’intelligence économique renvoie au moins à deux réalités différentes. Moins offensive, elle peut être un levier pertinent pour favoriser la collaboration entre les entreprises et leur environnement et pour rendre les écosystèmes plus résilients.
Depuis les années 1990, l’intelligence économique oscille entre deux modèles antagonistes : l’un, hérité de la « competitive intelligence » qui en fait une arme de guerre économique ; l’autre, issu de la « social intelligence » qui la conçoit au service d’un développement partagé. Aujourd’hui, face à l’incertitude croissante, des dirigeants d’entreprise semblent privilégier la seconde voie, celle de la coopération et de la responsabilité collective.
Deux visions
Popularisée dans les années 1990, l’intelligence économique s’est imposée en France comme une boîte à outils stratégique. Elle aide les organisations à anticiper les évolutions, à protéger leurs ressources et à influencer leur environnement à leur avantage. Son principe est simple : l’information est vitale. Il faut la collecter, l’analyser, la partager et la protéger via par exemple des pratiques de veille, de prospective, de sécurité économique et numérique, de protection des savoir-faire, d’influence et de lobbying. Mais derrière cette définition se cachent deux visions opposées.
La première voit l’intelligence économique comme une arme au service de la compétition. La seconde la conçoit comme un bien commun, au service de la société.
La première, popularisée par Michael Porter au début des années 1980, s’inscrit dans le courant de la « competitive intelligence ». La maîtrise de l’information permet d’éclairer les choix stratégiques et d’anticiper les mouvements de la concurrence. L’entreprise est considérée comme un acteur en alerte permanente, mobilisant des données, des outils d’analyse et des modèles prédictifs pour renforcer sa compétitivité. La perspective est à la fois défensive et offensive : l’intelligence économique sert à conquérir des parts de marché et à se prémunir des menaces externes.
À lire aussi : Le renseignement au service de l’économie : les 30 ans de retard de la France
À la même époque, un tout autre courant émerge. À l’initiative du chercheur suédois Stevan Dedijer qui propose une vision bien plus inclusive avec la « social intelligence ». L’information n’est pas seulement une ressource stratégique au profit de quelques acteurs cherchant à être dominants, mais une orientation collective : celle des institutions, des entreprises et des citoyens cherchant à apprendre, à s’adapter et à innover ensemble. Cette approche, fondée sur la coopération entre sphères publique et privée, promeut une perspective visant le développement durable des sociétés plutôt que la seule performance des organisations.
Un lien entre savoir et action
Ces deux traditions ne s’opposent pas seulement dans leurs finalités ; elles reflètent deux conceptions du lien entre savoir et action. La « competitive intelligence » privilégie la maîtrise de son environnement et la compétition, quand la « social intelligence » valorise la coordination et la mutualisation des connaissances. En Suède, cette dernière s’est traduite par des dispositifs régionaux associant recherche, industrie et pouvoirs publics pour renforcer la capacité d’adaptation collective.
En France, l’intelligence économique s’est construite sur un équilibre fragile entre ces deux héritages : celui de la guerre économique et celui de la coopération à l’échelle du territoire. Aujourd’hui, la perspective de la social intelligence trouve un véritable écho chez les dirigeants d’entreprise. Face à la complexité et à l’incertitude, ils privilégient désormais des démarches collectives et apprenantes plutôt que la seule recherche d’un avantage concurrentiel. L’intelligence économique devient un levier d’action concrète, ancré dans la coopération et la responsabilité.
Veille collaborative
Ces démarches se traduisent sur le terrain par des formes de veille collaborative, où les entreprises mutualisent la collecte et l’analyse d’informations pour anticiper les mutations de leur environnement. Elles s’incarnent aussi dans les « entreprises à mission », qui placent le sens, la durabilité et la contribution au bien commun au cœur de leur stratégie.
Ces pratiques s’inscrivent pleinement dans la réflexion menée par Maryline Filippi autour de la responsabilité territoriale des entreprises (RTE). Elle propose d’« entreprendre en collectif et en responsabilité pour le bien commun ». Elles traduisent une conception du développement où le territoire devient un espace vivant de coopération entre les acteurs économiques, publics et associatifs. Dans cette perspective, la performance n’est plus une fin en soi, mais un moyen d’assurer la robustesse des systèmes productifs, cette capacité à durer et à s’adapter que défend Olivier Hamant.
Des formes variées d’appropriation
Comme le montre ma recherche doctorale (en particulier Poisson et coll., 2025), la notion d’intelligence économique connaît une appropriation variée selon le profil de dirigeant. En particulier, nous révélons que l’intelligence économique est souvent mobilisée pour construire des relations en vue de se doter de la force collective nécessaire pour faire face à l’incertitude.
Ainsi comprise, l’intelligence économique s’incarne dans des réseaux d’acteurs apprenants, dans la capacité à créer de la confiance et à partager les ressources d’un territoire. Elle propose une autre voie que celle de la compétition : celle de la coopération, de l’éthique et de la conscience d’un destin commun.
Cet article est publié dans le cadre de la Fête de la science (qui a eu lieu du 3 au 13 octobre 2025), dont The Conversation France est partenaire. Cette nouvelle édition porte sur la thématique « Intelligence(s) ». Retrouvez tous les événements de votre région sur le site Fetedelascience.fr.
Julien Poisson a reçu des financements de la Région Normandie et de l'Agence Nationale de la Recherche Technologique (ANRT) dans le cadre de sa thèse CIFRE menée depuis novembre 2021.
Ludovic Jeanne est membre de l'Académie de l'Intelligence économique.
Simon Lee a reçu des financements de l'ANRT dans le cadre de contrats CIFRE.
16.11.2025 à 17:20
Pourquoi certains fromages couverts de moisissures peuvent être consommés, mais jamais de la viande avariée : les conseils d’un toxicologue sur les précautions à prendre
Texte intégral (2607 mots)
Dans la cuisine, la prudence est de mise avec les aliments qui se dégradent. Gare aux moisissures sur les céréales, les noix et les fruits, car ces champignons microscopiques libèrent des toxines à risque. Attention surtout aux bactéries très nocives qui se développent en particulier sur la viande avariée. Des pathogènes qui ne sont pas toujours perceptibles à l’odeur ou à l’œil.
Quand vous ouvrez le réfrigérateur et que vous trouvez un morceau de fromage couvert de moisissure verte ou un paquet de poulet qui dégage une légère odeur aigre, vous pouvez être tentés de prendre le risque de vous rendre malades plutôt que de gaspiller de la nourriture.
Mais il faut établir une frontière très nette entre une fermentation inoffensive et une altération dangereuse. La consommation d’aliments avariés expose l’organisme à toute une série de toxines microbiennes et de sous-produits biochimiques, dont beaucoup peuvent perturber des processus biologiques essentiels. Les effets sur la santé peuvent aller de légers troubles gastro-intestinaux à des affections graves telles que le cancer du foie.
Je suis toxicologue et chercheur, spécialisé dans les effets sur l’organisme de substances chimiques étrangères, à l’image de celles libérées lors de la détérioration des aliments. De nombreux aliments avariés contiennent des microorganismes spécifiques qui produisent des toxines. Étant donné que la sensibilité individuelle à ces substances chimiques diffère et que leur quantité dans les aliments avariés peut également varier considérablement, il n’existe pas de recommandations absolues sur ce qu’il est sûr de manger. Cependant, il est toujours bon de connaître ses ennemis afin de pouvoir prendre des mesures pour les éviter.
Céréales et noix
Les champignons sont les principaux responsables de la détérioration des aliments d’origine végétale tels que les céréales, les noix et les arachides. Ils forment des taches de moisissures duveteuses de couleur verte, jaune, noire ou blanche qui dégagent généralement une odeur de moisi. Bien qu’elles soient colorées, bon nombre de ces moisissures produisent des substances chimiques toxiques appelées mycotoxines.
Aspergillus flavus et Aspergillus parasiticus sont deux champignons courants présents sur des céréales comme le maïs, le sorgho, le riz ainsi que sur les arachides. Ils peuvent produire des mycotoxines appelées aflatoxines qui, elles-mêmes forment des molécules appelées époxydes ; ces dernières étant susceptibles de déclencher des mutations lorsqu’elles se lient à l’ADN. Une exposition répétée aux aflatoxines peut endommager le foie et a même été associée au cancer du foie, en particulier chez les personnes qui présentent déjà d’autres facteurs de risque, comme une infection par l’hépatite B.
Le genre Fusarium est un autre groupe de champignons pathogènes qui peuvent se développer sous forme de moisissures sur des céréales comme le blé, l’orge et le maïs, en particulier dans des conditions d’humidité élevée. Les céréales contaminées peuvent présenter une décoloration ou une teinte rosâtre ou rougeâtre, et dégager une odeur de moisi. Les champignons Fusarium produisent des mycotoxines appelées trichothécènes qui peuvent endommager les cellules et irriter le tube digestif. Ils libèrent également une autre toxine, la fumonisine B1 qui perturbe la formation et le maintien des membranes externes des cellules. Au fil du temps, ces effets peuvent endommager le foie et les reins.
Si des céréales, des noix ou des arachides semblent moisies, décolorées ou ratatinées, ou si elles dégagent une odeur inhabituelle, il vaut mieux faire preuve de prudence et les jeter. Les aflatoxines, en particulier, sont connues pour être de puissants agents cancérigènes, il n’existe donc aucun niveau d’exposition sans danger.
Qu’en est-il des fruits ?
Les fruits peuvent également contenir des mycotoxines. Quand ils sont abîmés ou trop mûrs, ou quand ils sont conservés dans des environnements humides, la moisissure peut facilement s’installer et commencer à produire ces substances nocives.
L’une des plus importantes est une moisissure bleue appelée Penicillium expansum. Elle est surtout connue pour infecter les pommes, mais elle s’attaque également aux poires, aux cerises, aux pêches et à d’autres fruits. Ce champignon produit de la patuline, une toxine qui interfère avec des enzymes clés dans les cellules, entrave leur fonctionnement normal et génère des molécules instables appelées espèces réactives de l’oxygène. Ces dernières peuvent endommager l’ADN, les protéines et les graisses. En grande quantité, la patuline peut endommager des organes vitaux comme les reins, le foie, le tube digestif ainsi que le système immunitaire.
Les « cousins » bleus et verts de P. expansum, Penicillium italicum et Penicillium digitatum, se retrouvent fréquemment sur les oranges, les citrons et autres agrumes. On ne sait pas s’ils produisent des toxines dangereuses, mais ils ont un goût horrible.
Il est tentant de simplement couper les parties moisies d’un fruit et de manger le reste. Cependant, les moisissures peuvent émettre des structures microscopiques ressemblant à des racines, appelées hyphes, qui pénètrent profondément dans les aliments et qui peuvent libérer des toxines, même dans les parties qui semblent intactes. Pour les fruits mous en particulier, dans lesquels les hyphes peuvent se développer plus facilement, il est plus sûr de jeter les spécimens moisis. Pour les fruits durs, en revanche, je me contente parfois de couper les parties moisies. Mais si vous le faites, c’est à vos risques et périls.
Le cas du fromage
Le fromage illustre parfaitement les avantages d’une croissance microbienne contrôlée. En effet, la moisissure est un élément essentiel dans la fabrication de nombreux fromages que vous connaissez et appréciez. Les fromages bleus tels que le roquefort et le stilton tirent leur saveur acidulée caractéristique des substances chimiques produites par un champignon appelé Penicillium roqueforti. Quant à la croûte molle et blanche des fromages tels que le brie ou le camembert, elle contribue à leur saveur et à leur texture.
En revanche, les moisissures indésirables ont un aspect duveteux ou poudreux et peuvent prendre des couleurs inhabituelles. Les moisissures vert-noir ou rougeâtre, parfois causées par des espèces d’Aspergillus, peuvent être toxiques et doivent être éliminées. De plus, des espèces telles que Penicillium commune produisent de l’acide cyclopiazonique, une mycotoxine qui perturbe le flux de calcium à travers les membranes cellulaires, ce qui peut altérer les fonctions musculaires et nerveuses. À des niveaux suffisamment élevés, elle peut provoquer des tremblements ou d’autres symptômes nerveux. Heureusement, ces cas sont rares, et les produits laitiers avariés se trahissent généralement par leur odeur âcre, aigre et nauséabonde.
En règle générale, jetez les fromages à pâte fraîche type ricotta, cream cheese et cottage cheese dès les premiers signes de moisissure. Comme ils contiennent plus d’humidité, les filaments de moisissure peuvent se propager facilement dans ces fromages.
Vigilance extrême avec les œufs et la viande avariés
Alors que les moisissures sont la principale cause de détérioration des végétaux et des produits laitiers, les bactéries sont les principaux agents de décomposition de la viande. Les signes révélateurs de la détérioration de la viande comprennent une texture visqueuse, une décoloration souvent verdâtre ou brunâtre et une odeur aigre ou putride.
Certaines bactéries nocives ne produisent pas de changements perceptibles au niveau de l’odeur, de l’apparence ou de la texture, ce qui rend difficile l’évaluation de la salubrité de la viande sur la base des seuls indices sensoriels. Quand elles sont toutefois présentes, l’odeur nauséabonde est causée par des substances chimiques telles que la cadavérine et la putrescine, qui se forment lors de la décomposition de la viande et peuvent provoquer des nausées, des vomissements et des crampes abdominales, ainsi que des maux de tête, des bouffées de chaleur ou une chute de tension artérielle.
Les viandes avariées sont truffées de dangers d’ordre bactérien. Escherichia coli, un contaminant courant du bœuf, produit la toxine Shiga qui bloque la capacité de certaines cellules à fabriquer des protéines et peut provoquer une maladie rénale dangereuse appelée syndrome hémolytique et urémique.
La volaille est souvent porteuse de la bactérie Campylobacter jejuni qui produit une toxine qui envahit les cellules gastro-intestinales, ce qui entraîne souvent des diarrhées, des crampes abdominales et de la fièvre. Cette bactérie peut également provoquer une réaction du système immunitaire qui attaque ses propres nerfs. Cela peut déclencher une maladie rare appelée syndrome de Guillain-Barré qui peut entraîner une paralysie temporaire.
Les salmonelles présentes notamment dans les œufs et le poulet insuffisamment cuits, causent l’un des types d’intoxication alimentaire les plus courants. Elles provoquent des diarrhées, des nausées et des crampes abdominales. Elles libèrent des toxines dans la muqueuse de l’intestin grêle et du gros intestin, qui provoquent une inflammation importante.
(En France, l’Agence nationale de sécurité sanitaire – Anses – rappelle que les aliments crus ou insuffisamment cuits, surtout d’origine animale, sont les plus concernés par les contaminations par les bactéries du genre « Salmonella » : les œufs et les produits à base d’œufs crus, les viandes -bovines, porcines, incluant les produits de charcuterie crue, et de volailles –, les fromages au lait cru. L’Anses insiste aussi sur le fait que les œufs et les aliments à base d’œufs crus – mayonnaise, crèmes, mousse au chocolat, tiramisu, etc.- sont à l’origine de près de la moitié des toxi-infections alimentaires collectives dues à Salmonella, ndlr).
Clostridium perfringens attaque également l’intestin, mais ses toxines agissent en endommageant les membranes cellulaires. Enfin, Clostridium botulinum, qui peut se cacher dans les viandes mal conservées ou vendues en conserves, produit la toxine botulique, l’un des poisons biologiques les plus puissants, qui se révèle mortelle même en très petites quantités.
Il est impossible que la viande soit totalement exempte de bactéries. Mais plus elle reste longtemps au réfrigérateur – ou pire, sur votre comptoir ou dans votre sac de courses – plus ces bactéries se multiplient. Et vous ne pouvez pas les éliminer toutes en les cuisant. La plupart des bactéries meurent à des températures sûres pour la viande – entre 63-74 °C (145 et 165 degrés Fahrenheit) – mais de nombreuses toxines bactériennes sont stables à la chaleur et survivent à la cuisson.
Brad Reisfeld ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
16.11.2025 à 15:39
L’affrontement sur la taxe Zucman : une lutte de classe ?
Texte intégral (1326 mots)
Le terme de lutte des classes est peu utilisé depuis l’effondrement du communisme. Pourtant, le débat sur la taxe Zucman révèle un violent clivage de classe entre une infime minorité de très grandes fortunes et l’immense majorité des Français.
Pendant près de six mois, le projet de taxe Zucman a focalisé l’intérêt médiatique et politique. Il a aussi contribué à mettre en évidence un clivage de classes habituellement occulté par une forme « d’embargo théorique » qui pèse depuis le milieu des années 1970 sur le concept de classe sociale, comme sur tous les concepts affiliés (à tort ou à raison) au marxisme.
Retour sur le feuilleton de la taxe Zucman
Le 11 juin dernier, Olivier Blanchard (économiste en chef du Fonds monétaire international entre 2008 et 2015), Jean Pisani-Ferry (professeur d’économie à Sciences Po Paris et directeur du pôle programme et idées d’Emmanuel Macron en 2017) et Gabriel Zucman (professeur à l’École normale supérieure) publiaient une tribune où ils se prononçaient, en dépit de leurs divergences, en faveur d’un impôt plancher de 2 % sur le patrimoine des foyers fiscaux dont la fortune dépasse 100 millions d’euros (environ 1 800 foyers fiscaux), susceptible de rapporter de 15 milliards à 25 milliards d’euros par an au budget de l’État (les exilés fiscaux éventuels restant soumis à l’impôt plancher cinq ans après leur départ).
Dès la rentrée, les médias ouvraient un débat sur fond de déficit public et de « dette de l’État » que relançait chaque apparition de Gabriel Zucman. Sur un sujet économique réputé aride, ils recyclaient la confrontation à la fois inusable et omnibus entre « intellectualisme », « amateurisme » sinon « incompétence », imputés aux universitaires, et « sens pratique » des « hommes de terrain » confrontés aux « réalités » (de la vie économique) et/ou entre « prise de position partisane » et « neutralité », « impartialité », « apolitisme », attribués à la prise de position opposée. Le débat s’étendait rapidement aux réseaux sociaux : il opposait alors les partisans de la taxe qui invoquaient la « justice fiscale et sociale » à des opposants qui dénonçaient « une mesure punitive », « dissuasive pour l’innovation et l’investissement ».
Le 20 septembre, dans une déclaration au Sunday Times, Bernard Arnault, PDG du groupe LVMH et première fortune de France, avait décliné in extenso les deux volets de l’anti-intellectualisme médiatique en mettant en cause la « pseudo-compétence universitaire » de Gabriel Zucman et en dénonçant « un militant d’extrême gauche » dont « l’idéologie » vise « la destruction de l’économie libérale ».
Le Medef lui avait emboîté le pas. En guerre contre la taxe Zucman, Patrick Martin, affirmant que Zucman « serait aussi économiste que [lui] serait danseuse étoile au Bolchoï », annonçait un grand meeting le 13 octobre à Paris. Pourtant, il avait dû y renoncer face à la division créée par cette initiative au sein du camp patronal : l’U2P et la CPME (artisans et petites et moyennes entreprises) avaient décliné l’invitation : « On ne défend pas les mêmes intérêts », disaient-ils.
Mi-septembre, selon un sondage Ifop, 86 % des Français plébiscitaient la taxe Zucman.
Une bataille politique
À ces clivages que traçait le projet de taxe Zucman au sein du champ médiatique (audiovisuel public, d’un côté, et « supports » contrôlés par une dizaine de milliardaires, de l’autre) et de l’espace social (où les milliardaires s’opposaient à tous les autres) correspondaient approximativement ceux du champ politique. Portée initialement par une proposition de loi de Clémentine Autain et Éva Sas (groupe Écologiste et social), la taxe Zucman avait d’abord été adoptée par l’Assemblée nationale, le 20 février, avant d’être rejetée par le Sénat, le 12 juin.
Mais l’opportunité du projet se faisait jour au cours de l’été avec l’exhortation de François Bayrou à « sortir du piège mortel du déficit et de la dette », puis à l’occasion de l’invitation de Sébastien Lecornu à débattre du projet de budget du gouvernement « sans 49.3 ».
Le 31 octobre dernier, non seulement la taxe Zucman était balayée par une majorité de députés, mais également « sa version light » portée par le Parti socialiste (PS). Mesure de « compromis », la taxe « Mercier » (du nom d’Estelle Mercier, députée PS de Meurthe-et-Moselle) pouvait sembler plus ambitieuse, mais, en créant des « niches et des « exceptions », elle comportait, selon Gabriel Zucman, « deux échappatoires majeures » qui amorçaient « la machine à optimisation ».
Refusant de « toucher à l’appareil productif », selon sa porte-parole Maud Bregeon, le gouvernement Lecornu s’y opposait. Les députés d’Ensemble pour la République (députés macronistes) votaient contre (60 votants sur 92 inscrits) comme ceux de la Droite républicaine (28 sur 50). Le Rassemblement national (RN), qui s’était abstenu en février, s’inscrivait désormais résolument contre ce projet de taxe (88 sur 123) que Marine Le Pen décrivait comme « inefficace, injuste et dangereuse puisqu’elle entraverait le développement de nos entreprises ». Soixante-et-un députés socialistes et apparentés sur 69, 60 députés sur 71 de La France insoumise (LFI), 33 députés sur 38 du groupe Écologiste et social ainsi que 12 députés sur 17 du groupe Gauche démocrate et républicaine avaient voté pour le projet. Les députés LFI appelaient alors à la censure du gouvernement.
La lutte des 1 % les plus riches pour leurs privilèges
L’essor du néolibéralisme au cours des cinquante dernières années a certes transformé la morphologie des classes sociales (à commencer par celle de la « classe ouvrière » délocalisée et précarisée), accréditant ainsi l’avènement d’une « société post-industrielle », l’extension indéfinie d’une « classe moyenne » envahissante ou l’émergence d’une « société des individus » ou encore la prééminence des clivages (de sexe, de phénotype, d’âge, etc.) associés au revival des « nouveaux mouvements sociaux ».
Pourtant, le débat sur la taxe Zucman révèle bien un clivage de classe – comment l’appeler autrement ? – entre le 1 % et les 99 %, et l’âpreté de la lutte des 1 % pour la défense de leurs privilèges. Tout se passe comme si, en effet, à l’occasion de ce débat, s’était rejoué en France, sur la scène politico-médiatique, le mouvement Occupy Wall Street de septembre 2011 qui avait pour mot d’ordre :
« Ce que nous avons tous en commun, c’est que nous sommes les 99 % qui ne tolèrent plus l’avidité des 1 % restants. »
Gérard Mauger ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
16.11.2025 à 15:38
Tanzanie : la fermeture de l’espace numérique, élément clé de la répression
Texte intégral (1904 mots)
Face au puissant mouvement de contestation qui s’est emparé de la Tanzanie à la suite des élections générales, l’une des réponses du pouvoir a consisté à couper les réseaux sociaux. Dans ce grand pays d’Afrique de l’Est, comme dans bien d’autres pays aujourd’hui, la maîtrise de l’espace numérique est devenue un aspect central de la répression.
Le 29 octobre 2025, la Tanzanie a tenu des élections générales censées prolonger la trajectoire démocratique d’un pays souvent vu comme un îlot de stabilité politique en Afrique de l’Est.
Mais dans un climat déjà tendu – manifestations sporadiques à Zanzibar et Arusha, arrestations d’opposants, présence accrue de force de sécurité et fermeture partielle des médias critiques –, le scrutin s’est transformé en crise politique majeure. La présidente sortante Samia Suluhu Hassan, devenue présidente de Tanzanie en mars 2021 à la suite du décès du président John Magufuli, dont elle était la vice-présidente, a été élue avec près de 98 % des voix dans un contexte où le principal parti d’opposition, Chadema, avait été marginalisé et plusieurs de ses dirigeants arrêtés.
Dès l’annonce des résultats, des manifestations de protestation ont éclaté à Dar es Salaam (la plus grande ville du pays, où vivent environ 10 % des quelque 70 millions d’habitants du pays), à Mwanza et à Arusha. Les affrontements auraient fait, selon les sources, entre 40 et 700 morts, et plus d’un millier de blessés.
Face à la propagation des manifestations, le pouvoir a réagi par un couvre-feu national, un déploiement militaire dans les grandes villes et une coupure d’accès à Internet pendant environ 5 jours, invoquant la prévention de la désinformation comme mesure de sécurité. L’accès à Internet a été partiellement rétabli, mais les restrictions sur les réseaux sociaux et les plates-formes de messagerie persistent.
Ce triptyque autoritaire – fermeture politique, verrouillage territorial et blackout numérique – a transformé une contestation électorale en véritable crise systémique de confiance entre État et citoyens, entre institutions et information, et entre stabilité et légitimité.
Gouverner par le silence : quand le contrôle de l’information devient une stratégie de stabilité
Le contrôle de l’information comme pratique de gouvernement
Dans la perspective des sciences de l’information et de la communication (SIC), la séquence tanzanienne illustre une tendance plus large qui est celle de la transformation de la gestion de l’information en technologie de pouvoir (voir notamment, Michel Foucault, Surveiller et punir. Naissance de la prison, 1975 ; Gilles Deleuze, Post-scriptum sur les sociétés de contrôle, 1990).
Le blackout numérique ne vise pas seulement à contenir la désinformation ; il reconfigure les conditions mêmes de la visibilité. Comme le souligne Pierre Musso dès 2003 dans Télécommunications et philosophie des réseaux, l’espace numérique n’est plus un simple médium mais un espace politique. En contrôler l’accès, c’est aussi gouverner la perception.
Privés de réseaux sociaux, les citoyens perdent sur-le-champ leurs canaux d’expression. Les médias indépendants se retrouvent aveugles et les ONG ne peuvent plus documenter les violences.
C’est ainsi que l’État redevient le seul producteur de discours légitime : une régie symbolique de l’ordre public, pour reprendre la notion de Patrick Charaudeau (2005) sur la mise en scène du pouvoir.
Cette stratégie s’inscrit dans un continuum déjà observé lors d’autres scrutins africains (Ouganda 2021, Tchad 2021, Sénégal 2024). Elle marque une mutation du contrôle politique où il ne s’agit plus de réprimer la parole mais de désactiver les infrastructures mêmes de la parole.
La fabrique de la stabilité par la censure
Le discours officiel invoque la lutte contre les fausses informations pour justifier les coupures. Mais l’analyse sémiotique révèle un glissement de sens. L’ordre public devient synonyme de silence collectif et la stabilité politique se construit sur la neutralisation des espaces numériques de débat.
Les travaux en communication politique (Dominique Wolton, 1997) montrent que la démocratie suppose du bruit, du conflit, du débat et que le silence n’est pas l’ordre mais plutôt la suspension de la communication sociale.
Cette logique de stabilité performative donne l’illusion qu’il suffit que l’État contrôle la perception du désordre pour produire l’image d’un ordre.
Dans l’analyse du cas tanzanien, cette mise en scène du calme repose sur une invisibilisation dans la mesure où le calme apparent des réseaux remplace la réalité conflictuelle du terrain. Ce phénomène de stabilité performative, c’est-à-dire ici le calme apparent des réseaux traduisant une stabilité imposée, a déjà été observé au Cameroun et en Ouganda. Dans ces cas, la coupure d’Internet fut utilisée pour maintenir une image d’ordre pendant les scrutins contestés.
Or, la Tanzanie est un pays jeune. Près de 65 % de sa population a moins de 30 ans. Cette génération connectée via TikTok, WhatsApp ou X a intégré les réseaux sociaux non seulement comme espace de loisir mais aussi comme lieu d’existence politique. La priver soudainement d’accès dans ce moment précis porte à l’interprétation inévitable d’un effacement d’une part de la citoyenneté numérique.
Cette fracture illustre une asymétrie de compétences médiatiques qui se caractérise par le fait que le pouvoir maîtrise les outils pour surveiller tandis que les citoyens les mobilisent pour exister. Le conflit devient ainsi info-communicationnel dans la mesure où il se joue sur les dispositifs de médiation plutôt que dans la confrontation physique.
Aussi les répercussions sont-elles économiquement et symboliquement élevées.
Les interdictions de déplacement paralysent le commerce intérieur et les ports, les coupures d’Internet entraînent une perte économique estimée à 238 millions de dollars (un peu plus de 204 millions d’euros) et les ONG et entreprises internationales suspendent leurs activités face au manque de visibilité opérationnelle.
Mais au-delà du coût économique, la coupure d’Internet produit un effet délétère où la relation de confiance entre État et citoyens est rompue. L’information, en tant que bien commun, devient ici un instrument de domination.
Crise de la médiation et dérive sécuritaire en Afrique numérique
En Tanzanie, la circulation de l’information repose désormais sur des dispositifs de contrôle, non de transparence. L’État agit comme gatekeeper unique en filtrant les récits selon une logique de sécurité nationale. On assiste ainsi à une crise de la médiation où le lien symbolique entre institutions, médias et citoyens se défait.
Cette rupture crée une désintermédiation forcée où des circuits parallèles (VPN, radios communautaires, messageries clandestines) émergent, mais au prix d’une fragmentation du débat public. La sphère publique devient une mosaïque de micro-espaces informels, sans régulation et favorisant l’amplification des rumeurs et de discours extrêmes.
La situation tanzanienne dépasse le cadre du pays, en mettant en évidence les tensions d’un continent engagé dans une modernisation technologique sans démocratisation parallèle. L’Afrique de l’Est, longtemps vitrine du développement numérique avec le Kenya et le Rwanda, découvre que l’économie digitale ne garantit pas la liberté numérique.
À lire aussi : Rwanda, Maroc, Nigeria, Afrique du Sud : les quatre pionniers des nouvelles technologies en Afrique
Là où les infrastructures se développent plus vite que les institutions, les réseaux deviennent des zones grises de gouvernance. Ni pleinement ouverts ni totalement fermés, ils sont constamment surveillés. Le cas tanzanien incarne ainsi un moment charnière où la technologie cesse d’être vecteur de progrès pour devenir vecteur de pouvoir.
Dans une approche SIC, la question centrale reste celle de la sécurité communicationnelle.
Peut-on parler de sécurité nationale lorsque la sécurité informationnelle des citoyens est compromise ? La coupure d’Internet ne prévient pas la crise mais la diffère, la rendant plus imprévisible et violente. Cette distinction entre sécurité perçue et sécurité vécue est la preuve que la stabilité ne se mesure pas à l’absence de bruit mais à la qualité du lien informationnel entre les acteurs.
Une démocratie sous silence
La Tanzanie illustre une mutation du pouvoir à l’ère numérique : gouverner, c’est aussi, désormais, gérer la visibilité. Mais la maîtrise de cette visibilité ne suffit pas à produire la légitimité. En restreignant l’accès à l’information, le régime tanzanien a peut-être gagné du temps mais il a sûrement perdu de la confiance. Pour les observateurs africains et internationaux, cette crise n’est pas un accident mais le symptôme d’une Afrique connectée, mais débranchée de sa propre parole.
Fabrice Lollia ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
16.11.2025 à 15:38
Pourquoi le XXIe siècle sera « le siècle des animaux »
Texte intégral (1792 mots)
Au XXe siècle, les combats pour plus d’égalité ont permis à de nombreux groupes sociaux de devenir des sujets de droit. Cette progression vers davantage d’inclusivité pourrait faire du XXIe siècle le siècle des animaux. Mais comment les intégrer dans nos textes de loi ? Si les animaux ont des droits, ont-ils aussi des devoirs ?
Dans cet extrait de son essai « Par effraction. Rendre visible la question animale », aux éditions Stock/Philosophie magazine (2025), la politiste Réjane Sénac sonde ces questions.
Au XXe siècle, les mobilisations contre les inégalités ont eu pour point commun de revendiquer que chaque humain soit reconnu et traité comme un égal, dans la dénonciation des effets imbriqués du sexisme, du racisme et des injustices économiques et sociales. Pour cela, elles ont remis en cause l’animalisation de certains groupes humains, qu’il s’agisse des femmes, des personnes racisées, des personnes en situation de handicap et/ou des « pauvres ». L’animalisation a en effet été une des justifications centrales de l’exclusion hors de la citoyenneté active de ces groupes d’individus renvoyés à leur prétendue incapacité à être du côté de la raison du fait de leurs « qualités » et missions dites naturelles. L’objectif a été d’intégrer ces groupes dans la communauté des égaux en les faisant passer de l’autre côté de la barrière instaurée entre l’animalité et l’humanité. La légitimité et les conséquences de cette barrière ont ainsi été abordées à travers le prisme de l’émancipation humaine, et non celui de la domination des animaux non humains.
Dans l’approche antispéciste, le statut moral accordé aux animaux leur confère une reconnaissance comme sujets de droit, non pas pour accéder à des droits équivalents à ceux des humains (par exemple le droit de vote ou de mariage), mais à des droits adaptés à leurs besoins. L’enjeu est alors de penser la cohabitation la plus juste possible des intérêts, potentiellement divergents, des différentes espèces, humaines et non humaines. Dans Considérer les animaux. Une approche zooinclusive, Émilie Dardenne propose une démarche progressive dans la prise en compte des intérêts des animaux, au-delà de l’espèce humaine.
Elle présente des pistes concrètes de transition aux niveaux individuel et collectif, qui vont de la consommation aux choix de politique publique en passant par l’éducation et la formation. Elle propose des outils pratiques pour aider à porter des changements durables. Au niveau individuel, la zooinclusivité consiste par exemple à prendre en compte les besoins de l’animal que l’on souhaite adopter et l’engagement – financier, temporel… – qu’une telle démarche engendrerait avant de prendre la décision d’avoir un animal dit de compagnie. Au niveau des politiques publiques, la zooinclusivité prendrait par exemple la forme de l’inscription des droits des animaux dans la Constitution afin de ne pas en rester à une proclamation de leur reconnaissance comme « des êtres vivants doués de sensibilité » (article 515 du Code civil depuis 2015) ou des « êtres sensibles » (article L214 1 du Code rural depuis 1976), mais de permettre qu’ils acquièrent une personnalité juridique portant des droits spécifiques et adaptés. Le rôle fondamental de la Constitution est à ce titre soulevé par Charlotte Arnal, animaliste, pour qui « un projet de société commence par une Constitution, les animaux faisant partie de la société, elle doit les y intégrer ». Cette mesure, qu’elle qualifie de symbolique, « se dépliera aussi concrètement dans le temps, dans les tribunaux ». C’est dans cette perspective que Louis Schweitzer, président de la Fondation Droit Animal, Éthique et Sciences (LFDA), a pour ambition de faire de la Déclaration des droits de l’animal proclamée à l’Unesco en 1978, et actualisée en 2018 par la LFDA, un outil pédagogique diffusé dans les lieux publics et les écoles, puis qu’elle soit transposée dans la loi.
À travers Animal Cross, une association généraliste de protection animale, qu’il a cofondée en 2009 et qu’il préside, Benoît Thomé porte aussi cet horizon. Il défend l’intégration d’un article 0 comme base à notre système juridique, qui serait formulé en ces termes : « Tous les êtres vivants, domaines de la nature, minéral, humain, végétal, animal, naissent et demeurent libres et égaux en devoirs et en droits. » À l’argument selon lequel on ne peut pas accorder de droits aux animaux car ils ne peuvent pas assumer de devoirs, il répond que « les animaux font plus que leurs devoirs avec tout ce qu’ils font pour nous et les autres êtres vivants. Les êtres humains se privent d’une belle vie en ne voyant pas la beauté des relations avec les animaux ». Il cite le philosophe Tom Regan, auteur entre autres du célèbre article « The Rights of Humans And Other Animals » en 1986, pour préciser que, si l’on pose le critère de l’autonomie rationnelle comme une condition de l’accès aux droits moraux, il faut le refuser à tous les humains dépourvus de cette caractéristique, comme les bébés et les déficients intellectuels graves. Le critère plus inclusif de la capacité à ressentir des émotions étant celui qui est retenu pour les humains, en vertu de l’exigence de cohérence, il est alors logique, selon lui, d’attribuer des droits à tous les êtres sentients, qu’ils soient humains ou non.
Benoît Thomé souligne son désaccord avec Tom Regan sur le fait de considérer les animaux comme des patients moraux et non des agents moraux au sens où, comme les personnes vulnérables, les enfants ou les personnes en situation de handicap, ils auraient des droits mais ne pourraient pas accomplir leurs devoirs. Il souligne que les animaux accomplissent « leurs devoirs envers nous, êtres humains, et envers la nature et les écosystèmes pour les animaux sauvages, naturellement et librement, et non comme un devoir. Il faut donc “désanthropiser” ce concept pour le comprendre au sens de don, service rendu aux autres êtres vivants, participation aux écosystèmes ». Il précise que c’est « le sens de l’histoire » d’étendre les droits « de la majorité aux plus vulnérables », cela a été le cas pour les humains, c’est maintenant l’heure des animaux non humains.
Sans nier la réalité historique de l’animalisation des personnes ayant une déficience intellectuelle, des voix telles que celles des philosophes Licia Carlson et Alice Crary invitent le mouvement antispéciste à être vigilant vis-à-vis de « l’argument des cas marginaux » pour justifier l’extension de la considération morale aux animaux non humains. En écho aux critiques de la philosophe et militante écoféministe Myriam Bahaffou sur l’usage de l’analogie avec le sexisme et le racisme dans le discours antispéciste, elles pointent une instrumentalisation de la figure du handicap mental pouvant paradoxalement renforcer les processus de déshumanisation qu’il prétend combattre.
Le lien entre l’agrandissement de la communauté politique et juridique au XXe siècle et les questions posées au XXIe siècle par la question animale est également abordé par Amadeus VG Humanimal, fondateur et président de l’association FUTUR. Il inscrit les revendications antispécistes dans une continuité historique en précisant que « le cercle de compassion ne fait que s’agrandir, à travers les droits civiques au XIXe siècle puis les droits des femmes au XXe et ceux des animaux au XXIe siècle ». Le XXIe siècle sera donc « le siècle des animaux », l’enjeu est de « repousser le nuage du spécisme en proposant une nouvelle vision du monde ». Sans minorer le poids actuel, notamment électoral, de l’extrême droite et du populisme, il considère que c’est « un backlash temporaire », comme cela a été le cas pour les groupes humains exclus des droits de l’homme. Selon lui, l’ombre qui a longtemps occulté les droits des animaux se dissipera progressivement. De la même manière que la décision du 21 février 2021 du tribunal administratif de reconnaître l’État responsable d’inaction face à la lutte contre le réchauffement climatique est considérée comme une victoire écologique historique, qualifiée d’Affaire du siècle, il ne doute pas que, concernant la question animale, l’« Affaire du steak » viendra.
Réjane Sénac ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
16.11.2025 à 10:15
Pourquoi davantage de dette européenne favorisera la croissance et la consolidation des finances publiques des pays de l’UE
Texte intégral (2484 mots)

L’émission de dette par l’Union européenne, lancée par le plan de relance européen du 27 mai 2020 (Next Generation EU), peut profiter à ses États membres. Car qui dit dette, dit obligation, mais aussi actif financier. Un actif sûr européen demandé par les investisseurs du monde entier, comme alternative aux bons du Trésor fédéral états-unien.
Alors que l’impératif de réduction du déficit budgétaire continue d’alimenter la crise politique en France et que les négociations s’engagent sur le prochain cadre financier pluriannuel (CFP) de l’Union européenne (UE), cette dernière continue de monter en puissance en tant qu’émetteur de dette obligataire.
Cet essor est du au plan de relance européen proposé par la Commission européenne le 27 mai 2020, à savoir Next Generation EU (NGEU). Celui-ci semble avoir ouvert la voie vers une capacité d’emprunt européenne permanente. Durant l’été 2025, l’UE met au point le programme SAFE (Security Action for Europe) qui prévoit 150 milliards d’euros de dette, tandis que la Commission européenne propose la création d’un instrument de gestion de crise. Celui-ci autoriserait l’exécutif européen à lever jusqu’à 400 milliards d’euros le cas échéant.
Dans cet article, j’explique pourquoi l’émission pérenne et accrue de dette européenne contribuera à la consolidation des finances publiques des États membres. Raison de plus pour l’UE d’accélérer dans cette direction.
Ce que veulent les investisseurs
Le point de départ de ce raisonnement est simple : que demandent les investisseurs en la matière ?
En 1999, la création de l’Union économique et monétaire (UEM) crée le potentiel de défauts souverains en Europe, c’est-à-dire le risque financier qu’un État membre ne rembourse pas ses dettes. L’UEM a soustrait la création monétaire au contrôle des États membres pour la confier à la Banque centrale européenne. Sans ce contrôle, les États de l’Union européenne perdent la certitude de pouvoir honorer leurs obligations souveraines car ils renoncent à la possibilité d’avoir recours à la création monétaire pour se financer.
Pour un ensemble de raisons, ce risque financier potentiel déstabilise le fonctionnement des marchés des capitaux, car il élimine le statut d’actif sûr dont jouissaient les titres de dette publique jusque-là.
C’est la raison pour laquelle les investisseurs financiers ont très tôt compris que l’Union économique et monétaire devrait être complétée par la création d’un actif sûr européen, soit d’une part en recourant à l’émission et la responsabilité conjointes des États de l’UE, soit d’autre part à l’émission de titres de dette par la Commission européenne.
Une alternative aux actifs libellés en dollar
L’offre de ce nouvel actif financier européen devrait être volumineuse, fréquente et pérenne de manière à s’ériger en actif financier de référence et valeur refuge dans le marché financier européen. Pour la quasi-totalité des investisseurs, le modèle à reproduire est celui du marché états-unien de la dette publique, dont le pivot est le bon du Trésor fédéral.
À lire aussi : Face à la dette publique, « trois » Europe et une seule monnaie
À cela s’ajoute une demande croissante de la part des investisseurs extraeuropéens pour une alternative aux actifs libellés en dollar. Cette tendance est apparue depuis une dizaine d’années avec l’arsenalisation croissante du dollar par l’administration fédérale états-unienne. Le terme « arsenalisation du dollar » renvoie à un ensemble de pratiques à visée géopolitique, comme la menace d’interdire l’accès aux marchés financiers américains ou des poursuites judiciaires pour non-respect de sanctions (contre l’Iran, par exemple) prononcées par l’administration. Depuis un an, l’instabilité politique aux États-Unis, notamment la menace de réduire l’indépendance de la Réserve fédérale, a accru cette demande de diversification. L’euro est bien placé pour offrir une alternative, mais à condition de pouvoir offrir un actif aussi sûr et liquide que le bon du Trésor fédéral.
Étant donné que l’évolution de l’UE en émetteur souverain est une demande forte des investisseurs, par quels mécanismes cela pourrait-il contribuer à la consolidation des finances publiques des États membres ?
Premier canal : l’offre accrue d’actifs sûrs rassurera les investisseurs
Le premier mécanisme concerne l’effet général sur l’évaluation des risques de crédit par les investisseurs. L’augmentation nette de l’offre d’actifs sûrs aura un effet général rassurant et par conséquent réduira les primes de risque, mais aussi les spreads (différence de taux d’intérêt d’une obligation avec celui d’une obligation de référence de même durée) entre États de l’UE.
Un exemple de cette dynamique est l’expérience de l’automne 2020, avant et après l’annonce de l’accord sur le plan de relance européen. Tant que cet accord éludait les dirigeants européens, la fébrilité était palpable sur les marchés et les spreads. Celui de l’Italie en particulier avait tendance à s’écarter. L’annonce de l’accord a immédiatement inversé la dynamique. La mise en œuvre du programme fait qu’aujourd’hui les États membres du sud de l’UE – Italie, Espagne, Portugal – empruntent à des conditions similaires à celles de la France.
Deuxième canal : attraction accrue de capitaux extraeuropéens
Le deuxième mécanisme répond à la demande de diversification des investisseurs extraeuropéens. En leur proposant une alternative crédible aux actifs en dollar, l’émission accrue de dette européenne attirera un surcroît de flux extraeuropéens vers l’Europe. Cela augmentera l’offre de crédit en Europe, ce qui diminuera les taux d’intérêt de façon générale et facilitera le financement de l’économie européenne.
Troisième canal : emprunter pour investir agira sur le dénominateur
Le troisième mécanisme dépend de l’utilisation des ressources collectées par l’émission de dette. Si, comme avec le plan de relance européen Next Generation EU, ces ressources sont affectées à l’investissement public, notamment en infrastructures, cela améliorera la croissance potentielle.
L’accélération de la croissance générera un surplus de recettes fiscales, tout en agissant sur le dénominateur (à savoir le PIB, auquel on rapporte le stock de dette publique pour obtenir le ratio qui sert le plus souvent de référence dans les débats sur la soutenabilité des dettes). Les effets bénéfiques attendus sont aujourd’hui visibles dans les principaux États membres bénéficiaires de ce plan de relance, à savoir l’Italie et l’Espagne.
L’amélioration des perspectives de croissance aura aussi un effet spécifiquement financier. Pourquoi ? Car elle contribuera à retenir davantage de capitaux européens qui aujourd’hui s’exportent aux États-Unis pour chercher des rendements plus élevés dans les start-ups du pays de l’Oncle Sam. En d’autres termes, la résorption de l’écart de croissance entre États-Unis et Europe offrira relativement plus d’opportunités de placement en Europe même à l’épargne européenne.
Quatrième canal : favoriser la constitution de l’union du marché des capitaux
Un actif sûr européen est la pièce maîtresse pour enfin aboutir à l’union des marchés des capitaux. L’offre d’un actif financier de référence, ou benchmark asset, contribuera à uniformiser les conditions financières dans les États de l’UE, favorisera la diversification et la dénationalisation des expositions au risque et fournira du collatéral en grande quantité pouvant servir à garantir les transactions transfrontières au sein de l’UE.
Cette dernière fonction des titres de dette publique (servir de collatéral dans les transactions financières) est capitale pour le fonctionnement du système financier contemporain. Lorsque les banques et autres firmes financières ont besoin de liquidités, elles se tournent vers d’autres firmes financières et leur en empruntent en garantissant la transaction par des titres de dette publique.
L’utilisation de ces titres à cette fin découle de leur statut d’actif sûr. C’est la raison pour laquelle un actif sûr européen sous forme de titres émis par la Commission européenne favorisera les transactions transfrontières : une banque portugaise pourra beaucoup plus facilement emprunter des liquidités à un assureur allemand si la transaction est garantie par des titres européens plutôt que par des titres portugais par exemple.
L’union des marchés des capitaux, c’est-à-dire l’élimination du biais national dans la composition des portefeuilles d’actifs, améliorera l’allocation globale du capital en permettant de mieux aligner épargne et investissements à travers le marché européen. Cela était précisément l’un des effets principaux escomptés lors de la création de l’Union économique et monétaire (UEM).
Durant la première décennie de son existence, cette intégration financière a eu lieu, bien que cela servît à financer des bulles de crédit dans la périphérie qui alimentèrent la crise de l’Union économique et monétaire en 2009-2012. Les flux accrus de capitaux vers les États membres du sud de l’Europe ont diminué drastiquement le coût de financement des entreprises et des autorités publiques mais ont principalement été canalisés vers des investissements improductifs et spéculatifs comme la bulle immobilière en Espagne. Or, intégration financière et bulles de crédit ne sont pas synonymes : si les conditions sont mises en place pour canaliser le surcroît de flux de capitaux transfrontières vers les investissements productifs, la hausse de la croissance sera durable.
Christakis Georgiou ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.