01.02.2026 à 07:58
Hyounjeong Yoo, Instructor, School of Linguistics and Language Studies, Carleton University

Succès critique et populaire, « KPop Demon Hunters » s’inscrit dans l’essor mondial de la Hallyu, la « vague coréenne ». Le film met en lumière le rôle central des femmes et du folklore coréen dans une culture longtemps reléguée aux marges du récit occidental.
Quand j’étais enfant en Corée du Sud, le Nouvel An commençait souvent par une chanson bien connue : « Kkachi Kkachi Seollal ». Seollal désigne le Nouvel An lunaire, l’une des fêtes familiales les plus importantes en Corée, et kkachi signifie « pie », un oiseau associé à la chance et aux nouveaux départs heureux.
En chantant cette chanson, pensions-nous, nous invitions des visiteurs bienveillants à entrer dans la maison. Pour mes frères et sœurs et moi, ces visiteurs étaient le plus souvent nos grands-parents, et leur arrivée était synonyme de chaleur, de continuité et de sentiment d’appartenance à une même communauté.
Des décennies ont passé,je vis désormais au Canada, loin de mon pays d’origine, et ces visites sont devenues rares. Pourtant, j’ai l’impression que la pie est revenue, cette fois sur un écran vu partout dans le monde.
Le film d’animation de Netflix KPop Demon Hunters suit les aventures d’un groupe fictif de K-pop, Huntrix, dont les membres chassent des démons la nuit. Il vient d’obtenir une nomination aux Oscars, dans les catégories meilleur film d’animation et meilleure chanson originale, après avoir déjà remporté plusieurs Golden Globes.
Le film a été créé par la réalisatrice coréano-canadienne Maggie Kang. La production musicale est assurée par Teddy Park, et les voix sont celles d’acteurs et d’actrices américano-coréens, dont Arden Cho, Ji-young Yoo et Audrey Nuna.
Je m’intéresse à la façon dont KPop Demon Hunters ouvre une nouvelle phase de la Hallyu, la « vague coréenne », où le folklore et le travail musical des femmes se croisent pour bousculer la place longtemps marginale des récits asiatiques dans les médias occidentaux.
L’un des aspects les plus marquants du film est l’usage assumé de symboles coréens. Les chasseuses de démons portent des gat — des chapeaux traditionnels en crin de cheval associés aux lettrés sous la dynastie Joseon — et combattent les esprits maléfiques aux côtés du tigre, longtemps considéré comme un esprit protecteur de la Corée. Ces éléments marquent une prise de position culturelle.
Historiquement, le cinéma et l’animation occidentaux ont souvent cantonné les personnages asiatiques à des stéréotypes ou les ont purement et simplement effacés par des pratiques de whitewashing.
À l’inverse, KPop Demon Hunters place le folklore coréen au cœur de son récit. Le gat évoque la dignité et la discipline ; le tigre incarne la protection et la résilience. Ensemble, ils viennent contester l’idée persistante selon laquelle les productions grand public portées par des personnages asiatiques seraient nécessairement de niche ou de moindre valeur.
En recourant à des références clairement coréennes — comme le style satirique de la peinture minhwa incarné par le tigre Derpy — le film s’ancre fermement dans un contexte coréen bien précis, qui n'a rien à voir avec une esthétique panasiatique vague.
L’un des moments forts du film se trouve dans la séquence d’ouverture. À travers une succession rapide de figures chamaniques, de flappers et d’artistes de l’ère disco, la séquence peut se lire comme un hommage matrilinéaire aux musiciennes coréennes, de génération en génération.
Comme le souligne l’autrice Iris (Yi Youn) Kim, en s’appuyant sur une conférence de la chercheuse en études asiatico-américaines Elaine Andres, cette lignée fait écho à l’histoire bien réelle des Kim Sisters, souvent présentées comme le premier groupe féminin coréen à connaître un succès international. Après la mort de leur père pendant la guerre de Corée, les sœurs furent formées par leur mère, la célèbre chanteuse Lee Nan-young — connue notamment pour la chanson anticoloniale « Tears of Mokpo » — et se produisirent sur les bases militaires américaines pour gagner leur vie.
Les Kim Sisters sont ensuite devenues des habituées de l’émission The Ed Sullivan Show, séduisant le public américain tout en composant avec des attentes racistes qui cantonnaient les femmes asiatiques à des figures jugées accessibles, inoffensives et exotiques.
Le groupe fictif Huntrix s’inscrit dans cet héritage. À l’image des Kim Sisters, ses membres sont censées incarner la discipline, le professionnalisme et la Corée elle-même aux yeux du public.
Le film montre ainsi le groupe face à la discipline rigoureuse qui leur est imposée, contraintes de maintenir une image publique irréprochable tout en étouffant leurs vulnérabilités personnelles afin d’assumer leur double rôle d’idoles et de protectrices. À un niveau méta-narratif, Huntrix est également présenté comme un représentant de la Corée du Sud, à travers l’usage de symboles du folklore du pays comme le gat et le tigre.
En tant qu’« ambassadrices culturelles », à l’écran comme en dehors, les membres de Huntrix ne se contentent pas de divertir : elles assument aussi la charge symbolique de représenter une nation face à un public mondial.
En inscrivant cette filiation dans un film d’animation grand public, KPop Demon Hunters reconnaît que le succès mondial de la K-pop repose sur des décennies de travail, de sacrifices et de négociations menées par des femmes face aux structures de pouvoir occidentales.
Le succès du film s’inscrit dans la poursuite de l’expansion de la Hallyu dans les médias mondiaux. Le cinéma et les séries sud-coréens ont déjà transformé les perceptions à l’international, avec des œuvres majeures comme Parasite et des séries diffusées à l’échelle mondiale comme Squid Game. Netflix s’est en outre engagé publiquement à investir des centaines de millions de dollars dans les contenus coréens, signe que cette dynamique culturelle est structurelle plutôt que passagère.
KPop Demon Hunters montre comment la culture populaire coréenne circule désormais avec fluidité entre différents médias — musique, animation, cinéma et plateformes de streaming — tout en conservant une forte spécificité culturelle. L’accueil du film remet en cause l’idée tenace selon laquelle les récits ancrés dans des expériences asiatiques manqueraient de portée universelle.
La reconnaissance, à elle seule, ne suffit pas à effacer les inégalités, pas plus qu’elle ne démantèle les hiérarchies racialisées à l’œuvre dans les industries médiatiques mondiales. Mais une visibilité durable peut faire la différence. Des travaux montrent qu’une exposition répétée à des représentations multidimensionnelles et humanisées de groupes marginalisés contribue à réduire les biais raciaux, en normalisant la différence plutôt qu’en l’exotisant.
Si le film s’inscrit dans des histoires culturelles marquées par la présence militaire américaine et la politique de la guerre froide, il reconfigure ces héritages à travers un récit diasporique qui place les voix et les points de vue coréens au centre.
La promesse de la pie est enfin tenue. Les personnages coréens ne sont plus de simples « invités » ni des figures secondaires dans l’histoire des autres. Ils sont désormais les protagonistes — tenant l’épée, le micro et, peut-être un jour, un Oscar.
Récemment, je me suis surprise à revoir KPop Demon Hunters en mangeant du gimbap et des nouilles instantanées, les mêmes plats réconfortants que partagent les personnages à l’écran. Le moment était simple, mais chargé de sens.
Il m’a rappelé une remarque faite un jour par l’un de mes étudiants : une exposition de cette ampleur permet à celles et ceux qui se sont longtemps sentis blessés par l’exclusion de se sentir enfin regardés.
Hyounjeong Yoo ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
31.01.2026 à 16:40
Arnaud Alessandrin, Sociologue, Université de Bordeaux
Taylor Swift est aujourd’hui bien plus qu’une star de la pop. Artiste parmi les plus écoutées au monde, elle cristallise des passions, des controverses et des formes d’identification particulièrement intenses. Mais que dit réellement Taylor Swift du monde social ? Et surtout, que disent ses fans de nos sociétés contemporaines ?
À partir d’une enquête sociologique menée auprès de plus de 1 000 fans en France, je propose de déplacer le regard : il ne s’agit pas d’analyser uniquement l’artiste, mais de comprendre ce que son œuvre et sa figure produisent socialement. Qui sont les Swifties (les fans de la chanteuse) ? Comment se rencontrent-ils ? En quoi Taylor Swift accompagne-t-elle les trajectoires de vie ? Et que révèle son succès des attentes politiques, féministes ou morales de ses publics ? C’est ce qu’explore mon essai, Sociologie de Taylor Swift, qui vient de paraître.
Loin des clichés sur un fandom adolescent et irrationnel, l’analyse met en évidence des pratiques culturelles structurées, genrées, durables et socialement situées. À travers Taylor Swift, c’est toute une sociologie des émotions, des identités et des engagements contemporains qui se donne à voir.
Contrairement aux représentations médiatiques qui réduisent souvent les fans de Taylor Swift à des adolescentes exaltées, l’enquête montre une réalité bien plus nuancée. Du point de vue de l’âge, les Swifties qui ont répondu à mon enquête se situent majoritairement dans le jeune âge adulte : près de la moitié ont entre 18 et 34 ans, mais plus d’un tiers ont plus de 35 ans, attestant d’un attachement durable à l’artiste bien au-delà de l’adolescence.
Le genre constitue un marqueur central de ce fandom (de ce groupe de fans). Les femmes représentent près de 80 % des personnes interrogées tandis que les hommes restent minoritaires. L’enquête met aussi en évidence une présence significative de personnes non binaires ou transgenres, proportionnellement bien plus élevée que dans la population générale (5 %). L’identité sexuelle apparaît également comme un facteur structurant de la fanité : plus d’un quart des fans ayant participé à l’enquête se déclarent lesbiennes, gays, bisexuel·les ou queer. Ces chiffres confirment que l’univers de Taylor Swift constitue un espace d’identification particulièrement fort pour les minorités sexuelles et de genre (on nomme le fandom gay de Taylor le « Gaylord ».
Aimer Taylor Swift ne relève donc pas d’un simple goût musical, mais d’une pratique culturelle située, marquée par des expériences sociales, genrées et biographiques spécifiques.
Être fan de Taylor Swift, ce n’est pas seulement écouter de la musique : c’est aussi créer du lien. L’enquête montre que la communauté Swiftie fonctionne comme un véritable espace de sociabilité. Plus de 60 % des répondantes et répondants déclarent avoir noué des amitiés grâce à leur intérêt commun pour Taylor Swift, que ce soit en ligne, lors de concerts ou dans des contextes du quotidien.
Ces rencontres prennent des formes multiples : échanges sur les réseaux sociaux, discussions autour des paroles, participation à des événements collectifs ou rituels devenus emblématiques, comme l’échange de bracelets d’amitié. Les liens décrits sont souvent durables et émotionnellement investis, dépassant le simple cadre du fandom.
Cette sociabilité repose sur une grammaire affective partagée. Les chansons servent de supports à la discussion, à la confidence et parfois à l’entraide. Loin d’un fandom nécessairement conflictuel ou « toxique », les Swifties qui ont participé à l’enquête évoquent majoritairement des normes de bienveillance et de soutien mutuel, souvent attribuées à l’image publique et aux discours portés par l’artiste elle-même.
La relation des fans à Taylor Swift s’inscrit dans le temps long. Plus de la moitié des personnes interrogées se déclarent fans depuis plus de dix ans, et une part importante explique avoir découvert l’artiste à l’adolescence. Cette ancienneté témoigne d’une fidélité rare dans les industries culturelles contemporaines.
Taylor Swift n’est pas seulement écoutée : elle accompagne les parcours de vie. Près de 70 % des fans déclarent que l’artiste occupe une place « importante » ou « très importante » dans leur vie. Pour beaucoup, ses chansons sont associées à des moments clés : ruptures amoureuses, amitiés, périodes de doute, maladies, transitions identitaires ou professionnelles.
Cette centralité s’explique par l’écriture intime et narrative de Taylor Swift, qui permet aux fans de projeter leurs propres expériences dans ses chansons. Le fandom fonctionne ainsi comme une ressource biographique : aimer Taylor Swift, c’est disposer d’un répertoire émotionnel et symbolique pour se raconter et traverser les épreuves du quotidien.
Mais pour comprendre les fans de Taylor, on pourra aussi interroger les liens entre ce fandom et valeurs politiques. Les données montrent que les fans de Taylor Swift se situent majoritairement du côté de valeurs progressistes, qu’elles soient environnementales ou féministes. Une large majorité se déclare favorable à l’égalité femmes-hommes, aux droits des personnes LGBTQIA+ et à la lutte contre les discriminations (entre 70 et 80 %).
Ces valeurs influencent directement les attentes vis-à-vis de l’artiste. Près de deux tiers des personnes interrogées estiment que Taylor Swift devrait prendre position publiquement sur certaines causes, notamment féministes ou sociales, même si une minorité défend son droit à la neutralité.
Taylor Swift apparaît ainsi comme une figure politique paradoxale : ni militante au sens classique, ni totalement neutre. Son engagement est perçu comme mesuré, parfois stratégique, mais néanmoins porteur d’effets symboliques forts. L’enquête montre que les fans ne sont pas passifs : ils discutent, critiquent et évaluent les prises de position de l’artiste à l’aune de leurs propres valeurs, révélant la politisation croissante de la culture populaire.
Au terme de cette enquête, une chose apparaît clairement : Taylor Swift elle est un fait social. Son œuvre, ses prises de parole et la communauté qu’elle fédère révèlent des transformations profondes de nos rapports à la culture, à l’intimité et au politique. Étudier Taylor Swift, ce n’est donc pas céder à l’air du temps : c’est prendre au sérieux ce que la pop dit du social, des émotions et des attentes collectives – souvent bien au-delà d’une seule génération.
Arnaud Alessandrin ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
31.01.2026 à 09:16
Laurent Mériade, Professeur des universités en sciences de gestion - Agrégé des facultés - IAE - CleRMa, Université Clermont Auvergne (UCA)
De nombreuses universités lancent l’alerte sur leurs difficultés financières. Pourtant, si l’on se réfère aux critères officiels fixés par un décret de soutenabilité mis en place en 2024, la situation semble beaucoup moins préoccupante. Qu’est-ce qui se cache réellement derrière ces nouveaux critères ? Dans quelle mesure nous informent-ils vraiment sur la situation financière des universités ?
En 2024, on dénombrait 60 universités françaises présentant de potentielles difficultés financières (principalement déficitaires). En 2025, alors que 80 % des universités présentent encore des budgets déficitaires et que les universités appellent au secours, officiellement, on ne compterait plus que 12 universités en difficulté. Par quel miracle, en moins d’un an, la situation financière des universités françaises a-t-elle pu se redresser de la sorte ?
La réponse à cette interrogation se trouve dans un décret de soutenabilité financière (n° 2024-1108) du 2 décembre 2024 qui modifie les critères d’évaluation des difficultés financières des universités. Ce décret introduit des indicateurs de soutenabilité financière qui considèrent qu’une université déficitaire (même depuis plusieurs années) n’est plus en difficulté financière. Elle ne l’est que si elle dépasse un seuil minimum de trésorerie (argent détenu sur le compte bancaire au Trésor public), de fonds de roulement (réserve d’argent détenue pour faire face à des dépenses programmées ou imprévues) et un seuil maximum de charges de personnel (rémunérations et cotisations sociales).
En réalité, l’introduction de ces trois nouveaux indicateurs (ou ratios) relâche certaines contraintes budgétaires des universités pour les forcer à utiliser massivement leurs réserves (trésorerie et fonds de roulement), comme cela est également demandé à de nombreux opérateurs de l’État dans le budget 2026 en cours de vote au Parlement.
Cependant, pour les universités, ces réserves ne sont souvent que très partiellement disponibles, car déjà pré-engagées pour financer des investissements à long terme, des contrats de recherche, de maintenance, de fourniture ou certains éléments de rémunérations (primes, promotions ou évolution programmée des salaires).
Décryptons ces nouveaux indicateurs. Ne créent-ils pas surtout une illusion, rendant plus présentable la situation financière des universités et plus acceptable le désengagement progressif de l’État ?
Comme dans d’autres domaines, le diable se cache dans le détail des méthodes de calcul de ces indicateurs.
Selon ce nouveau décret, en fin d’année civile, la trésorerie et le fonds de roulement (FdR) d’une université doivent être respectivement supérieurs à 30 jours et à 15 jours de fonctionnement en crédits de paiement hors investissement. Ces deux premiers ratios sont calculés de la manière suivante :
Le numérateur de ces ratios intègre la trésorerie ou le fonds de roulement générés par les ressources d’investissement. En revanche, le dénominateur ne prend pas en compte les dépenses d’investissement autorisées au cours de l’année (crédits de paiement).
Ce mode de calcul ne respecte pas une règle élémentaire de calcul des ratios de gestion financière qui impose d’utiliser un périmètre de calcul identique pour le numérateur et le dénominateur. Ici le numérateur comprend les investissements et le dénominateur est calculé hors investissement, ce qui augmente artificiellement la valeur du ratio et permet, artificiellement aussi, de dépasser les seuils minimums requis.
Pour permettre le calcul de ces nouveaux indicateurs, le nouveau décret financier a redéfini le périmètre du budget de l’établissement, dénommé désormais « budget » et qui agrège le budget principal (en personnel, fonctionnement et investissement) et les budgets annexes (dont le budget annexe immobilier pour les universités qui en disposent) (article R. 719-52).
Ce changement ne permet plus de différencier, pour le calcul de ces indicateurs, les trésoreries et fonds de roulement réellement disponibles (pour payer le personnel et le fonctionnement) de ceux pré-engagés dans des opérations particulières (investissements, contrats de recherche notamment). En recalculant ces ratios pour la seule partie de trésorerie et fonds de roulement réellement disponibles à partir des informations financières du ministère de l’enseignement supérieur, le nombre de jours de trésorerie est en moyenne divisé par deux et par trois pour celui du fonds de roulement.
Ainsi, une université qui présente officiellement un ratio de trésorerie de 50 jours (donc significativement supérieur au seuil de 30 jours) ne détient probablement que 25 jours de trésorerie réellement disponibles. De même, la même université (ou une autre) qui présenterait un fonds de roulement de 30 jours (donc significativement supérieur au seuil de 15 jours) a toutes les chances de ne détenir seulement qu’environ 10 jours de fonds de roulement de fonctionnement disponible.
Autant dire que juger la santé financière d’une université sur la base du calcul actuel de ces deux ratios relève plus de la « roulette russe » que d’une observation objective et sincère.
Pour ce qui concerne le troisième ratio financier, c’est moins son calcul qui est contestable (total charges de personnel/produits encaissables), même si les produits encaissables intègrent très majoritairement des ressources rigides et contraintes (subvention pour charges de service public), que celui de son seuil maximum (83 % des produits encaissables, 85 % pour les établissements à dominante sciences humaines et sociales).
Pourquoi 83 % (ou 85 %) ? Et pourquoi pas 70 % ? 75 % ? 80 % ? À titre de comparaison, en 2022, les charges de personnel des universités publiques des 38 pays de l’Organisation de coopération et de développement économiques (OCDE) représentaient en moyenne 66 % de leurs dépenses totales (les universités françaises présentant le taux moyen le plus élevé à environ 77 %).
En fixant ce seuil d’alerte à 83 %, on autorise les universités à consacrer seulement 17 % (voire 15 %) de leurs produits encaissables à des charges de fonctionnement pourtant indispensables à la stabilité et la pérennité des universités (électricité, chauffage, entretien de locaux et du matériel, fournitures et services d’enseignement et de recherche, etc.).
Un calcul de ce ratio par catégories de personnel (enseignant, administratif, technique) à partir des dépenses totales, comme le réalise d’ailleurs l’OCDE, serait probablement plus pertinent et autoriserait des comparaisons internationales.
Finalement, l’ensemble de ces approximations ou insuffisances calculatoires peut soit donner une impression d’amateurisme dans le contrôle financier des universités françaises, soit, plus assurément, le sentiment d’une volonté de dissimulation de la réalité des difficultés financières tout en rendant les universités toujours plus comptables de celles-ci.
Un récent rapport d’information du Sénat de 2025 reconnaissait que la seule lecture des budgets et des indicateurs de soutenabilité financière des universités ne permet pas de faire le lien entre les données budgétaires des établissements et leurs activités.
À court terme, les fonds de roulement et trésoreries des universités n’étant pas des puits sans fond, il est probable qu’un grand nombre d’universités ne soit plus en mesure, très rapidement, d’assumer des engagements financiers récurrents (entretien des locaux et matériels, paiement des rémunérations, accueil physique de tous les étudiants).
À moyen terme, c’est la réalisation des principales missions de service public des universités (développement de l’accès à l’enseignement supérieur, réussite des étudiants, augmentation de leur employabilité, renforcement de la cohésion sociale et territoriale, développement de la recherche) qui sera profondément remise en cause.
Laurent Mériade ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
30.01.2026 à 12:31
Rossella Sorio, Professeure Associée, Département Marketing ICN BS, ICN Business School
Insaf Khelladi, Full Professor en Marketing, Excelia
Sylvaine Castellano, Directrice de la recherche, EM Normandie

Après le Dry January, place au French January : boire avec modération, boire autrement ou ne pas boire. Une étude sur les vins sans alcool ou à faible teneur en alcool (vins « nolo », pour no-low) analyse cette nouvelle tendance française invitant à dépasser un choix binaire entre consommation et abstinence. Explication avec le témoignage de consommateurs.
Notre analyse de près de 150 entretiens montre que les consommateurs de vins « nolo », ou no-low, en France ne sont ni majoritairement des abstinents stricts ni des individus contraints par des impératifs médicaux ou physiologiques. Le plus souvent, ces consommateurs réguliers d’alcool sont attachés au vin comme pratique sociale et culturelle, mais restent désireux de mieux maîtriser leur consommation et d’en moduler l’intensité et les occasions.
Nos résultats suggèrent que la sobriété s’inscrit moins dans une logique d’abstinence normative que dans des formes de régulation des pratiques et de gouvernement de soi. C’est dans cette tension, entre contrôle de soi et refus de l’abstinence normative, que s’inscrit aujourd’hui le débat entre Dry January et French January.
Cette régulation prend très concrètement la forme d’une alternance des produits selon les contextes. Un consommateur français dans notre étude de 2019 disait « Ce n’est pas pour arrêter de boire du vin, c’est pour mieux gérer selon les moments ». Un autre consommateur français dans notre étude de 2024 soulignait le caractère situationnel de ce choix : « Je bois du vin classique quand le moment s’y prête, et du sans alcool quand je dois conduire ou rester concentré ». Une autre personne interviewée ajoute « continuer à boire pour le plaisir, sans se sentir limité, et sans renoncer complètement au vin ».
Décryptage de ce paradoxe French (Dry) January.
Le Dry January, lancé au Royaume-Uni en 2013, repose sur une logique claire : une abstinence totale pendant un mois, afin de favoriser une prise de conscience individuelle et de générer des bénéfices mesurables pour la santé. En France, cette initiative, portée depuis 2020 principalement par des associations de prévention, s’inscrit dans un contexte particulier, celui d’un pays où l’alcool, et en particulier le vin, occupe une place centrale dans les pratiques sociales et culturelles.
Face à cette logique de rupture temporaire, le French January s’est imposé comme une contre-proposition culturelle, défendue par la filière vitivinicole et largement relayé dans la presse. Cette orientation est explicitement formulée dans le manifeste du French January qui invite à « savourer plutôt que s’interdire », à reconnaître la pluralité des pratiques – boire avec modération, boire autrement ou ne pas boire – et à rechercher « un juste milieu entre le trop et le zéro ».
Le French January reformule les enjeux de santé publique dans un cadre narratif différent, en revendiquant une sobriété choisie et non imposée, appelée à s’inscrire dans la durée plutôt que dans la seule parenthèse du mois de janvier.
Cette coexistence de deux initiatives révèle une polarisation très française du débat. D’un côté, une sobriété conçut comme abstinence temporaire, de l’autre, une sobriété pensée comme régulation des pratiques. Cette polarisation est souvent caricaturée en opposition entre « hygiénistes » et « épicuriens », alors même que les données scientifiques rappellent une réalité incontestable : toute consommation d’alcool comporte un risque.
Selon l’Organisation mondiale de la santé (OMS), l’alcool est responsable de millions de décès chaque année, et il n’existe pas de seuil de consommation totalement sans risque. Mickaël Naassila, chercheur et président de la Société française d’alcoologie, insiste sur une bascule culturelle réelle : recul des croyances dans un alcool « protecteur », acceptation croissante de la non-consommation, notamment chez les jeunes, et meilleure connaissance des risques.
À lire aussi : Et si l’alcool disparaissait de la planète ?
Cette bascule reste incomplète et entravée par des blocages politiques et institutionnels. Contrairement au tabac, il n’existe pas en France de véritable « plan alcool ». Les campagnes de prévention sont souvent limitées à la lutte contre les excès ou les dépendances, au détriment de la prévention primaire. Dans ce contexte, le Dry January joue un rôle important : il rend visible la non-consommation, légitime le refus de boire et permet à certains individus de développer des compétences psychosociales pour réguler leurs pratiques.
À lire aussi : Alcool et Dry January : Relever le « Défi de Janvier » est toujours bénéfique, même en cas d’échec
Les limites du « tout ou rien » sont également documentées. Des travaux récents suggèrent que l’abstinence temporaire peut produire des effets de compensation après janvier, et qu’elle touche principalement des consommateurs occasionnels, sans nécessairement atteindre les publics les plus vulnérables.
Ces constats ne disqualifient pas le Dry January ils rappellent simplement qu’un changement durable des comportements ne peut reposer sur un seul dispositif normatif.
C’est précisément ici que les recherches en marketing, en comportement du consommateur et en sociologie des marchés peuvent enrichir le débat. La transition vers une consommation d’alcool plus responsable ne dépend pas uniquement des messages de santé publique, mais aussi de la manière dont les produits et les pratiques sont catégorisés, légitimés et émotionnellement valorisés.
Les vins sans alcool ou à faible teneur en alcool (vins « nolo ») constituent un révélateur particulièrement intéressant. Souvent présentés comme des alternatives responsables, ils se situent pourtant dans une zone de tension. D’un côté, ils répondent à une demande croissante de réduction de la consommation ; de l’autre, ils souffrent d’un déficit de légitimité, notamment lorsqu’ils sont associés à une logique de privation ou de contrainte temporaire.
Cette alternance est d’autant plus importante que, pour une majorité de consommateurs interrogés, les vins « nolo » ne sont pas conçus comme des substituts du vin, mais comme des options complémentaires. Nos enquêtes de 2019 et 2024 insistent sur le fait qu’ils continuent à consommer du vin avec alcool pour certaines occasions, tout en recourant au vin sans alcool pour rester pleinement dans le moment social, sans se sentir mis à l’écart. Cette alternance est d’abord liée aux occasions de sociabilité :
« Boire du vin, c’est surtout un moment pour être ensemble, pour partager un repas », explique un consommateur français.
Dans ce contexte, le vin sans alcool est mobilisé non pas comme un substitut, mais comme un ajustement, comme exprimé par un autre consommateur français :
« Ce n’est pas un vin de repas pour moi, plutôt quelque chose pour l’apéritif ou quand on veut rester sobre », souligne une personne interviewée.
Cette distinction entre usages est également très présente dans les discours des consommateurs. Pour les consommateurs français, le vin sans alcool « n’est pas fait pour remplacer le vin », mais pour répondre à des situations spécifiques : « un déjeuner d’affaires », « un événement en journée » ou « un moment où l’on veut rester lucide ».
Nos travaux sur les produits « free-from » montrent que, dans les catégories hédoniques comme le vin, la suppression d’un attribut central – ici l’alcool – peut altérer la valeur perçue, l’authenticité et le plaisir anticipé. Le risque est alors double : soit le vin « nolo » est perçu comme un simple substitut fonctionnel, dépourvu de valeur émotionnelle ; soit il est rejeté comme un « faux vin », ni pleinement vin, ni véritable alternative.
Nos entretiens mettent en évidence une tension entre attentes hédoniques et logiques de régulation. Pour certains consommateurs, l’alcool demeure indissociable du plaisir associé au vin, au point que le vin sans alcool est perçu comme ne permettant ni de « se détendre » ni d’« oublier ses émotions négatives ».
Dans ce contexte, le French January peut offrir un cadre discursif différent. En valorisant la pluralité des choix – boire moins, boire autrement, ou ne pas boire –, il permet de repositionner les vins « nolo » non comme une solution miracle, ni comme un gadget marketing, mais comme une option parmi d’autres dans un répertoire de pratiques responsables. Cette recatégorisation est essentielle : elle conditionne l’acceptabilité sociale de ces produits et leur capacité à s’inscrire durablement dans les usages.
Cette opportunité est ambivalente. Si la modération est invoquée sans rappel explicite des risques liés à l’alcool, elle peut contribuer à brouiller les messages de santé publique. À l’inverse, si les vins « nolo » sont présentés comme une réponse suffisante aux enjeux sanitaires, ils risquent de créer une illusion de solution, détournant l’attention des changements plus profonds nécessaires dans les pratiques.
Ce débat ne devrait pas être lu comme un affrontement entre deux camps irréconciliables, mais comme le symptôme d’une transition normative inachevée. Là où la santé publique explique pourquoi il faut réduire la consommation d’alcool, les sciences sociales et du management permettent de comprendre pourquoi certaines manières de formuler, de vendre et de catégoriser la sobriété fonctionnent… ou échouent.
Une consommation d’alcool plus responsable ne se construira ni par la seule abstinence ponctuelle ni par une modération vague et dépolitisée. Elle suppose des messages clairs sur les risques, des cadres normatifs cohérents, et une réflexion approfondie sur la place des marchés et des émotions dans nos choix. À ce prix seulement, le débat pourra gagner en maturité, et en efficacité.
Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.
30.01.2026 à 12:16
Isabelle Barth, Secrétaire général, The Conversation France, Université de Strasbourg

Dans Gourou, le nouveau film de Yann Gozlan, Pierre Niney interprète un coach en développement personnel qui pousse les limites trop loin. Si les excès du bien-être méritent d’être critiqués, le coaching, sous certaines conditions, reste un outil qui peut être utile… à condition de ne pas lui demander ce qu’il ne peut pas faire. La croyance en une toute-puissance (de soi, du coach ou du coaching), voilà le danger !
« Ce que tu veux, c’est ce que tu es ! » Dans le film Gourou, ce mantra répété jusqu’à l’épuisement par le public à l’initiative du « gourou » (incarné par Pierre Niney) n’est pas un simple slogan de motivation, c’est le symptôme d’une idéologie dans laquelle nous baignons dans nos sociétés occidentales (c’est un prérequis indispensable de se situer dans ce cadre culturel) : celle qui prétend que la volonté suffit à tout, que le bonheur est un choix individuel, que la souffrance relève d’un défaut personnel.
Le film en fait une ritournelle hypnotique, révélant la face sombre de cette croyance devenue hégémonique : car la réalité est qu’elle culpabilise, elle isole, elle invalide.
Traditionnellement, le terme « gourou » désigne un maître spirituel (à l’origine dans la religion brahmanique). Mais les sciences sociales ont montré son évolution vers une figure plus ambiguë : celle d’un individu charismatique qui exerce une influence disproportionnée sur un groupe en promettant transformation, sens et salut personnel. Les travaux de Janet Jacobs et de Benjamin Zablocki sur les dynamiques sectaires montrent que le gourou moderne n’a plus besoin de religion : il lui suffit d’un récit séduisant et performatif pour réunir autour de lui une communauté soudée qui croit en sa promesse de réussite totale.
Dans le film Gourou, cette figure est incarnée par un maître du développement personnel qui exige une adhésion sans faille à son credo. Il ne guide pas : il prescrit. Il ne propose pas : il impose. Et surtout, il réduit toute souffrance à un manque de volonté. C’est là que le film touche juste : il montre comment l’emprise peut se construire non par la contrainte, mais par la promesse de bonheur.
À lire aussi : Le coaching en entreprise : une mode, des paradoxes
Les exemples contemporains abondent. Dans les entreprises, on peut trouver des ateliers de « gestion émotionnelle » proposés à des salariés soumis à des cadences intenables. Sur LinkedIn, des cadres racontent leur burn out comme une « aventure inspirante ». Sur Instagram, des influenceurs affirment que « la maladie est un message de l’Univers ». Dans tous ces cas, la souffrance est requalifiée en défaut de mindset, et la porte de sortie est de rebondir, mais nous ne sommes pas des balles en caoutchouc !
C’est cette dénonciation de la « positivité toxique » qui est, à mon sens, l’angle le plus intéressant et interpellateur du film.
La positivité toxique n’est pas une invention de scénariste. La psychologue Barbara Held parle dès 2002 de « tyranny of the positive attitude », une tyrannie douce qui exige d’afficher un optimisme constant. Dès 2002, Whitney Goodman a popularisé le terme toxic positivity pour désigner cette injonction à nier les émotions négatives. Quant à Sara Ahmed, elle montre dans The Promise of Happiness (2010) que le bonheur est devenu une norme morale : ceux qui ne s’y conforment pas sont perçus comme des perturbateurs.
Cette idéologie produit un mécanisme central : l’invalidation émotionnelle. Les psychologues parlent d’emotional invalidation pour désigner cette dynamique où l’on explique à quelqu’un que ce qu’il ressent n’est « pas utile », « pas constructif », ou « pas la bonne manière de voir les choses ». Dans Gourou, cette invalidation est systémique : toute émotion « basse » est immédiatement interprétée comme un manque de volonté ou un défaut de caractère. La tristesse devient une erreur, la colère une faute morale, la fatigue un manque d’ambition.
Cette invalidation fragilise les individus, les coupe de leur propre expérience, et les rend dépendants d’un discours qui prétend les sauver tout en les dépossédant de leur réalité. Le film illustre bien une dérive, mais s’adosse aux polémiques autour du coaching qui font les choux gras des médias.
Le coaching occupe aujourd’hui une place ambivalente. Le lien entre positivité toxique et coaching est souvent fait. Pour certains chercheurs (on peut citer les travaux de Roland Gori ou ceux d’Eva Illouz et Edgar Cabanas dans leur livre Happycratie, 2018) le coaching contemporain, loin de se limiter à un accompagnement professionnel, s’est transformé en industrie du développement personnel. Pour ces critiques, le coaching promeut une vision individualiste du bonheur : chacun serait responsable de son état émotionnel, indépendamment des conditions sociales, économiques ou politiques.
Le coaching reposerait alors sur une logique d’auto-optimisation permanente : devenir la meilleure version de soi-même, corriger ses « blocages », éliminer ses « pensées limitantes ». Cette rhétorique, en apparence émancipatrice, produit un effet pervers : elle transforme les difficultés structurelles en problèmes psychologiques individuels.
Dans Gourou, le maître-coach incarne cette dérive. Il ne questionne jamais les causes des souffrances ; il accuse les individus de ne pas « vouloir assez ». Il ne libère pas ; il enferme dans une spirale où chaque faille devient une preuve d’insuffisance personnelle.
Mais réduire toute la profession à ces dérives serait injuste. Le coaching, lorsqu’il est exercé avec éthique, offre un espace d’écoute, de clarification et de progression réelle. De nombreux travaux, notamment en psychologie du travail, montrent qu’un accompagnement bien mené peut renforcer l’autonomie, soutenir la prise de décision et aider à traverser des transitions complexes. Le problème n’est donc pas le coaching en soi, mais son instrumentalisation par une idéologie du « tout dépend de toi ». Gourou pointe ces excès, et enfonce la porte déjà bien entrouverte de la valeur d’un métier qui, pratiqué avec rigueur, peut réellement aider.
Le film révèle une violence invisible, enveloppée de bienveillance, mais profondément normative. Une violence qui dit : « Tu n’as pas le droit d’être triste. » Une violence qui exige que chacun soit son propre coach, son propre thérapeute, mais aussi son propre bourreau en s’imposant des défis sans avoir forcément les ressources pour les relever. Une violence qui simplifie le monde pour éviter de regarder en face ce qui ne va pas.
Il est temps de rappeler une évidence : la tristesse n’est pas un échec, la colère n’est pas un défaut, le doute n’est pas une faiblesse. Ce sont des émotions humaines, légitimes, nécessaires. Gourou invite à refuser la dictature du sourire et à retrouver le droit fondamental d’être humain, donc… imparfait.
Isabelle Barth ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
29.01.2026 à 16:03
Niousha Shahidi, Full professor, data analysis, EDC Paris Business School
Caroline Diard, Professeur associé - Département Droit des Affaires et Ressources Humaines, TBS Education
Sana Henda, Professeur en Gestion des Ressources Humaines, ESC Amiens
Chaque jour, sans même y penser, nous classons les choses : ranger les livres de la bibliothèque selon le genre, classer les e-mails… Mais comment classer des éléments quand on ne dispose pas d’une classification existante ? Les mathématiques peuvent répondre à ce type de questions. Ici, une illustration sur le télétravail.
Dans le cadre du télétravail, nous nous sommes posé la question de savoir si les télétravailleurs peuvent être regroupés en fonction de leur perception de l’autonomie et du contrôle organisationnel.
Ceci nous a permis de justifier mathématiquement que deux grandes classes de télétravailleurs existent, et que leur vision du télétravail diffère. Ceci peut permettre aux managers et aux services de ressources humaines d’adapter le management de chacun en fonction de son profil.
Nous avons considéré 159 télétravailleurs. Pour classer les individus, il faut d’abord mesurer à quel point ils se ressemblent. Pour cela on identifie des « profils type » à partir de l’évaluation de « construits », qui sont des ensembles de critères qui traitent le même sujet.
Dans notre étude, les construits principaux sont le contrôle et l’autonomie. On évalue ces deux construits grâce à plusieurs questions posées aux télétravailleurs, par exemple « J’ai l’impression d’être constamment surveillé·e par l’utilisation de la technologie à la maison ». Ceux-ci donnent leur réponse sur une échelle en 5 points (de 1-pas du tout d’accord à 5-tout à fait d’accord).
Ensuite, chaque télétravailleur est représenté par une ligne de données : ce sont les réponses du télétravailleur dans l’ordre des critères. Par exemple pour le collaborateur 1, on peut voir les réponses (3, 1, 3, 2…), voir figure.
Pour regrouper les télétravailleurs, il faut d’abord mesurer à quel point ils se ressemblent. Pour cela, on mesure la distance entre les profils (en utilisant des distances euclidiennes). Cette notion de distance est très importante, car c’est elle qui quantifie la similitude entre deux télétravailleurs. Plus deux profils sont proches, plus ils auront vocation à être dans la même classe.
Si on considère autant de classes que de personnes, la séparation est parfaite mais le résultat est sans intérêt. L’enjeu est donc double : avoir un nombre raisonnable de classes distinctes tel que, dans chaque classe, les individus soient suffisamment semblables.
À lire aussi : Maths au quotidien : pourquoi votre assurance vous propose un contrat avec franchise
Nous avons utilisé la méthode de classification ascendante hiérarchique, qui consiste à regrouper les individus les plus semblables possibles dans une même classe tandis que les classes restent dissemblables.
Plus précisément, au début, chaque télétravailleur est traité comme une classe et on essaie de regrouper deux ou plusieurs classes de manière appropriée pour former une nouvelle classe. On continue ainsi « jusqu’à obtenir la classe tout entière, c’est-à-dire l’échantillon total ». L’arbre aussi obtenu (dendrogramme) peut être coupé à différents niveaux.
Une question importante se pose alors : comment choisir le nombre de classes ? Il existe plusieurs méthodes. Par exemple, la méthode du coude : le point où la courbe (variance intra-classe en fonction du nombre de classes) « fait un coude » correspond au nombre de classes à retenir. Cela signifie que si « on ajoute une classe de plus, on gagne peu en précision ». Dans notre étude, le nombre de classes retenu est deux.
Afin d’améliorer notre classification, nous poursuivons avec une méthode de classification non hiérarchique (k-means) qui répartit à nouveau les télétravailleurs dans deux classes (mais ceux-ci sont légèrement différents) tout en minimisant la distance aux « centres » de classes (scores moyens des critères de chaque classe trouvés précédemment).
Nous découvrons alors deux classes de télétravailleurs mieux répartis : les « satellites-autonomes » et les « dépendants-contrôlés ».
Une fois la classification trouvée, on s’intéresse alors à analyser les scores moyens par rapport aux autres construits du modèle, en l’occurrence l’expérience du télétravailleur. Les « satellites autonomes » ont une vision globalement plus positive de leur travail que les « dépendants contrôlés » et estiment que leurs conditions de travail se sont améliorées depuis la mise en place du télétravail.
Il existe bien sûr des limites à notre étude : il faudra en tester la robustesse, répéter l’analyse avec des sous-échantillons ou d’autres échantillons de télétravailleurs et encore tester plusieurs méthodes de classification. Une nouvelle enquête pourra montrer si le nombre ou la nature des classes que nous avons trouvées évolue. Mais il est important de noter que ce résultat (deux profils de télétravailleurs) est le fruit d’une démarche mathématique et statistique rigoureuse, qui complète les études antérieures qualitatives.
La classification est un outil bien connu en matière de gestion des ressources humaines. Par exemple, elle consiste à « peser » le poste et le positionner dans une grille prédéfinie en comparant son profil aux caractéristiques de quelques postes repères. Chaque convention collective dispose d’une grille de classification. C’est la loi du 23 décembre 1946 et les arrêtés Parodi-Croizat du 11 avril 1946 qui avaient ouvert la voie de la classification des ouvriers en sept échelons.
À l’aide des mathématiques, notre classification montre que le télétravail ne peut pas être géré comme un dispositif unique. Chaque profil correspond à des besoins et à des dynamiques organisationnelles spécifiques. Savoir qu’il existe deux profils majoritaires permet de proposer des actions différenciantes dans l’accompagnement des télétravailleurs.
Les mathématiques sont ici un outil au service du manager et aident à voir des structures invisibles dans un ensemble complexe de données. Il s’agit d’un outil d’aide à la décision.
Rien à déclarer
Caroline Diard et Niousha Shahidi ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur poste universitaire.
29.01.2026 à 16:03
Willem Standaert, Associate Professor, Université de Liège
Alors que le Comité international olympique (CIO) adopte le jugement assisté par l’intelligence artificielle, cette technologie promet une plus grande cohérence et une meilleure transparence. Pourtant, les résultats de la recherche suggèrent que la confiance, la légitimité et les valeurs culturelles comptent autant que la précision technique.
En 2024, le CIO a dévoilé son agenda olympique de l’intelligence artificielle (IA), positionnant celle-ci comme un pilier central des futurs Jeux olympiques. Cette vision a été renforcée lors du tout premier Forum olympique sur l’IA, organisé en novembre 2025, où athlètes, fédérations, partenaires technologiques et décideurs politiques ont discuté de la manière dont l’IA pourrait soutenir le jugement, la préparation des athlètes et l’expérience des fans.
Aux Jeux olympiques d’hiver de 2026 de Milan-Cortina qui démarrent vendredi 6 février, le CIO envisage d’utiliser l’IA pour soutenir le jugement en patinage artistique (épreuves individuelles et en couple, hommes et femmes), en aidant les juges à identifier précisément le nombre de rotations effectuées lors d’un saut.
Son utilisation s’étendra également à des disciplines, telles que le big air, le halfpipe et le saut à ski (des épreuves de ski et de snowboard où les athlètes enchaînent des sauts et figures aériennes), où des systèmes automatisés pourront mesurer la hauteur des sauts et les angles de décollage. À mesure que ces systèmes passent de l’expérimentation à un usage opérationnel, il devient essentiel d’examiner ce qui pourrait bien se passer… ou mal se passer.
Dans les sports olympiques tels que la gymnastique et le patinage artistique, qui reposent sur des panels de juges humains, l’IA est de plus en plus présentée par les fédérations internationales et les instances sportives comme une solution aux problèmes de biais, d’incohérence et de manque de transparence. En effet, les juges doivent évaluer des mouvements complexes réalisés en une fraction de seconde, souvent depuis des angles de vue limités, et ce pendant plusieurs heures consécutives.
Les analyses post-compétition montrent que les erreurs involontaires et les divergences entre juges ne sont pas des exceptions. Cela s’est à nouveau matérialisé en 2024, lorsqu’une erreur de jugement impliquant la gymnaste américaine Jordan Chiles lors des Jeux olympiques de Paris a déclenché une vive polémique. En finale du sol, Chiles avait initialement reçu une note qui la plaçait à la quatrième place. Son entraîneur a alors introduit une réclamation, estimant qu’un élément technique n’avait pas été correctement pris en compte dans la note de difficulté. Après réexamen, la note a été augmentée de 0,1 point, permettant à Chiles d’accéder provisoirement à la médaille de bronze. Cette décision a toutefois été contestée par la délégation roumaine, qui a fait valoir que la réclamation américaine avait été déposée hors délai, dépassant de quatre secondes la fenêtre réglementaire d’une minute. L’épisode a mis en lumière la complexité des règles, la difficulté pour le public de suivre la logique des décisions, et la fragilité de la confiance accordée aux panels de juges humains.
Par ailleurs, des cas de fraude ont également été observés : on se souvient notamment du scandale de jugement en patinage artistique lors des Jeux olympiques d’hiver de Salt Lake City en 2002. À l’issue de l’épreuve en couple, des accusations ont révélé qu’une juge aurait favorisé un duo en échange d’un soutien promis dans une autre compétition, mettant au jour des pratiques d’échanges de votes au sein du panel de juges. C’est précisément en réponse à ce type d’incidents que des systèmes d’IA ont été développés, notamment par Fujitsu en collaboration avec la Fédération internationale de gymnastique.
Nos recherches sur le jugement assisté par l’IA en gymnastique artistique montrent que la question ne se résume pas à savoir si les algorithmes sont plus précis que les humains. Les erreurs de jugement proviennent souvent des limites de la perception humaine, ainsi que de la vitesse et de la complexité des performances de haut niveau, ce qui rend l’IA attrayante. Cependant, notre étude impliquant juges, gymnastes, entraîneurs, fédérations, fournisseurs de technologies et fans met en lumière une série de tensions.
L’IA peut être trop exacte, évaluant les routines avec un niveau de précision qui dépasse ce que les corps humains peuvent réalistement exécuter. Par exemple, là où un juge humain apprécie visuellement si une position est correctement tenue, un système d’IA peut détecter qu’un angle de jambe ou de bras s’écarte de quelques degrés seulement de la position idéale, pénalisant une athlète pour une imperfection imperceptible à l’œil nu. Si l’IA est souvent présentée comme objective, de nouveaux biais peuvent émerger à travers la conception et la mise en œuvre des systèmes. Par exemple, un algorithme entraîné principalement sur des performances masculines ou sur des styles dominants peut pénaliser involontairement certaines morphologies. En outre, l’IA peine à prendre en compte l’expression artistique et les émotions, des éléments considérés comme centraux dans des sports tels que la gymnastique et le patinage artistique. Enfin, si l’IA promet une plus grande cohérence, son maintien exige une supervision humaine continue afin d’adapter les règles et les systèmes à l’évolution des disciplines.
Nos recherches montrent que ces préoccupations sont encore plus marquées dans les sports d’action comme le snowboard et le ski freestyle. Beaucoup de ces disciplines ont été ajoutées au programme olympique afin de moderniser les Jeux et d’attirer un public plus jeune. Pourtant, des chercheurs avertissent que l’inclusion olympique peut accélérer la commercialisation et la standardisation, au détriment de la créativité et de l’identité de ces sports.
Un moment emblématique remonte à 2006, lorsque la snowboardeuse américaine Lindsey Jacobellis a perdu la médaille d’or olympique après avoir effectué un geste acrobatique consistant à saisir sa planche en plein saut en plein saut alors qu’elle menait la finale de snowboard cross. Ce geste, célébré dans la culture de son sport, a entraîné une chute qui lui a coûté la médaille d’or.
Le jugement assisté par l’IA ajoute de nouvelles couches à cette tension. Des travaux antérieurs sur le halfpipe en snowboard avaient déjà montré comment les critères de jugement peuvent, avec le temps, remodeler subtilement les styles de performance. Contrairement à d’autres sports jugés, les sports d’action accordent une importance particulière au style et à la prise de risque, des éléments particulièrement difficiles à formaliser algorithmiquement.
Pourtant, l’IA a déjà été testée lors des X Games 2025, notamment pendant les compétitions de snowboard SuperPipe, une version de grande taille du halfpipe, avec des parois plus hautes permettant des sauts plus amples et plus techniques. Des caméras vidéo ont suivi les mouvements de chaque athlète, tandis que l’IA analysait les images afin de produire une note de performance indépendante. Ce système était testé en parallèle du jugement humain, les juges continuant à attribuer les résultats officiels et les médailles.
Cet essai n’a toutefois pas modifié les résultats officiels, et aucune comparaison publique n’a été communiquée quant à l’alignement entre les notes produites par l’IA et celles des juges humains. Néanmoins, les réactions ont été très contrastées : certains acteurs saluent une plus grande cohérence et transparence, tandis que d’autres ont averti que les systèmes d’IA ne sauraient pas quoi faire lorsqu’un athlète introduit une nouvelle figure – souvent très appréciée des juges humains et du public.
L’influence de l’IA dépasse largement le seul cadre du jugement. À l’entraînement, le suivi des mouvements et l’analyse de la performance orientent de plus en plus le développement technique et la prévention des blessures, façonnant la manière dont les athlètes se préparent à la compétition. Parallèlement, l’IA transforme l’expérience des fans grâce à des ralentis enrichis, des visualisations biomécaniques et des explications en temps réel des performances.
Ces outils promettent davantage de transparence, mais ils cadrent aussi la manière dont les performances sont interprétées, avec davantage de « storytelling » autour de ce qui peut être mesuré, visualisé et comparé.
L’Agenda olympique de l’IA reflète l’ambition de rendre le sport plus juste, plus transparent et plus engageant. Toutefois, à mesure que l’IA s’intègre au jugement, à l’entraînement et à l’expérience des fans, elle joue aussi un rôle discret mais puissant dans la définition de ce qui constitue l’excellence. Si les juges d’élite sont progressivement remplacés ou marginalisés, les effets pourraient se répercuter à tous les niveaux : formation des juges, développement des athlètes et évolutions des sports eux-mêmes.
Le défi auquel sont confrontés les sports du programme olympique n’est donc pas seulement technologique ; il est institutionnel et culturel. Comment éviter que l’IA ne vide de leur substance les valeurs qui donnent à chaque sport son sens ?
Willem Standaert ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
29.01.2026 à 16:01
Valéry Ridde, Directeur de recherche, Institut de recherche pour le développement (IRD)
Dans la Financiarisation de la santé au Sénégal (1840-1960), aux éditions Science et bien commun (ESBC), Valéry Ridde (Institut de recherche pour le développement, IRD) livre une analyse originale des archives coloniales, de la presse et des publications scientifiques pour démontrer combien les idées libérales du financement des soins à l’œuvre dans ce pays, dans le reste de l’Afrique de l’Ouest mais aussi dans le monde, étaient déjà ancrées dans l’administration coloniale française.
À partir des années 1980, les institutions internationales ont incité les pays africains à recourir à des instruments politiques du financement de la santé inspirés d’une approche libérale. Ainsi, les malades ont été de plus en plus souvent amenés à payer pour leurs soins, les formations sanitaires ont été mises en concurrence, des ristournes et des primes ont été données aux soignant·es, des mutuelles de santé ont été lancées.
La Financiarisation de la santé au Sénégal (1840-1960), paru fin 2025, s’adresse aux historien·nes de la santé comme à toutes les personnes intéressées par la santé publique en Afrique. Dans un souci de justice épistémique et d’accès aux connaissances en langue française, ce livre est publié par les éditions Science et bien commun (ESBC) en accès libre, en différents formats et avec une écriture inclusive.
Il s’agit de remonter le temps et de comprendre comment ces outils s’inscrivent dans une continuité historique. À partir du Sénégal et avec une analyse originale des archives coloniales, de la presse et des publications scientifiques, cet ouvrage montre que les idées libérales du financement des soins étaient déjà ancrées dans l’administration coloniale française. Elles étaient même présentes à l’échelle de l’Empire et confirment le manque de préoccupation pour l’accès aux soins des populations africaines et des plus pauvres.
Les défis actuels de ces instruments pour la couverture sanitaire universelle, déjà abordés dans l’ouvrage collectif Vers une couverture sanitaire universelle en 2030. Réformes en Afrique subsaharienne (ESBC, 2021), disponible en accès libre, ont donc une histoire ancienne que l’analyse met au jour pour réclamer un changement de paradigme.
Après une préface de l’historien Mor Ndao, professeur à l’Université Cheikh-Anta-Diop de Dakar, le livre est composé de six parties thématiques dont nous présentons les éléments essentiels à retenir.
Dans la première partie, je présente le contexte de rareté des ressources dévolues au secteur de la santé pendant la période coloniale. Non seulement les hôpitaux coloniaux sont rares et ne disposent que de peu de budget, mais ils doivent déjà réaliser des économies. À partir de 1926, s’opère un basculement budgétaire. Les dépenses des établissements de santé sont transférées aux budgets locaux de chaque colonie de l’Afrique occidentale française (AOF), ce qui exacerbe les défis de financement.
L’administration coloniale commence à formaliser le principe et la possibilité pour certaines personnes malades de payer leur hospitalisation, en même temps qu’elle recherche l’efficience de l’organisation des services. L’hospitalo-centrisme était déjà en marche, l’administration coloniale préférant, comme aujourd’hui, les grandes structures aux soins de santé primaires.
Dans la deuxième partie, je présente les modalités de paiement des patient·es organisées dans les hôpitaux. Bien que le principe fût la gratuité des soins, les personnes malades qui en avaient les moyens ont toujours eu la possibilité de payer leur hospitalisation. Le paiement était très variable d’un hôpital à l’autre, mais il se concrétisait par des catégories d’hospitalisation reproduisant les catégories militaires, sociales et « raciales » de l’époque.
Les personnes indigentes pouvaient bénéficier d’une prise en charge gratuite, mais au prix de multiples procédures administratives pour confirmer leur statut et dans un contexte budgétaire très restreint. Ces défis n’ont jamais été résolus et sont au cœur des luttes actuelles. Les modalités de financement (retenues sur salaire, paiements des entreprises ou des individus) et leur imputation comptable ne sont pas faciles à mettre en place.
J’ai ainsi pu constater une myriade de procédures administratives pour recouvrir ces créances. Les années de retard de remboursement aux formations sanitaires des politiques de gratuité des années 2000 ou de subvention des adhésions aux mutuelles de santé au Sénégal actuellement n’ont rien à envier à l’histoire administrative coloniale.
À lire aussi : Vers la couverture sanitaire universelle en Afrique subsaharienne : le paradoxe des mutuelles de santé au Sénégal
À partir de 1905, la mise en place de l’Assistance médicale indigène (AMI) en AOF est analysée dans la troisième partie. Elle entraîne la création de dispensaires ruraux où le discours colonial présentait les soins comme étant gratuits. Pourtant, l’AMI était largement sous-financée et ne répondait pas aux besoins de la population. Mais surtout, les populations ont été sollicitées pour des paiements directs dans certaines situations.
Comme cela a été généralisé plus tard, dans les années 1980-1990, dans les pays appuyés par l’Unicef et l’Organisation mondiale de la santé (OMS), il arrivait que les malades paient les soins dans ces dispensaires, ce qui ne faisait que renforcer les inégalités constatées dans les hôpitaux. De plus, l’administration coloniale a imposé une taxe spécifique de 1930 à 1938 pour financer l’AMI, avant de l’intégrer en 1939 à l’impôt (régressif) de capitation (forfait par personne).
Dès les années 1920, l’idéologie de la performance et des primes à l’activité, mobilisée plus tard par la Banque mondiale et d’autres organisations dans les années 2000, est déjà bien en place. Des primes sont octroyées aux mamans et aux matrones (accoucheuses traditionnelles) pour soutenir la politique coloniale de natalité.
Dans la quatrième partie, j’analyse la pratique privée de la médecine alors que les salaires et les primes de « dépaysement » des médecins militaires et civil·es, venu·es de France, sont payé·es par l’administration coloniale jusqu’à l’indépendance du Sénégal en 1960. Ces primes servent souvent d’incitatifs à s’expatrier, comme c’est encore le cas aujourd’hui pour les acteurs de l’aide publique au développement.
À l’époque, face aux contraintes budgétaires, ces médecins ne sont pas en nombre suffisant. Pourtant, ces personnes ont une pratique privée au sein et en dehors des formations sanitaires publiques. L’administration coloniale va tardivement tenter de les réguler. De plus, le personnel de santé africain fait face à de multiples défis pour obtenir ce même droit. Dans les années 1950, des syndicats se plaignent alors que les mouvements sociaux augmentent.
Le personnel médical payé par l’administration coloniale obtient des ristournes (autour de 25 %) sur la vente de leurs actes médicaux aux particuliers, pratiqués en plus de leurs activités cliniques de routine (la personne malade est par exemple facturée 100 francs. Le médecin reçoit alors 25 francs de ristourne sur ce montant, le reste étant gardé par l’administration).
Ces ristournes, dont le fonctionnement perdure aujourd’hui, seront formalisées dans les années 1980, avec la généralisation du principe du recouvrement des coûts encouragé par l’OMS et l’Unicef à laquelle la France a contribué.
Actuellement, les soignants du secteur public sénégalais peuvent recevoir une ristourne de 20 % à 30 % des recettes nettes. À l’époque coloniale, l’administration publique tire aussi profit de cette pratique privée des médecins coloniaux puisqu’elle reçoit une partie des sommes payées par les patient·es. Cependant, les médecins du secteur privé (qui paient une patente) se plaignent de la concurrence déloyale des médecins (militaires et civils) payés par l’administration coloniale.
La cinquième partie de mon ouvrage est consacrée au mouvement mutualiste. Durant la période coloniale, le mouvement mutualiste français (très développé en « Métropole ») s’est mobilisé pour développer les mutuelles de santé en Afrique du Nord. Bien que de nombreuses conférences aient été organisées autour de la mutualité dans les colonies, presque rien n’a été réalisé à destination des populations de l’Afrique de l’Ouest.
Cependant, les premières tentatives de mutuelles au Sénégal remontent aux années 1910. Conçues comme des instruments de la politique coloniale, ces mutuelles ne rencontrent pourtant pas de succès. Leur nombre demeure très restreint (à l’image des mutuelles communautaires relancées à partir des années 1990) et elles cherchent, avant tout, à fournir des services aux coloniaux.
À lire aussi : Sénégal : un modèle d’assurance santé résilient en temps de Covid-19
Les approches que j’ai mises au jour pour le Sénégal se retrouvent aussi ailleurs en AOF et dans les territoires de l’Empire français. La présence de la financiarisation de la santé est donc globale, y compris à cette époque. Les archives confirment qu’elle s’est développée dans de nombreux pays de la planète au cours de la période coloniale. Elle a poursuivi son emprise sur nos systèmes de santé jusqu’à maintenant, tant au Sénégal qu’en France.
Ainsi, cet ouvrage centré sur la financiarisation de la santé à l’époque coloniale au Sénégal s’inscrit en complémentarité des analyses contemporaines de sa présence et de sa permanence à l’échelle mondiale. Un détour archivistique vers d’autres territoires ayant dû subir la colonisation française, et d’autres, confirme la situation sénégalaise et donc, la diffusion des idées et des pratiques qu’il faudra évidemment préciser dans des recherches futures.
Valery Ridde a reçu des financements de l'ANR, la FRM, IRSC, INSERM, ECHO, OMS.
29.01.2026 à 16:00
Thomas Melonio, Directeur exécutif « Innovation, stratégie et recherche », Agence Française de Développement (AFD)
Thomas Melonio, chef économiste et directeur exécutif à l’Agence française de développement (AFD), a récemment publié avec Rémy Rioux, directeur général de l’AFD, et Jean-David Naudet, chargé de recherche au sein de cette même organisation, Au-delà de la « dichotomanie » (2025), une étude qui interroge la pertinence de deux notions centrales de l’aide publique au développement : celles de « pays développés » et de « pays en développement ».
Cette manière de classer les pays structure encore aujourd’hui notre compréhension des inégalités mondiales, de l’aide internationale et des grandes politiques globales. Mais est-elle encore justifiée à l’heure où les trajectoires économiques, sociales et politiques des pays sont de plus en plus diverses et imbriquées ? Entretien.
The Conversation : Pouvez-vous revenir sur l’histoire de la dichotomie « pays en développement/pays développés » ?
Thomas Melonio : Ces notions apparaissent vers la fin des années 1950 et le début des années 1960, au moment où se structure la politique de solidarité internationale et de développement. Dans les années précédentes, celles de l’immédiat après-guerre, les grandes institutions internationales, dites de Bretton Woods, c’est-à-dire le Fonds monétaire international et la Banque mondiale, avaient fait leur apparition ; mais elles aidaient prioritairement les pays déjà développés. Historiquement, le premier bénéficiaire d’un prêt de la Banque mondiale, c’est la France !
Un petit peu plus tard, au milieu des Trente Glorieuses, période de croissance rapide notamment en Europe, mais aussi au Japon, s’impose cette distinction entre deux groupes de pays – une distinction qui va donner naissance à un certain nombre de politiques publiques. Il est vrai que, à cette époque, il y a, schématiquement un groupe de pays riches, un groupe de pays pauvres… et pas beaucoup de pays au milieu. Dès lors, il apparaît assez logique d’organiser des transferts – un peu comme on peut le faire au sein de l’Union européenne ou bien, à l’intérieur de la France, entre régions.
Certes, il y a toujours eu une catégorie de pays en transition, notamment le bloc soviétique qui était en quelque sorte à l’extérieur de l’un comme de l’autre de ces deux groupes, et qu’on ne savait pas bien comment classifier dans cette nomenclature. Mais ce bloc était isolé géopolitiquement ; dès lors, ce n’était pas déterminant pour les politiques mondiales de développement.
La politique commerciale et, plus tardivement, la politique climatique seront donc édifiées autour de cette distinction entre pays développés et pays en développement. On le retrouve à l’OMC, où des mesures plus favorables ont été obtenues par des pays dits en développement – et il y a peu, c’était encore le casde la Chine, qui vient tout récemment de renoncer à ce statut privilégié.
Aujourd’hui, ces notions sont-elles encore d’actualité ?
T. M. : Les catégories anciennes ont vieilli, c’est certain. Mais l’idée de solidarité ou d’action humaniste internationale reste plus que jamais d’actualité. La question est de savoir dans quels pays cette action de solidarité humaniste doit s’appliquer. À mon sens, aujourd’hui, elle doit essentiellement être dirigée vers les pays les moins avancés (PMA), c’est-à-dire les pays les plus pauvres et les plus vulnérables, qui sont au nombre de 45. Les autres pays dits émergents doivent continuer de faire l’objet d’opérations de coopération internationale, mais cette coopération ne relève ni du vocable ni des instruments financiers de l’aide publique au développement.
Le concept de « Sud global », qui s’est imposé ces dernières années, reflète-t-il une vraie unité ?
T. M. : Je vois une très grande hétérogénéité parmi les pays que l’on associe au « Sud global » ; dès lors, j’ai du mal à y trouver une forte substance. Pour autant, il est difficile de contester la capacité ou la volonté d’un pays de s’auto-définir comme il le souhaite. Pour un pays donné, dire que l’on relève du Sud global, c’est une démarche assez politique. Mais quand bien même on la trouve insuffisamment substantielle, elle a sa réalité du fait même de sa propre déclamation. Deuxième chose : si on devait trouver une substance concrète dans le Sud global, on peut constater qu’il y a eu la formation d’institutions financières : la Nouvelle banque de développement, qui est la banque des BRICS, la Banque asiatique d’investissement pour les infrastructures, créée à l’initiative de la Chine en 2016, et plus récemment la Banque de l’organisation de la sécurité de Shanghai. Il y a donc quand même déjà trois banques qui revendiquent une appartenance au Sud global, ce qui confère à cette notion une réalité.
L’apparition de ces structures témoigne d’une contestation des règles de fonctionnement de la mondialisation. Certains pays émergents, insuffisamment représentés par rapport à leur poids démographique au sein du FMI ou de la Banque mondiale, vont faire porter leurs efforts sur ces questions financières ; d’autres, parfois les mêmes, vont plutôt cibler le Conseil de sécurité des Nations unies. Pour des pays comme l’Inde ou comme le Brésil, l’objectif principal de l’affirmation du Sud global est plutôt l’obtention d’une place au sein du Conseil de sécurité. De manière générale, ce qui est commun à tous les pays du Sud global, c’est la volonté d’obtenir plus de place dans les mécanismes de décision.
N’y a-t-il pas un risque, quand on utilise toutes ces toutes ces notions – qu’il s’agisse de pays en développement, de pays développés, de Sud global, de PMA… – d’avoir une vision monolithique de chacun de ces pays pris individuellement, alors qu’ils sont tous travaillés par de très fortes inégalités sociales et économiques ?
T. M. : C’est quelque chose qu’il faut avoir à l’esprit, en effet ; mais je veux d’abord souligner que dans les PMA, la très grande majorité de la population vit dans la précarité. Certes, il y a, là aussi, des gens qui sont riches, mais même si une vaste redistribution interne était mise en place, la pauvreté serait quand même endémique. La situation est un peu différente en ce qui concerne les pays à revenu intermédiaire ; c’est souvent dans ces pays que les inégalités sont les plus fortes – je pense par exemple à l’Afrique du Sud, au Brésil, ou encore au Mexique. On observe également une progression des inégalités en Chine et en Inde.
Une fois qu’on a dit cela, se pose la question de la façon d’agir depuis l’extérieur. Il faut être lucide : un acteur extérieur, comme l’AFD, ne peut agir seul pour la réduction des inégalités dans ces grands pays. Il faut y construire des coalitions. A travers la coopération technique ou le financement, on peut contribuer à cette réduction, parce qu’on va cibler des quartiers pauvres ou des populations pauvres, via tel ou tel programme. Mais on ne va pas changer les équilibres politiques ou territoriaux dans un État. Depuis l’extérieur, on peut accompagner des dynamiques nationales, dès lors qu’il y a une volonté locale. Mais si la volonté n’est pas là, on ne crée pas un arbitrage politique totalement différent depuis l’extérieur.
Vous expliquez que c’est une erreur de toujours vouloir tout nomenclaturer ; mais est-ce que ce n’est pas quand même nécessaire pour pouvoir agir ? À trop entrer dans le détail, ne risque-t-on pas de se retrouver incapables de mettre des mots sur des réalités ? Comment éviter ces deux écueils : être trop schématique ou au contraire trop détaillé ?
T. M. : Notre article s’ouvre par une sorte de pirouette où nous disons que le monde se sépare en deux catégories : ceux qui divisent le monde en deux, et ceux qui ne le font pas. Au-delà de la plaisanterie, il y a un intérêt certain à essayer d’identifier des zones cohérentes, par exemple distinguer les pays qui ont plus de moyens de ceux qui en ont moins, ou les pays qui ont une plus forte responsabilité climatique historique de ceux qui en ont moins. En soi, il faut schématiser pour organiser les politiques publiques.
Il y a toujours des formes de schématisation. Le problème, c’est quand cette schématisation produit du blocage, quand on fige dans le temps des catégories qui, à un moment donné, ne correspondent plus au monde réel. Par exemple, il est anormal que du côté des émetteurs de finance climat, on ne trouve ni la Chine ni les pays du Golfe, parce qu’on a fixé la liste dans les années 1990. On se retrouve aujourd’hui avec une problématique de partage du fardeau du changement climatique et avec des catégories qui sont mal définies parce que le processus de classification ne prévoyait pas son actualisation régulière.
Deuxième exemple : l’aide publique au développement (APD). En France, on se demande pourquoi une partie de notre APD est destinée à des pays comme la Chine, l’Inde ou l’Indonésie. En réalité, on ne les aide pas puisqu’on leur octroie des prêts à des taux dits « à conditions de marché », un peu comme une banque le fait avec ses clients, ce qui dégage un excédent financier. Si entre deux pays il y a un emprunt qui est dans le bénéfice de chacun, cela ne relève plus vraiment de l’APD, mais de la recherche de bénéfices mutuels. Mais formellement, on l’appelle encore aide, alors même que cela ne correspond pas à la réalité de nos relations avec ces pays. La catégorisation existante finit par rendre une politique publique trop peu lisible, peu explicable, propice aux manipulations ou à la désinformation.
Le risque, ce sont ces catégories qui sont figées dans le temps et qui, 15 ans, 20 ans, 30 ans après leur définition, produisent des effets négatifs dans le monde réel. Il faut donc régulièrement revisiter ces catégories. Sinon, on risque d’affaiblir le multilatéralisme par une mauvaise caractérisation des pays de la planète.
Avec l’administration Trump au pouvoir à Washington, l’aide internationale apparaît plus mal en point que jamais…
T. M. : Certes, mais il faut tout de même souligner qu’il y a eu une évolution. J’appelle cela Trump 2.2. Je m’explique : il y a eu Trump 2.1, c’était Elon Musk à la tête du DOGE, des coupes franches dans toutes les dépenses publiques, et notamment celles relatives à l’aide internationale. Et Trump 2.2, c’est plutôt la ligne Marco Rubio qui semble l’emporter sur la ligne Elon Musk. Marco Rubio, a notamment annoncé un programme important de coopération dans le domaine de la santé avec le Kenya. Si Washington, qui agit ouvertement au nom de la défense de ses intérêts nationaux, fait des annonces importantes sur une question comme la coopération internationale en matière de santé avec le Kenya, alors on comprend que même dans un logiciel très nationaliste, il y a quand même des familles de pensée différentes : ceux qui pensent qu’il ne faut rien, absolument rien faire à l’international, uniquement défendre ses entreprises ; et d’autres qui vont essayer de défendre d’autres formes de coopération… même si la perspective est de se protéger soi-même ou de défendre ses propres intérêts à travers des partenariats internationaux.
Propos recueillis par Grégory Rayko.
Thomas Melonio est directeur exécutif au sein de l'AFD et également administrateur de l'IRD.
29.01.2026 à 15:59
Jean-Pierre Darnis, Full professor at the University of Côte d’Azur, director of the master’s programme in “France-Italy Relations”. Associate fellow at the Foundation for Strategic Research (FRS, Paris) and adjunct professor at LUISS University (Rome), Université Côte d’Azur
La Chine poursuit sans cesse son ascension, la Russie livre une guerre meurtrière sur le territoire européen et les États-Unis de Donald Trump affichent ouvertement leur mépris à l’égard de l’Union européenne. Et pourtant, celle-ci offre une capacité de résistance remarquable, ce qui confère une force spécifique à son modèle démocratique.
Dans le contexte international actuel, les analyses qui décrivent un triomphe de l’impérialisme dont l’Europe serait fatalement la victime font florès. La guerre en Ukraine et les opérations coup-de-poing de Donald Trump auraient consacré le retour de la force comme pivot des relations internationales, un instrument dont l’Union européenne (UE) serait dépourvue. L’UE ferait face à un dilemme : soit elle devient elle aussi une puissance, soit elle est vouée à disparaître.
Cette représentation se base sur une lecture classique des relations internationales qui décrit la réalité du monde comme un état d’anarchie interétatique. Or cette projection réaliste, souvent critiquée car susceptible d’engendrer des effets négatifs, est parfois prolongée au point de proclamer l’inutilité fondamentale d’une UE déclinante qui devrait s’effacer pour laisser place aux États-nations susceptibles de faire un choix de camp – une description que l’on retrouve dans la récente Stratégie de défense nationale américaine où l’UE est souvent vilipendée.
Il convient cependant de questionner ces différents éléments.
Cette vision sombre qui semble faire le constat fataliste que la force l’a définitivement emporté sur le droit a pour premier défaut d’alimenter la propagande des acteurs qui estiment que l’existence de l’Union européenne n’a guère de sens du fait de sa prétendue impuissance. De tels propos étaient déjà depuis longtemps exprimés de façon récurrente par le pouvoir russe ; ils le sont désormais également par celui des États-Unis.
Ensuite, il faut revenir sur la représentation actuelle d’un monde dominé par les puissances impérialistes. Les États-Unis, la Chine et la Russie seraient les trois États impériaux qui chercheraient à établir des sphères de puissance, une vision géographique porteuse d’un déterminisme négatif pour l’Europe. Or il faut insister sur les différences fondamentales qui existent entre ces différentes entités.
La Chine apparaît comme concentrée avant tout sur les aspects économiques et technologiques de la puissance, qui doivent lui permettre de maintenir les gains qu’elle tire des échanges globaux. Il s’agit certainement d’une recherche de maximisation de ses propres intérêts mais dont la portée et les finalités restent discutées par les spécialistes. D’un point de vue européen, la relation avec Pékin est certes problématique mais semble gérable par les instruments classiques de l’Union. Très justement méfiante à l’égard d’un régime politique chinois totalitaire qui exprime de façon ouverte son néo-impérialisme, l’UE a jusqu’ici suivi les États-Unis sur la voie d’une politique d’endiguement. Le cycle actuel de distanciation transatlantique pourrait remettre en cause de façon partielle cet agenda, alors que les Européens se doivent de diminuer leur dépendance à l’égard des États-Unis.
Le cas russe est différent : nous avons ici une claire manifestation d’impérialisme militaire classique dans lequel une vision historique et idéologique sous-tend les velléités de conquête territoriale. Malgré leurs faiblesses et un système institutionnel peu efficace en matière de mise en œuvre de la force, les Européens n’ont pas failli dans leur soutien à l’effort militaire ukrainien, au-delà de la condamnation politique de l’agression russe. L’Ukraine, qui se bat pour maintenir un destin autonome et européen, a réussi à contenir l’armée russe.
L’impérialisme du Kremlin peut continuer à nourrir des conflits et demander des efforts ultérieurs en matière de réarmement voire de combats, et ce d’autant plus si la garantie de sécurité américaine disparaît, mais il est aussi très clair que les Européens ne veulent pas passer sous la coupe de la Russie et n’entendent pas non plus céder des territoires. Il s’agit donc d’un problème important et douloureux mais dont l’analyse reste nette : l’Union européenne n’est pas un ventre mou qui serait à prendre par les armées du Kremlin.
La vision de l’impérialisme chinois et de l’impérialisme russe comme facteurs qui pourraient atomiser l’UE doit donc être relativisée. Il ne s’agit pas de nier la réalité des dangers et défis liés à ces deux contextes, mais de rappeler que l’Union reste en capacité de gestion.
Le troisième impérialisme, celui des États-Unis, apparaît comme plus problématique. Tout d’abord les velléités d’annexion du Groenland constituent un scénario original de conquête territoriale aux dépens de l’UE, en menaçant la souveraineté du Danemark. Plus globalement, la dégradation du respect du droit international de la part des États-Unis vient potentiellement remettre en question l’alliance transatlantique, qui se basait sur une acceptation de l’hégémonie américaine de la part des Européens en échange non seulement d’une protection militaire incarnée par l’OTAN mais également d’un consensus sur la défense des valeurs de liberté.
L’adoption des logiques de la puissance par la seconde présidence Trump vient rompre cet accord tacite. Les Européens doivent désormais gérer une phase délicate, celle d’un découplage avec les États-Unis, en évitant que cela ne dégénère en conflit. En d’autres termes, le rapport entre Union européenne et États-Unis, s’il est ramené à un simple calcul d’intérêts de type réaliste, perd une dimension essentielle, celle d’une convergence politique et idéologique qui, depuis la Déclaration d’indépendance américaine de 1776, constituait le fondement de la relation, un soubassement nécessaire pour les échanges de biens et de services, en particulier pour les données.
L’administration Trump commet l’erreur de croire que la suprématie provenait de la puissance, qu’elle soit militaire, économique ou technologique. En réalité, l’alliance est nettement plus productive que la domination et cette rupture entraînera probablement un affaiblissement de l’attractivité, et donc de la puissance, américaine, ce qui pourrait par ailleurs accroître les tensions internes et externes. Il suffit par exemple de penser aux conséquences potentielles d’une baisse de l’immigration hautement qualifiée sur une économie américaine essentiellement basée sur la capacité d’innovation technologique.
L’une des caractéristiques principales de l’UE réside dans sa solidité : on a constaté au travers des crises que l’UE était capable non seulement de résister à un contexte négatif (crises financières, Covid) mais également de se renforcer.
L’UE est un millefeuille institutionnel souvent difficile à lire. Ce dispositif mixte, à la fois intergouvernemental et fédéral, fait preuve d’une remarquable résistance car il est le fruit d’une série de compromis qui, une fois adoptés, restent ancrés dans la vie politique européenne. Il est donc particulièrement difficile de défaire ce qui a été fait au sein de l’Union, comme illustré par le Brexit. De plus, le modèle institutionnel alambiqué de l’Union – le processus démocratique mixte entre Parlement, Conseil et Commission – renforce les institutions, ce qui constitue aussi une source de résistance face aux pressions externes.
L’UE s’est construite comme une non-puissance, une création politique qui a mis au centre de son projet l’extension des marchés et la croissance : les fonctions militaires sont depuis le début de l’intégration jalousement conservées par les États membres. Ce refus d’une Europe-puissance traduit l’une des caractéristiques fondamentales de l’Union, celle d’être née comme entité politique de remédiation qui permette de tourner la page des très meurtriers conflits intra-européens, objectif désormais acquis.
Il convient donc aujourd’hui de ne pas l’oublier lorsqu’on réclame une montée en puissance d’une série d’institutions qui n’ont pas été programmées pour cela. Les différentes souverainetés nationales expriment des traditions divergentes en termes d’emploi des forces armées : il apparaît donc politiquement difficile de mettre en place une armée européenne, alors que des coalitions à géométrie variable, déjà en place dans le cas du potentiel dispositif de garantie de sécurité de l’Ukraine ou bien lorsqu’il s’agit d’envoyer des soldats au Groenland en soutien du Danemark, permettent d’envisager une montée en puissance des appareils militaires au niveau européen, ce qui illustre bien que les États membres ne sont pas dénués d’instruments.
Ici encore, il convient de ne pas appliquer une lecture simpliste de la puissance européenne, selon laquelle l’impossibilité d’organiser un monopole collectif unique de la force au niveau européen signifierait la fin de l’Union elle-même. L’Union est en train de montrer que, lorsqu’elle est contrainte par une pression extérieure, elle trouve les ressources communes pour résister.
L’Union européenne illustre le paradoxe d’une croissance institutionnelle qui ne peut être appréhendée en suivant les critères classiques des États et tire sa force d’un processus original à la fois d’extension territoriale (les différents élargissements) et de création de souverainetés européennes qui viennent renforcer celles nationales, le tout au service d’un compromis social-démocrate qui reste un modèle.
Il existe donc une sous-évaluation intrinsèque de l’Union, une représentation de faiblesse qui est amplifiée par les descriptions trop géopolitiques du globe. L’UE n’est pas faible, même si elle n’est pas une puissance, et constitue un remarquable compromis de souveraineté démocratique et de progrès.
Le contexte global actuel n’en reste pas moins particulièrement difficile et menaçant, et ce d’autant que le jeu international est troublé par les actions à l’emporte-pièce de la présidence américaine. Lors du récent forum de Davos, le premier ministre canadien Mark Carney a évoqué une vision de pôle démocratique capable de résister aux empires. C’est certainement dans ce sillage d’une association avec des pays comme le Royaume-Uni et le Canada que doit s’inscrire la stratégie de résistance d’une Union qui peut avoir l’ambition nécessaire de rester organisée autour de l’État de droit, face aux périls impérialistes. Ce qui doit être un facteur non seulement de compétitivité, mais aussi d’espoir pour ceux qui, par exemple aux États-Unis, luttent pour le maintien de la démocratie.
Jean-Pierre Darnis ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
29.01.2026 à 15:57
Céline Barrier, Chercheuse, Université de Corse Pascal-Paoli
À la différence de l’intelligence humaine, régie par un centre de décision (le cerveau), celle du monde marin s’organise sans chef d’orchestre. Elle repose sur une multitude d’interactions où chaque processus physique contribue à un fonctionnement global. Que penser de cette analogie ? Peut-on encore parler d’intelligence ? Étudier ces formes d’organisation non humaines invite à repenser notre définition de l’intelligence.
Docteure en sciences marines, spécialisée dans la modélisation des processus écologiques, je travaille principalement sur la dispersion larvaire et la connectivité entre habitats marins, en particulier dans les écosystèmes côtiers de la Méditerranée.
Mes recherches consistent notamment à « suivre des larves marines », afin de comprendre comment l’information circule dans un système naturel complexe, à travers l’espace, le temps et de fortes contraintes physiques. Les « propagules » marines, larves de poissons ou d’invertébrés, ne sont en effet pas seulement de la matière vivante transportée passivement par les courants.
Elles sont aussi des vecteurs d’information écologique. En effet, elles transportent un patrimoine génétique, des traits d’histoire de vie, une mémoire évolutive et surtout un potentiel fondamental : celui de permettre, ou non, le maintien d’une population dans un habitat donné.
Leur évolution dans l’espace est un exemple intéressant de la façon dont les écosystèmes marins s’organisent. Cette organisation fait intervenir une forme d’intelligence bien différente de celle que nous connaissons en tant qu’humains.
À lire aussi : La Fête de la science 2025 met toutes les intelligences à l’honneur
Les écosystèmes marins peuvent être décrits comme des systèmes distribués : il n’y existe ni centre de décision, ni contrôle centralisé.
L’organisation globale émerge de l’interaction continue entre des processus physiques (courants, stratification de la colonne d’eau), biologiques (développement larvaire, mortalité, parfois comportement) et écologiques (disponibilité et qualité des habitats).
Comprendre cette organisation revient à comprendre comment des systèmes complexes peuvent fonctionner efficacement sans intelligence centrale. Dans ce cadre, l’« intelligence » du monde marin n’est ni neuronale ni intentionnelle. Elle est collective, spatiale et émergente.
Chaque processus physique y joue un rôle spécifique. Par exemple :
les courants marins forment une infrastructure invisible, comparable à un réseau de communication ;
les habitats fonctionnels, zones de reproduction, de nourricerie ou habitats adultes, constituent des nœuds ;
enfin, les larves assurent la circulation entre ces nœuds, rendant possible la connectivité du système.
À lire aussi : Podcast : Intelligence animale… Quand la seiche sèche le poulpe !
Dans mon travail, je cherche à modéliser cette connectivité, c’est-à-dire le réseau d’échanges dont la structure conditionne la résilience, l’adaptabilité et la persistance des populations marines face aux perturbations environnementales.
Pour explorer ces réseaux invisibles, j’utilise des modèles biophysiques dits lagrangiens, qui combinent des données océaniques (courants, température, salinité) avec des paramètres biologiques propres aux espèces étudiées, tels que la durée de vie larvaire ou la période de reproduction.
L’objectif n’est pas de prédire le trajet exact de chaque larve, mais de faire émerger des structures globales : corridors de dispersion, zones sources, régions isolées ou carrefours d’échanges.
C’est précisément ce que j’ai montré dans un travail récent consacré à la grande araignée de mer Maja squinado en Méditerranée nord-occidentale. En simulant plus de dix années de dispersion larvaire à l’échelle régionale, j’ai mis en évidence l’existence de véritables carrefours de connectivité. Ils relient certaines zones côtières éloignées, tandis que d’autres, pourtant proches géographiquement, restent faiblement connectées.
Cette organisation ne résulte d’aucune stratégie consciente. Elle émerge de l’interaction entre la circulation océanique, la biologie des espèces et la distribution spatiale des habitats favorables.
Les résultats obtenus illustrent une forme d’intelligence collective du système, dans laquelle l’organisation globale dépasse largement la somme des trajectoires individuelles.
On retrouve ici des propriétés communes à de nombreux systèmes complexes – colonies d’insectes, réseaux trophiques ou dynamiques sociales humaines. Dans tous les cas, ce sont les relations entre les éléments, bien plus que les éléments eux-mêmes, qui structurent le fonctionnement de l’ensemble.
Un parallèle peut enfin être établi avec l’intelligence artificielle, sans qu’il soit nécessaire de forcer l’analogie. Les modèles que je développe agissent, avant tout, comme des outils de traduction : ils transforment un monde continu, chaotique et tridimensionnel en représentations intelligibles – cartes, matrices de connectivité, probabilités.
Comme en intelligence artificielle, l’enjeu n’est pas de tout contrôler ni de tout prédire, mais d’identifier les échelles pertinentes et les relations clés à partir desquelles le sens peut émerger.
Étudier ces formes d’organisation non humaines nous invite ainsi à repenser notre définition de l’intelligence. Dans un monde marin sans cerveau, sans mémoire explicite et sans intention, des systèmes entiers parviennent pourtant à se maintenir, à se réorganiser et parfois à résister aux perturbations environnementales.
Reconnaître cette intelligence diffuse, incarnée dans des flux et des réseaux, ne revient pas à humaniser la nature, mais à élargir notre regard sur ce que signifie « être intelligent » dans un monde complexe et interconnecté.
Cet article est publié dans le cadre de la Fête de la science (qui a eu lieu du 3 au 13 octobre 2025), dont The Conversation France est partenaire. Cette nouvelle édition porte sur la thématique « Intelligence(s) ». Retrouvez tous les événements de votre région sur le site Fetedelascience.fr.
Céline Barrier ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
29.01.2026 à 15:56
Rose-Marie Borges, Maître de conférences HDR en droit privé , Université Clermont Auvergne (UCA)
Où finit l’inspiration, où commence le plagiat ? Si la question a toujours été complexe à trancher, elle est de plus en plus brûlante alors que les réseaux sociaux permettent à tous de diffuser des contenus à grande échelle et que l’IA brouille le rapport aux sources. Et elle se pose sur les bancs de la fac déjà : peut-on enregistrer son prof ? À quelles conditions partager des images trouvées sur Internet dans un mémoire ? Quelques repères.
Guillaume Musso a-t-il plagié l’ouvrage de Diana Katalayi Ilunga comme l’affirme celle-ci ? La vidéo de Noël avec le loup d’Intermarché constitue-t-elle un plagiat du livre pour enfants Un Noël pour le loup, de Thierry Dedieu ? La chanson On va s’aimer, interprétée par Gilbert Montagné, est-elle un plagiat de la chanson Une fille de France, interprétée par Gianni Nazzaro ?
Ces affaires mettent en lumière les droits que possède l’auteur d’une œuvre sur l’utilisation de celle-ci. Né au XVIIIᵉ siècle, à la suite de l’essor de l’imprimerie, le droit d’auteur protège les œuvres quelle que soit leur nature (musicale, picturale, audiovisuelle) et constitue le lien entre la défense des intérêts des créateurs et la nécessité de permettre la circulation des savoirs et des œuvres.
Les questions relatives au droit d’auteur ne concernent pas simplement les professionnels de la création. Toute personne peut y être confrontée dans son quotidien, dans le cadre de son travail ou de ses études. À l’heure où les réseaux sociaux donnent accès à une multitude d’œuvres et où l’intelligence artificielle (IA) est de plus en plus utilisée, il est facile de ne pas respecter le droit des auteurs, sciemment ou non.
Partant du constat que de très nombreux étudiants ignoraient les principes du droit d’auteur dans la rédaction de leurs travaux, nous avons, avec d’autres enseignants-chercheurs et sous l’impulsion de Marie Latour, créé le MOOC Voler-Coller : stop au plagiat, dont l’objectif est de mieux faire connaître les règles de la propriété intellectuelle aux étudiants, particulièrement de master et de doctorat. Revenons sur quelques-uns de ses enjeux clés.
Le droit d’auteur protège toute œuvre de l’esprit originale, c’est-à-dire portant l’empreinte de la personnalité de l’auteur, qui traduit un apport créatif. Le droit est composé de deux catégories de droits.
Les droits patrimoniaux permettent à l’auteur de contrôler l’utilisation de son œuvre. Cela signifie qu’il peut autoriser ou interdire la reproduction, la représentation ou l’adaptation de son travail. Les droits patrimoniaux peuvent faire l’objet de contrats d’exploitation et bénéficient à l’auteur durant toute sa vie et à ses ayants droit soixante-dix ans après sa mort. Après ce délai, l’œuvre tombe dans le domaine public et peut être exploitée librement.
Les droits moraux garantissent à l’auteur le respect de son nom et l’intégrité de son œuvre. Contrairement aux droits patrimoniaux, ils sont inaliénables et imprescriptibles. Même après la mort de l’auteur, ses héritiers peuvent veiller à ce que sa qualité d’auteur soit respectée et que l’œuvre ne soit pas dénaturée. Par exemple, bien que l’œuvre soit tombée dans le domaine public, les descendants de Victor Hugo conservent un droit moral éternel sur les Misérables, qui leur permettrait de s’opposer à l’adaptation de l’ouvrage en comédie.
Un enseignant bénéficie d’un droit d’auteur sur son cours dès lors que celui-ci est original. De ce fait, toute utilisation de ce cours suppose son autorisation, y compris par les étudiants à qui il est dispensé. Un étudiant ne peut pas capter un cours, quelle que soit la forme de la captation (vidéo, son, photos) et le diffuser, à titre gratuit ou onéreux, sans l’accord de l’enseignant.
De plus, si la captation inclut l’image ou la voix de l’enseignant sans son accord, cela constitue une atteinte aux droits de la personnalité de celui-ci et au droit des données personnelles. À l’inverse, l’étudiant bénéficie également du droit d’auteur sur ses productions, dès lors que celles-ci sont originales. Un enseignant ne pourrait donc pas s’approprier le travail d’un étudiant ou l’utiliser sans son accord.
En principe, toute représentation, reproduction ou modification d’une œuvre est soumise à l’autorisation de l’auteur. Dans un certain nombre de cas, la loi prévoit toutefois qu’une personne peut représenter ou reproduire une œuvre sans avoir à obtenir l’accord de l’auteur. Parmi ces exceptions, le droit de citation et l’exception pédagogique sont particulièrement utilisés dans le cadre académique.
Le droit de citation permet d’utiliser un extrait d’une œuvre protégée sans autorisation, si trois conditions cumulatives sont remplies : la citation doit être courte, elle doit être justifiée par un objectif critique, pédagogique, scientifique ou informatif et elle doit clairement indiquer le nom de l’auteur et la source.
La reproduction de pages entières dans un mémoire ou une thèse ne peut être couverte par le droit de citation et constitue donc du plagiat.
L’exception académique permet aux enseignants et chercheurs d’utiliser certaines œuvres dans un cadre strictement éducatif. Un enseignant pourra par exemple diffuser un extrait de film ou un extrait d’article en classe pour illustrer un cours. En revanche, la diffusion de l’intégralité du film ou de l’article sans autorisation est interdite.
En droit d’auteur, la frontière entre plagiat et inspiration est parfois ténue. Le plagiat suppose une reproduction non autorisée d’une œuvre, sans mention de l’auteur. L’inspiration, en revanche, relève d’un processus créatif où l’on s’appuie sur des idées ou des styles existants pour produire une œuvre nouvelle.
Les idées n’étant pas protégées en tant que telles par le droit d’auteur, on dit qu’elles sont de libre parcours. Tout un chacun peut les reprendre et en donner une expression originale. Ainsi, un auteur qui écrirait une enquête mettant en scène un détective excentrique, doté d’une logique implacable et d’un sens aigu de l’observation rappelant fortement Sherlock Holmes, mais avec ses propres traits de caractère, un contexte différent et une intrigue nouvelle, resterait dans le cadre de l’inspiration.
En revanche, si l’auteur reprend des dialogues, des scènes emblématiques ou des intrigues quasi identiques aux aventures de Sherlock Holmes, sans les transformer ni les citer, cela pourrait être qualifié de plagiat.
Les tribunaux apprécient au cas par cas, en examinant le degré de similitude, l’intention de l’auteur et si l’œuvre nouvelle apporte une véritable originalité ou si elle se contente de copier la forme de l’œuvre antérieure. La frontière se situe donc dans la manière dont l’auteur parvient à injecter une véritable originalité dans son récit.
L’inspiration consiste à reprendre une idée alors que le plagiat reprend une expression originale de l’idée. Par exemple, un étudiant qui doit rédiger un commentaire du Petit Prince, de Saint Exupéry, consulte un site Internet qui propose une analyse détaillée du livre. Si l’étudiant lit l’analyse pour mieux comprendre l’ouvrage et rédige ensuite son propre texte, avec ses propres mots et ses propres exemples, la fiche d’analyse ne constituera qu’une inspiration. En revanche, s’il reprend plusieurs phrases de la fiche, ne change que quelques mots tout en conservant la structure et les idées développées dans le même ordre, sans citer la source, il se rend coupable de plagiat.
L’intelligence artificielle (IA) bouleverse le droit d’auteur dans la mesure où elle s’appuie sur des œuvres existantes pour produire de nouveaux contenus. L’IA peut réutiliser des éléments protégés sans autorisation, parfois de manière subtile, rendant la frontière entre inspiration et reproduction difficile à tracer.
Les auteurs des œuvres originaires craignent, à raison, que leurs œuvres ne soient exploitées sans reconnaissance ni rémunération et que l’usage massif des œuvres existantes par les IA ne fragilise le modèle économique de la création.
Se pose également la question de la titularité des droits sur une œuvre générée par IA : appartiennent-ils à l’utilisateur de l’IA, au concepteur du logiciel ou à personne puisque l’IA n’a pas de personnalité juridique ? À l’heure actuelle, la plupart des juridictions ayant eu à trancher des demandes de protection par le droit d’auteur sur des créations réalisées par l’IA ont rejeté ces demandes.
Certaines décisions ont toutefois admis la protection à des œuvres générées par l’IA. En janvier 2025, l’US Copyright Office a accepté d’accorder une protection par droit d’auteur à l’œuvre A Single Piece of American Cheese réalisée grâce à l’IA Invoke, notamment grâce à la preuve d’une intervention humaine déterminante.
En 2023, un tribunal de Pékin avait déjà déclaré que l’utilisateur de l’IA, à l’origine de la création de l’image litigieuse, était bien le titulaire des droits d’auteur. Ces décisions montrent la nécessité de réfléchir à une adaptation de la législation sur le droit d’auteur ou à la création d’un système de protection hybride.
L’usage de l’IA dans un travail universitaire peut être utile, mais il expose aussi l’étudiant à des risques réels de plagiat, sans qu’il s’en rende compte. Les outils d’IA peuvent générer des phrases ou des formulations très proches de textes existants, sans nécessairement citer la source. Si l’étudiant se contente de copier-coller le texte dans son travail, il peut réaliser un plagiat involontaire. Il faut donc utiliser l’IA pour comprendre, pas pour copier, reformuler les idées avec ses propres mots et vérifier toutes les informations, afin de minimiser les risques.
Le non-respect du droit des auteurs peut avoir des conséquences lourdes, tant financières que réputationnelles. Il faut donc sensibiliser au plus tôt les utilisateurs, qu’ils soient étudiants ou enseignants, au bon usage du droit d’auteur.
Rose-Marie Borges ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
29.01.2026 à 15:55
Aurore Ingarao, Maitre de conférences en Marketing , Université d’Orléans
Charlène Carreteiro, Doctorante en sciences de gestion, Université d’Orléans

Entre la recherche de produits d’exception, des prix bas et la peur de la contrefaçon, le marché des « dupes » est en plein essor. Ces produits qui copient le succès d’une grande marque sont valorisés sur les réseaux sociaux, notamment TikTok. Comment sont-ils perçus par les consommateurs et les professionnels ?
La brosse soufflante Airwrap de Dyson, la crème hydratante Sol de Janeiro ou encore le Birkin d’Hermès… ces produits voient leurs copies s’envoler sur l’Internet. Elles sont mises en avant sur les réseaux sociaux et plus particulièrement sur TikTok à travers des tendances (trend) lancées autour de hashtag intégrant le mot dupe.
Entre la recherche de produits d’exception, de prix bas et la peur de la contrefaçon, le marché des dupes est en plein essor. En 2024, 561 000 de recherches mensuelles pour le terme dupe sont recensés sur Google et 398 100 vidéos sur TikTok. Selon la Fédération des entreprises de la beauté, 31 % des consommateurs ont acheté un dupe de produit cosmétique au cours des 12 derniers mois.
Ce phénomène s’inscrit dans la dynamique du marketing d’influence que nous avons étudié avec Sophie Renault, professeure des universités, dans notre communication scientifique « Tout ce qui brille n’est pas d’or : le défi de l’authenticité dans l’univers complexe du marketing d’influence » (2024). Les créateurs de contenus, en mettant en avant ces inspirations sur les réseaux sociaux, jouent un rôle clé dans la légitimation de l’achat de ces produits, notamment auprès des jeunes générations.
Alors, comment ces produits sont-ils perçus par les consommateurs et les professionnels ?
La contrefaçon est définie par l’Institut national de la propriété intellectuelle (Inpi) comme « la reproduction, l’imitation ou l’utilisation totale ou partielle d’un droit de propriété intellectuelle sans l’autorisation de son propriétaire. Il peut s’agir d’une marque, d’un modèle, d’un brevet, d’un droit d’auteur, d’un logiciel, d’un circuit intégré ou d’une obtention végétale ». La contrefaçon est à distinguer des termes de copycat, imitation, dupe, pingti ou générique.
Désigne des produits qui imitent ceux de marques renommées, donnant l’impression de proposer une offre similaire à moindre coût, mais cette similitude se limite à l’apparence. Les « dupes » ne possèdent absolument rien des caractéristiques de l’original, en termes de matériaux, d’efficacité ou de durabilité.
Une imitation de « l’habillage commercial d’une marque leader, comme son nom ou le design de son emballage, pour profiter de la réputation et des efforts marketing de cette dernière ».
Un « produit ou service, bien que non identique, considéré comme similaire en substance, nom, forme, signification ou intention à un produit ou service reconnu et largement connu actuellement sur le marché. »
Les pingti (« leurre » en mandarin) sont des copies haut de gamme, venant de Chine, de produits de luxe. Seuls les designs et finitions sont reproduits, et non la marque et le logo, les distinguant de la contrefaçon.
Les produits génériques se « caractérisent par leur emballage sobre et l’absence de marque reconnue. Leur principal attrait, pour le consommateur, réside dans l’écart de prix important entre les produits génériques et leurs équivalents de marque. »
Le consommateur a pour première motivation le prix. Près de 39 % des consommateurs déclarent préférer tester un produit équivalent moins cher, afin de comparer son efficacité avec le produit original pour « peut-être » l’acheter par la suite.
Considérer un prix élevé comme un gage de qualité est remis en cause, puisque la qualité des produits est revendiquée comme égale aux originaux, traduisant une culture des dupes.
À lire aussi : Contrefaçon des produits de luxe Vuitton, Saint Laurent, Chanel ou Hermès… Pourquoi la pression sociale l’emporte sur la morale
La valeur perçue repose sur le sentiment de fierté procuré par l’achat de ces copies. Certains acheteurs se considèrent comme des smart shoppers, avec l’impression de contourner les stratégies des marques aux prix élevés. Ces dupes leur permettent de contrôler leur consommation, les libérer des codes élitistes traditionnels, accéder à leurs désirs sans en payer le prix, allant jusqu’à ressentir le plaisir cognitif de la transgression.
Avec pas moins de 180 000 influenceurs recensés en France, les relais auprès des consommateurs sont assurés. Les influenceurs dupes sont définis comme « des individus qui incitent les consommateurs à acheter des contrefaçons via les réseaux sociaux ». Leur force réside dans leur expertise, appréciée par leurs abonnés qui leur font confiance.
Nombreux sont les formats diffusés sur les réseaux sociaux par de célèbres influenceurs. Certains fabricants collaborent avec ces influenceurs pour promouvoir leurs produits. C’est le cas de Celesta, une marque proposant des appareils coiffants comparables à ceux de Dyson, qui a choisi de mener une campagne d’influence sur TikTok.
Le dupe semble accepter par le marché – les fabricants de dupes, les influenceurs, les consommateurs ou les plateformes numériques – comme étant légal, par opposition à la contrefaçon. L’argument principal : le produit ne laisse apparaître ni logo ni nom de marque apparent, souvent caractéristique de la contrefaçon.
La frontière entre l’imitation et l’inspiration se révèle plus mince qu’elle n’y paraît, puisqu’un produit peut être protégé indépendamment de sa marque. Pour certaines d’entre elles, des modèles spécifiques peuvent être protégés au titre du droit d’auteur. Une action en contrefaçon peut être engagée même si la marque n’apparaît pas, selon Vanessa Bouchara, avocate spécialisée dans les questions de propriété intellectuelle.
Contrefaçon ou dupe, ces pratiques très proches ne cessent d’inquiéter les fabricants. L’Union des fabricants (Unifab) alerte et rapproche les deux concepts : « La contrefaçon dupe ». Elle liste des conseils pour être, devenir ou redevenir un consommateur responsable en jouant sur l’affect. « Acheter de la contrefaçon revient à cautionner la perte de plus de 38 000 emplois et 6,7 milliards de revenus en France tous les ans », rappelle l’Unifab.
Des marques tentent de renverser la tendance en surfant sur le buzz généré. C’est le cas d’Olaplex, spécialisée en soins capillaires, qui a lancé l’opération Oladupé en partenariat avec de nombreux influenceurs, mettant en avant un faux dupe de la marque pour montrer que les atouts de l’original sont inégalables.
Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.
29.01.2026 à 15:53
Marie Chaieb, enseignant-chercheur en théologie patristique, UCLy (Lyon Catholic University)
Une rare fresque datant du IIIᵉ siècle représentant Jésus en Bon Pasteur a été mise au jour lors de la découverte d’un tombeau près d’Iznik, en Turquie. Elle nous permet de mieux saisir comment s’est formée l’iconographie symbolique des premiers chrétiens.
La région d’Iznik, l’ancienne Nicée, (Turquie) a été mise à l’honneur récemment par le voyage du pape Léon XIV. Mais elle reste sur le devant de la scène avec la découverte d’un tombeau paléochrétien du IIIᵉ siècle très bien conservé contenant cinq squelettes (dont un nourrisson). Les magnifiques fresques de ce tombeau ont d’emblée attiré l’attention et posent la question des critères artistiques choisis par les chrétiens à cette date haute, et à une période où l’Empire intensifie le rythme des persécutions.
Des campagnes de fouilles régulières avaient déjà mis au jour dans la même région un premier tombeau daté du IVᵉ siècle, époque du concile de Nicée). Dans ce premier tombeau, les paons, symboles d’éternité, étaient mis en valeur : deux paons à la queue traînante, et deux paons faisant la roue ; dans le nouveau tombeau découvert, qui est antérieur, le « motif » principal est la figure d’un jeune homme, imberbe, portant sur ses épaules une des cinq chèvres représentées, sur un fond champêtre de hautes herbes.
Rapidement, les archéologues ont mis en relation cette fresque avec « le Bon Pasteur », une catégorie iconographique qui repose sur la désignation de Jésus comme un berger attentif à son troupeau.
Dans les Évangiles, Jésus lui-même se présente en effet sous ce vocable (cf. Jn 10, 14, « Je suis le bon berger, et je connais mes brebis, et mes brebis me connaissent ») et propose à ses disciples le modèle du bon berger dans la parabole de la brebis égarée (Luc 15, 3-7).
À lire aussi : Quand l’archéologie raconte les grands faits et les petits gestes de notre histoire commune
Utiliser le motif du « bon berger » en contexte funéraire n’est pas rare : les illustrations les plus célèbres traversent les siècles et tout l’Empire, depuis le célèbre Bon Berger de la catacombe de sainte Priscille au IIᵉ siècle, jusqu’au mausolée de Galla Placidia (Ravenne, Vᵉ), en passant par des sarcophages variés tout autour du bassin méditerranéen.
Motif paisible et réconfortant, surtout lorsqu’il est rapproché du Ps 22 :
« Le Seigneur est mon berger : je ne manque de rien. Sur des prés d’herbe fraîche, il me fait reposer. Il me mène vers les eaux tranquilles et me fait revivre »
Ce motif est employé en contexte funéraire pour symboliser la proximité du bon pasteur avec ses brebis, l’accueil du fidèle défunt auprès du Christ et le repos dans la paix ; il exprime la foi en une vie avec lui après la mort. Mais ce motif véhicule aussi un intéressant message au regard de l’insertion du christianisme dans la culture de son temps.
Effectivement, durant les quatre premiers siècles de l’expansion du christianisme, les artistes chrétiens ont créé finalement peu de motifs originaux : le motif du poisson illustre bien cette créativité à partir du mot ichtus qui signifie « poisson » en grec, dans lequel ils ont avec ingéniosité repéré les initiales en acrostiche de « Jésus-Christ, fils de Dieu Sauveur ». Puis au IVᵉ siècle, viendra le motif du chrisme associé à la fin des persécutions et encore plus tard celui de la croix.
Mais aux IIᵉ et IIIᵉ siècles, le plus souvent, les artistes chrétiens ont simplement représenté des scènes de l’Évangile (il est donc faux de dire que les chrétiens n’avaient pas le droit de représenter des images, comme on l’entend dire parfois), ou bien ont réutilisé des motifs païens existants dans lesquels ils ont perçu un lien possible avec leur foi. C’est le cas en particulier pour notre motif du Bon Pasteur.
Deux sources principales d’inspiration pouvaient les guider à propos de ce motif : les représentations d’Hermès « kriophore » d’une part, et les « tableaux » représentant Orphée charmant les animaux de sa lyre. C’est Pausanias, dans sa Description de la Grèce (9.22.1–2), qui explique le cas d’Hermès (Mercure) :
« Ce premier surnom lui fut donné, dit-on, parce qu’il détourna de la ville une maladie contagieuse, en portant un bélier autour des murs ; c’est pour cela que Calamis a fait la statue de Mercure portant un bélier sur ses épaules. »
Le motif étant déjà chargé d’une dimension de salut, les artistes chrétiens y ont perçu l’avantage d’un symbolisme en résonance avec leur foi, capable de « parler » aussi bien à un chrétien que de faire percevoir l’espérance chrétienne à un païen. Le mythe d’Orphée fait aussi écho au contexte funéraire puisque c’est après avoir perdu son épouse Eurydice qu’il se retire dans la nature sauvage, auprès des animaux. Il est le plus souvent entouré d’animaux dangereux (lions, panthères, tigres…) rendus inoffensifs par le pouvoir apaisant de sa cithare. Les artistes chrétiens y voyaient une facile convergence avec les prophéties d’une fin des temps réconciliée :
« Le loup habitera avec l’agneau, le léopard se couchera près du chevreau, le veau et le lionceau seront nourris ensemble… » (Is 11, 6).
Superposer les deux images leur permettait d’« habiter » de leur foi des motifs courants mais aussi de parler à leurs contemporains à travers le langage des symboles. C’est d’ailleurs toujours le cas du paon, dans le tombeau plus tardif, voisin de celui qui nous intéresse. Symbole funéraire connu depuis les Étrusques, le paon est étroitement lié à la mort dans l’antiquité : sa chair réputée imputrescible exprime une espérance de renaissance et d’immortalité, que les chrétiens n’ont pas hésité à accueillir… alors qu’il n’y a pas de paon dans la Bible.
À lire aussi : Les premiers moines chrétiens étaient… des Égyptiens
En période de persécution, ce phénomène est riche de sens. Il permet de dire quelque chose du positionnement des chrétiens dans leur monde. Et du langage symbolique qu’ils partagent avec leur temps. Car il serait trop limité de conclure qu’ils s’emparent de symboles païens pour en faire des symboles chrétiens. Ces symboles sont aussi les leurs culturellement. Au-delà de la question de l’emprunt, cette utilisation des symboles d’Hermès et d’Orphée est fondée sur leur conviction que, malgré les persécutions, un dialogue est possible avec leurs contemporains.
Marie Chaieb ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
29.01.2026 à 12:14
Violaine Nicolas Colin, Maitre de conférence en systématique et phylogéographie, Muséum national d’histoire naturelle (MNHN)

Il est bien plus difficile de prouver une absence que de constater une présence. Il faut donc souvent des années, et un processus minutieux, pour qu’une espèce soit déclarée éteinte. Cela peut-être particulièrement difficile lorsqu’il s’agit d’espèces nocturnes, discrètes ou vivant dans des milieux reculés.
Déclarer une espèce « éteinte », ce n’est pas comme rayer un nom d’une liste. C’est un verdict lourd de sens, prononcé avec une extrême prudence. Car annoncer trop tôt une disparition peut condamner une espèce qui existe peut-être encore quelque part. Alors comment font les scientifiques en pratique ?
Pour en arriver là, les biologistes doivent mener des recherches exhaustives, dans tous les habitats potentiels, aux bonnes périodes (saisons, cycles de reproduction), et sur une durée adaptée à la biologie de l’espèce.
Concrètement, plusieurs indices sont analysés ensemble :
l’absence prolongée d’observations fiables,
des campagnes de recherche répétées et infructueuses,
le temps écoulé depuis la dernière observation confirmée,
et l’état de l’habitat. Si celui-ci a été totalement détruit ou transformé au point d’être incompatible avec la survie de l’espèce, la conclusion devient plus solide.
Autrement dit, on ne déclare pas une espèce éteinte parce qu’on ne l’a pas vue depuis longtemps, mais parce qu’on a tout fait pour la retrouver, sans succès.
À l’échelle mondiale, c’est l’Union internationale pour la conservation de la nature (UICN) qui statue, depuis 1964, via sa célèbre « liste rouge », référence internationale en matière de biodiversité.
La liste rouge classe les espèces selon leur risque d’extinction, en plusieurs catégories allant de « préoccupation mineure » à « éteinte ». Elle est mise à jour régulièrement, accessible en ligne, et donne aujourd’hui le statut de 172 600 espèces.
Bien plus qu’une simple liste d’espèces et de leur statut, elle fournit aussi des informations sur l’aire de répartition, la taille des populations, l’habitat et l’écologie, l’utilisation et/ou le commerce, les menaces ainsi que les mesures de conservation qui aident à éclairer les décisions nécessaires en matière de préservation.
C’est donc un outil indispensable pour informer et stimuler l’action en faveur de la conservation de la biodiversité et des changements de politique. Le processus d’élaboration de la liste rouge implique le personnel de l’équipe d’évaluation et de connaissance de la biodiversité de l’UICN, les organisations partenaires, les scientifiques, les experts de la Commission de la sauvegarde des espèces de l’UICN, ainsi que les réseaux partenaires qui compilent les informations sur les espèces.
L’IUCN déclare une espèce comme « éteinte » quand il n’existe aucun doute raisonnable que le dernier individu a disparu. Des gouvernements ou agences nationales peuvent également déclarer une espèce éteinte localement, sur leur territoire.
Le dodo (Raphus cucullatus) reste l’icône des extinctions causées par l’humain : découvert à la fin du XVIᵉ siècle lors de l’arrivée des Européens sur l’île Maurice, il disparaît moins de cent ans plus tard, victime de la chasse et des espèces introduites.
Mais il est loin d’être un cas isolé, les extinctions récentes touchent tous les groupes du vivant. Si les espèces insulaires représentent une part disproportionnée des extinctions récentes (les îles, bien qu’elles ne couvrent que 5 % des terres émergées, abritent près de 40 % des espèces menacées), les espèces continentales sont également touchées.
Le courlis à bec grêle (Numenius tenuirostris), un oiseau des zones humides, qui hibernait autour de la Méditerranée avant de rejoindre sa Sibérie natale au printemps, n’a plus été observé de manière certaine depuis 1995. Une étude publiée fin 2024 estime à 96 % la probabilité qu’il soit aujourd’hui éteint, victime de l’agriculture intensive et du drainage des marais.
La musaraigne de l’île Christmas (Crocidura trichura), discrète habitante de l’océan Indien, a été officiellement déclarée éteinte en 2025, après quarante ans sans observation malgré des recherches répétées. Les prédateurs introduits (rats, chats) et les perturbations de l’habitat sont les principaux suspects.
Deux escargots polynésiens (Partula dentifera et P. pearcekellyi) ont été officiellement déclarés éteints en 2024. La cause principale de leur disparition serait l’introduction d’un escargot prédateur invasif (Euglandina rosea), une tragédie silencieuse mais fréquente sur les îles.
Chez les plantes, Amaranthus brownii, une plante herbacée annuelle endémique d’une petite île hawaïenne, a été déclarée éteinte en 2018 après plus de trente-cinq ans sans observation malgré des recherches intensives. La destruction de son habitat et l’arrivée d’espèces invasives ont conduit à sa disparition, sans qu’aucune graine ni plant viable n’ait pu être conservé.
Depuis 2024, la liste rouge de l’IUCN comprend aussi des champignons. En mars 2025 la liste évaluait le statut de 1 300 espèces de champignons. Nous sommes loin des 155 000 espèces connues, mais les premières évaluations restent préoccupantes avec 411 espèces de champignons menacées d’extinction, soit près d’un tiers des espèces recensées.
L’histoire de la biodiversité peut être pleine de rebondissements.
Selon le naturaliste, Brett Scheffers et ses collaborateurs au moins 351 espèces ont ainsi été « ressuscitées » en un peu plus d’un siècle, parfois après des décennies d’absence. La perruche nocturne (Pezoporus occidentalis) ou la rousserolle à grand bec (Acrocephalus orinus) en sont des exemples spectaculaires. Il est important de noter que la majorité de ces redécouvertes concerne des espèces si rares ou difficiles à trouver que leur seule occurrence confirmée provenait de leur description initiale. Ces espèces redécouvertes sont donc pour leur grande majorité toujours considérées comme gravement menacées et pourraient disparaître prochainement.
Résultat : on cesse les efforts de conservation… alors qu’il restait peut-être une chance de la sauver. Ce nom fait référence au Roméo de Shakespeare qui renonce à vivre en croyant Juliette morte, alors qu’elle ne l’est pas encore. La conure de Caroline (Conuropsis carolinensis), un perroquet d’Amérique du Nord, pourrait en être un triste exemple. Présumée éteinte au début du XXᵉ siècle cette espèce a probablement survécu plus longtemps comme en atteste les nombreux témoignages locaux (incluant des détails sur son comportement) jusqu’aux années 1950, et peut-être même jusqu’aux années 1960.
Le thylacine, dont le dernier animal (captif) est officiellement mort en 1936, continue de fait d’alimenter de nombreuses rumeurs et témoignages d’observations non vérifiables. Selon l’étude scientifique la plus complète à ce sujet le dernier animal sauvage entièrement documenté (avec des photographies) a été abattu en 1930, mais il n’y aurait aucune raison de douter de l’authenticité de deux carcasses signalées en 1933, ni de deux autres captures suivies de relâchers en 1935 et en 1937. Par la suite, sur une période de huit décennies, 26 morts et 16 captures supplémentaires ont été rapportées, mais sans être vérifiées, ainsi que 271 observations par des « experts » (anciens piégeurs, chasseurs, scientifiques ou responsables) et 698 signalements par le grand public. En 2005, le magazine australien d’information The Bulletin a offert une récompense de plus d’un million de dollars (soit plus 836 000 euros) à quiconque fournirait une preuve scientifique de l’existence du thylacine, en vain. Entre 2014 et 2020, 3 225 sites équipés de pièges photographiques en Tasmanie, totalisant plus de 315 000 nuits de surveillance, n’ont révélé aucune détection pouvant être attribuée à un thylacine.
Prouver une absence est bien plus compliqué que constater une présence. L’UICN préfère donc l’extrême prudence et ne classe une espèce « éteinte » que lorsqu’elle peut l’affirmer avec certitude. En effet, comme nous l’avons vu, officialiser une extinction est un acte lourd de conséquences car cela conduit à clôturer les éventuelles mesures de protection. Ainsi, le requin perdu (Carcharhinus obsoletus) est estimé comme « gravement menacé d’extinction – possiblement éteint » par la dernière publication de la liste rouge de l’UICN en 2020, alors qu’il n’a plus été vu dans ses eaux de la mer de Chine depuis 1934. La liste rouge ne déclarant éteintes que des espèces pour lesquelles il n’y a aucun doute, les extinctions enregistrées sont largement sous-estimées.
De plus, notre vision est biaisée : les vertébrés (en particulier les oiseaux et les mammifères) sont relativement bien suivis, mais l’immense majorité des espèces – insectes, invertébrés, champignons, microorganismes – restent très mal connues et leur taux d’extinction est sous-estimé. Beaucoup d’espèces sont discrètes, minuscules, nocturnes ou vivent dans des milieux difficiles d’accès. Pour la majorité d’entre elles, les données sont quasi inexistantes et elles peuvent disparaître sans que personne ne s’en aperçoive.
Savoir si une espèce a réellement disparu permet de choisir les bonnes stratégies de conservation. Beaucoup d’espèces peuvent encore être sauvées lorsque quelques individus subsistent. C’est par exemple le cas du condor de Californie (Gymnogyps californianus) pour lequel il restait seulement 22 individus à l’état sauvage dans les années 1980. Un programme de capture de ces spécimens, puis d’élevage en captivité et de réintroduction progressive a permis à la population sauvage de réaugmenter progressivement et d’atteindre 369 individus en 2024.
À l’inverse, un diagnostic erroné – trop optimiste ou trop pessimiste – peut détourner les efforts au mauvais moment.
L’extinction est un fait biologique, mais c’est aussi un défi méthodologique. Entre prudence scientifique, incertitudes du terrain et illusions collectives, établir la frontière entre « menacée » et « éteinte » reste l’un des exercices les plus sensibles de la conservation moderne.
Violaine Nicolas Colin a reçu des financements de l'ANR
29.01.2026 à 11:29
Garritt C. Van Dyk, Senior Lecturer in History, University of Waikato
Copie assumée de l’Arc de triomphe parisien, l’« Independence Arch », déjà surnommé « Arc de Trump », s’inscrit dans une longue tradition monumentale, entre célébration du pouvoir, réécriture du passé et affirmation politique.
Donald Trump a pris le temps cette semaine, alors que l'actualité internationale et américaine était particulièrement chargée, de présenter trois nouvelles propositions architecturales pour son projet d’« Independence Arch » à Washington. Les trois rendus rappellent clairement l’Arc de triomphe de la place de l’Étoile à Paris, même si l’un d’eux se distingue par des ornements dorés, dans la lignée des choix décoratifs de Trump pour le Bureau ovale de la Maison-Blanche.
Commandée en vue du 250ᵉ anniversaire de la signature de la Déclaration d’indépendance des États-Unis, le 4 juillet, cet arc de triomphe s’inscrit dans une longue tradition de monuments célébrant les victoires militaires, des empereurs romains à Napoléon Bonaparte.
Ce projet de monument participe ainsi pleinement de la politique étrangère de Donald Trump et de l’ambition qu’affiche ce dernier de voir les États-Unis étendre leur contrôle sur l’« hémisphère occidental » – une orientation que le président a lui-même baptisée la « doctrine Donroe ».
Mais une question demeure, largement posée : alors que le projet copie l’Arc de triomphe, monument emblématique s’il en est, un hommage personnel est-il vraiment la manière la plus pertinente de marquer l’anniversaire de la rupture des États-Unis avec le pouvoir absolu et la monarchie britannique ?
Lorsque Donald Trump a présenté pour la première fois, en octobre 2025, des maquettes de l’arche envisagée, un journaliste lui a demandé à qui elle était destinée. Trump a répondu : « À moi. Ce sera magnifique. » Dans une déclaration faite en décembre, le président a affirmé que la nouvelle arche « sera comme celle de Paris, mais pour être honnête avec vous, elle la surpasse. Elle la surpasse à tous les niveaux ».
Une exception toutefois, a-t-il précisé :
« La seule chose qu’ils ont, c’est l’histoire […] Je dis toujours que c’est la seule chose avec laquelle on ne peut pas rivaliser, mais nous finirons par avoir cette histoire nous aussi. »
Le président est manifestement convaincu que son arche contribuera à forger cette histoire. « C’est la seule ville au monde d’une telle importance qui ne possède pas d’arc de triomphe », a-t-il déclaré à propos de Washington, DC.
Prévue à proximité du cimetière national d’Arlington et du Lincoln Memorial, l’implantation placerait la nouvelle structure en dialogue visuel avec plusieurs des monuments les plus emblématiques de la capitale fédérale.
Le projet s’inscrit par ailleurs dans une série d’initiatives destinées à laisser l’empreinte de Donald Trump sur le paysage bâti de Washington : les transformations apportées à la Maison-Blanche l’an dernier, avec notamment la minéralisation du célèbre Rose Garden, la décoration du Bureau ovale dans un style rococo doré, ou encore la démolition de l’East Wing pour permettre une extension de la salle de bal estimée à 400 millions de dollars (334,5 millions d’euros).
Surnommé l’« Arc de Trump », le projet est désormais la « priorité absolue » de Vince Haley, directeur du Conseil de politique intérieure de la Maison-Blanche.
L’Arc de triomphe de Paris, situé au sommet des Champs-Élysées, est une commande de Napoléon Bonaparte (1804-1814/1815) en 1806 pour honorer l’armée impériale française après sa victoire à la bataille d’Austerlitz (2 décembre 1805). Il ne sera achevé qu’en 1836, sous la Restauration et le règne de Louis-Philippe (1830-1848), dernier roi de France.
Les architectes du projet, Jean-François Chalgrin et Jean-Arnaud Raymond, se sont inspirés des arcs antiques, en prenant pour modèle principal l’arc de Titus à Rome (vers 85 de notre ère). Celui-ci fut érigé par l’empereur Domitien (51–96 de notre ère), tyran cruel et ostentatoire, populaire auprès du peuple mais en conflit permanent avec le Sénat, dont il avait restreint le pouvoir législatif. L’arc fut commandé par Domitien pour célébrer à la fois l’apothéose de son frère Titus et sa victoire militaire contre la rébellion en Judée.
Par ses références, l’arche proposée par Trump ne renvoie à aucun élément de conception spécifiquement américain. Son style néoclassique s’inscrit en revanche dans la continuité de monuments plus anciens, eux aussi inspirés de l’Antiquité.
Le Washington Monument, par exemple, adopte la forme d’un obélisque égyptien. Ce pilier à quatre faces, qui s’amincit en s’élevant et se termine par une pyramide, rend hommage au dieu solaire Rê. Mais il intégrait aussi un élément destiné à symboliser les avancées technologiques et l’esprit d’innovation américains : un pyramidion en aluminium. Lorsque l’obélisque a été achevé en 1884, l’aluminium était un matériau rare, le procédé permettant de le raffiner n’étant pas encore maîtrisé. Le sommet du monument constituait alors la plus grande pièce d’aluminium moulé au monde.
L’arc de triomphe voulu par Trump s’inscrit dans un débat de longue date sur les monuments publics et sur ce qu’ils disent des valeurs qu’une société choisit de mettre en avant.
Ainsi, pendant le mouvement Black Lives Matter, de nombreuses statues de figures historiques ont été retirées de l’espace public, car elles étaient perçues comme glorifiant le racisme et l’impérialisme. Donald Trump a depuis fait remettre en place au moins une statue confédérée renversée à cette période, et son ambition d’ériger un monument à sa propre personne ne saurait donc surprendre.
Sous le régime des lois Jim Crow (1877, abrogées en 1964), qui ont institutionnalisé la ségrégation raciale, puis durant le mouvement des droits civiques, le nombre de monuments consacrés aux soldats et aux généraux confédérés a connu une nette hausse.
De la même façon que le déboulonnage de ces statues relevait d’un geste politique, l’érection d’un nouveau mémorial destiné à promouvoir la lecture positive que Trump propose de l’histoire nationale en constitue un autre. Le projet s’intègre d’ailleurs dans la mission revendiquée par son administration de « restaurer la vérité et la raison dans l’histoire américaine ».
Reste une question plus immédiate : l’Independence Arch pourra-t-il seulement voir le jour d’ici au 4 juillet, jour de la fête nationale ? Un défi de taille, même pour ce président. Quant à son accueil, l’histoire tranchera.
Garritt C. Van Dyk a reçu des financements du Getty Research Institute.
29.01.2026 à 09:57
Laurent Bainier, Directeur de la rédaction The Conversation France, The Conversation

Elle a rédigé le rapport « Défendre et promouvoir la liberté académique », commandé par France Universités. Stéphanie Balme, directrice du Centre de recherches internationales de Sciences Po et experte de la diplomatie scientifique, était l'invitée vendredi 23 janvier de notre émission « La Grande Conversation », en partenariat avec CanalChat Grandialogue.
La liberté académique est aujourd’hui confrontée à des tensions inédites : pressions politiques, restrictions budgétaires, ingérences étrangères et remise en question des principes d’indépendance scientifique. Ces enjeux, qui touchent les chercheurs et les institutions en France comme à l’international, interrogent notre capacité à produire un savoir libre et critique.
Lors de cette émission, nous abordons avec Stéphanie Balme, rédactrice du rapport« Défendre et promouvoir la liberté académique », le rôle des institutions et des politiques publiques pour la protéger. Quelles mesures prendre pour assurer sa défense? Comment répondre aux critiques récurrentes d'une partie de l'opinion publique? Quelles leçons tirer de ce qui se passe sur les campus américains ? Une émission à retrouver sur notre chaîne YouTube.
28.01.2026 à 16:14
Frank Chouraqui, Senior University Lecturer in Philosophy, Leiden University

La crise de la démocratie est liée à une crise du rapport à la vérité mais aussi à une crise de sens, qu’il est important de distinguer de la première. La démocratie cherche à construire un monde porteur de sens, et pas seulement un univers de connaissances permettant la délibération. La rupture des liens sociaux, historiques ou culturels, qui donnent du sens à nos existences, est une aubaine pour les ennemis de la démocratie.
Nous sommes au cœur d’une crise de la vérité. La confiance dans les institutions publiques du savoir (les écoles, les médias traditionnels, les universités et les experts) n’a jamais été aussi faible, et des menteurs éhontés obtiennent des victoires politiques partout dans le monde. On pourrait penser que, collectivement, nous avons cessé de nous soucier de la vérité.
La fébrilité des démocrates face à cette crise repose en partie sur l’idée qu’il n’y a pas de démocratie sans vérité. Mais cette approche n’est pas sans conséquence. Surestimer la valeur de la vérité peut conduire à négliger d’autres exigences démocratiques, ce que ne manquent pas d’exploiter les ennemis de la démocratie. Les philosophes ont avancé plusieurs arguments en faveur d’un lien entre vérité et démocratie. Il semble que l’idée soit si répandue qu’on oublie de l’examiner : la démocratie représente tout ce que nous aimons, et la vérité en fait partie.
Mais il existe des manières plus sophistiquées d’exprimer cette conception. Le philosophe allemand Jürgen Habermas soutient qu’une démocratie en bonne santé possède une culture délibérative, et que la délibération exige des « prétentions à la validité ». Lorsque nous parlons de politique, nous devons nous donner la peine d’essayer de nous assurer que ce que nous disons est vrai.
Maria Ressa, journaliste philippine et lauréate du prix Nobel de la paix, soutient de manière similaire que la démocratie a besoin de la vérité parce que : « Sans faits, il ne peut y avoir de vérité. Sans vérité, il ne peut y avoir de confiance. Sans ces trois éléments, nous n’avons pas de réalité partagée, et la démocratie telle que nous la connaissons – ainsi que toute entreprise humaine porteuse de sens – disparaissent. »
Mais avons-nous vraiment besoin de la vérité pour partager la réalité ? En pratique, la plupart de nos expériences de réalités communes n’impliquent pas la vérité. Pensez aux mythes, au sentiment de voisinage, ou au sens de la communauté, peut-être même à la religion, et certainement à la réalité partagée ultime : la culture elle-même. On ne peut soutenir que nous partageons la culture de notre communauté parce qu’elle est vraie ou parce que nous la croyons vraie. Certains pourraient affirmer que la démocratie est liée à la vérité parce que la vérité serait en quelque sorte neutre : ceux qui cherchent à dire la vérité, contrairement aux menteurs ou aux populistes de l’ère de la post-vérité, doivent rendre des comptes. Ils sont soumis aux règles de la vérité. Concluons que le lien entre démocratie et vérité ne tient qu’à cela : la démocratie est sans doute plus liée à la responsabilité qu’elle ne l’est nécessairement à la vérité.
Quoi qu’il en soit, le problème demeure : comme Ressa et Habermas le reconnaissent eux-mêmes, le but de la démocratie est de promouvoir des « entreprises humaines porteuses de sens ». La démocratie a pour vocation de construire un monde dans lequel les êtres humains peuvent vivre de manière pleinement humaine. Or, cela ne peut être assuré par la seule vérité. Une vie véritablement humaine exige non seulement la connaissance de faits concernant la réalité, mais aussi une compréhension subjective du monde et de la place que l’on y occupe. Nous oublions souvent que, bien qu’elles aillent fréquemment de pair, ces deux exigences peuvent aussi entrer en conflit. Cela tient au fait que la vérité relève des faits, tandis que le sens relève de la compréhension.
La compréhension, contrairement à la connaissance, relève de la manière dont nous regardons le monde, de nos habitudes de pensée et de nos constructions culturelles – principalement les identités, les valeurs et les institutions. Ces éléments remplissent leur fonction, qui est de nous faire sentir chez nous dans le monde, sans pour autant formuler la moindre prétention à la vérité. Selon la philosophe allemande Hannah Arendt, il s’agit là de la seule fonction de la politique, proprement entendue.
Trop souvent, l’esprit démocratique disqualifie ces éléments en les réduisant à des préjugés et à des superstitions. L’association populaire entre démocratie et vérité conduit à une dévalorisation du domaine du sens, qui demeure le but d’une politique humaniste. C’est ce qu’ont bien vu nombre de critiques de la modernité et du capitalisme quand ils critiquent la tendance des démocraties modernes à se soumettre a une « raison instrumentale » qui privilégie le prouvable sur le valable.
Les défenseurs de la vérité démocratique feraient bien de se souvenir que la démocratie cherche à construire un monde porteur de sens, et pas seulement un univers de connaissances arides et de recherche factuelle. L’actualité montre que négliger ce principe implique de lourdes conséquences politiques. L’insistance sur la vérité et la dévalorisation du sens ont conduit à la dépression moderne bien connue, souvent décrite comme un sentiment d’aliénation – une rupture des liens sociaux, historiques et traditionnels. Et cela a des répercussions politiques. Car le valable prendra sa revanche sur le prouvable, au risque de le sacrifier. C’est ce que l’on observe sous le néologisme de post-vérité ; un humanisme monstrueux et tordu mais qui trouve son succès dans le faiblesses de l’association entre démocratie et vérité. Car cette aliénation a également constitué un terrain fertile pour les populistes et les antidémocrates qui prétendent répondre à la crise du sens. Ce n’est pas un hasard si les thèmes récurrents du populisme contemporain sont ceux de l’appartenance, de la tradition, de l’identité, des origines et de la nostalgie.
Nous traversons une crise de la vérité, mais nous sommes aussi confrontés à une crise du sens. Lorsque nous accordons une importance excessive à la vérité au détriment du sens, nous nourrissons un sentiment d’aliénation et livrons les citoyens aux mains des ennemis de la démocratie. Nous ferions bien de construire nos démocraties en gardant à l’esprit que l’attachement à la vérité n’est qu’une condition parmi d’autres – et très partielle – d’une vie véritablement humaine.
Frank Chouraqui est membre (non actif) du parti politique néerlandais Groenlinks-PvdA (centre gauche).
28.01.2026 à 16:13
Virginie Tisserant, Enseignante-Chercheure Histoire de la Politique (laboratoire Telemme-CNRS), Aix-Marseille Université (AMU)

L’opération qui a permis aux États-Unis de capturer Nicolas Maduro n’a, en soi, pas grand-chose de nouveau : fondamentalement, Washington considère l’Amérique latine comme sa chasse gardée depuis deux cents ans, et ne s’est pas privé d’y intervenir par la force tout au long de cette période, y compris à de multiples reprises au XXᵉ siècle. Ce qui constitue un vrai changement, c’est le fait que le prétexte démocratique n’est pratiquement plus invoqué, Donald Trump assumant ouvertement que l’objectif premier de son opération est la prise de contrôle du pétrole vénézuélien. Cet épisode est révélateur de l’époque actuelle, où les grandes puissances ne s’embarrassent plus guère de prétendre agir au nom de la liberté des peuples et ne cachent plus que leurs intérêts bien compris sont leur unique moteur.
L’enlèvement du président vénézuélien Nicolas Maduro par les États-Unis, le 3 janvier 2025, et la réaction de la communauté internationale à cet événement illustrent un phénomène en cours depuis plusieurs années : le passage brutal de l’ordre mondial libéral vers un ordre réaliste, c’est-à-dire reposant avant tout sur la loi du plus fort.
Tout au long du XXᵉ siècle, l’ingérence historique et le rôle messianique des États-Unis en Amérique latine et ailleurs dans le monde ont permis d’asseoir l’hégémonie internationale de Washington. Cette hégémonie, devenue totale avec la chute du bloc soviétique à la fin des années 1980, est fortement remise en cause depuis les attentats de 2001. Des spécialistes comme Fareed Zakaria ou Hubert Védrine ont théorisé un monde « post-américain » : au XXIᵉ siècle, face à la montée des BRICS et la désoccidentalisation du monde, les États-Unis ne seraient plus leaders mais pivot des relations internationales.
Dans la Stratégie de sécurité nationale publiée en novembre 2025, l’administration Trump réaffirme la volonté des États-Unis de demeurer une puissance structurante de l’ordre international tout en dénonçant « la vision destructrice du mondialisme et du libre-échange » ainsi que la responsabilité des élites qui « ont lié la politique américaine à un réseau d’institutions internationales, dont certaines sont animées par un anti-américanisme pur et simple et beaucoup par un transnationalisme qui cherche explicitement à dissoudre la souveraineté des États individuels ». Le document s’en prend également à la Chine qui a su utiliser « l’ordre international fondé sur des règles » pour s’implanter en Amérique latine reléguée, dans le document, au rang de part de l’« hémisphère » destiné à être dominé par Washington.
Dès le 2 décembre 1823, l’interventionnisme des États-Unis en Amérique latine est institutionnalisé par la doctrine Monroe qui affirme que « toute intervention dans les affaires du continent américain serait considérée comme une menace pour leur sécurité et pour la paix ».
En 1904, dans le « corollaire Roosevelt à la doctrine Monroe », le président Theodore Roosevelt déclare :
« L’injustice chronique ou l’impuissance qui résulte d’un relâchement général des règles de la société civilisée peut exiger, en fin de compte, en Amérique ou ailleurs, l’intervention d’une nation civilisée et, dans l’hémisphère occidental, l’adhésion des États-Unis à la doctrine de Monroe peut forcer les États-Unis, à contrecœur cependant, dans des cas flagrants d’injustice et d’impuissance, à exercer un pouvoir de police international. »
Les États-Unis s’autorisent ainsi le droit d’intervenir s’ils jugent que leurs intérêts commerciaux et politiques sont menacés. Tout au long du XXe siècle, sous couvert de moderniser les économies latino-américaines, ils mettent en place des chefs d’État compatibles avec leurs intérêts politiques et commerciaux.
L’implantation de la culture de la banane dans les Caraïbes permet à l’United Fruit Company (UFCO) de servir directement ses intérêts. Au Guatemala, en réaction aux réformes agraires qui auraient directement porté préjudice aux intérêts de la firme internationale, la CIA organise en 1954 un coup d’État contre le président Jacobo Arbenz.
Au Venezuela, la première loi nationale d’hydrocarbures est promulguée en 1920. Dès 1921-1922, des juristes états-uniens font pression pour la modifier. Les États-Unis maintiennent d’excellents rapports avec le dictateur en place, Juan Vicente Gomez, président du Venezuela de 1908 à 1913, de 1922 à 1929 puis de 1931 à 1935. Ils investissent alors massivement dans le pétrole vénézuélien, dont l’Europe a d’ailleurs également bien besoin. Et jusqu’en 1938, il n’y a ainsi pas de trace de comptabilité.
Par la suite, ça sera sous couvert de la défense du continent contre le communisme que Washington interviendra en Amérique latine en formant les militaires, par exemple au Chili en 1973, en contribuant au renversement du président socialiste Salvador Allende et à son remplacement par le dictateur Augusto Pinochet. On peut également mentionner la formation idéologique des élites latino-américaines à la pensée nord-américaine à travers la doctrine de Milton Friedman : les « Chicago Boys » vont mettre cette vision en pratique dans plusieurs pays du continent.
Au début du XXᵉ siècle, la création des organisations internationales repose sur l’élaboration d’un ordre mondial qui assoit, par les institutions, un projet de société libéral. Le rôle prépondérant des normes et de la coopération permettent de pacifier les relations internationales mais également de défendre, par les institutions, les intérêts des grands industriels américains. L’objectif pour les États-Unis et leurs grands industriels est de pouvoir influencer l’élaboration des normes. C’est ce qu’il se passe avec la Société des Nations (1920-1946) : le gouvernement américain envoie des experts dans les différentes commissions.
Le phénomène d’ouverture des économies nationales sur le marché mondial entraîne une interdépendance croissante des pays entre eux qui évitent ainsi de se faire la guerre. Cette interdépendance permet également d’asseoir l’universalisation des enjeux et des cultures dans l’ordre mondial libéral et de solder la « brutalisation » de l’Histoire que représentent les deux guerres mondiales par la libéralisation des sociétés.
Dès lors, la paix repose sur la construction de réseaux de coopération et sur le libre-échange, s’inspirant du modèle porté par Montesquieu ou sur la diffusion du modèle politique démocratique développé par Kant. La liberté politique coïncide avec la liberté économique et le degré d’ouverture des sociétés. Les États libéralisés ont donc intérêt à développer le commerce pour renforcer le lien social entre les individus et assurer la protection des libertés individuelles, ce qui régule les excès de pouvoir. Entre 1945 et 1989, le conflit se déplace dans l’usage des institutions internationales. La guerre d’influence que se livrent les deux blocs antagonistes se manifeste par l’usage massif du droit de veto au Conseil de sécurité de l’ONU.
Alors que la construction de réseaux forts et durables a permis aux États-Unis de demeurer la superpuissance dominante et structurante dans l’ordre mondial du XXᵉ siècle, l’effondrement du mur de Berlin et l’éclatement de l’URSS consacrent le triomphe des valeurs libérales. Mais le nouveau siècle s’ouvre avec une remise en question profonde de l’hégémonie américaine, qui se matérialise par les attentats du 11 septembre 2001 et la large contestation ultérieure de l’intervention en Irak à partir de 2003. On se souvient à ce titre de la prise de parole d’Hugo Chavez à l’ONU en 2006 : à propos d’une intervention la veille de George W. Bush, il déclare : « Hier le diable était présent, dans ce lieu même, ça sent toujours le soufre. » Cette remise en cause prend également une dimension économique avec l’entrée de la Chine au sein de l’OMC en 2001 et la constitution des BRICS une dizaine d’années plus tard.
Ce basculement de l’ordre mondial libéral vers un ordre mondial relatif sert la volonté des BRICS+. Le groupe, désormais composé d’une dizaine d’États, est dominé par le couple sino-russe, qui dans une déclaration commune publique du 4 février 2022 proclame que :
« […] La nature universelle des droits humains doit être vue à travers le prisme de la situation réelle de chaque pays particulier, et les droits humains doivent être protégés en fonction de la situation spécifique de chaque pays et des besoins de sa population. Selon cette perspective, les principes du droit international comme l’universalisme des droits humains doivent désormais être envisagés selon une définition relative aux critères de développement des États. »
Dans la Stratégie de sécurité nationale de l’administration Trump, l’usage de la notion d’« hémisphère » pour qualifier le continent hispanique réactive pleinement la doctrine Monroe :
« Nous affirmerons et appliquerons un “corollaire Trump” à la doctrine Monroe. »
Le texte pose ainsi un nouveau cadre diplomatique international qui envisage la paix à partir de la menace du recours à la force, faisant basculer la coopération à une relation d’obligés : le bandwagoning. C’est d’ailleurs ce que fait ouvertement Donald Trump lorsqu’il menace de surtaxer huit nations européennes, dont la France, si elles s’opposent à sa volonté d’annexer le Groenland. Cette perspective est d’ailleurs reconnue par Emmanuel Macron qui, dans ses vœux aux Français pour 2026, constate que « la loi du plus fort tente de s’imposer dans les affaires du monde ».
Cette évolution traduit à la fois une nouvelle phase de la mondialisation, un retour des empires dans les normes et un basculement des valeurs vers le relativisme qui consacre la régionalisation du monde envisagé désormais en sphères. Cette fin du monde de Yalta permet à trois blocs et zones d’influence de s’affirmer : la Chine, la Russie et l’Amérique. Mais au-delà des normes et des valeurs, au XXIᵉ siècle, comme dans l’histoire de l’humanité et des conflits, leur compétition demeurera principalement sur les ressources.
Virginie Tisserant ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
28.01.2026 à 16:12
Maya Leclercq, Postdoctorante en anthropologie, Institut de recherche pour le développement (IRD)
Catherine Sabinot, Ethnoécologue et anthropologue, Institut de recherche pour le développement (IRD)
Les îles du Pacifique sont parmi les plus exposées aux aléas climatiques. Leur histoire les rend aussi particulièrement dépendantes des importations pour se nourrir. Mobiliser les savoirs locaux pour renforcer la souveraineté alimentaire et la résilience des territoires insulaires face au changement climatique est donc crucial.
« Depuis deux ans, peut-être, on ressent quand même qu’il y a un changement au niveau climatique, au niveau de la pluie. Avant, c’était assez fixe. On sait que juillet, c’est [la] saison fraîche […]. Mais l’année dernière, on était en sécheresse depuis juin jusqu’à novembre », constate un homme sur la presqu’île de Taravao, en Polynésie.
Sur l’île de Moorea, à 70 km de là, une femme renchérit.
« C’est vrai qu’on a remarqué les changements climatiques, quand on était plus petit, tu voyais bien les saisons […]. Maintenant, même sur les abeilles, on le voit. Normalement, là, ça y est, on est en période d’hiver austral, de juin jusqu’à septembre, on n’a plus de [miel]. Là, elles continuent encore à produire. Même les abeilles, elles sentent qu’il y a eu un changement. »
Les îles du Pacifique ont régulièrement été confrontées à des événements météorologiques parfois violents : fortes chaleurs, sécheresses, cyclones… L’une des premières conséquences du changement climatique est l’augmentation de la fréquence et/ou de l’intensité de ces évènements, auxquels sont particulièrement exposées les îles du Pacifique.
En effet, de par leur nature insulaire, ces phénomènes affectent l’intégralité des terres, qui sont également plus sensibles à la montée du niveau des océans.
L’agriculture est un secteur important pour ces îles. C’est à la fois une source de nourriture et de revenus pour les agriculteurs comme pour les personnes qui cultivent un jardin océanien. Ces jardins, qui regroupent une grande diversité d’espèces végétales (fruits, légumes, tubercules, plantes aromatiques et parfois médicinales), favorisant la biodiversité dans son ensemble, sont largement répandus dans les îles du Pacifique et particulièrement en Polynésie où ils constituent une part significative de l’identité polynésienne. Les surplus de productions sont régulièrement vendus au bord des routes.
Les impacts du changement climatique présents et à venir sur l’agriculture sont considérables et risquent d’affecter la sécurité alimentaire des îles du Pacifique, fragilisées entre autres par leur dépendance aux importations alimentaires. Les habitants s’y préparent déjà et ont déployé une culture du risque, nourrie de savoirs et de savoir-faire sans cesse renouvelés pour y faire face.
Si les savoirs autochtones et locaux sont depuis longtemps identifiés par leurs détenteurs et par les chercheurs en sciences humaines et sociales pour leur potentiel d’adaptation à l’environnement, une attention particulière leur est portée depuis les accords de Paris en 2015. Ils sont depuis internationalement reconnus comme ressource pour comprendre le changement climatique et ses effets et également pour mettre au point des actions pertinentes pour l’adaptation.
Dans le cadre du projet CLIPSSA, notre équipe a mené des entretiens auprès des cultivateurs et cultivatrices des îles du Pacifique pour comprendre comment se construisent leurs cultures du risque, leurs savoirs et pratiques agricoles pour faire face aux effets du changement climatique.
Face aux fortes chaleurs ou aux fortes pluies qui comptent parmi les effets marquants du changement climatique dans la région, les cultivateurs du Pacifique combinent par exemple différentes techniques comme le paillage (protéger un sol avec de la paille, du fumier, ou de la bâche plastique), la diversification et l’adaptation des types de cultures et de plantations…
Ces différents savoirs et techniques sont parfois transmis par les aînés, parfois expérimentés par soi-même, parfois observés chez d’autres cultivateurs. À Tahiti et à Moorea, deux îles proches de l’archipel de la Société, en Polynésie française, les jardins océaniens (faaapu en tahitien) sont des lieux clés où ces savoirs circulent, s’échangent, s’expérimentent et s’hybrident.
Ces savoirs autochtones, locaux sont avant tout ancrés dans un territoire et adaptés à leur environnement et à ses changements : à ce titre, ils sont en constante évolution. Pourtant, on les désigne souvent comme des savoirs traditionnels ou ancestraux, ce qui peut sous-entendre qu’ils sont transmis à l’identique, de génération en génération. Mais comment ces savoirs ancestraux habitent et nourrissent les savoirs locaux aujourd’hui ?
La figure des Anciens (tupuna) est importante en Polynésie ; particulièrement en agriculture. En effet, le secteur agricole a connu d’importants changements dans les années 1970, avec l’arrivée du Centre d’expérimentation du Pacifique : la mise en œuvre des essais nucléaires a eu de nombreuses conséquences sanitaires, mais aussi économiques (tertiarisation de l’économie polynésienne), et agricoles (développement des importations, notamment alimentaires).
Si le secteur agricole n’a pas pour autant disparu, il a été marginalisé pendant cette période, créant ainsi une rupture dans la transmission des savoirs. Cette rupture a contribué à renforcer l’estime portée aux savoirs agricoles des Anciens qui ont commencé à cultiver avant cette période de changements et s’inscrit dans la continuité de la réappropriation culturelle de l’identité polynésienne, matérialisée, entre autres, par les liens et références à ses ancêtres.
Ainsi, la transmission des connaissances et pratiques des Anciens reste importante, dotée d’une valeur symbolique forte et largement citée par les Polynésiens ; au point où nous pouvons parler d’un socle de savoirs ancestraux.
Mais l’on ne cultive plus aujourd’hui en Polynésie comme l’on cultivait dans les années 1950 ; l’agriculture s’est modernisée, ouverte aux intrants et à de nouvelles cultures. Ce socle s’est donc enrichi de nombreuses influences (modernisation de l’enseignement agricole, tutoriels issus des réseaux sociaux…).
C’est ce que tâche de faire Thierry, qui s’occupe d’un faaapu depuis une quarantaine d’années sur la presqu’île de Tahiti. Cet habitant cultive sur quelques hectares plusieurs dizaines de variétés de bananes, tubercules, coco, agrumes, avocats, destinées à l’autoconsommation mais aussi à la vente.
Le socle de connaissances (savoirs et pratiques) principalement mobilisé par Thierry est celui des savoirs ancestraux, considérés comme une base de savoirs auxquels se référer. Par exemple, il mobilise des indicateurs environnementaux pour planifier ses activités, comme la floraison d’une Zingiberacée qui annonce une période d’abondance pour la pêche, signifiant aux agriculteurs qu’ils doivent se préparer à laisser leurs cultures quelques semaines pour se concentrer sur une activité complémentaire.
Sa parcelle est traversée par une rivière, principale source d’irrigation de ses cultures. Mais pour faire face aux périodes de fortes sécheresses qui peuvent assécher la rivière, ce qu’il observe depuis 2008, il utilise également des bidons en plastique dans lesquels il stocke de l’eau à proximité de ses cultures.
Il utilise aussi le paillage, une technique de recouvrement des sols pour les protéger et garder l’humidité, en disposant des palmes de cocotiers, des troncs de bananiers qu’il complète avec des cartons depuis qu’il a constaté l’assèchement annuel de la rivière :
« Alors, moi, je ne vais pas aller par quatre chemins, nous raconte-t-il. Je vais mettre des cartons par autour. Je vais aller chez les commerçants, leur demander des cartons vides. Je vais mettre par autour parce que je n’ai pas envie de passer mon temps courbé. Après, tu lèves, tu retires. »
Plus globalement, d’une année sur l’autre, Thierry adapte ses cultures en fonction de l’évolution du climat qu’il ressent et décrit ; par exemple en plantant des tubercules, comme le taro, un tubercule tropical adapté au milieu humide.
« Avant, il n’y a jamais d’eau qui coulait ici. Jamais. Et depuis deux-trois ans… Avec cette pluie qui tombe à partir de février-mars, je veux planter des taros, là. Comme ça, je m’adapte, je tire pour le prix de cette eau qui tombe gratuitement. »
À travers l’exemple du faaapu de Thierry, nous pouvons observer que si les savoirs ancestraux restent le socle de références mobilisé pour cultiver, pour faire face aux aléas du changement climatique, il n’hésite pas à adapter ses pratiques, introduire des matériaux ou changer certaines de ses cultures.
Évoquer les savoirs autochtones et locaux renvoie généralement aux notions de « savoirs traditionnels », de « savoirs ancestraux ». Ces savoirs peuvent effectivement avoir un ancrage temporel, beaucoup sont transmis depuis plusieurs générations par exemple. Mais il s’agit d’abord de savoirs ancrés localement, adaptés à leur environnement, qui, à ce titre, ont la capacité de se transformer, de s’hybrider avec d’autres types de savoirs mais aussi de se cumuler, comme nous avons pu le voir dans l’étude de cas présentée.
Face à l’urgence du changement climatique et de ses impacts en milieu insulaire, les politiques publiques locales, nationales ou globales recherchent souvent des solutions d’atténuation ou d’adaptation efficaces et radicales, en misant sur les innovations technologiques, l’ingénierie climatique, les énergies renouvelables…
Au-delà des changements importants et à grande échelle, qui peuvent aussi être complexes, longs et coûteux à mettre en place, les stratégies locales d’adaptation doivent également être envisagées comme des solutions. En revanche, ces solutions locales sont rarement des pratiques délimitées et liées à des savoirs « extraordinaires » (c’est-à-dire en dehors du cours ordinaire des règles et normes attendues). L’adaptation au changement climatique se fait plutôt par succession de petites adaptations, parfois invisibles, dont la configuration est presque unique à chaque agriculteur ou jardinier.
En Polynésie, c’est l’articulation d’un socle de savoirs ancestraux, combiné avec de nombreuses autres ressources, qui fait aujourd’hui la richesse des savoirs agricoles locaux et permet de s’adapter à certains effets du changement climatique. Ces savoirs sont une ressource précieuse à étudier et à mobiliser pour faire face aux risques systémiques du changement climatique qui pèsent sur les petits territoires du Pacifique et notamment sur l’agriculture et la souveraineté alimentaire.
Nous tenons à remercier à Alexi Payssan (anthropologue, Tahiti) pour les échanges inspirants concernant cet article.
Cet article est publié dans le cadre de la Fête de la science (qui a eu lieu du 3 au 13 octobre 2025), dont The Conversation France est partenaire. Cette nouvelle édition porte sur la thématique « Intelligence(s) ». Retrouvez tous les événements de votre région sur le site Fetedelascience.fr.
Le postdoctorat de Maya Leclercq dans le cadre duquel cette recherche a été menée est financé par le projet CLIPSSA (dont les fonds proviennent de l'AFD, de l'IRD et de Météo-France).
Catherine Sabinot a reçu des financements de l'AFD pour réaliser le programme de recherche qui a permis de produire les résultats présentés dans l'article.
28.01.2026 à 16:11
Lukas Slothuus, Postdoctoral Research Fellow, School of Global Studies, University of Sussex

Le sous-sol du Groenland regorge de richesses, qui expliquent en partie la convoitise des États-Unis. Rien ne dit pourtant qu’il est possible pour le moment de les extraire, de les exploiter, puis de les exporter dans des conditions économiques satisfaisantes.
Les États-Unis renouent avec une rhétorique martiale concernant le Groenland. Les richesses naturelles de ce vaste territoire refont surface dans le débat, un an après que Michael Waltz, alors conseiller américain à la sécurité nationale, avait résumé l’enjeu ainsi : « Il est question de minéraux critiques. Il est question de ressources naturelles. »
Car l’île est dotée à la fois de combustibles fossiles et de matières premières essentielles. Elle possède au moins 25 des 34 matières premières considérées comme telles par l’Union européenne.
La loi européenne 2024 sur les matières premières critiques vise à améliorer la sécurité de l’approvisionnement européen pour ces matériaux. Le président des États-Unis, Donald Trump, comme l’UE souhaitent affaiblir la domination chinoise dans ce commerce. Parallèlement, d’immenses réserves de pétrole se trouvent au large dans l’est et l’ouest du Groenland. La valeur de ces ressources est difficile à estimer, car les prix du pétrole et des matières premières essentielles fluctuent énormément.
À lire aussi : Donald Trump ou pas, le Groenland, futur pivot logistique arctique
Comme pour le pétrole vénézuélien, il faudra beaucoup d’argent pour construire les infrastructures nécessaires à l’exploitation des ressources naturelles au Groenland. Les projets miniers et de combustibles fossiles sont très consommateurs de capital, nécessitant d’importants investissements initiaux avec de longs délais avant que les projets ne génèrent des bénéfices.
En dehors de sa capitale, Nuuk, le Groenland dispose de très peu d’infrastructures routières et de ports en eau profonde capables d’accueillir de grands pétroliers et des porte-conteneurs.
À travers le monde, les entreprises privées des secteurs minier et des énergies fossiles peuvent s’appuyer sur des infrastructures publiques – routes, ports, production d’électricité, logements et main-d’œuvre spécialisée – pour rendre leurs activités rentables.
Au Groenland, en revanche, d’énormes investissements en capital seraient nécessaires pour extraire la toute première cargaison de minerais et le premier baril de pétrole. Dans ce contexte, le gouvernement est confronté à un dilemme classique : laisser des multinationales privées exploiter les ressources au risque de perdre l’essentiel des revenus, ou bien imposer une propriété étatique tout en peinant à réunir les capitaux et les capacités publiques nécessaires pour lancer l’extraction.
La richesse minérale du Groenland est connue depuis longtemps. En avril 2025, le radiodiffuseur public danois DR a diffusé un documentaire montrant comment le Danemark avait, historiquement, capté les profits d’une mine de cryolite au Groenland. Cette émission avait provoqué une importante crise politique et médiatique, certains estimant qu’elle remettait en cause l’idée selon laquelle le Groenland serait financièrement dépendant du Danemark.
Les minerais constituent un enjeu majeur, mais aussi sensible, dans les relations du Groenland avec le reste du monde. Depuis des décennies, des entreprises étrangères tentent d’y développer une industrie minière viable… sans résultats probants. En réalité, contrairement aux affirmations du président américain Donald Trump, les entreprises américaines ont depuis longtemps la possibilité d’entrer sur le marché minier groenlandais. L’ampleur des investissements requis, conjuguée à des conditions climatiques extrêmement rigoureuses, a jusqu’à présent empêché toute entreprise de lancer une exploitation minière commerciale.
La ministre groenlandaise des ressources naturelles Naaja Nathanielsen déclarait en 2025 souhaiter que l’exploitation minière devienne un « très bon complément stable » à la dépendance écrasante du pays à l’industrie de la pêche. Pourtant, en 2021, le nouveau gouvernement Inuit Ataqatigiit (d’orientation socialiste) groenlandais a interdit l’extraction de l’uranium pour des raisons environnementales. En 2023, l’entreprise australienne Energy Transitions Minerals (ETM) a poursuivi le Groenland et le Danemark pour un montant de 76 milliards de couronnes (environ 10 milliards d’euros), soit près de quatre fois le PIB du Groenland.
L’entreprise minière a affirmé avoir été privée de profits futurs après l’abandon de son projet d’uranium à Kuannersuit/Kvanefjeld. Les tribunaux danois ont rejeté la plupart des recours d’ETM, les jugeant infondés, et des inquiétudes ont été exprimées quant à la possibilité qu’ETM se déclare en faillite, ce qui lui permettrait potentiellement d’éviter le paiement de lourds frais de justice.
Dans un communiqué, ETM a affirmé que sa filiale GM avait « travaillé de bonne foi pendant plus d’une décennie, en étroite coopération avec les gouvernements groenlandais et danois ». L’entreprise a ajouté que ces deux gouvernements avaient utilisé GM pour promouvoir le Groenland comme une destination sûre pour les investisseurs miniers. Mais des travaux de recherche publiés en 2025 ont qualifié ce type de comportement de « victimisation feinte ». Il s’agit généralement de situations dans lesquelles des entreprises se perçoivent – ou se présentent – comme des victimes de procédures injustes, plutôt que comme des acteurs puissants avant tout soucieux de leurs profits.
Forer dans le sous-sol groenlandais aurait des répercussions jusqu’à Copenhague, le Groenland ayant conclu avec le Danemark un accord de partage des profits miniers. Dans le cadre du transfert progressif de compétences du Danemark vers le Groenland, ce dernier détient désormais la propriété de ses ressources naturelles.
Toutefois, le Danemark verse chaque année une dotation globale de 3,9 milliards de couronnes (un peu plus de 500 millions d’euros) – soit environ la moitié du budget de l’État groenlandais – afin de soutenir l’économie intérieure, largement dominée par le secteur de la pêche.
Cette dotation est réduite à hauteur de 50 % des bénéfices miniers, ce qui signifie que, jusqu’à concurrence du montant de la subvention, les profits de l’exploitation minière sont en pratique partagés à parts égales entre le Groenland et le Danemark.
Récemment, le groupe australo-américain Critical Metals a obtenu l’autorisation de construire un bureau permanent pour son projet Tanbreez, destiné à fournir des terres rares – y compris des terres rares lourdes – dans le sud du Groenland.
Le lendemain, la société minière Amaroq a annoncé que les États-Unis envisageaient d’investir dans ses projets miniers dans le sud du Groenland par l’intermédiaire de l’EXIM, la banque américaine d’export-import. Si ce prêt public est approuvé, il s’agirait du premier financement accordé par l’administration Trump à un projet minier à l’étranger.
Un récent décret présidentiel de Donald Trump a par ailleurs réservé 5 milliards de dollars (4,2 milliards d’euros) au soutien de projets miniers jugés essentiels à la sécurité nationale. Cela illustre l’étroite imbrication entre les industries extractives et les enjeux militaires.
La production d’énergies fossiles, en revanche, a peu de chances de voir le jour à court terme. En 2021, pour des raisons environnementales, le gouvernement groenlandais a interdit l’exploration et l’exploitation des hydrocarbures. Une majorité parlementaire continue de soutenir cette interdiction.
Compte tenu de la volatilité des prix du pétrole et du gaz, et des mêmes contraintes climatiques et d’infrastructures que pour les autres ressources naturelles, une production d’hydrocarbures au Groenland paraît peu plausible, même en cas de prise de contrôle totale par les États-Unis.
Les raisons pour lesquelles l’administration Trump pourrait chercher à renforcer sa domination dans l’Arctique sont nombreuses, notamment pour accroître son avantage stratégique face à la Russie et à la Chine. Mais l’extraction des ressources naturelles est peu susceptible d’y jouer un rôle central.
D’autant plus que les États-Unis disposent déjà de bases militaires au Groenland, en vertu d’un accord de défense conclu avec le Danemark. Les initiatives états-uniennes récentes semblent ainsi s’inscrire dans un nouvel épisode du retour de leurs ambitions impérialistes.
Lukas Slothuus a reçu des financements de l'Engineering and Physical Sciences Research Council.
28.01.2026 à 16:10
Heike Baldauf-Quilliatre, analyse interactionnelles, interaction en situation de jeux, interaction avec des robots sociaux, interaction à travers des dispositifs technologiques, Université Lumière Lyon 2
Isabel Colon de Carvajal, Maitre de conférences HDR, Analyste conversationnelle, linguiste interactionnelle, ENS de Lyon

Si l’on veut comprendre le jeu et sa place dans nos sociétés, il faut s’intéresser aux joueurs et à leurs interactions. Filmer les situations de jeu offre une lecture renouvelée qui en dévoile le potentiel d’expérimentation sociale.
Des rayons pleins, des ludothèques et magasins spécialisés, des associations, un festival international des jeux annuel en France, des revues scientifiques (Sciences du jeu, Board Games Studies Journal) et même un dictionnaire qui leur est consacré – les jeux sont loin d’être un simple passe-temps d’enfant. Et celui qui pense uniquement aux jeux vidéo ou aux jeux télévisés ou encore aux jeux d’argent, lorsqu’il est question des adultes, se trompe. Les jeux de société aussi occupent une place importante pour ces derniers.
Dans un article paru en 2021, Vincent Berry, sociologue et spécialiste du jeu, remarque une hausse continue du chiffre d’affaires dans ce secteur, un développement constant de nouveaux jeux et une hausse du temps consacré aux jeux en tant qu’activité de loisir. Mais que peut-on trouver dans cette activité pour qu’elle gagne autant en popularité ? Pourquoi des personnes de différents âges se réunissent-elles autour des jeux de société ?
Un élément de réponse se trouve déjà dans cette dernière question. Le jeu est une activité sociale qui réunit des personnes, à travers les âges, autour d’une même activité. Cela ne va pas de soi, pour plusieurs raisons. D’une part, parce que le jeu n’est pas systématiquement lié à une activité ludique. Lorsqu’on est dans une situation de confrontation, ou en train de perdre, le jeu n’est pas principalement un plaisir. Le côté ludique est construit, par les joueurs et joueuses, pendant et à travers le jeu. Évidemment, le cadre du jeu favorise ce côté ludique, mais il ne l’implique pas obligatoirement.
D’autre part, le jeu n’existe pas en dehors de tout autre cadre ou activité sociale : on joue à la maison, dans un bar, au travail, en famille, entre collègues, avec des inconnus. Et, pendant qu’on joue, on boit, on mange, on répond au téléphone, on parle avec des gens qui passent, etc.
Si l’on veut comprendre le jeu et sa place dans nos sociétés, il faut donc s’intéresser au jeu en tant que tel, mais également aux joueurs et à ce qu’ils font dans une situation et à un moment précis. C’est sur ce point que débutent nos recherches.
Dans notre approche, on porte l’attention aux pratiques des joueurs et joueuses et on essaye de comprendre comment ils et elles construisent cette activité dans une situation sociale donnée. Pour cela, nous filmons et enregistrons des situations de jeu, dans leur cadre naturel. Les personnes qui jouent acceptent d’être filmées pendant des sessions de jeu de société, sans instruction particulière, dans des situations de jeu qui se seraient déroulées même sans l’enregistrement. Le tout sur la base d’un appel à une participation volontaire au projet de recherche.
Nous transcrivons par la suite tout ce que nous entendons et voyons, et analysons ces situations en prêtant attention à tous les détails (parole, gestes, mimique, manipulation d’objets). Nous nous appuyons sur la méthodologie de l’analyse conversationnelle, dont le but est de décrire comment nous organisons et construisons nos sociétés à travers les interactions.
Nous ne nous intéressons pas tant à ce que disent les personnes, mais plutôt à la manière dont elles agissent ensemble, les pratiques par lesquelles elles construisent leur activité. On peut ainsi observer comment les joueurs et joueuses construisent ensemble des (ou leurs) visions du monde, comment ils intègrent le jeu dans leurs pratiques du quotidien, comment ils (s’)expérimentent en transgressant des règles, en créant ou inversant des catégories. Nos différentes analyses apportent des briques d’éléments de réponse à la grande question : pourquoi les gens jouent-ils aux jeux de société ?
Différentes activités sociales sont associées au jeu. Autrement dit, que font les personnes lorsqu’elles jouent ? Dans nos données, qui contiennent essentiellement des jeux en famille et entre amis à la maison, ou bien entre collègues au travail, nous avons observé trois grands types d’activités : apprendre, s’organiser et s’amuser.
L’apprentissage dans un sens très large n’est pas limité aux jeux éducatifs ou aux enfants. En jouant, on se confronte à différentes visions du monde et on se construit en tant qu’individu et comme groupe, à travers des règles et des normes morales. Cela va de l’apprentissage de ce qui est accepté, souhaité ou recommandé dans un jeu particulier à la connaissance et aux pratiques sociétales de manière générale.
Dans l’extrait en ligne d’une famille jouant à Timeline Inventions, l’année de naissance de la mère a permis de construire des repères pour situer l’invention dans la ligne temporelle du jeu.
D’une part, les échanges autour de tout et de n’importe quoi permettent de découvrir d’autres façons de voir les choses, d’autres préoccupations, et ainsi d’élargir nos horizons. D’autre part, ces échanges participent à la construction discursive du groupe en tant que tel et, dans une perspective plus large, de nos sociétés. Pour donner un exemple, Emilie Hofstetter et Jessica Robles ont montré dans un article sur la manipulation stratégique dans le jeu, que les types de manipulation autorisés (jusqu’où peut-on aller pour gagner ?) sont constamment et négociés pendant le jeu sur la base de certaines valeurs d’équité et de moralité.
L’aspect organisationnel concerne la régulation du jeu, c’est-à-dire l’alternance des tours de jeu, le respect des règles, mais aussi la vie sociale qui se poursuit autour. Car, lorsqu’on joue, le monde ne s’arrête pas de tourner. Il y a des personnes et des activités autour des joueurs qui existent en dehors du jeu : d’autres personnes dans la même pièce, un téléphone qui sonne, des conversations entre certains joueurs, des activités parallèles comme manger et boire. L’analyse conversationnelle parle ici de multiactivité qui est gérée de différentes manières. Cependant, ce n’est pas la multiactivité en soi qui est recherchée dans le jeu, mais plutôt les possibilités qu’ouvre cette implication dans différentes activités :on ne joue pas pour pouvoir faire plusieurs activités en même temps, mais on utilise les opportunités qui s’offrent grâce à cela.
Ainsi, des activités parallèles permettent de gagner du temps dans le jeu ou bien, à l’inverse, le jeu permet d’adoucir une discussion sérieuse, un reproche ou une transgression des règles sociales du groupe. Par exemple, les pleurs d’une fille ouvrent pour les parents un moment éducatif tout en gardant le focus principal sur le jeu (et donc sur le plaisir partagé).
Enfin, l’amusement paraît certainement le type d’activité le plus évident lorsqu’on parle du jeu. Nos données et nos analyses montrent de manière plus détaillée en quoi consiste cet amusement. Le jeu permet par exemple d’expérimenter des catégorisations sociales, bien évidemment en adossant des identités dans le jeu, mais également en jouant avec les ambiguïtés entre le monde du jeu et le monde des joueurs : être la princesse et donc solliciter l’aide des autres pour ranger ses cartes, être pauvre dans le jeu et dans la vie et demander de l’aide aux autres, être sérieux dans son rôle du jeu ou, au contraire, ne pas le prendre au sérieux et donc brouiller les pistes pour les autres.
Dans cet extrait en ligne, qui montre une partie du jeu Catane entre trois amis, Romain rappelle Marie à l’ordre pour ranger ses cartes. Elle refuse en se référant à ses cartes et en indiquant qu’une princesse a bien le droit de déléguer ces tâches.
Il permet aussi d’inverser les rôles entre parents et enfants (les enfants expliquent et applaudissent les parents), ou bien de jouer avec la compétition (renforcer le caractère compétitif ou bien collaboratif d’un jeu, indépendamment du type de jeu). Il permet d’expérimenter des pratiques sociales peu appréciées ou peu communes, sans la crainte d’une sanction sociale : dans le jeu, on peut se moquer des autres, on peut apprécier les attaques, et on peut même explicitement « détester » une personne présente, comme dans cet extrait en ligne, dans une partie de Splendor.
Cela ne situe pas le jeu en dehors du cadre social, comme on le pensait au début des études sur le jeu, mais comme un espace de la vie où l’on peut expérimenter.
Et si l’on n’aime pas le jeu ? Ce n’est évidemment pas bien grave. On le répète, le côté ludique n’est pas directement lié au jeu, on peut le trouver, le construire partout dans ses activités sociales. Faire du sport et même travailler peut également avoir des moments ludiques, autant que le jeu n’est pas ludique en soi. D’où notre intérêt pour les interactions qui permettent d’observer comment les joueurs et joueuses construisent ce côté ludique dans des situations concrètes.
Heike Baldauf-Quilliatre a reçu des financements de l'ENS de Lyon et du LabEx ASLAN (ANR).
Isabel Colon de Carvajal a reçu des financements de l'ENS de Lyon et du LabEx ASLAN (ANR).
28.01.2026 à 14:43
Jean-Jacques Hublin, Paléoanthropologue, Collège de France; Académie des sciences
Le site de la grotte aux Hominidés à Casablanca, sur la côte atlantique du Maroc, offre l’un des registres de restes humains les plus importants d’Afrique du Nord. Il est connu depuis 1969 et étudié par des missions scientifiques impliquant le Maroc et la France. Ce site éclaire une période cruciale de l’évolution humaine : celle de la divergence entre les lignées africaines qui donneront nos ancêtres directs, les Néandertaliens en Europe et les Dénisoviens en Asie.
Une étude très récente publiée dans Nature décrit des fossiles d’hominines datés de 773 000 ans. Le groupe des hominines rassemble à toutes les espèces qui ont précédé la nôtre depuis la divergence de la lignée des chimpanzés. Ces fossiles (des vertèbres, des dents et des fragments de mâchoires) ont été découverts dans une carrière qui a fait l’objet de fouilles pendant de nombreuses années. Les découvertes les plus importantes et les plus spectaculaires ont eu lieu en 2008-2009. La raison pour laquelle ce matériel n’avait pas été révélé plus tôt à la communauté scientifique et au public est que nous n’avions pas de datation précise.
Grâce à l’étude du paléomagnétisme, nous avons finalement pu établir une datation très précise. Cette technique a été mise en œuvre par Serena Perini et Giovanni Muttoni de l’Université de Milan (Italie). Ces chercheurs s’intéressent à l’évolution du champ magnétique terrestre. Le pôle Nord magnétique se déplace au cours du temps, mais il y a aussi de très grandes variations : des inversions. À certaines époques, le champ devient instable et finit par se fixer dans une position inverse de la précédente. Ce phénomène laisse des traces dans les dépôts géologiques sur toute la planète.
Certaines roches contiennent des particules sensibles au champ magnétique, comme des oxydes de fer, qui se comportent comme les aiguilles d’une boussole. Au moment où ces particules se déposent ou se fixent (dans des laves ou des sédiments), elles « fossilisent » l’orientation du champ magnétique de l’époque. Nous connaissons précisément la chronologie de ces inversions passées du champ magnétique terrestre et, dans cette carrière marocaine, nous avons identifié une grande inversion datée de 773 000 ans (l’inversion Brunhes-Matuyama). Les fossiles se trouvent précisément (et par chance) dans cette couche.
En Afrique, nous avons pas mal de fossiles humains, mais il y avait une sorte de trou dans la documentation entre un million d’années et 600 000 ans avant le présent. C’était d’autant plus embêtant que c’est la période pendant laquelle les chercheurs en paléogénétique placent la divergence entre les lignées africaines (qui vont donner nos ancêtres directs), les ancêtres des Néandertaliens en Europe et les formes asiatiques apparentées (les Dénisoviens).
Ce nouveau matériel remplit donc un vide et documente une période de l’évolution humaine assez mal connue. Ils nous permettent d’enraciner très loin dans le temps les ancêtres de notre espèce – les prédécesseurs d’Homo sapiens – qui ont vécu dans la région de Casablanca.
Le manque d’informations pour la période précédant Homo sapiens (entre 300 000 ans et un million d’années) a poussé quelques chercheurs à spéculer sur une origine eurasienne de notre espèce, avant un retour en Afrique. Je pense qu’il n’y a pas vraiment d’argument scientifique pour cela. Dans les débuts de la paléoanthropologie, les Européens avaient du mal à imaginer que l’origine de l’humanité actuelle ne se place pas en Europe.
Plus tard, au cours du XXᵉ siècle, le modèle prépondérant a été celui d’une origine locale des différentes populations actuelles (les Asiatiques en Chine, les Aborigènes australiens en Indonésie et les Européens avec Néandertal). Ce modèle a été depuis largement abandonné face notamment aux preuves génétiques pointant vers une origine africaine de tous les hommes actuels.
Notre découverte ne clôt peut-être pas définitivement le débat, mais elle montre que, dans ce qui était un vide documentaire, nous avons des fossiles en Afrique qui représentent un ancêtre très plausible pour les Sapiens. On n’a donc pas besoin de les faire venir d’ailleurs.
Nous avons en projet de réaliser le séquençage des protéines fossiles peut-être préservées dans ces ossements. Si ces analyses sont couronnées de succès, elles apporteront des éléments supplémentaires à la compréhension de leur position dans l’arbre des origines humaines.
Tout savoir en trois minutes sur des résultats récents de recherches, commentés et contextualisés par les chercheuses et les chercheurs qui les ont menées, c’est le principe de nos « Research Briefs ». Un format à retrouver ici.
Jean-Jacques Hublin ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
28.01.2026 à 12:38
Arne De Keyser, Professor of Marketing, EDHEC Business School
Katrien Verleye, Associate Professor of Service Innovation, Ghent University
Around the world, governments and businesses are talking more and more about the need to move from today’s “take, make, waste” economy to a circular one, where products are designed to last, materials stay in use, and waste is dramatically reduced. On paper, the case is compelling: recent assessments show that shifting to a circular economy offers both a major climate opportunity and a significant economic one. A study from the European Commission’s Joint Research Centre finds that “reduction, reuse and recovery” measures could cut Europe’s heavy industrial emissions by up to 231 million tonnes of CO₂ each year, and global analyses estimate that circular models could generate around $4.5 trillion in value by 2030).
Yet progress may be stalling. The latest Circularity Gap Report shows that the share of secondary materials in the global economy fell from 9.1% in 2015 to 6.9% in 2021. Instead of becoming more circular, the world, in a recent timeframe, became less so.
What would actually help stakeholders such as consumers, companies and governments embrace circular models? In our recent research project, we reviewed more than 130 studies on circular business models to understand this very question. What we found is simple but often overlooked: circularity is not just a design or engineering challenge, it is also an engagement one. If consumers hesitate, or companies delay investments, or policymakers fail to create the right conditions, the circular shift stalls.
Our work identifies 6 practices that can boost circular economy engagement. They fall into 3 areas: helping stakeholders feel motivated, giving them opportunities, and ensuring they are able to act. Understanding these levers is key to accelerating the transition to a circular economy.
For circular behaviour to emerge, stakeholders first need a clear reason to care. Motivation is about creating the desire to act by explaining why circular options matter, how they are beneficial and why they are worth choosing over familiar linear habits.
A first part of this involves strategic signalling: making the benefits of circular models visible, concrete and easy to grasp. Many companies now deliberately make a point of doing this. Mud Jeans, for example, communicates the exact water and CO2 savings associated with its “Lease A Jeans” model, helping customers immediately see the environmental value of extending product life. Fairphone similarly signals the impact of modular design by showing how repairable smartphones reduce e-waste and keep devices in use for longer.
But motivation also depends on convincing stakeholders that circular options are safe, reliable and worthwhile. Even when people like the idea of circularity, they may still worry about the quality or convenience of second-hand or refurbished products. Companies are responding by offering guarantees, services and financial incentives that lower perceived risks. Decathlon, for instance, promotes its repair services and spare-part availability, reassuring customers that products can be kept in good condition for longer.
Even highly motivated stakeholders cannot engage in circular behaviour if the environment around them makes it difficult or uncommon. Opportunity is about creating the partnerships, norms and systems that make circular actions feasible, convenient and socially accepted.
“Matching” is a key part of this, in other words connecting the right stakeholders so that circular solutions can function. Few organisations can operate reuse, repair or recycling systems single-handedly; they need logistics partners, refurbishment specialists and intermediaries that help keep materials in circulation. We are witnessing more and more of these typically well-thought out matches. The fashion platform Vestiaire Collective, for example, collaborates with brands to authenticate and resell pre-owned items, creating a trusted ecosystem that individual firms would struggle to build alone. Cities such as Amsterdam foster circular procurement networks that bring together suppliers, waste operators, innovators, and citizens to jointly develop reuse and refurbishment pathways.
Opportunity also depends on legitimising circular practices, which makes them appear commonplace, expected and in line with broader societal rules. Governments play a central role here through standards and regulations. The European Union’s Right to Repair legislation, for instance, requires manufacturers to make spare parts and repair information available for many household products. This reinforces the idea that repairing rather than replacing is the default. Companies contribute to legitimising as well. When global brands like Apple promote refurbished devices as high-quality options and expand their certified repair networks, they help shift expectations about what counts as new or desirable.
“Closing the loop” also requires skills, knowledge and resources. Ability is about ensuring that stakeholders are equipped with the funding, infrastructure, education or practical support that make circular actions realistic in everyday life.
A first part of this involves supporting stakeholders with the resources they need. Many organisations and individuals want to engage in circular behaviour but simply lack the means. Companies may need finance to redesign products or set up reverse logistics. Households may need convenient places to return used goods. Cities may require infrastructure that enables citizens and organisations to share goods and materials. Increasingly, these needs are being addressed. The European Investment Bank, for example, has issued dedicated circular economy loans that help firms invest in recycling capacities, keep goods and materials in use, and design out waste. Startups such as Too Good To Go provide digital infrastructure that connects retailers with customers to reduce food waste, making it easier for small businesses to participate in circular practices without building new systems from scratch.
Ability also depends on empowering stakeholders with knowledge and skills to navigate circular models. Circularity requires understanding how products can be repaired, how materials flow through a system and how to be renters, sharers or repairers rather than one-time users. Education and training help build this understanding. Repair cafés, which have grown across Europe, offer hands-on opportunities for people to learn how to fix household items alongside volunteers. Many universities now provide open-access courses on circular design principles, giving students and professionals the tools to rethink production and consumption. These initiatives can help shift circularity from a niche practice to an accessible, everyday one.
What becomes clear from our research is that isolated efforts rarely work. The studies we reviewed suggest that clear communication about the benefits of circular options may have little impact if people are not reassured that these options are reliable and worthwhile. Incentives or guarantees alone may fall short when companies lack the partners needed to run repair, reuse or return systems. Even well-designed collaborations may struggle to gain traction when circular behaviour is not supported by social norms or policy signals that make it feel like the normal thing to do. And investments in new infrastructure or funding may have limited effect if stakeholders do not have the knowledge or confidence to use circular services in practice. Progress is most likely to occur when all of these elements reinforce one another.
For all stakeholders, the key is to reflect on what is needed to make circular practices part of everyday life. This includes asking questions such as:
How do we help those we interact with understand the value of circular choices?
How can we collaborate to create systems that make it workable to share, repair and reuse?
Do we, and those around us, have the infrastructure, resources and knowledge to participate in the circular transition with confidence?
Recognising these shared responsibilities and needs helps ensure that consumers, companies and governments move forward together, rather than in isolation, which is essential for a successful circular transition.
A weekly e-mail in English featuring expertise from scholars and researchers. It provides an introduction to the diversity of research coming out of the continent and considers some of the key issues facing European countries. Get the newsletter!
Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.
28.01.2026 à 12:26
Olivia Roth-Delgado, Cheffe de projets scientifiques, Agence nationale de sécurité sanitaire de l’alimentation, de l’environnement et du travail (Anses)
Thomas Bayeux, Chef de projet socio-économique, Agence nationale de sécurité sanitaire de l’alimentation, de l’environnement et du travail (Anses)
Mixed anxiety-depressive disorders (MADD) and suicidal thoughts, online bullying, poorer self-esteem, alcohol, cannabis and psychoactive substance use… social networks exploit young people’s vulnerability and actually help boost certain disorders that they are prone to.
This is the conclusion of a large-scale report by the French Agency for Food, Environmental and Occupational Health & Safety (Anses) which dissects the mechanisms behind digital marketing tools designed to target the specific vulnerabilities and emotional weak spots associated with adolescence.
Olivia Roth-Delgado and Thomas Bayeux are part of the team at Anses coordinating the research project. They offered to present the main teachings from this latest report.
The Conversation: What makes Anses’ “The Effects of Social media use on teenagers’ mental health” report unprecedented?
Olivia Roth-Delgado: This expert appraisal is the result of five years of research and over 1 000 sought-after articles. It is unprecedented in its originality and the extensive nature of the work that are, in our knowledge, unequalled as far as public authorities such as Anses are concerned.
For the first time, certain mechanisms pointing to the ways in which social networks operate are being linked to effects impacting the health of adolescents. These mechanisms are known as dark patterns (editor’s note: they are designed to capture users’ attention and monetise it, and they come in several forms which aren’t necessarily limited to social media. Some are also used by online shopping sites, for example).
Adolescence is a vulnerable time because the brain is still maturing. During this phase, teenage boys and girls experience changes in the way they process and handle their emotions in the reward-related circuits of the brain. They are also more sensitive to social context, which can favour risk-taking behaviour when around their peers. It is also a time of heightened vulnerability for mental health disorders.
Thomas Bayeux: During adolescence, a culture encouraging confrontation with others, an appetite for communication and character building, consisting of testing social norms develops. All of these arguments lead us to the 11-17 age group at which these dispositions occur.
Anses’ mission as a public health authority is to assess health risks. That said, in the chapters of the study on practices and maintaining inter-generational relations, the expert review raises the potential positive effects of social media and the motivations encouraging engagement during adolescence.
The report suggests particularly concerning social media-related effects among adolescents including anxiety-depressive disorders, suicidal thoughts or self-harming. What mechanisms are at play?
O.R.-D.: Among the mechanisms we have highlighted and studied featured misleading (or mainpulative) interfaces as well as algorithms that produce personalised content. They all equate to attention-grabbing that keep social media users engaged, by offering them increasingly well-targeted or extreme content.
If a teenage boy or girl for example, searches “self-harm” once, this kind of content will be offered repeatedly and can trap them in a negative spiral.
T.B.: Capturing attention serves the business model that supports these online platforms. It gives them access to a large amount of data which it can capitalise on while equally contributing to ad space sales.
Online platforms have everything to gain from keeping people engaged using the two strategies we have outlined : on one hand, by providing personalised content using increasingly productive algorithms which ensnare users in an information loop, and on the other hand, by highlighting the most impactful content.
Dark patterns roll out familiar techniques such as likes, notifications, scrolling, reels on auto play, etc. Also known as “deceptive design patterns”, these user interfaces have been carefully crafted to trick people into doing things they wouldn’t do otherwise.
The adolescent phase greatly resonates with these “push strategies” that social media implement. At Anses, we are seeing major public health challenges as supply and demand meet, so to speak. The cocktail they produce is potentially explosive !
Where mental health-related disorders are concerned but also, bullying, and alcohol, tobacco, cannabis use along with other risk-taking behaviours that you are safeguarding against, are social networks boosting pre-existing phenomena?
O.R.-D.: Absolutely. Social networks constitute a social space. They offer a sounding board for problems that are present in society, gender stereotypes or encouraging drug use, etc.
T.B.: Social networks contribute to adolescent socialisation and social construction, they provide continuity with the world offline, encompassing both its good points and its flaws. There is no watertight barrier between what happens offline and what happens on social media.
Should the existing rules for protecting minors in society extend to social media?
O.R.-D.: This is actually the founding principle of the Digital Services Act. The European regulatory framework for digital services seeks to vet online content on very large platforms, in line with the following ethos : “What is illegal offline, is illegal online.
T.B.: This preoccupation motivates one of the key recommendations to emerge from the Anses report, which is that users under 18 can only access social networks designed and configured for protecting minors. Our intention is not for social media to be eradicated all together. But for technical solutions to be put into place to make social media a safe place for teenagers, and Anses urges platforms to become accountable in this respect.
Going forward, teenagers then discussing their social media habits with their peers, parents, teaching staff or youth workers could prove to be a very good thing. That said, it doesn’t let public authorities and online platforms ‘off the hook’ where adopting collective strategies to make social media a safe space for teenagers are concerned.
The report shows links between social media use with some disorders, without really establishing a cause-effect relationship between the two. Why is this?
O.R.-D.: The cause-effect subject remains a thorny one. It is fair to say that the expert appraisal that we are basing ourselves on is very dense and documented. Our methodology is solid, but it isn’t backed up by a "body of evidence”. That said, we can vouch for strong associations between social media use and the disorders we have mentioned for which we explicitly highlight the underlying mechanisms at work.
In relation to sleep, for example several factors are involved. When teenagers go on social media at night before bedtime, the exposure to digital blue light from screens can prolong the time it takes to fall asleep, because by stimulating our cognitive alertness, it shortens sleep duration. The long-term effects of chronic sleep deprivation on mental and physical health are well-documented. Add to that the fact that the emotional stimuli involved in going on social media can also prevent sleep. We are seeing that there is a host of proof to support this. But the concrete effects of social media on sleep in teenage boys and girls also depends on their practices.
Similarly, in the event of anxiety-depressive disorders or suicidal thoughts, the type of content on offer plays a major role. The two-way street factor must also come into consideration. Allow me to explain: an adolescent boy or girl who is already psychologically fragile are more likely to go on social media. Content design algorithms pick up on their emotional weaknesses and suggest emotionally-charged content. And this is precisely how teenagers get trapped in a negative spiral. Proving that there is a cause-effect relationship associated with feedback loops and bidirectional effects is however, far more complicated.
And as for social media’s impact on self-image, we also have a convincing amount of evidence demonstrating the same type of mechanisms based on repeated exposure to content that glorifies muscular men and thin women.
Girls seem more sensitive to the negative effects of social media than boys. What is this down to?
T.B.: This is one of the key takeaways of the report. Girls clearly represent a highly vulnerable segment on social media as far as health risks are concerned, and not just concerning how it impacts self-image. More girls than boys on social media are being bullied, and becoming victims of gender shaming, and social pressure… Girls pay more attention to what happens on social media, and comments that are posted.
LGBTQIA+ communities also represent a high-risk segment on social media. They are more likely to become victims of online bullying which is one of the associated health hazards, particularly mental health.
The report from Anses mentions that the amount of time spent on social media is not the only factor that should be considered.
T.B.: Time of use is helpful, but that alone isn’t enough to fully grasp the subject. Knowing how long users spend on social media allows us to study certain health factors like sedentariness, despite the growing number of digital nomad tools out there for connecting to social media. Quantifying the amount of time users engage also turns out to be precious in the case of late-night social media use, which is likely to affect sleep, for example.
However, we also know that understanding social media practices is essential for studying some of the related health side effects. It is important to know what you can do on social media : publish, like, read comments, retouch photos, for instance and the emotional attachment involved. It’s not about opposing different approaches, but aiming for complimentary.
Your report is based on a research project that fails to address, or barely addresses the impact of the very latest digital tools such as TikTok or AI chatbots. Can we assume that these new technologies increase mental health risks for teenagers as well?
O.R.-D.: The Anses’ expert appraisal draws on over a thousand articles mainly published between 2011 and 2021. Due to the time accumulated and spent researching and bringing the appraisal together, the technologies our studies focused on have naturally evolved. That said, we based ourselves on a common core of mechanisms, like deceptive user interfaces (dark patterns) and content personalisation algorithms that are related to health risks.
Therefore, our conclusions and recommendations can be applied to more recent social media. As for the question of artificial intelligence and AI chatbots, Anses recommends that the subject becomes the focus of future reports.
A weekly email in English featuring expertise from scholars and researchers. It provides an introduction to the diversity of research coming out of the continent and considers some of the key issues facing European countries. Get the newsletter!
In your recommendations, you suggest getting teenagers involved in risk-prevention programs.
O.R.-D.: Anses offers young people the opportunity to get onboard with our research, because they know best what motivates them to engage with social media as they are the ones creating and spreading new ways of using social media. This makes including them in discussions and boundary-setting with parents and teachers, all the more important. This will make them more inclined to follow the rules that they actually had a hand in making. Among the recommendations, Anses mentioned the need to promote forums in which young people can share their online experiences.
T.B.: And again, let me remind you that Anses is not recommending banning social media all together, it suggests a complete overhaul of the way networks are designed so they do not harm the health of adolescents.
Interview by Health Journalists Lionel Cavicchioli and Victoire N’Sondé, The Conversation France.
Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.
28.01.2026 à 12:21
Frédéric Gonthier, Professeur de science politique, Sciences Po Grenoble - Université Grenoble Alpes
Malgré la montée de l’extrême droite, les enquêtes montrent que les Français restent très attachés à la démocratie. En revanche, l’insatisfaction vis-à-vis de son fonctionnement est grande. Le sentiment de déni de la souveraineté populaire est au cœur du vote populiste et de l’abstention.
Les Françaises et les Français seraient-ils en train de se lasser de la démocratie ? À écouter certains commentateurs, la réponse semble évidente. Montée de la défiance, abstention élevée, succès des partis de droite radicale populiste… Tout indiquerait un pays gagné par la tentation illibérale et autoritaire. Pourtant, les données disponibles livrent une image plus nuancée et, d’une certaine manière, plus rassurante.
Selon l’Enquête sociale européenne (ESS) de 2020, les citoyens restent en effet massivement attachés au régime démocratique. Une écrasante majorité juge important voire très important le fait de vivre en démocratie. Là où le bât blesse, c’est sur la pratique : près de la moitié des enquêtés appartiennent à la catégorie des démocrates insatisfaits, celles et ceux qui soutiennent la démocratie mais se disent mécontents de la façon dont elle fonctionne en France (figure 1).
Ces démocrates insatisfaits ne sont pas des antidémocrates. Ils expriment au contraire une forme d’exigence élevée : plus on attend de la démocratie, plus on est enclin à juger sévèrement son fonctionnement. Cette tension entre un attachement profond aux valeurs démocratiques et un regard critique sur la réalité institutionnelle organise de plus en plus la vie politique française.
Figure 1. Importance et satisfaction par rapport à la démocratie en France
Depuis une dizaine d’années, la question du renouveau démocratique est au cœur des mouvements sociaux. Nuit debout en 2016, les gilets jaunes à partir de 2018, les mobilisations contre le passe sanitaire en 2020 ou, plus récemment, la journée d’action Bloquons tout ont débordé la démocratie participative institutionnalisée. En demandant de « rendre la parole au peuple », ces mobilisations ont contribué à rouvrir le débat sur les règles du jeu démocratique : qui décide et selon quelles procédures ?
Les exécutifs ont tenté de répondre, au moins symboliquement, à cette démocratie d’interpellation. Le grand débat national et, surtout, les conventions citoyennes sur le climat, sur la fin de vie ou sur les temps de l’enfant ont consacré l’entrée des mini-publics délibératifs dans le répertoire institutionnel français. Mais ces dispositifs ont également montré les limites des innovations démocratiques lorsque les promesses de reprise intégrale des propositions citoyennes ne sont pas tenues.
La politisation du renouveau démocratique vient aussi des partis eux-mêmes. Les partis challengers se positionnent souvent en entrepreneurs de la cause démocratique. Les données Chapel Hill Expert Survey (CHES) montrent ainsi que La France insoumise (LFI) et le Rassemblement national (RN) sont les plus enclins à défendre l’idée selon laquelle « le peuple » devrait décider en dernière instance (figure 2). Bien sûr, les deux forces politiques ne mobilisent pas la souveraineté populaire de la même façon. Là où le RN privilégie l’appel direct au peuple plutôt que la médiation parlementaire pour faire pièce au prétendu laxisme des institutions et des élites, LFI promeut plutôt un approfondissement démocratique par l’effectivité et l’extension des droits.
Figure 2. Soutien à la souveraineté populaire
Il n’en reste pas moins que la démocratie libérale perd son caractère consensuel, le conflit partisan portant désormais sur le modèle lui-même, et non seulement sur sa mise en œuvre. Des visions alternatives gagnent en visibilité.
Pour corriger les dysfonctionnements d’un modèle élitiste fondé sur les élus et sur la représentation, faut-il un modèle technocratique qui donne le pouvoir aux experts ? un modèle participatif, qui s’appuie sur l’implication et la délibération des citoyens ? ou un modèle majoritariste, fondé sur l’exercice direct de la souveraineté populaire ? Surtout, comment combiner ces modèles, qui comportent chacun des avantages et des inconvénients, pour décider des fins de l’action publique ?
Tout comme les autres Européens, les Français n’investissent pas le mot-valise « démocratie » de façon univoque. L’ESS distingue trois grandes composantes : libérale (élections libres, protection des droits, indépendance des médias et de la justice), populaire (souveraineté du peuple via des référendums) et sociale (égalité et protection). L’ESS mesure à la fois l’importance accordée à chacune de ces composantes (les aspirations) et le jugement porté sur la manière dont elles sont réalisées en France (les évaluations).
En soustrayant les évaluations aux aspirations, on obtient des scores de déficit démocratique perçu : plus l’écart est grand, plus les attentes sont déçues. Les résultats sont éloquents.
Sur la démocratie libérale, les Français perçoivent un déficit, mais d’ampleur relativement modérée. C’est sur la souveraineté populaire et, surtout, sur la dimension sociale que les écarts sont les plus prononcés. Beaucoup, notamment parmi les démocrates insatisfaits, souhaitent une démocratie où les citoyens sont davantage appelés à trancher les grandes orientations politiques, et où l’État joue son rôle de protection contre les risques sociaux.
Comment ces déficits perçus se traduisent-ils dans les comportements électoraux ? Des modèles statistiques permettent de dessiner plusieurs profils.
Les personnes qui perçoivent un fort déficit en matière de démocratie libérale ont tendance à s’abstenir davantage ou à se tourner vers la gauche, qu’elle soit modérée ou radicale. En revanche, ce déficit n’alimente pas le vote pour la droite radicale populiste. Plus les attentes libérales sont déçues, plus la probabilité de voter pour le RN recule (figure 3A).
Il en va différemment pour le déficit de démocratie populaire. Les électeurs qui estiment que « le peuple » n’a pas suffisamment son mot à dire, que les décisions sont confisquées par les élites ou que les référendums manquent sont plus enclins à voter pour la gauche radicale ou pour le RN, mais aussi à s’abstenir. C’est ici que se loge le cœur du vote populiste et de l’abstention : non pas dans un rejet abstrait du système, mais dans la conviction que la souveraineté populaire est entravée (figure 3B).
Par ailleurs, le déficit de démocratie sociale ne profite pas à la droite radicale. Il tend même à réduire l’abstention et le vote RN, ainsi qu’à accroître le vote pour la gauche modérée. Autrement dit, celles et ceux qui jugent que la démocratie française ne tient pas ses promesses en matière de justice sociale sont loin de s’abstenir ou de voter mécaniquement pour les partis de droite radicale (figure 3C).
Figure 3. Probabilités de vote en fonction du déficit démocratique perçu.
Plus instructif encore, ces déficits démocratiques perçus ont un impact plus prononcé sur le vote que l’insatisfaction globale vis-à-vis de la démocratie. Être un démocrate insatisfait augmente bien les probabilités statistiques de voter pour des partis challengers ou de s’abstenir. Mais les attentes déçues vis-à-vis de la démocratie influencent encore plus fortement ces probabilités.
Au total, il est difficile de bien saisir les logiques électorales du soutien à la démocratie si l’on s’en tient au diagnostic d’une insatisfaction généralisée, sans se demander quelles conceptions de la démocratie motivent le vote protestataire et l’abstention.
C’est parce qu’ils restent profondément attachés aux composantes sociales et populaires de la démocratie que les Français sont des démocrates insatisfaits, enclins à sanctionner les partis de gouvernement ou à se détourner des urnes. L’insatisfaction vis-à-vis de la démocratie ne vient pas de citoyens hostiles à la démocratie libérale, mais de citoyens exigeants et porteurs d’autres manières de « faire démocratie ».
Cet article est tiré de l'ouvrage French Democracy in Distress. Challenges and Opportunities in French Politics (Palgrave Macmillan, 2025), sous la direction de Élodie Druez, Frédéric Gonthier, Camille Kelbel, Nonna Mayer, Felix-Christopher von Nostitz et Vincent Tiberj. Une conférence autour de cette publication est organisée à Sciences Po, le jeudi 29 janvier 2026, de 17 heures à 19 heures, 27 rue Saint-Guillaume, Paris (VIIᵉ).
Frédéric Gonthier a reçu des financements du programme Horizon Europe n°1010952237: TRUEDEM—Trust in European Democracies.
28.01.2026 à 12:07
Claude Lelièvre, Enseignant-chercheur en histoire de l'éducation, professeur honoraire à Paris-Descartes, Université Paris Cité
En principe interdits dès l’institution de l’école républicaine, les châtiments corporels ont longtemps perduré dans la réalité ordinaire des classes. Et lorsqu’ils étaient l’objet de plaintes, la jurisprudence était pour le moins complexe, voire à géométrie variable. A ainsi souvent été invoqué un « droit de correction » que la Cour de cassation vient d’écarter définitivement.
Ce 14 janvier 2026, la Cour de cassation a écarté l’existence d’un « droit de correction » pouvant justifier les violences éducatives sur des enfants. Il n’existe pas de « droit de correction parental » dans la loi française, les textes internationaux ou la jurisprudence moderne, a-t-elle indiqué dans un communiqué de presse.
Alors qu’un père de famille avait été condamné en première instance en 2023 par le tribunal de Thionville à dix-huit mois de prison avec sursis probatoire et au retrait de l’autorité parentale pour des violences sur ses deux fils mineurs, la cour d’appel de Metz avait prononcé sa relaxe le 18 avril 2024 au nom d’un « droit de correction ».
Durant l’audience du 19 novembre 2025 à la Cour de cassation, la rapporteuse avait mis en avant que certains arrêts de la Chambre criminelle invoquaient certes un « droit de correction » parental, mais qu’ils étaient fort anciens, notamment l’un d’entre eux souvent évoqué en l’occurrence datant de 1819.
La plus haute instance judiciaire est donc revenue sur la relaxe qui avait indigné les associations de protection de l’enfance. Celles-ci avaient dénoncé un retour en arrière par rapport à la loi dite « anti-fessée » de 2019 qui avait abouti à l’inscription suivante dans le Code civil :
« L’autorité parentale s’exerce sans violences physiques ou psychologiques. »
Le fait que la Cour de cassation ait dû réaffirmer cette inscription dans la loi nous rappelle que l’interdiction des châtiments corporels est le fruit d’une longue histoire et a rencontré de multiples résistances. Un certain nombre d’ambiguïtés apparues dès les débuts de l’école républicaine.
À lire aussi : L’affaire de Bétharram, ce n’est pas du passé : interroger l’idéologie punitive en France
Les punitions corporelles ont été en principe nettement interdites dans l’espace scolaire depuis l’institution de l’école républicaine. Dès 1887, les règlements pour les écoles maternelles indiquent que « les seules punitions dont on peut faire l’usage sont la privation, pour un temps court, du travail et de jeux en commun ou le retrait des bons points ». Le règlement pour les écoles primaires élémentaires précise formellement en son article 20 qu’« il est absolument interdit d’infliger aucun châtiment corporel ».
Cela ne signifie pas que, dans la réalité ordinaire des classes, il en était ainsi, tant s’en faut. Et cela d’autant plus que, lorsque des châtiments corporels étaient mis en œuvre et l’objet de plaintes, il apparaît que la jurisprudence a été pour le moins complexe, voire à géométrie variable.
Dès 1889, soit deux ans après l’interdiction formelle des châtiments corporels dans l’école républicaine, la Cour de cassation a en effet reconnu aux maîtres un droit de correction au même titre que celui attribué aux parents, dans la mesure où il n’y a pas excès et où la santé de l’enfant n’est pas compromise.
Une vingtaine d’années plus tard, un arrêt de la Chambre criminelle de la Cour de cassation du 4 décembre 1908 précise :
« Les instituteurs ont incontestablement par délégation paternelle, un droit de correction sur les enfants qui leur sont confiés ; mais, bien entendu, ce droit de correction, pour demeurer légitime, doit être limité aux mesures de coercition qu’exige la punition de l’acte d’indiscipline commis par l’enfant. »
C’est en se fondant sur ces considérations que, par exemple, la cour d’appel de Toulouse a relaxé, le 18 décembre 1999, le responsable de l’internat d’un collège de la région de Foix. L’arrêt de la cour d’appel estime :
« S’il est arrivé à monsieur J. de donner des gifles ou coups de poing à certains élèves, des coups de pied ou de classeurs, il convient de rappeler que l’élément intentionnel de l’infraction fait défaut lorsque les violences alléguées se rattachent à l’exercice du droit de correction qui appartient aux parents et dans une moindre mesure au maître. Or, en l’espèce, il a été constaté que M. J. avait la lourde responsabilité d’un internat, qu’il assumait par conséquent une fonction substitutive de celle des parents et que certains des élèves présentaient des difficultés d’ordre psychologique et des retards scolaires et perturbaient par leur comportement le bon déroulement des études. »
Les tribunaux admettent le plus souvent que, dans le cadre du maintien de la discipline scolaire, les enseignants bénéficient d’un exceptionnel droit de correction pour assurer le bon déroulement du cours dans un ordre scolaire dégradé, répondre à une attitude provocatrice ou sanctionner physiquement des violences ou injures contre l’enseignant ou entre élèves.
Dans quels cas le « droit de correction » à l’école n’était-il il pas admis ? Y avait-il une jurisprudence claire à ce sujet ?
Le « droit de correction » a été rarement toléré par les tribunaux pour d’autres buts, par exemple pour sanctionner une mauvaise application au travail ou de mauvais résultats. Ainsi la cour d’appel d’Agen juge, en 1999, qu’une institutrice qui avait infligé une fessée (occasionnant un gros hématome) à une jeune élève de 5 ans qui « ne savait pas faire son travail » est « coupable de violences volontaires ».
Un instituteur, qui criait régulièrement sur un élève de 7 ans, jetait ses affaires, déchirait son travail, le moquait, lui donnait des claques et lui tirait les oreilles, est également condamné le 23 janvier 2002 par la cour d’appel de Pau à une peine de six mois d’emprisonnement avec sursis.
En juin 2006, le directeur d’une école maternelle se voit infliger cinq mois de prison avec sursis par le tribunal correctionnel de Nice : il rudoyait ses élèves, leur administrait parfois des coups de pied ou de règles en fer et se rendait coupable de brimades en particulier contre les enfants en difficulté scolaire.
Les corrections ne doivent pas non plus dépasser une certaine intensité ni prendre des formes considérées comme inacceptables, moralement et juridiquement. Ainsi la cour d’appel de Bourges a-t-elle condamné à une peine d’amende un instituteur d’école maternelle qui avait fait mine de mordre le doigt d’un enfant afin de mettre un terme à son comportement agressif et à ses morsures réitérées.
Par ailleurs, un responsable d’un internat est condamné pour avoir donné des coups de pied dans le dos d’un élève qu’il avait projeté à terre – alors même qu’il est relaxé pour les gifles et les coups de pied donnés aux élèves perturbateurs restés debout (cour d’appel de Toulouse, 18 février 1999).
En définitive, les principes mêmes de la jurisprudence n’ont pas été d’une clarté absolue en la matière, même s’il semble exister quelques règles de base, et aucun jugement n’était vraiment assuré.
En écartant l’existence d’un « droit de correction » parental en ce début 2026, la Cour de cassation a donc comblé un flou de la jurisprudence.
« C’est la fin de l’idée, pourtant persistante chez certains juges, qu’il aurait existé à côté de la loi un droit coutumier de correction des parents sur leurs enfants […]. La loi de 2019 est claire et sans dérogation : dans notre droit, les prétendues violences éducatives n’existent pas »,
s’est félicité auprès de l’AFP Patrice Spinosi, avocat de la famille Milla.
Claude Lelièvre ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
28.01.2026 à 12:05
Thomas Posado, maître de conférences en civilisation latino-américaine contemporaine, Université de Rouen Normandie
Il est présent dans les noms de la Bolivie et de la République bolivarienne du Venezuela, dont les monnaies s’appellent le boliviano et le bolivar, et ses statues parsèment l’ensemble de l’Amérique latine. Mais sa gloire, en réalité, est planétaire. Au moment où le chavisme – dernier avatar du bolivarisme, dont il constitue une version très spécifique – vacille sous les coups de boutoir de Washington, Thomas Posado, maître de conférences en civilisation latino-américaine contemporaine à l’Université de Rouen-Normandie, explique dans cet entretien qui était Simon Bolivar.
Qui fut Simon Bolivar et quel a été son rôle historique ?
Thomas Posado : Simon Bolivar (1783-1830), surnommé El Libertador, est l’une des figures centrales des guerres d’indépendance de l’Amérique hispanique au début du XIXᵉ siècle. Il est issu de la grande bourgeoisie créole de la vice-royauté de Nouvelle-Grenade – une entité administrative appartenant à l’Espagne qui couvrait les territoires des actuels États de Colombie, d’Équateur, de Panama et du Venezuela.
L’Espagne, qui domine ces territoires depuis le XVIᵉ siècle, est alors elle-même fragilisée par l’invasion napoléonienne. Bolivar est inspiré des changements politiques que connaît l’Europe : il y a vécu quelque temps avant de rentrer en Nouvelle-Grenade en 1810. Il commence alors à exercer un commandement militaire dans ce qui tourne rapidement en véritable guerre d’indépendance. Il sera placé à la tête de plusieurs armées de plus en plus grandes et jouera un rôle majeur dans les indépendances du Venezuela, de la Colombie et de l’Équateur, et même du Pérou et de la Bolivie, plus au sud.
Dans quel contexte son action s’inscrit-elle ? Quels sont les modèles politiques qui l’inspirent ?
T. P. : L’indépendance des États-Unis (1776) est alors récente, la Révolution française (1789) encore plus. Les Lumières et les idéaux républicains influencent fortement Bolivar. En revanche, le lire comme un penseur « social » au sens contemporain serait anachronique. Bolivar est avant tout un militaire et un homme issu des élites créoles. Sa pensée oscille entre idéaux républicains et préoccupations d’ordre et de stabilité, dans des sociétés profondément fragmentées.
Son projet politique était-il l’unité de l’Amérique hispanique ?
T. P. : Oui, c’est le grand projet – et le grand échec – de sa vie. Bolivar est convaincu que la fragmentation des nouveaux États indépendants sera un obstacle majeur à leur développement. Il rêve d’une vaste entité politique qui regroupera les anciens territoires espagnols d’Amérique. Cette ambition se concrétise partiellement avec la Grande Colombie (1819–1831), mais celle-ci se désagrège rapidement. Le Congrès de Panama de 1826, censé jeter les bases d’une union durable, échoue. Bolivar résumera son amertume par une formule célèbre : « J’ai labouré la mer. »
Simon Bolivar est parfois présenté comme un précurseur de l’anti-impérialisme. Est-ce justifié ?
T. P. : Bolivar est sans ambiguïté un anti-impérialiste face à l’Espagne, puissance coloniale de son temps. En revanche, son hostilité supposée à l’égard des États-Unis est largement une relecture postérieure. Une phrase de 1829 est souvent citée – « Les États-Unis semblent destinés par la Providence à répandre la misère en Amérique au nom de la liberté » –, mais elle ne constitue pas le cœur de sa pensée. À cette époque, les États-Unis sont une puissance encore jeune, sans véritable politique impériale en Amérique du Sud. Bolivar pressent toutefois des velléités d’ingérence, notamment après la proclamation en 1823 de la doctrine Monroe, même si celle-ci n’a alors que peu d’effets concrets.
Quelle était sa position sur l’esclavage et sur les populations indigènes du continent ?
T. P. : Bolivar affranchit les esclaves de sa famille et adopte progressivement une position abolitionniste, mais cela s’inscrit aussi dans un contexte stratégique : il cherche à rallier des populations que ses adversaires loyalistes tentent de mobiliser. Son intérêt pour les populations indigènes reste limité, en particulier au Venezuela où elles représentent une part relativement faible de la population. L’image d’un Bolivar défenseur des peuples autochtones est en grande partie une construction ultérieure.
Comment sa figure est-elle utilisée après sa mort ?
T. P. : Dès le XIXe siècle, Bolívar devient une référence centrale dans la construction des identités nationales. Au Venezuela, son pays natal, cette sacralisation est particulièrement forte. Ses restes – il est décédé en Colombie de la tuberculose en 1830, et y a été enterré dans un premier temps – sont rapatriés à Caracas dans les années 1840, puis il fait l’objet d’une véritable religion civique sous le régime de Guzman Blanco, de 1870 à 1887, avec la création du Panthéon national et la multiplication des places Bolivar dans tout le pays. Cette instrumentalisation est bien antérieure au chavisme.
Pourquoi Bolivar est-il surtout associé au Venezuela, et non à la Bolivie qui porte son nom ?
T. P. : Parce qu’il est né à Caracas, que ses premières grandes campagnes s’y déroulent et qu’il y incarne la victoire contre l’Espagne. En Bolivie, qui adopte son nom en 1825, Bolivar reste une figure honorée mais extérieure. Au Venezuela, il devient le socle du récit national dans un État jeune, dépourvu d’identité collective solide après l’indépendance.
Comment Hugo Chavez s’inscrit-il dans cet héritage bolivarien ?
T. P. : Chavez se revendique explicitement de Bolivar dès ses débuts politiques. Son mouvement putschiste de 1992 s’appelle le Mouvement bolivarien révolutionnaire. Une fois au pouvoir (1999), il fait du bolivarisme l’axe idéologique du régime et rebaptise le pays République bolivarienne du Venezuela. Il relit Bolivar à travers un prisme national-populaire, social et anti-impérialiste, en lien avec Cuba et d’autres gouvernements de gauche, notamment ceux des Kirchner en Argentine, de Rafael Correa en Équateur et d’Evo Morales en Bolivie. Comme toute relecture historique, elle est sélective, accentuant certains aspects de Bolivar et en effaçant d’autres.
Cette relecture était-elle consensuelle à gauche ?
T. P. : Non. Karl Marx, par exemple, portait un jugement très sévère sur Bolivar, qu’il voyait comme un représentant des intérêts bourgeois. C’est notamment la révolution cubaine qui contribue à réhabiliter Bolivar à gauche, en articulant héritage national et lutte anti-impérialiste, aux côtés de figures comme José Marti (1853-1895), le fondateur du Parti révolutionnaire cubain.
Simon Bolivar ayant été si fortement associé au chavisme, comment le Libertador est-il perçu par l’opposition vénézuélienne ?
T. P. : Bolivar est omniprésent dans l’imaginaire national, bien au-delà du chavisme. La monnaie nationale s’appelle le bolivar depuis 1879, les places Bolivar sont les places principales de chaque municipalité du pays, son portrait jalonne nombre de foyers vénézuéliens… Le rejeter frontalement serait politiquement suicidaire. Cependant, il existe des intellectuels considérant que le culte bolivarien a favorisé le militarisme en Amérique latine. En tout état de cause, pour l’opposition vénézuélienne actuelle, le problème est moins Bolivar lui-même que son appropriation par Chavez puis par Maduro.
L’Alliance bolivarienne pour les peuples de notre Amérique (ALBA) est souvent présentée comme l’incarnation contemporaine du projet bolivarien. De quoi s’agit-il exactement ?
T. P. : L’ALBA est créée en 2004 à l’initiative d’Hugo Chavez et de Fidel Castro, en réaction directe à un projet promu par les États-Unis : la zone de libre-échange des Amériques, dite ALCA.
Là où l’ALCA reposait sur une logique de libre-échange classique, l’ALBA se voulait une alternative fondée sur la coopération, la solidarité et la complémentarité entre États, en particulier dans les domaines de l’énergie, de la santé et de l’éducation. L’ALBA rassemblait les États les plus engagés dans un combat anti-impérialiste (Cuba, Venezuela, Équateur, Bolivie, Nicaragua et quelques îles des Caraïbes). Le Venezuela, fort de ses revenus pétroliers, y jouait un rôle central, notamment via des livraisons de pétrole à prix préférentiel.
Dans le discours chaviste, l’ALBA s’inscrit explicitement dans l’héritage de Bolivar : refus de l’hégémonie états-unienne, intégration régionale et souveraineté collective. Chavez a agi pour l’intégration régionale en contribuant à la création d’instances supranationales latino-américaines (l’UNASUR pour les États sud-américains, la CELAC pour l’ensemble de l’Amérique latine). Il s’agit d’une relecture contemporaine du bolivarisme, qui s’appuyait sur la convergence politique des gouvernements de gauche de la région et sur une conjoncture économique favorable.
Avec l’effondrement économique du Venezuela à partir de 2014, l’ALBA perd une grande partie de sa capacité d’action et de son influence, illustrant les limites structurelles de ce projet d’intégration lorsqu’il repose largement sur un seul pays moteur financé par une abondante rente pétrolière.
Que reste-t-il du bolivarisme sous Nicolas Maduro ?
T. P. : Le discours demeure, mais la pratique s’en éloigne fortement. Sous Maduro, le Venezuela traverse une crise économique majeure (- 74 % de PIB entre 2014 et 2020), qui limite toute ambition régionale. Contrairement à Chavez, Maduro ne dispose ni des ressources économiques ni de l’influence diplomatique nécessaires pour incarner un projet d’intégration latino-américaine. Le bolivarisme devient avant tout un outil de légitimation du pouvoir.
Le bolivarisme a-t-il encore une influence en Amérique latine aujourd’hui ?
T. P. : Comme projet politique structuré, il est affaibli. Mais comme symbole, il reste puissant. La revendication de la souveraineté sur les ressources naturelles et le rejet de toute tutelle étrangère – notamment états-unienne – demeurent des thèmes centraux dans la région, et plus que jamais d’actualité à l’heure de l’interventionnisme de Donald Trump.
Même si Bolivar n’a jamais formulé ces enjeux dans les termes actuels, il incarne une figure fondatrice de l’anticolonialisme latino-américain, dont l’héritage dépasse largement le cas vénézuélien. C’est notamment ainsi qu’il est célébré dans de nombreuses villes du continent, et ailleurs également, y compris à Paris où une station de métro porte son nom, à New York, à Londres et même à Madrid, alors qu’il a combattu l’Espagne. Le poète chilien Pablo Neruda écrivait dans son Canto para Bolívar qu’il « se réveille tous les cent ans quand le peuple se réveille ». Comme référence anti-coloniale, Bolivar ne mourra jamais.
En définitive, on peut donc dire que Bolivar survivra au chavisme ?
T. P. : Sans aucun doute. Son image pourra être temporairement ternie par l’effondrement du Venezuela, mais à long terme, l’historiographie retiendra Bolivar comme une figure majeure des indépendances. Sa singularité tient à l’ampleur géographique de son action et à son ambition d’unité continentale. À ce titre, il restera l’un des grands personnages de l’histoire mondiale du XIXᵉ siècle.
Propos recueillis par Grégory Rayko.
Thomas Posado ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
28.01.2026 à 12:00
Stefan Hanß, Professor of Early Modern History, University of Manchester

Les livres médicaux de la Renaissance ne sont pas seulement des textes anciens : ils portent aussi les traces invisibles de ceux qui les ont manipulés. Des chercheurs ont découvert des protéines et autres indices biologiques qui révèlent les pratiques et expérimentations médicales du XVIᵉ siècle.
Et si le papier des pages d’un vieux livre pouvait nous dire qui les a touchées, quels remèdes furent préparés et même comment les corps réagirent aux traitements ?
Les livres de recettes médicales de la Renaissance regorgent de notes manuscrites laissées par des lecteurs qui ont testé des remèdes contre des problèmes allant de la calvitie au mal de dents. Pendant des années, les historiens ont étudié ces annotations pour comprendre comment on expérimentait la médecine autrefois. Nos recherches récentes vont plus loin. Avec mes collègues, nous avons mis au point une méthode permettant de lire non seulement les mots inscrits sur ces pages, mais aussi les traces biologiques invisibles laissées par les personnes qui les ont utilisées.
Des milliers de manuscrits et de livres imprimés ont survécu de l’Europe de la Renaissance, consignant des recettes médicales employées dans la vie quotidienne. Il ne s’agissait pas de volumes rares ou réservés à une élite. Beaucoup étaient des « best-sellers » médicaux, largement diffusés, puis personnalisés par des lecteurs qui ajoutaient des notes dans les marges. Quelles recettes fonctionnaient le mieux ? Quels ingrédients pouvaient être remplacés ou améliorés ? Loin d’être des textes figés, ces livres étaient des documents de travail. La Renaissance fut une période d’innovation médicale, nourrie par des expérimentations pratiques maintes fois répétées.
Pour la première fois, nous avons pu prélever et analyser des protéines invisibles laissées sur les pages de ces livres par les personnes qui les ont manipulés.
Ce travail relève d’une véritable enquête biochimique. Chaque fois qu’un lecteur du XVIᵉ siècle touchait une page, il y déposait de minuscules traces d’acides aminés, les éléments constitutifs des protéines. Ces traces peuvent aujourd’hui être prélevées grâce à des films spécialisés produits par SpringStyle Tech Design, qui soulèvent délicatement la matière à la surface du papier sans l’endommager. Nous avons échantillonné des livres médicaux allemands du XVIᵉ siècle, aujourd’hui conservés à la bibliothèque John-Rylands de l’Université de Manchester. Les échantillons de protéines ont été analysés dans des laboratoires des universités de York et d’Oxford tandis que le laboratoire d’imagerie de la Rylands a utilisé des techniques avancées pour restituer des textes effacés ou devenus illisibles.
Se concentrer sur des livres est essentiel. Comme ces volumes ont été produits en plusieurs exemplaires, il est possible de comparer les traces biochimiques entre des textes similaires, ce qui nous aide à distinguer ce que le livre prescrivait de ce que les lecteurs faisaient réellement avec lui.
Cette approche combinée nous a permis de recueillir des informations remarquables sur les personnes qui utilisaient ces livres, les substances qu’elles manipulaient et les remèdes qu’elles préparaient. Lue en parallèle des sources d’archives, elle offre un éclairage nouveau sur le fonctionnement concret de la médecine de la Renaissance dans la vie quotidienne.
Sur des pages recommandant des remèdes précis, nous avons identifié des traces protéiques provenant justement des ingrédients mentionnés dans les recettes. On trouve des traces de cresson de fontaine, de hêtre européen et de romarin à côté d’instructions visant à traiter la perte de cheveux ou à stimuler la croissance des cheveux et de la barbe.
Cette attention portée aux cheveux n’a rien de surprenant. Avec l’essor du portrait et l’expansion du commerce des peignes et des miroirs, les barbes et les nouvelles coiffures sont devenues à la mode à la Renaissance. Les cheveux étaient alors très visibles, chargés de sens social et étroitement liés aux conceptions de la santé et de la masculinité.
Certaines découvertes se sont révélées plus déroutantes. À proximité d’une recette proposant un traitement extrême contre la calvitie, nous avons détecté des traces d’excréments humains.
Cela correspond étroitement aux conceptions de la Renaissance sur les cheveux. Dans la pensée médicale médiévale et du début de l’époque moderne, les cheveux étaient considérés comme une excrétion du corps, au même titre que la sueur, les matières fécales ou les ongles. Comme l’ont formulé crûment certains chercheurs, « les cheveux, c’était de la merde ». Dans cette perspective, utiliser des déchets humains pour traiter les cheveux n’avait rien de grotesque, mais relevait d’une logique cohérente.
Nous avons également identifié des protéines provenant de plantes à fleurs jaune vif à proximité de recettes destinées à teindre les cheveux en blond. Ces plantes ne figuraient pas parmi les ingrédients mentionnés par écrit. Leur présence suggère que les lecteurs expérimentaient au-delà des instructions figurant sur la page, guidés par le symbolisme des couleurs et par des propriétés médicinales supposées. Ici, l’expérimentation devient visible non seulement dans les notes marginales, mais aussi dans l’archive biologique elle-même.
D’autres traces protéiques indiquent l’utilisation de lézards dans des remèdes capillaires. Dans la philosophie naturelle de la Renaissance, les lézards étaient classés parmi les animaux poïkilothermes, c’est-à-dire dont la température corporelle varie en fonction de l’environnement. On pensait que la croissance des cheveux dépendait de la chaleur interne du corps. Une augmentation de cette chaleur était censée stimuler la pousse des cheveux, tandis qu’un excès pouvait les détruire. La présence de protéines de lézard suggère que les praticiens testaient activement ces théories concurrentes en transformant des matières animales en remèdes.
Citons ensuite l’hippopotame. Nous avons retrouvé des protéines correspondant à des éléments provenant d’hippopotames sur des pages traitant de problèmes dentaires. Dans les marges, les lecteurs se plaignaient de dents malodorantes, de maux de dents et de pertes dentaires. Dans la médecine de la Renaissance, l’os d’hippopotame était censé renforcer les dents et les gencives et était parfois utilisé pour fabriquer des dentiers. Sa présence suggère que les lecteurs allemands des XVIᵉ et XVIIᵉ siècles avaient accès à des matériaux médicaux exotiques, échangés sur de longues distances.
Nos méthodes combinent une lecture historique approfondie avec l’analyse en laboratoire, permettant aux historiens d’étudier la pratique médicale d’une manière jusqu’alors impossible. Elles réunissent des formes de preuves habituellement séparées : textes, corps et matériaux.
Peut-être plus intrigant encore, nous avons identifié des protéines aux fonctions antimicrobiennes, y compris des molécules couramment impliquées dans les réponses immunitaires humaines, telles que celles liées à l’inflammation et à la défense contre les bactéries. Ces protéines aident le corps à lutter contre les infections. Leur présence suggère que les personnes manipulant ces livres ne se contentaient pas de préparer des remèdes, mais étaient elles-mêmes en train de tomber malades ou de guérir, laissant derrière elles des traces d’activité immunitaire.
Dans ce sens, il est possible d’entrevoir des systèmes immunitaires réagissant à la maladie et au traitement directement sur les pages. Nous commençons à peine à comprendre ce que ces preuves peuvent révéler, mais ce travail ouvre des voies entièrement nouvelles pour étudier la manière dont la médecine de la Renaissance était pratiquée, testée et vécue.
Cette recherche a été financée par une bourse pilote du John Rylands Research Institute 2020–21 (chercheur principal : Stefan Hanß) et résulte de discussions interdisciplinaires initiées lors de l’événement financé par la British Academy « Microscopic Records : The New Interdisciplinarity of Early Modern Studies, c. 1400–1800 » (British Academy Rising Star Engagement Award BARSEA 19\190084, chercheur principal : Stefan Hanß.
28.01.2026 à 12:00
Morteza Hajizadeh, Hajizadeh, University of Auckland, Waipapa Taumata Rau

De Rûmî à Hafez, l’amour homoérotique a nourri l’imaginaire spirituel islamique. Son effacement brutal, au tournant des XIXᵉ et XXᵉ siècles, révèle l’impact profond des valeurs victoriennes importées en terres d’islam.
Pendant des siècles, la littérature issue des régions islamiques, en particulier d’Iran, a célébré l’amour homoérotique masculin comme un symbole de beauté, de mysticisme et de désir spirituel. Ces attitudes étaient particulièrement marquées durant l’âge d’or de l’islam, du milieu du VIIIᵉ siècle au milieu du XIIIᵉ siècle.
Mais cette tradition littéraire a progressivement disparu à la fin du XIXᵉ et au début du XXᵉ siècle, sous l’influence des valeurs occidentales et de la colonisation.
Les attitudes à l’égard de l’homosexualité dans les sociétés islamiques anciennes étaient complexes. D’un point de vue théologique, l’homosexualité a commencé à être désapprouvée au VIIe siècle, dès la révélation du Coran au prophète de l’islam, Mohammed.
Cependant, la diversité des attitudes et des interprétations religieuses laissait place à une certaine marge de manœuvre. Les sociétés islamiques médiévales des classes supérieures acceptaient souvent ou toléraient les relations homosexuelles. La littérature classique d’Égypte, de Turquie, d’Iran et de Syrie suggère que toute interdiction de l’homosexualité était fréquemment appliquée avec clémence.
Même dans les cas où le droit islamique condamnait l’homosexualité, les juristes autorisaient les expressions poétiques de l’amour entre hommes, en soulignant le caractère fictif du vers. La composition de poésie homoérotique permettait ainsi à l’imagination littéraire de s’épanouir dans des limites morales.
Les littératures classiques arabe, turque et persane de l’époque faisaient une place à une poésie homoérotique célébrant l’amour sensuel entre hommes. Cette tradition a été portée par des poètes tels que l’Arabe Abû Nuwâs, les maîtres persans Saadi, Hafez et Rûmî, ainsi que les poètes turcs Bâkî et Nedîm, qui, tous, célébraient la beauté et l’attrait de l’aimé masculin.
Dans la poésie persane, les pronoms masculins pouvaient être utilisés pour décrire aussi bien des aimés masculins que féminins. Cette ambiguïté linguistique contribuait à légitimer davantage encore l’homoérotisme littéraire.
Dans le soufisme – une forme de croyance et de pratique mystiques de l’islam apparue durant l’âge d’or de l’islam –, les thèmes de l’amour entre hommes étaient souvent utilisés comme symbole de transformation spirituelle. Comme le professeur d’histoire et d’études religieuses Shahzad Bashir le montre, les récits soufis présentent le corps masculin comme le principal vecteur de la beauté divine.
Dans le soufisme, l’autorité religieuse se transmet par la proximité physique entre un guide spirituel, ou cheikh (Pir Murshid), et son disciple (Murid).
La relation entre le cheikh et le disciple mettait en scène le paradigme de l’amant et de l’aimé, fondamental dans la pédagogie soufie : les disciples s’approchaient de leurs guides avec le même désir, le même abandon et la même vulnérabilité extatique que celle exprimée dans la poésie amoureuse persane.
La littérature suggère que les communautés soufies se sont structurées autour d’une forme d’affection homoérotique, utilisant la beauté et le désir comme métaphores pour accéder à la réalité cachée.
Ainsi, le maître saint devenait le reflet de la radiance divine, et l’élan du disciple signifiait l’ascension de l’âme. Dans ce cadre, l’amour masculin incarné devenait un vecteur d’anéantissement spirituel et de renaissance sur la voie soufie.
L’amour légendaire entre le sultan Mahmud de Ghazni et son esclave masculin Ayaz en offre un exemple parfait. Submergé par la vision de la beauté d’Ayaz nu dans un bain, le sultan Mahmud confesse :
Alors que je n’avais vu que ton visage, j’ignorais tout de tes membres. À présent, je les vois tous, et mon âme brûle de cent feux. Je ne sais lequel aimer davantage.
Dans d’autres récits, Ayaz se propose volontairement de mourir de la main de Mahmud, symbolisant la transformation spirituelle par l’anéantissement de l’ego.
La relation entre Rûmî et Shams de Tabriz, deux soufis persans du XIIIe siècle, constitue un autre exemple d’amour mystique entre hommes.
Dans un récit rapporté par leurs disciples, les deux hommes se retrouvent après une longue période de transformation spirituelle, s’embrassent, puis tombent aux pieds l’un de l’autre.
La poésie de Rûmî brouille la frontière entre dévotion spirituelle et attirance érotique, tandis que Shams remet en cause l’idée d’une pureté idéalisée :
Pourquoi regarder le reflet de la lune dans un bol d’eau, quand on peut regarder la chose elle-même dans le ciel ?
Les thèmes homoérotiques étaient si courants dans la poésie persane classique que des critiques iraniens ont affirmé :
La littérature lyrique persane est fondamentalement une littérature homosexuelle.
À la fin du XIXe siècle, écrire de la poésie célébrant la beauté et le désir masculins est devenu tabou, non pas tant en raison d’injonctions religieuses que sous l’effet des influences occidentales.
Les puissances coloniales britannique et française ont importé une morale victorienne, l’hétéronormativité et des lois antisodomie dans des pays comme l’Iran, la Turquie et l’Égypte. Sous leur influence, les traditions homoérotiques de la littérature persane ont été stigmatisées.
Le colonialisme a amplifié ce basculement, en présentant l’homoérotisme comme « contre nature ». Ce mouvement a été encore renforcé par l’application stricte des lois islamiques, ainsi que par des agendas nationalistes et moralistes.
Des publications influentes telles que Molla Nasreddin (publiée de 1906 à 1933) ont introduit des normes occidentales et tourné en dérision le désir entre personnes de même sexe, en l’assimilant à la pédophilie.
Les modernisateurs nationalistes iraniens ont mené des campagnes visant à purger les textes homoérotiques, les présentant comme des vestiges d’un passé « pré-moderne ». Même des poètes classiques tels que Saadi et Hafez ont été requalifiés ou censurés dans les histoires littéraires iraniennes à partir de 1935.
Un millénaire de libertinage poétique a alors cédé la place au silence, et la censure a effacé l’amour masculin de la mémoire littéraire.
Morteza Hajizadeh ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
28.01.2026 à 11:59
Giles Gasper, Professor in High Medieval History, Durham University

Les monastères médiévaux imposaient pauvreté et austérité, mais la présence de chauffoirs et de quelques douceurs hivernales montre que le confort et la chaleur n’étaient pas complètement ignorés.
De nombreux chroniqueurs monastiques le rappellent : tout monastère devait idéalement être situé près de l’eau et d’une réserve de bois. Orderic Vital, né en Angleterre près de Shrewsbury en 1075 et envoyé à l’âge de 5 ans à l’abbaye normande de Saint-Évroult, insiste clairement sur cette double exigence. De l’eau pour se laver, pour l’hygiène, pour boire, pour fabriquer l’encre, pour préparer le mortier de chaux, et du bois pour construire et, sans doute, pour se chauffer.
La forme bénédictine de la vie monastique a été la plus répandue tout au long de la période médiévale, même si bien d’autres ont existé. La règle attribuée à saint Benoît détaille en 73 chapitres comment les moines devaient mener leur vie : se concentrer sur le monde à venir, sur la vie après la mort, ainsi que sur l’obéissance et l’humilité.
Privés de toute propriété individuelle, les moines vivaient sans fortune personnelle tandis que les monastères pouvaient, eux, être d’une grande opulence. Le confort matériel n’était pas une priorité, du moins en théorie. On observe d’ailleurs souvent, dans l’expression religieuse de l’époque, une opposition entre inconfort matériel et valeur spirituelle : plus l’épreuve physique était rude, plus la valeur spirituelle était jugée élevée. Les Cisterciens, apparus comme un courant monastique distinct à la toute fin du XIᵉ siècle et eux aussi fidèles à la règle de saint Benoît, accordaient une importance centrale à l’austérité dans tous les aspects de leur existence.
La manière dont les communautés monastiques étaient régies éclaire leur rapport au froid. Les concessions prévues à ce sujet dans la règle de saint Benoît étaient limitées : il est reconnu que les moines vivant dans des régions plus froides avaient besoin de davantage de vêtements. De manière générale, la seule différence entre la tenue d’hiver et celle d’été consistait en une coule épaisse et laineuse
– une capuche couvrant les épaules – pour les mois froids, contre une version plus légère le reste de l’année.
Benoît a rédigé sa règle dans l’Italie du VIᵉ siècle. Les conditions qui prévalaient dans les régions du nord de l’Europe aux siècles suivants différaient profondément, à bien des égards, de celles du monde méditerranéen du haut Moyen Âge – notamment en ce qui concerne le froid qui pouvait régner dans les monastères. Orderic a ainsi décrit les effets de l’hiver à la fin de son quatrième livre (sur treize) de son Historia ecclesiastica. Après avoir évoqué brièvement les conflits et affrontements à la frontière entre la Normandie et le Maine, il note que :
« Les mortels sont accablés de tant de malheurs qu’il faudrait de vastes volumes pour les consigner tous. Mais à présent, engourdi par le froid de l’hiver, je me tourne vers d’autres occupations et, las de tant de labeur, décide de clore ici le livre que j’écris. Quand la douceur du printemps sera revenue, je rapporterai dans les livres suivants tout ce que je n’ai fait qu’effleurer ou que j’ai entièrement passé sous silence. »
Mais une pièce du monastère était chauffée pendant les périodes de grand froid. Le chauffoir, ou calefactorium, était équipé d’un foyer et, dans certains cas, de quelques aménagements supplémentaires.
Très peu de bâtiments au sein des ensembles monastiques disposaient d’une cheminée. Les églises n’étaient pas chauffées, pas plus que les dortoirs. Dans ce contexte, le chauffoir constituait un lieu à part, rare et important. Même lorsqu’il était relativement vaste, il ne pouvait accueillir qu’un nombre limité de personnes à la fois. On imagine sans peine une dizaine de moines rassemblés autour de l’âtre, le bois crépitant, échangeant quelques mots à voix basse – la parole étant elle-même découragée dans les monastères – et cherchant un peu de chaleur dans un environnement glacial. Cette scène n’est sans doute pas loin de la réalité.
Malgré leur utilité évidente pour la communauté, les chauffoirs occupent une place très marginale dans les sources écrites. Les bâtiments conservés et les mentions textuelles qui subsistent permettent néanmoins d’éclairer la vie monastique et de mesurer ce que l’existence d’un chauffoir changeait concrètement.
En Angleterre médiévale, on peut citer le monastère cistercien de Meaux, dans le Yorkshire. Fondé en 1141, il n’en reste aujourd’hui aucun vestige bâti, mais une chronique abondante nous est parvenue.
Le registre des nouvelles constructions réalisées sous l’abbatiat de Thomas à partir de 1182 mentionne non seulement un magnifique réfectoire en pierre pour les moines, mais aussi le chauffoir et une petite cuisine. Le fait que ces bâtiments figurent dans la chronique comme autant d’accomplissements de l’abbé, destinés à laisser une trace pour les générations futures, témoigne de l’importance qui leur était accordée. Il est également intéressant de noter que, tandis que le réfectoire fut construit rapidement grâce à un don, la cuisine et le chauffoir furent réalisés progressivement, au rythme des ressources disponibles.
Si le chauffoir de Meaux (Yorkshire) n’existe plus que par les sources historiques, de bons exemples de chauffoirs encore conservés sont assez fréquents. L’abbaye de Rievaulx, dans le nord du Yorkshire, en offre un bon exemple.
Le chauffoir de Rievaulx est situé à côté du réfectoire et a subi d’importantes modifications entre le XIIᵉ et le XVIᵉ siècle. Finalement doté de deux étages, le complexe comprenait également des installations pour laver les vêtements des moines pendant l’hiver.
Puis direction Durham (nord-est de l’Angleterre). Nous nous appuyons ici sur un remarquable traité du XVIᵉ siècle (et postérieur), The Rites of Durham, dernière mémoire des pratiques du monastère avant la Réforme.
Il indique que le chauffoir, ici appelé « maison commune », se trouvait sur le côté droit en sortant du cloître. À l’intérieur, on y trouvait :
« Un feu entretenu tout l’hiver pour que les moines puissent s’y réchauffer, aucun autre feu n’étant permis ; seuls les maîtres et officiers disposaient de leurs propres foyers. »
Si les bâtiments médiévaux étaient difficiles à chauffer, la présence de salles chauffées témoigne de l’importance accordée à la chaleur. Dans le cas de la maison commune du prieuré de la cathédrale de Durham, les moines bénéficiaient même, si l’on en croit le récit, de quelques friandises supplémentaires à l’occasion de Noël : figues, raisins, gâteaux et bière, consommés avec modération.
Giles Gasper reçoit un financement de l’Arts and Humanities Research Council, de Research England, de la John Templeton Foundation et du Leverhulme Trust.
28.01.2026 à 11:57
Zaradat Domínguez Galván, Profesora de Literatura, Universidad de Las Palmas de Gran Canaria

Longtemps éclipsée par les figures canoniques de la tradition occidentale, Enheduanna est pourtant la première autrice connue de l’histoire. Il y a plus de 4 000 ans, en Mésopotamie, cette grande prêtresse a signé ses textes, mêlant poésie, pouvoir et spiritualité, et laissé une œuvre fondatrice.
Quand on se demande qui fut le premier écrivain de l’histoire, on pense souvent à Homère. L’image du poète aveugle de la Grèce antique occupe le sommet du panthéon de la tradition littéraire occidentale.
Mais en réalité, il faut remonter bien plus loin, au-delà de la Grèce, au-delà même de l’alphabet, et tourner notre regard vers le berceau de l’écriture : l’ancienne Mésopotamie. Là, il y a plus de 4 000 ans, une femme a signé son œuvre de son propre nom : Enheduanna.
Enheduanna a vécu aux alentours de 2300 avant notre ère, dans la cité d’Ur, dans l’actuel sud de l’Irak. Sa figure se distingue à plusieurs titres : elle fut grande prêtresse du dieu lunaire Nanna, une fonction qui lui conférait un pouvoir politique et religieux considérable. Elle était également la fille du roi Sargon d’Akkad, fondateur du premier empire mésopotamien, et surtout l’autrice d’une œuvre littéraire d’une grande profondeur théologique, politique et poétique.
« Enheduanna » n’était pas son nom personnel, mais un titre religieux que l’on peut traduire par « grande prêtresse, parure du ciel ». Son véritable nom demeure inconnu. Ce qui ne fait en revanche aucun doute, c’est son importance historique : Enheduanna a écrit, signé ses textes et revendiqué leur paternité intellectuelle, ce qui fait d’elle la première personne connue, homme ou femme, à avoir laissé une œuvre littéraire en son nom propre.
L’écriture cunéiforme existait déjà depuis le milieu du IVe millénaire avant notre ère. Elle était née comme un outil administratif, utile pour tenir des registres économiques, contrôler les impôts ou compter le bétail. Mais à l’époque d’Enheduanna, on commençait également à l’utiliser pour exprimer des idées religieuses, philosophiques et esthétiques. C’était un art sacré, associé à la déesse Nisaba, patronne des scribes, des céréales et du savoir.
Dans ce contexte, la figure de cette autrice est particulièrement révélatrice. Son œuvre associe une profonde dévotion religieuse à un message politique explicite. Sa poésie s’inscrit dans une stratégie impériale : légitimer la domination d’Akkad sur les cités sumériennes par l’usage d’un langage commun, d’une foi partagée et d’un discours théologique unifié.
Plusieurs compositions d’Enheduanna nous sont parvenues. Parmi les plus importantes figure L’Exaltation d’Inanna, un long hymne qui célèbre la déesse de l’amour et de la guerre, Inanna, et dans lequel l’autrice implore son aide durant une période d’exil. Ce texte est souvent considéré comme son œuvre la plus personnelle et la plus puissante.
On conserve également les Hymnes des temples, un ensemble de quarante-deux hymnes dédiés à différents temples et divinités de Sumer. À travers eux, Enheduanna compose une véritable cartographie spirituelle du territoire, mettant en valeur le lien étroit entre religion et pouvoir politique.
S’y ajoutent enfin d’autres hymnes fragmentaires, dont l’un est consacré à son dieu Nanna.
Ces exemples ne sont pas de simples textes religieux : ils sont construits avec une grande sophistication, chargés de symbolisme, d’émotion et d’une véritable vision politique. Enheduanna y apparaît comme une médiatrice entre les dieux et les humains, entre son père, l’empereur, et les cités conquises.
Il est surprenant qu’Enheduanna soit absente des manuels scolaires et de la plupart des cursus universitaires de littérature. En dehors des spécialistes de l’histoire ancienne ou des études de genre, son nom reste largement méconnu.
Il est légitime de se demander si l’oubli d’Enheduanna relève d’une invisibilisation systémique des femmes dans l’histoire culturelle. Comme le souligne l’historienne de l’art Ana Valtierra Lacalle, pendant des siècles, la présence de femmes scribes ou artistes dans l’Antiquité a été niée, malgré des preuves archéologiques attestant qu’elles savaient lire, écrire et administrer des ressources.
Enheduanna ne fut pas une exception isolée : son existence montre que les femmes ont participé activement au développement de la civilisation mésopotamienne, aussi bien dans la sphère religieuse qu’intellectuelle. Le fait qu’elle soit la première personne connue à avoir signé un texte de son propre nom devrait lui offrir une place de choix dans l’histoire de l’humanité.
Elle ne représente pas seulement un moment fondateur de l’histoire littéraire : elle incarne aussi, avec une force rare, la capacité des femmes à créer, penser et exercer une autorité dès l’aube de la culture écrite. Sa voix, gravée sur des tablettes d’argile, nous parvient intacte à travers les millénaires. Avec elle, l’histoire ne commence pas uniquement par des mots, mais par une voix singulière, une expérience vécue et une conscience aiguë du geste d’écrire – autant d’éléments qui méritent pleinement d’être reconnus.
On conserve également les Hymnes des temples, un ensemble de quarante-deux hymnes dédiés à différents temples et divinités de Sumer. À travers eux, Enheduanna compose une véritable cartographie spirituelle du territoire, mettant en valeur le lien étroit entre religion et pouvoir politique.
S’y ajoutent enfin d’autres hymnes fragmentaires, dont l’un est consacré à son dieu Nanna.
Ces exemples ne sont pas de simples textes religieux : ils sont construits avec une grande sophistication, chargés de symbolisme, d’émotion et d’une véritable vision politique. Enheduanna y apparaît comme une médiatrice entre les dieux et les humains, entre son père, l’empereur, et les cités conquises.
Il est surprenant qu’Enheduanna soit absente des manuels scolaires et de la plupart des cursus universitaires de littérature. En dehors des spécialistes de l’histoire ancienne ou des études de genre, son nom reste largement méconnu.
Il est légitime de se demander si l’oubli d’Enheduanna relève d’une invisibilisation systémique des femmes dans l’histoire culturelle. Comme le souligne l’historienne de l’art Ana Valtierra Lacalle, pendant des siècles, la présence de femmes scribes ou artistes dans l’Antiquité a été niée, malgré des preuves archéologiques attestant qu’elles savaient lire, écrire et administrer des ressources.
Enheduanna ne fut pas une exception isolée : son existence montre que les femmes ont participé activement au développement de la civilisation mésopotamienne, aussi bien dans la sphère religieuse qu’intellectuelle. Le fait qu’elle soit la première personne connue à avoir signé un texte de son propre nom devrait lui offrir une place de choix dans l’histoire de l’humanité.
Elle ne représente pas seulement un moment fondateur de l’histoire littéraire : elle incarne aussi, avec une force rare, la capacité des femmes à créer, penser et exercer une autorité dès l’aube de la culture écrite. Sa voix, gravée sur des tablettes d’argile, nous parvient intacte à travers les millénaires. Avec elle, l’histoire ne commence pas uniquement par des mots, mais par une voix singulière, une expérience vécue et une conscience aiguë du geste d’écrire – autant d’éléments qui méritent pleinement d’être reconnus.
Zaradat Domínguez Galván ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.