01.02.2026 à 13:51
Henry Maher, Lecturer in Politics, Department of Government and International Relations, University of Sydney
Alors que Donald Trump multiplie les attaques contre la Fed, le choix de Kevin Warsh peut être lu comme un signal paradoxal envoyé aux marchés : préserver, malgré tout, la crédibilité de la politique monétaire américaine dans un monde en recomposition.
Après des mois de spéculations, Donald Trump a confirmé qu’il nommerait Kevin Warsh au poste de prochain président de la Réserve fédérale. Cette nomination était très attendue dans le contexte du conflit persistant entre le président américain et la Fed, ainsi que de ses tensions avec l’actuel président de l’institution, Jerome Powell.
L’annonce a provoqué une réaction immédiate sur les marchés, avec un net décrochage de l’or et de l’argent. Après plusieurs mois de records et de valorisations étirées, les prix au comptant de l’or et de l’argent ont chuté respectivement de 9 % et de 28 %. Le marché boursier américain a également reculé, les principaux indices enregistrant tous des pertes modérées.
Mais dans le climat de défiance suscité par les tentatives d’ingérence de Donald Trump à l’égard de la Fed, ce décrochage des marchés peut, ironiquement, se lire comme un premier signal de confiance accordé à Kevin Warsh, semblant valider sa légitimité pour le poste et miser sur son indépendance future.
Pour saisir cette apparente contradiction, il faut la replacer dans le cadre du bras de fer de longue date entre Trump et la Réserve fédérale et prendre en compte le rôle crucial que joue l’indépendance des banques centrales dans l’architecture financière mondiale contemporaine.
L’année écoulée a été marquée par un affrontement sans précédent entre le président états-unien et la Réserve fédérale. Donal Trump avait lui-même nommé l’actuel président de la Fed, Jerome Powell, en 2017. Mais la relation s’est rapidement détériorée lorsque Powell n’a pas abaissé les taux d’intérêt aussi rapidement que Trump l’exigeait. Fidèle à son style outrancier, Donald Trump a depuis traité Powell de « clown » souffrant de « sérieux problèmes mentaux », ajoutant : « J’adorerais le virer ».
Cette guerre de mots a finalement glissé vers le terrain judiciaire. Le Department of Justice a annoncé l’ouverture d’une enquête visant la gouverneure de la Fed Lisa Cook, soupçonnée de fraude liée à d’anciens documents de prêts immobiliers. Puis, le mois dernier, dans une escalade spectaculaire, le ministère de la Justice a ouvert une enquête pénale retentissante contre Jerome Powell, portant sur des soupçons de dépenses excessives lors de la rénovation des bâtiments de la Réserve fédérale.
Les deux séries d’accusations sont largement considérées comme dénuées de fondement. Donald Trump a néanmoins tenté de s’appuyer sur cette enquête pour justifier le limogeage de Lisa Cook. L’affaire est actuellement examinée par la Cour suprême des États-Unis.
Jerome Powell a vivement répliqué à Trump, affirmant que ces menaces judiciaires étaient :
« la conséquence du fait que la Réserve fédérale fixe les taux d’intérêt sur la base de ce que nous estimons, en toute indépendance, être dans l’intérêt général, plutôt qu’en fonction des préférences du président ». Jerome Powell a reçu le soutien de 14 dirigeants de banques centrales à travers le monde, qui ont rappelé que « l’indépendance des banques centrales est un pilier de la stabilité des prix, financière et économique ».
Par le passé, les ingérences présidentielles dans les affaires de la Fed ont été l’un des facteurs majeurs de la crise de stagflation des années 1970. Plus récemment, l’Argentine et la Turquie ont toutes deux traversé de graves crises financières provoquées par des atteintes à l’indépendance de leurs banques centrales.
Kevin Warsh est un ancien banquier et ex-gouverneur de la Réserve fédérale. Il a également exercé les fonctions de conseiller économique auprès de deux présidents américains : George W. Bush et Donald Trump.
Dans un premier temps, le président américain semblait plutôt enclin à choisir l’actuel directeur du National Economic Council, Kevin Hassett. Mais ce dernier était largement perçu comme trop étroitement aligné sur Trump, ce qui a ravivé les craintes d’une remise en cause de l’indépendance de la Fed. Kevin Warsh présente un profil plus indépendant et bénéficie d’une réputation de « faucon » en matière de lutte contre l’inflation.
La Réserve fédérale est chargée de fixer les taux d’intérêt aux États-Unis. Schématiquement, des taux bas peuvent stimuler la croissance économique et l’emploi, mais au risque d’alimenter l’inflation. À l’inverse, des taux élevés permettent de contenir l’inflation, au prix d’un ralentissement de l’activité et d’une hausse du chômage.
Trouver le juste équilibre entre ces objectifs constitue le cœur de la mission de la Réserve fédérale. L’indépendance des banques centrales est cruciale pour que cet arbitrage délicat repose sur les meilleures données disponibles et sur les besoins de long terme de l’économie, plutôt que sur des objectifs politiques à court terme.
On qualifie de « faucon » anti-inflation un banquier central qui donne la priorité à la lutte contre la hausse des prix, par opposition à une « colombe », davantage encline à privilégier la croissance économique et l’emploi.
Lors de son précédent passage à la Réserve fédérale, Kevin Warsh s’est forgé une solide réputation de « faucon » en matière d’inflation. Même au lendemain de la crise financière mondiale de 2008, Warsh se montrait davantage préoccupé par les risques inflationnistes que par la situation de l’emploi.
Au regard des conflits passés entre Donald Trump et Jerome Powell autour de la baisse des taux d’intérêt, le choix de Warsh peut donc, à première vue, surprendre.
Plus récemment toutefois, Kevin Warsh a infléchi sa position, reprenant à son compte les critiques de Trump à l’égard de la Fed et ses appels à des taux d’intérêt plus bas, dans la lignée de tribunes dénonçant le pilotage actuel de l’institution. Reste à savoir si cet alignement perdurera, ou si ses réflexes de faucon reprendront le dessus, au risque de raviver à terme un nouveau conflit avec Trump.
Le décrochage de l’or et de l’argent, ainsi que le repli des marchés boursiers, suggèrent que les investisseurs jugent désormais des baisses de taux moins probables avec Kevin Warsh qu’avec d’autres candidats potentiels.
Les prix de l’or et de l’argent ont tendance à grimper en période d’instabilité ou lorsque les craintes d’inflation s’accentuent.
Les précédents records s’expliquaient par une combinaison de facteurs, parmi lesquels l’instabilité géopolitique, les inquiétudes autour de l’indépendance de la Fed et une dynamique spéculative marquée.
Le fait que l’annonce de la nomination de Warsh ait déclenché une correction sur les métaux précieux indique que les investisseurs anticipent une inflation plus faible et une plus grande stabilité financière. La hausse concomitante du dollar américain vient conforter cette lecture.
Ces dernières semaines ont été rythmées par de nombreux débats sur l’évolution de l’ordre mondial. Le Premier ministre canadien Mark Carney a ainsi récemment acté la fin de l’ordre international fondé sur des règles, appelant à s’affranchir de « l’hégémonie américaine ».
La domination mondiale du dollar américain demeure l’un des fondements centraux de cette puissance économique. Si Donald Trump reste ouvertement méfiant à l’égard de l’indépendance des banques centrales, le choix de Kevin Warsh laisse penser qu’il a conscience de l’enjeu que représente la crédibilité de la monnaie américaine et de la Réserve fédérale.
Rien ne garantit toutefois que cette lucidité suffira à contenir durablement son penchant pour l’ingérence dans la conduite de la politique monétaire.
Henry Maher ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
01.02.2026 à 10:19
Julien Lafaille, PhD student, Energy Management, GEM
Sur les routes européennes, les camions à hydrogène sont de plus en plus nombreux. Le développement de la filière est en effet généreusement subventionné. Mais si l’hydrogène vert est présenté comme une solution idéale de décarbonation du transport lourd routier, ce potentiel est largement exagéré.
Presque tous les secteurs industriels européens ont réussi à diminuer leurs émissions de gaz à effet de serre (GES) depuis 1990. Tous, sauf celui des transports, dont les émissions continuent de grimper, malgré l’objectif de neutralité carbone d’ici à 2050 fixé par la Commission européenne.
Le transport lourd routier, en particulier, est très difficile à décarboner. Pour y parvenir, trois leviers potentiels sont mobilisables : l’innovation technologique (dont les camions à batterie et à hydrogène, avec une pile à combustible à la place d’un moteur diesel), le transfert vers le rail ou le maritime, et une logistique plus efficace.
Ce sont les camions à pile à combustible (CPC) qui nous intéressent ici : leur intérêt réside principalement dans leurs avantages par rapport aux camions à batterie électrique. Ces derniers sont plus lourds, manquent encore d’autonomie et prennent longtemps à recharger.
Il existe deux types de CPC : les camions à hydrogène comprimé, qui ont une autonomie d’environ 400 kilomètres et sont déjà commercialisés, et ceux à hydrogène liquide, dont l’autonomie avoisine les 1000 kilomètres mais qui sont encore en développement. L’hydrogène qui les alimente peut être plus ou moins décarboné en fonction de la source d’énergie utilisée.
Nous considérons ici les CPC alimentés par de l’hydrogène vert, obtenu intégralement grâce à de l’électricité d’origine photovoltaïque et/ou éolienne. Les piles à combustible n’émettant que de la vapeur d’eau, la Commission européenne considère les CPC alimentés à l’hydrogène vert comme étant « zéro émission » et subventionne généreusement le développement des infrastructures nécessaires.
Mais la réalité est plus complexe, et ce choix d’investissement très questionnable.
De quoi est-il ici question ? L’hydrogène vert arrive jusque dans les stations-service à la suite d’une série d’opérations complexes et énergétiquement peu efficaces : électrolyse de l’eau, compression ou liquéfaction, et transport. La pile à combustible reconvertit ensuite dans le camion l’hydrogène en électricité, qui est alors transmise aux roues sous forme d’énergie cinétique.
La production d’hydrogène et son utilisation dans une pile à combustible ne produisent pas de CO2 directement. En revanche, il y a des émissions associées en amont, avec la compression-liquéfaction et le transport, des processus généralement réalisés avec des sources d’énergie carbonées. Ces émissions sont comptabilisées par la Commission européenne, qui considère que l’hydrogène reste vert (ou « renouvelable ») tant qu’il est décarboné à 70 % (ou plus) par rapport à l’hydrogène « gris » (issu du méthane). Dans ce cas, il peut être certifié « renouvelable », et les camions l’utilisant sont considérés « zéro émission ».
C’est la Commission européenne qui fixe ces règles et définit ce qui est qualifié de « renouvelable » et de « zéro émission », à l’aide de textes législatifs sous-tendus par une méthodologie complexe.
Dans cette méthodologie, la Commission européenne affirme notamment que l’électricité provenant de technologies photovoltaïques ou éoliennes est « zéro émission ».
En réalité, le système industriel mondial étant totalement dépendant des énergies fossiles, cette affirmation est fausse. Dans les panneaux solaires comme dans toutes les technologies dites vertes, l’extraction des matériaux nécessaires, les processus de fabrication, leur transport et leur installation impliquent des émissions de gaz à effet de serre considérables.
Qualifier leur production électrique de « zéro émission » peut parfois être une simplification acceptable, mais dans le cas de l’hydrogène vert, il s’agit d’une erreur méthodologique majeure.
En effet, la dette carbone initiale reste associée à la quantité d’énergie utile finale (celle qui fait tourner les roues), même si cette dernière est divisée par quatre environ par rapport à l’énergie en sortie de panneaux solaires ou d’éoliennes. Les émissions, par unité d’énergie utile finale, sont donc multipliées par quatre par rapport à l’énergie électrique initiale. Si l’on fait l’hypothèse que l’éolien et le photovoltaïque sont zéro carbone, on obtient effectivement zéro émissions pour les camions… mais cette hypothèse est fausse. Prendre pour base méthodologique une hypothèse zéro carbone erronée conduit donc à sous-estimer de façon conséquente les émissions associées à l’hydrogène vert.
Un autre problème de la méthodologie européenne est de ne considérer que l’intensité carbone du transport, c’est-à-dire les émissions par tonne-kilomètre (tkm) effectuée, c’est-à-dire au kilomètre pour une tonne de marchandise transportée. Le recours à l’hydrogène vert peut en théorie diminuer considérablement cette intensité, mais la croissance du nombre de tkm prévue en parallèle par la croissance du fret routier pourrait fortement réduire, voire annuler ces gains.
D’un côté, on verdit la tkm, de l’autre, le nombre de tkm augmente. Difficile d’évaluer les émissions totales du fret routier d’ici à 2050 dans ces conditions, mais il est fort probable qu’elles resteront loin du net zéro.
Pour éclaircir le débat, nous avons repris la méthodologie en tenant compte de ces éléments et de la croissance du fret routier anticipée : +50 % d’ici à 2050 par rapport à 2025.
Nous avons considéré ici deux cas de figure : l’une fondée sur de l’hydrogène vert importé du Maroc sous forme liquide, l’autre sur de l’hydrogène vert produit en Europe directement par les stations-service utilisant de l’électricité renouvelable. Les deux étant des voies d’approvisionnement en développement.
Pour résumer, ce qui dépasse la ligne rouge n’est pas aligné avec l’objectif de neutralité carbone européen. Nos résultats mettent en évidence que la méthodologie européenne doit être revue de fond en comble et que les camions à hydrogène vert ne nous aideront pas atteindre la neutralité carbone, et d’autant moins s’ils roulent à l’hydrogène liquide.
Dans ce contexte, les subventions étatiques considérables accordées à la filière sont un gâchis d’argent public et devraient être redirigées vers d’autres leviers plus plausibles : les camions à batterie et à caténaires, le rail, le maritime…
Ces options ont aussi des limites, et nos résultats indiquent que limiter la croissance (voire faire décroître) le secteur du fret routier rendrait sa décarbonation beaucoup plus aisée, quel que soit le levier d’action.
Julien Lafaille ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
01.02.2026 à 10:18
Arnaud Leveau, Docteur en science politique, professeur associé au Master Affaires internationales, Université Paris Dauphine – PSL
À l’approche des élections législatives de février 2026, la Thaïlande s’apprête à voter une nouvelle fois dans un cadre démocratique formellement respecté mais politiquement étroit. Derrière le rituel électoral, ce scrutin révèle surtout les limites structurelles d’un système où le changement reste soigneusement borné.
Le 8 février 2026, les Thaïlandais retourneront aux urnes à la suite de la dissolution anticipée du Parlement par le premier ministre sortant Anutin Charnvirakul. Cette décision, motivée par l’impossibilité de consolider une majorité stable et par la menace d’une motion de censure, s’inscrit dans une longue tradition politique nationale : lorsque l’équilibre parlementaire devient trop incertain, la dissolution apparaît comme un moyen de reprendre l’initiative, tout en renvoyant l’arbitrage formel aux électeurs.
La scène est désormais familière. Les campagnes électorales s’ouvrent dans un climat de relative normalité institutionnelle, avec leurs caravanes sillonnant les provinces, leurs promesses économiques diffusées massivement sur les réseaux sociaux et le retour de figures bien connues de la vie politique locale. Pourtant, derrière cette mécanique démocratique bien huilée, persiste une interrogation plus fondamentale : dans quelle mesure le vote peut-il réellement transformer le jeu politique thaïlandais, au-delà du simple renouvellement des équilibres partisans ?
La vie politique thaïlandaise repose sur une compétition partisane bien réelle, contrairement à l’image parfois caricaturale que l’on donne d’elle dans les médias occidentaux. Les élections sont régulières, pluralistes, relativement bien organisées, et la participation demeure élevée. Cependant, cette compétition s’exerce dans un espace strictement délimité, où certaines réformes et certains débats restent structurellement hors de portée.
Trois forces politiques dominent aujourd’hui le paysage. Le camp gouvernemental, emmené par Anutin Charnvirakul et son parti Bhumjaithai, incarne un conservatisme pragmatique. Plus gestionnaire que réformateur, Anutin se présente comme un homme de compromis, capable de maintenir la stabilité dans un environnement politique fragmenté. Sa stratégie repose sur la continuité des politiques publiques, notamment les programmes de soutien à la consommation et aux territoires, et sur une posture de fermeté mesurée sur les dossiers souverains, en particulier les questions frontalières.
Face à lui, le Parti du peuple (People Party), héritier légal du mouvement réformiste Move Forward, dissous par la Cour constitutionnelle en 2024, cristallise les aspirations d’une jeunesse urbaine, connectée et largement acquise aux idéaux d’une démocratie libérale plus transparente. En tête des sondages, très populaire dans les grandes villes et parmi les classes moyennes éduquées, il demeure toutefois structurellement empêché d’accéder au pouvoir. Son renoncement à la réforme de la loi de lèse-majesté, pourtant au cœur de son identité initiale, illustre les lignes rouges que toute force politique doit intégrer pour espérer survivre dans le système.
Le troisième pôle, le Pheu Thai, longtemps dominant, apparaît aujourd’hui affaibli. Historiquement associé au clan Shinawatra, il a bâti sa puissance sur une combinaison de politiques redistributives et de loyautés rurales. Mais cette formule semble désormais épuisée. Les alliances controversées avec des partis proches de l’armée, l’affaiblissement de ses figures historiques et la transformation sociologique de l’électorat ont érodé sa crédibilité. Son déclin symbolise la fin progressive d’un cycle populiste fondé sur la redistribution des rentes étatiques.
Ces équilibres partisans s’inscrivent dans un cadre institutionnel où plusieurs acteurs non élus continuent de peser lourdement sur le jeu politique. L’armée, bien qu’elle n’aspire plus nécessairement à gouverner directement comme par le passé, demeure un acteur central. Elle conserve une influence déterminante sur les questions de sécurité, de budget et de politique étrangère, et se pose en garante ultime de ce qu’elle considère comme les fondements de l’État.
La monarchie, quant à elle, reste le pilier symbolique et politique autour duquel s’organise l’ensemble de l’architecture institutionnelle. Au-delà de son rôle cérémoniel, elle incarne une source de légitimité qui structure profondément les limites du débat public. La loi de lèse-majesté constitue, à cet égard, un marqueur puissant de ce qui peut ou ne peut pas être discuté ouvertement dans l’espace politique.
Enfin, la justice constitutionnelle s’est imposée comme un acteur clé du système. Par ses décisions successives de dissolution de partis et de disqualification de dirigeants élus, elle a démontré sa capacité à arbitrer, voire à redéfinir, les rapports de force politiques. Cette jurisprudence interventionniste contribue à instaurer un climat d’incertitude permanente, où chaque victoire électorale reste conditionnelle, soumise à une validation institutionnelle ultérieure.
L’ensemble de ces mécanismes produit une démocratie fonctionnelle mais conditionnelle : les élections déterminent qui peut gouverner, mais rarement ce qui peut être réformé. Le résultat est une succession de scrutins sans rupture majeure, mais riches d’enseignements sur l’état des relations entre société, partis politiques et institutions.
Le contexte économique renforce ces contraintes politiques. Longtemps considérée comme l’une des économies les plus dynamiques d’Asie du Sud-Est, la Thaïlande affiche désormais une croissance atone, autour de 2 %, nettement inférieure à celle de ses voisins régionaux. La dette des ménages atteint des niveaux préoccupants, limitant la capacité de relance par la consommation, tandis que l’investissement privé peine à repartir.
Le secteur touristique, pilier traditionnel de l’économie nationale, montre également des signes d’essoufflement. Après le rebond post-pandémique, les arrivées de visiteurs internationaux ont marqué le pas, pénalisées par un baht relativement fort, une concurrence régionale accrue et des inquiétudes sécuritaires liées aux tensions frontalières. Les épisodes climatiques extrêmes, notamment les inondations de 2025, ont rappelé la vulnérabilité des infrastructures et renforcé les doutes des investisseurs.
Face à ces défis, les programmes économiques des partis apparaissent largement consensuels et peu différenciés. Tous promettent la transition verte, la numérisation de l’économie et l’innovation technologique. Mais rares sont ceux qui proposent des réformes structurelles ambitieuses, qu’il s’agisse de la remise en cause des oligopoles, de la réforme fiscale ou de la réduction des inégalités régionales. La politique économique thaïlandaise semble ainsi prisonnière d’un conservatisme prudent, qui privilégie la préservation des rentes existantes à la prise de risques politiques.
Les principales dynamiques de transformation se situent peut-être moins dans les partis que dans la société elle-même. La fracture générationnelle est l’un des traits saillants du paysage politique actuel. Une jeunesse urbaine, mondialisée et politisée remet en cause les hiérarchies traditionnelles, réclame davantage de transparence et s’informe massivement via les réseaux sociaux. À l’inverse, une Thaïlande rurale et périurbaine reste attachée à la stabilité, aux hiérarchies locales et aux réseaux clientélistes.
Toutefois, cette opposition binaire tend à s’estomper. Dans les provinces elles-mêmes, les systèmes de patronage traditionnels sont progressivement fragilisés par l’accès à l’éducation, la mobilité sociale et la circulation de l’information. Les grandes familles politiques locales, longtemps dominantes, doivent composer avec une nouvelle génération d’électeurs plus exigeants, moins enclins à voter par habitude ou par loyauté personnelle.
Ces évolutions sont lentes et souvent invisibles à court terme, mais elles s’accumulent. Elles expliquent en partie la résilience de la société civile thaïlandaise, capable de se mobiliser ponctuellement malgré les contraintes institutionnelles et les risques juridiques.
Dans ce contexte, les élections législatives de février 2026 ne devraient pas marquer une rupture politique majeure. Les scénarios possibles sont multiples, mais aucun ne promet de transformation radicale. Une reconduction du camp gouvernemental offrirait une stabilité relative à court terme, sans répondre aux tensions structurelles. Une percée du Parti du Peuple, même significative, se heurterait rapidement aux verrous institutionnels existants. Quant au Pheu Thai, son retour au pouvoir dépendrait de coalitions fragiles, au risque d’accentuer encore la défiance de son électorat.
Ces élections permettront en revanche de mesurer avec précision l’état des forces en présence, l’évolution des attentes sociales et la capacité du système à absorber les frustrations sans basculer dans une nouvelle crise ouverte. Elles constitueront moins un moment de rupture qu’un révélateur des ajustements en cours.
Dans un pays où la politique s’inscrit dans le temps long, chaque scrutin compte moins comme une fin que comme un jalon. La Thaïlande continue d’évoluer à son propre rythme, entre aspirations démocratiques et contraintes institutionnelles, dans une recherche permanente d’équilibre entre autorité, stabilité et souveraineté populaire. Pour l’observateur extérieur, la leçon est peut-être celle de la patience : derrière l’apparente immobilité du système, des transformations lentes mais réelles sont à l’œuvre, appelées à redéfinir, à terme, les contours du jeu politique thaïlandais.
Si les élections thaïlandaises de février 2026 sont avant tout structurées par des dynamiques internes, elles s’inscrivent aussi dans un environnement régional et international de plus en plus contraignant. La Thaïlande n’évolue pas en vase clos : sa trajectoire politique est étroitement liée aux recompositions en cours en Asie du Sud-Est continentale, aux tensions récurrentes avec ses voisins immédiats et aux rivalités stratégiques entre grandes puissances.
La relation avec le Cambodge constitue à cet égard un révélateur. Les tensions frontalières de 2025, ravivées autour de sites patrimoniaux sensibles et de zones frontalières contestées, ont rappelé combien ces différends restent mobilisables à des fins de politique intérieure, des deux côtés de la frontière. À Bangkok, une posture de fermeté face à Phnom Penh peut servir de levier électoral, en particulier dans un contexte de fragmentation politique et de compétition entre partis conservateurs. Sur ce sujet, les partis conservateurs et le Pheu Thai sont sur la même ligne. Le leader du People Party (réformateur) a également soutenu une ligne par rapport au Cambodge recommandant que les avions de combat Gripen, de fabrication suédoise, dont l’armée thaïlandaise dispose, soient utilisés contre les positions cambodgiennes.
Mais ces tensions ont aussi une portée régionale : elles fragilisent les chaînes économiques transfrontalières, accentuent les déplacements de population et mettent en lumière l’incapacité de l’Association des nations de l’Asie du Sud-Est (Asean) à prévenir ou contenir efficacement les crises entre États membres.
Cette relative impuissance de l’Asean ouvre un espace croissant aux puissances extérieures. La Chine y occupe désormais une place centrale. Premier partenaire commercial de la Thaïlande, acteur clé des infrastructures régionales et garant de facto de la stabilité des corridors continentaux reliant le sud de la Chine au golfe de Thaïlande, Pékin dispose de leviers économiques et politiques que ni Washington ni Bruxelles ne peuvent égaler à court terme. Pour Bangkok, le rapprochement avec la Chine relève moins d’un alignement idéologique que d’un pragmatisme stratégique : sécuriser les investissements, maintenir la croissance et s’assurer d’un environnement régional stable.
Les États-Unis, pour leur part, restent un allié militaire historique, mais leur influence apparaît de plus en plus sectorielle. La coopération de défense demeure robuste, notamment à travers les exercices conjoints et les ventes d’équipements, mais elle pèse moins sur les choix économiques et sociétaux du pays. Cette dissociation croissante entre sécurité et prospérité nourrit une diplomatie thaïlandaise d’équilibriste, cherchant à préserver l’alliance américaine tout en approfondissant des liens structurants avec la Chine.
Quant à l’Union européenne, elle occupe en Thaïlande un rôle principalement économique et normatif, articulé essentiellement pour le moment autour de la négociation de l’accord de libre-échange UE–Thaïlande. Son une influence politique et sécuritaire directe reste relativement limitée.
Dans ce contexte, les élections de 2026 auront aussi valeur de signal à l’extérieur. Elles diront jusqu’où la Thaïlande souhaite aller dans sa stratégie de balancement, si elle entend consolider son rôle de pivot en Asie du Sud-Est continentale, ou accepter une dépendance plus marquée à l’égard d’arbitrages venus d’ailleurs. Plus qu’un simple rendez-vous électoral, ce scrutin s’inscrit dans un moment charnière, à l’intersection de dynamiques locales, régionales et globales, qui redessinent progressivement la place du pays dans l’Asie du Sud-Est contemporaine ainsi que dans l’Asean.
Arnaud Leveau ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
01.02.2026 à 10:17
Grégory Bataillou, Ingénieur Recherche en bio-électrochimie, Centrale Lyon
Le traitement des eaux usées est essentiel pour éviter la pollution de l’environnement et ses impacts potentiels sur la santé humaine. Différentes pistes existent pour rendre les stations d’épuration plus efficientes, et donc réduire le prix de l’eau.
En France, le coût du traitement de l’eau (ou « assainissement collectif ») représente 40 % de son prix de vente. Un ménage paie en moyenne 260 euros par an juste pour l’assainissement… dont plus de 35 euros directement imputable à la consommation d’énergie des stations d’épuration.
Au vu de la volatilité du prix de l’énergie, de nouvelles solutions émergent pour réduire drastiquement la consommation énergétique des stations de traitement. Des solutions qui utilisent des bactéries électriques !
Les technologies d’épuration des eaux usées sont connues de longue date et très matures. Leur principe est relativement simple : il s’agit de soustraire (ou mieux, d’éliminer) les polluants de l’eau, du plus gros au plus petit. Dans ces étapes, celle dite d’aération est une étape clef… mais c’est également la principale consommatrice d’énergie !
Le processus commence en général par des grilles et tamis permettant de retirer la fraction solide volumineuse (branches, détritus, cailloux…) présente les eaux usées à l’entrée de la station.
Vient alors l’étape de séparation du sable (grosses particules) qui décante assez facilement au fond du bassin de traitement, et des huiles moins denses que l’eau, récupérées à la surface.
Les particules plus légères sont encore trop nombreuses et trop lentes à décanter au fond du bassin – certaines peuvent mettre des mois à décanter ! Des lamelles insérées en biais permettent de les rapprocher du fond du bassin, et de diminuer ainsi leur temps de décantation. Des produits chimiques sont également ajoutés (floculants) pour agréger les particules entre elles et les rendre plus lourdes. On parle de traitement primaire.
Ensuite, le bassin d’aération constitue le cœur de la station de traitement. Il s’agit tout simplement d’aérer l’eau en permanence pendant un certain temps grâce à des bulleurs au fond du bassin. Cette aération permet à des microorganismes de se développer et de décomposer toute la matière organique encore présente. Sans cette aération, les microorganismes efficaces ne se développent plus, l’eau croupit, et la matière organique se dégrade peu (pensez à l’eau des tourbières, ou simplement celle des flaques d’eau qui ne sont jamais remuées). L’aération est le principal poste de consommation de la station, responsable de 40 à 80 % de l’énergie utilisée. Cette énergie est nécessaire au fonctionnement des pompes et surpresseurs employés pour injecter de l’air en continu dans le bassin. On parle de traitement secondaire.
Dans la plupart des stations d’épuration existantes, à la suite du traitement biologique par aération, l’eau passe de nouveau dans un bassin de décantation (décantation secondaire ou clarificateur) pour faire sédimenter les milliards de bactéries mortes.
Enfin, l’eau est rejetée dans la nature.
Il existe donc un enjeu important dans le monde de l’assainissement : comment limiter la consommation d’énergie liée à l’aération, tout en traitant aussi bien les eaux usées et sans faire exploser les coûts ?
Car si l’aération fonctionne aussi bien, c’est parce qu’elle permet une oxygénation de l’eau, et que les microorganismes qui se développent dans les milieux oxygénés sont très efficaces pour dégrader la matière organique.
En effet, l’oxygène est un élément naturellement oxydant, c’est-à-dire qu’il est avide d’électrons. À l’inverse, la matière organique est riche en électrons du fait de son important nombre de liaisons Carbone. La présence d’oxygène facilite la rupture des liaisons Carbone, les électrons libérés étant transférés vers l’oxygène. Ce transfert est naturellement lent (heureusement, sinon, nous brûlerions instantanément), mais il est accéléré par la présence des bactéries, véritables usines de décomposition). C’est bien ce qui est souhaité dans cette étape : casser les chaînes de carbone jusqu’à obtenir des éléments simples, non assimilables par des bactéries pathogènes en aval dans les cours d’eau.
Si l’on décide de se passer d’aération, l’oxygène devient difficilement accessible, et la dégradation peu efficace. Sauf si on utilise des microorganismes un peu spéciaux.
Par exemple, à Villeurbanne (Rhône), une station d’épuration utilise des microorganismes capables de digérer les boues des stations d’épuration et de fabriquer du méthane, qui est injecté dans le réseau de gaz de ville.
Dans notre groupe de recherche, nous explorons une autre piste : celle des bactéries électriques !
Dès le début des années 2000, les chercheurs ont redécouvert des bactéries « électriques ». Ces bactéries, telles des araignées dans le monde microscopique, ont la capacité de fabriquer des fils de taille nanométrique, qui ont la curieuse propriété d’être conducteurs électriques. Nul besoin d’oxygène en leur sein : il suffit de se connecter à un oxydant externe, qui peut être plus loin. Imaginez-vous être capable de respirer grâce à un fil dont un bout reste exposé à l’air libre, peu importe l’endroit dans lequel vous vous trouvez.
Pour en revenir au traitement de l’eau, voici l’idée : plutôt que d’amener l’oxygène aux bactéries par l’aération, les bactéries électriques présentes dans tout le bassin se connectent à un matériau conducteur présent sur toute la colonne d’eau et s’y développent. Ainsi, les bactéries sont connectées à l’oxygène de la surface. Pour cela, l’eau transite dans des structures en carbone conducteur appelées « biofiltres électro-actifs », sur lesquelles se développent les bactéries électriques. Plus besoin d’aérer : si un chemin électrique existe entre la bactérie et l’air ambiant, elle dégradera presque aussi bien la matière organique l’environnant.
L’avantage est considérable : une fois installé, le système est passif, nécessite un faible entretien, et régénérable à l’infini. Ces systèmes sont déjà proposés à la vente pour les petites stations de traitement, notamment par la start-up espagnole METfilter.
Cerise sur le gâteau : ces bactéries « électriques » existent spontanément dans l’environnement, elles n’ont pas à être artificiellement ajoutées au système et sont sélectionnées naturellement par la présence du matériau carboné.
Si cette piste nous semble prometteuse pour diminuer la facture d’électricité des stations d’épuration, ces bactéries ne dégradent pas tout : résidus de médicaments, PFAS, et autres substances résiduelles dans notre eau traversent encore les stations de traitement, et se retrouvent disséminées dans l’environnement. Les solutions techniques étant encore très énergivores, chaque économie d’énergie sur l’ensemble de la chaîne est un pas vers un traitement plus vertueux de nos eaux usées.
Le projet IRONTECH est soutenu par l’Agence nationale de la recherche (ANR) qui finance en France la recherche sur projets. L’ANR a pour mission de soutenir et de promouvoir le développement de recherches fondamentales et finalisées dans toutes les disciplines, et de renforcer le dialogue entre science et société. Pour en savoir plus, consultez le site de l’ANR.
Grégory Bataillou a travaillé comme Post-Doctorant sur le financement ANR appelé IRONTECH qui vise à utiliser du Fer et des bactéries actives pour dénitrifier les effluents agro-industriels.
01.02.2026 à 10:14
Jay Silverstein, Senior Lecturer in the Department of Chemistry and Forensics, Nottingham Trent University

La chute des Aztèques rappelle qu’un pouvoir fondé sur la force accumule des ennemis plus vite qu’il ne consolide des alliances. Une dynamique ancienne, aux résonances très contemporaines.
En 1520, des émissaires aztèques arrivèrent à Tzintzuntzan, la capitale du royaume tarasque, dans l’actuel État mexicain du Michoacán. Ils apportaient un avertissement de l’empereur aztèque Cuauhtémoc, mettant en garde contre l’arrivée d’étrangers étranges — les Espagnols — qui avaient envahi le territoire et représentaient une grave menace. Les émissaires demandèrent une audience auprès du souverain tarasque, le « Cazonci », le roi Zuanga. Mais Zuanga venait de mourir, très probablement de la variole apportée par les Espagnols.
Les relations entre les deux empires étaient tendues de longue date. Ils s’étaient affrontés sur la frontière occidentale dès 1476, livrant de grandes batailles et fortifiant leurs frontières. Les Tarasques disaient des Aztèques qu'ils étaient fourbes et dangereux — une menace pour leur existence même.
Ainsi, lorsque ces émissaires arrivèrent pour s’adresser à un roi déjà mort, ils furent sacrifiés et n'obtinrent audience avec lui que dans l’au-delà. À cet instant précis, le destin des Aztèques était scellé dans le sang.
L’empire aztèque ne s’est pas effondré faute de moyens. Il s’est écroulé parce qu’il avait accumulé trop d’adversaires, exaspérés par sa domination. C’est un épisode historique auquel le président américain, Donald Trump, devrait prêter attention, alors que sa rupture avec les alliés traditionnels des États-Unis se creuse.
Carl von Clausewitz et d’autres philosophes de la guerre ont exposé la différence entre force et puissance dans la conduite des affaires de l’État. Au sens le plus large, la puissance est un capital idéologique, fondé sur la force militaire et l’influence dans la sphère politique mondiale. À l’inverse, la force désigne l’usage de la puissance militaire pour contraindre d’autres nations à se plier à sa volonté politique.
Alors que la puissance peut se maintenir grâce à une économie solide, des alliances et une influence morale, la force, elle, s’épuise. Elle consomme des ressources et risque d’affaiblir à la fois le capital politique interne et l’influence mondiale qu'a un pays si son usage est perçu comme arrogant ou impérialiste.
L’empire aztèque s’est formé en 1428 sous la forme d’une triple alliance entre les cités-États de Tenochtitlan, Texcoco et Tlacopan, Tenochtitlan finissant par dominer l’ensemble. L’empire exerçait la force par des campagnes militaires saisonnières, tout en l’équilibrant par une dynamique de puissance fondée sur la mise en scène sacrificielle, la menace, le tribut et une culture de supériorité raciale.
Dans son usage à la fois de la force et de la puissance, l’empire aztèque était coercitif et reposait sur la peur pour gouverner. Les populations soumises à l’empire, comme celles engagées dans ce qui semblait être une guerre permanente, nourrissaient une profonde animosité et une forte défiance à l’égard des Aztèques. L’empire s’était ainsi construit sur des peuples conquis et des ennemis attendant la bonne occasion de renverser leurs maîtres.
Hernán Cortés, le conquistador espagnol qui finit par placer de vastes territoires de l’actuel Mexique sous la domination de l’Espagne, sut exploiter cette hostilité. Il noua des alliances avec Tlaxcala et d’autres anciens sujets des Aztèques, renforçant sa petite force espagnole par des milliers de guerriers autochtones.
Cortés mena cette force hispano-autochtone contre les Aztèques et les assiégea à Tenochtitlan. Les Aztèques n’avaient plus qu’un seul espoir : convaincre l’autre grande puissance du Mexique, l’empire tarasque à l’ouest, de s’allier à eux. Leurs premiers émissaires connurent un sort funeste. Ils tentèrent donc à nouveau leur chance.
En 1521, des envoyés aztèques arrivèrent une fois encore à Tzintzuntzan et rencontrèrent cette fois le nouveau seigneur, Tangáxuan II. Ils apportaient des armes en acier capturées à l'ennemi, une arbalète et une armure afin de démontrer la menace militaire à laquelle ils faisaient face.
Le roi tarasque prêta cette fois attention à l’avertissement. Il envoya une mission exploratoire à la frontière afin de déterminer s’il s’agissait d’une ruse aztèque ou de la vérité. À leur arrivée sur la frontière, les émissaires rencontrèrent un groupe de Chichimèques — un peuple de guerriers semi-nomades qui travaillaient souvent pour les empires afin de surveiller les frontières.
Lorsqu’on leur expliqua que la mission se rendait à Tenochtitlan pour évaluer la situation, les Chichimèques répondirent qu’il était trop tard. La ville n’était plus désormais qu’un lieu de mort, et eux-mêmes se rendaient auprès du roi tarasque pour offrir leurs services. Tangáxuan se soumit aux Espagnols l’année suivante en tant que royaume tributaire, avant d’être brûlé vif en 1530 par des Espagnols cherchant à savoir où il avait dissimulé de l’or.
Si les Tarasques avaient entretenu des relations politiques normales avec les Aztèques, ils auraient pu enquêter sur le message des premiers émissaires. On peut imaginer combien l’histoire aurait été différente si, lors du siège de Tenochtitlan, 40 000 guerriers tarasques — réputés bons archers — étaient descendus des montagnes de l’ouest. Il est peu probable que Cortés et son armée aient alors pu l’emporter.
Les échecs de l’empire aztèque ne relevaient ni d’un déficit de courage ni d’une infériorité sur le plan militaire. Lors de leurs combats contre les Espagnols, les Aztèques ont à maintes reprises fait preuve d’adaptabilité, apprenant à affronter les chevaux et les navires armés de canons. L’échec résidait dans une faille fondamentale de la stratégie politique de l’empire — celui-ci reposait sur la coercition et la peur, laissant ainsi en réserve une force prête à contester son autorité au moment où il était le plus vulnérable.
Depuis 2025 et le retour de Trump à la Maison-Blanche pour un second mandat, la politique étrangère américaine s’inscrit dans cette logique. L’administration Trump a récemment mis en avant une puissance coercitive au service d’ambitions mêlant richesse, visibilité et affirmation de l’exceptionnalisme américain ainsi que d’une supériorité affichée.
Cette orientation s’est manifestée par des menaces ou par un recours ponctuel à la force, notamment à travers des droits de douane ou des opérations militaires en Iran, en Syrie, au Nigeria et au Venezuela. Mais cette stratégie est de plus en plus contestée par d’autres États. La Colombie, le Panama, le Mexique ou encore le Canada ont, par exemple, largement fait fi de ces menaces coercitives.
À mesure que Trump utilise la puissance américaine pour revendiquer le Groenland, ses menaces gagnent en faiblesse. Les pays de l’Otan respectent leur pacte de longue date avec détermination économique et militaire, leurs dirigeants affirmant qu’ils ne céderont pas aux pressions de Trump. Les États-Unis se retrouvent ainsi poussés vers une position où ils pourraient devoir passer de la puissance coercitive à la force coercitive.
Si cette trajectoire se poursuit, les engagements militaires, l’hostilité des voisins et les vulnérabilités liées à la montée en puissance d’autres armées, aux perturbations économiques et aux catastrophes environnementales pourraient bien laisser la nation la plus puissante du monde exposée, sans alliés.
Alors que Trump mobilise la puissance américaine pour revendiquer le Groenland, ses menaces apparaissent de moins en moins crédibles. Les États membres de l’Otan respectent leur accord de longue date avec une détermination économique et militaire affirmée, leurs dirigeants déclarant qu’ils ne plieront pas face aux pressions de Trump. Les États-Unis se rapprochent ainsi d’un point où la coercition politique pourrait laisser place à la coercition militaire.
Si cette voie est maintenue, les conflits armés, l’hostilité régionale et les fragilités liées aux capacités accrues d’autres puissances militaires, aux déséquilibres économiques et aux catastrophes environnementales pourraient laisser la première puissance mondiale isolée.
Jay Silverstein a reçu des financements de l'US National Science Foundation (NSF), de la Foundation for the Advancment of Mesoamerican Studies (FAMSI), de de la Penn State Hill Foundation dans le cadre de ses études doctorales.
01.02.2026 à 07:58
Hyounjeong Yoo, Instructor, School of Linguistics and Language Studies, Carleton University

Succès critique et populaire, « KPop Demon Hunters » s’inscrit dans l’essor mondial de la Hallyu, la « vague coréenne ». Le film met en lumière le rôle central des femmes et du folklore coréen dans une culture longtemps reléguée aux marges du récit occidental.
Quand j’étais enfant en Corée du Sud, le Nouvel An commençait souvent par une chanson bien connue : « Kkachi Kkachi Seollal ». Seollal désigne le Nouvel An lunaire, l’une des fêtes familiales les plus importantes en Corée, et kkachi signifie « pie », un oiseau associé à la chance et aux nouveaux départs heureux.
En chantant cette chanson, pensions-nous, nous invitions des visiteurs bienveillants à entrer dans la maison. Pour mes frères et sœurs et moi, ces visiteurs étaient le plus souvent nos grands-parents, et leur arrivée était synonyme de chaleur, de continuité et de sentiment d’appartenance à une même communauté.
Des décennies plus tard, je vis aujourd’hui au Canada, où l’éloignement rend ces visites venues de mon pays d’origine rares. Et pourtant, c’est comme si la pie était revenue — cette fois, sur un écran mondial.
Des décennies ont passé,je vis désormais au Canada, loin de mon pays d’origine, et ces visites sont devenues rares. Pourtant, j’ai l’impression que la pie est revenue, cette fois sur un écran vu partout dans le monde.
Le film d’animation de Netflix KPop Demon Hunters suit les aventures d’un groupe fictif de K-pop, Huntrix, dont les membres chassent des démons la nuit. Il vient d’obtenir une nomination aux Oscars, dans les catégories meilleur film d’animation et meilleure chanson originale, après avoir déjà remporté plusieurs Golden Globes.
Le film a été créé par la réalisatrice coréano-canadienne Maggie Kang. La production musicale est assurée par Teddy Park, et les voix sont celles d’acteurs et d’actrices américano-coréens, dont Arden Cho, Ji-young Yoo et Audrey Nuna.
Je m’intéresse à la façon dont KPop Demon Hunters ouvre une nouvelle phase de la Hallyu, la « vague coréenne », où le folklore et le travail musical des femmes se croisent pour bousculer la place longtemps marginale des récits asiatiques dans les médias occidentaux.
L’un des aspects les plus marquants du film est l’usage assumé de symboles coréens. Les chasseuses de démons portent des gat — des chapeaux traditionnels en crin de cheval associés aux lettrés sous la dynastie Joseon — et combattent les esprits maléfiques aux côtés du tigre, longtemps considéré comme un esprit protecteur de la Corée. Ces éléments marquent une prise de position culturelle.
Historiquement, le cinéma et l’animation occidentaux ont souvent cantonné les personnages asiatiques à des stéréotypes ou les ont purement et simplement effacés par des pratiques de whitewashing.
À l’inverse, KPop Demon Hunters place le folklore coréen au cœur de son récit. Le gat évoque la dignité et la discipline ; le tigre incarne la protection et la résilience. Ensemble, ils viennent contester l’idée persistante selon laquelle les productions grand public portées par des personnages asiatiques seraient nécessairement de niche ou de moindre valeur.
En recourant à des références clairement coréennes — comme le style satirique de la peinture minhwa incarné par le tigre Derpy — le film s’ancre fermement dans un contexte coréen bien précis, qui n'a rien à voir avec une esthétique panasiatique vague.
L’un des moments forts du film se trouve dans la séquence d’ouverture. À travers une succession rapide de figures chamaniques, de flappers et d’artistes de l’ère disco, la séquence peut se lire comme un hommage matrilinéaire aux musiciennes coréennes, de génération en génération.
Comme le souligne l’autrice Iris (Yi Youn) Kim, en s’appuyant sur une conférence de la chercheuse en études asiatico-américaines Elaine Andres, cette lignée fait écho à l’histoire bien réelle des Kim Sisters, souvent présentées comme le premier groupe féminin coréen à connaître un succès international. Après la mort de leur père pendant la guerre de Corée, les sœurs furent formées par leur mère, la célèbre chanteuse Lee Nan-young — connue notamment pour la chanson anticoloniale « Tears of Mokpo » — et se produisirent sur les bases militaires américaines pour gagner leur vie.
Les Kim Sisters sont ensuite devenues des habituées de l’émission The Ed Sullivan Show, séduisant le public américain tout en composant avec des attentes racistes qui cantonnaient les femmes asiatiques à des figures jugées accessibles, inoffensives et exotiques.
Le groupe fictif Huntrix s’inscrit dans cet héritage. À l’image des Kim Sisters, ses membres sont censées incarner la discipline, le professionnalisme et la Corée elle-même aux yeux du public.
Le film montre ainsi le groupe face à la discipline rigoureuse qui leur est imposée, contraintes de maintenir une image publique irréprochable tout en étouffant leurs vulnérabilités personnelles afin d’assumer leur double rôle d’idoles et de protectrices. À un niveau méta-narratif, Huntrix est également présenté comme un représentant de la Corée du Sud, à travers l’usage de symboles du folklore du pays comme le gat et le tigre.
En tant qu’« ambassadrices culturelles », à l’écran comme en dehors, les membres de Huntrix ne se contentent pas de divertir : elles assument aussi la charge symbolique de représenter une nation face à un public mondial.
En inscrivant cette filiation dans un film d’animation grand public, KPop Demon Hunters reconnaît que le succès mondial de la K-pop repose sur des décennies de travail, de sacrifices et de négociations menées par des femmes face aux structures de pouvoir occidentales.
Le succès du film s’inscrit dans la poursuite de l’expansion de la Hallyu dans les médias mondiaux. Le cinéma et les séries sud-coréens ont déjà transformé les perceptions à l’international, avec des œuvres majeures comme Parasite et des séries diffusées à l’échelle mondiale comme Squid Game. Netflix s’est en outre engagé publiquement à investir des centaines de millions de dollars dans les contenus coréens, signe que cette dynamique culturelle est structurelle plutôt que passagère.
KPop Demon Hunters montre comment la culture populaire coréenne circule désormais avec fluidité entre différents médias — musique, animation, cinéma et plateformes de streaming — tout en conservant une forte spécificité culturelle. L’accueil du film remet en cause l’idée tenace selon laquelle les récits ancrés dans des expériences asiatiques manqueraient de portée universelle.
La reconnaissance, à elle seule, ne suffit pas à effacer les inégalités, pas plus qu’elle ne démantèle les hiérarchies racialisées à l’œuvre dans les industries médiatiques mondiales. Mais une visibilité durable peut faire la différence. Des travaux montrent qu’une exposition répétée à des représentations multidimensionnelles et humanisées de groupes marginalisés contribue à réduire les biais raciaux, en normalisant la différence plutôt qu’en l’exotisant.
Si le film s’inscrit dans des histoires culturelles marquées par la présence militaire américaine et la politique de la guerre froide, il reconfigure ces héritages à travers un récit diasporique qui place les voix et les points de vue coréens au centre.
La promesse de la pie est enfin tenue. Les personnages coréens ne sont plus de simples « invités » ni des figures secondaires dans l’histoire des autres. Ils sont désormais les protagonistes — tenant l’épée, le micro et, peut-être un jour, un Oscar.
Récemment, je me suis surprise à revoir KPop Demon Hunters en mangeant du gimbap et des nouilles instantanées, les mêmes plats réconfortants que partagent les personnages à l’écran. Le moment était simple, mais chargé de sens.
Il m’a rappelé une remarque faite un jour par l’un de mes étudiants : une exposition de cette ampleur permet à celles et ceux qui se sont longtemps sentis blessés par l’exclusion de se sentir enfin regardés.
Hyounjeong Yoo ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
31.01.2026 à 16:40
Arnaud Alessandrin, Sociologue, Université de Bordeaux
Taylor Swift est aujourd’hui bien plus qu’une star de la pop. Artiste parmi les plus écoutées au monde, elle cristallise des passions, des controverses et des formes d’identification particulièrement intenses. Mais que dit réellement Taylor Swift du monde social ? Et surtout, que disent ses fans de nos sociétés contemporaines ?
À partir d’une enquête sociologique menée auprès de plus de 1 000 fans en France, je propose de déplacer le regard : il ne s’agit pas d’analyser uniquement l’artiste, mais de comprendre ce que son œuvre et sa figure produisent socialement. Qui sont les Swifties (les fans de la chanteuse) ? Comment se rencontrent-ils ? En quoi Taylor Swift accompagne-t-elle les trajectoires de vie ? Et que révèle son succès des attentes politiques, féministes ou morales de ses publics ? C’est ce qu’explore mon essai, Sociologie de Taylor Swift, qui vient de paraître.
Loin des clichés sur un fandom adolescent et irrationnel, l’analyse met en évidence des pratiques culturelles structurées, genrées, durables et socialement situées. À travers Taylor Swift, c’est toute une sociologie des émotions, des identités et des engagements contemporains qui se donne à voir.
Contrairement aux représentations médiatiques qui réduisent souvent les fans de Taylor Swift à des adolescentes exaltées, l’enquête montre une réalité bien plus nuancée. Du point de vue de l’âge, les Swifties qui ont répondu à mon enquête se situent majoritairement dans le jeune âge adulte : près de la moitié ont entre 18 et 34 ans, mais plus d’un tiers ont plus de 35 ans, attestant d’un attachement durable à l’artiste bien au-delà de l’adolescence.
Le genre constitue un marqueur central de ce fandom (de ce groupe de fans). Les femmes représentent près de 80 % des personnes interrogées tandis que les hommes restent minoritaires. L’enquête met aussi en évidence une présence significative de personnes non binaires ou transgenres, proportionnellement bien plus élevée que dans la population générale (5 %). L’identité sexuelle apparaît également comme un facteur structurant de la fanité : plus d’un quart des fans ayant participé à l’enquête se déclarent lesbiennes, gays, bisexuel·les ou queer. Ces chiffres confirment que l’univers de Taylor Swift constitue un espace d’identification particulièrement fort pour les minorités sexuelles et de genre (on nomme le fandom gay de Taylor le « Gaylord ».
Aimer Taylor Swift ne relève donc pas d’un simple goût musical, mais d’une pratique culturelle située, marquée par des expériences sociales, genrées et biographiques spécifiques.
Être fan de Taylor Swift, ce n’est pas seulement écouter de la musique : c’est aussi créer du lien. L’enquête montre que la communauté Swiftie fonctionne comme un véritable espace de sociabilité. Plus de 60 % des répondantes et répondants déclarent avoir noué des amitiés grâce à leur intérêt commun pour Taylor Swift, que ce soit en ligne, lors de concerts ou dans des contextes du quotidien.
Ces rencontres prennent des formes multiples : échanges sur les réseaux sociaux, discussions autour des paroles, participation à des événements collectifs ou rituels devenus emblématiques, comme l’échange de bracelets d’amitié. Les liens décrits sont souvent durables et émotionnellement investis, dépassant le simple cadre du fandom.
Cette sociabilité repose sur une grammaire affective partagée. Les chansons servent de supports à la discussion, à la confidence et parfois à l’entraide. Loin d’un fandom nécessairement conflictuel ou « toxique », les Swifties qui ont participé à l’enquête évoquent majoritairement des normes de bienveillance et de soutien mutuel, souvent attribuées à l’image publique et aux discours portés par l’artiste elle-même.
La relation des fans à Taylor Swift s’inscrit dans le temps long. Plus de la moitié des personnes interrogées se déclarent fans depuis plus de dix ans, et une part importante explique avoir découvert l’artiste à l’adolescence. Cette ancienneté témoigne d’une fidélité rare dans les industries culturelles contemporaines.
Taylor Swift n’est pas seulement écoutée : elle accompagne les parcours de vie. Près de 70 % des fans déclarent que l’artiste occupe une place « importante » ou « très importante » dans leur vie. Pour beaucoup, ses chansons sont associées à des moments clés : ruptures amoureuses, amitiés, périodes de doute, maladies, transitions identitaires ou professionnelles.
Cette centralité s’explique par l’écriture intime et narrative de Taylor Swift, qui permet aux fans de projeter leurs propres expériences dans ses chansons. Le fandom fonctionne ainsi comme une ressource biographique : aimer Taylor Swift, c’est disposer d’un répertoire émotionnel et symbolique pour se raconter et traverser les épreuves du quotidien.
Mais pour comprendre les fans de Taylor, on pourra aussi interroger les liens entre ce fandom et valeurs politiques. Les données montrent que les fans de Taylor Swift se situent majoritairement du côté de valeurs progressistes, qu’elles soient environnementales ou féministes. Une large majorité se déclare favorable à l’égalité femmes-hommes, aux droits des personnes LGBTQIA+ et à la lutte contre les discriminations (entre 70 et 80 %).
Ces valeurs influencent directement les attentes vis-à-vis de l’artiste. Près de deux tiers des personnes interrogées estiment que Taylor Swift devrait prendre position publiquement sur certaines causes, notamment féministes ou sociales, même si une minorité défend son droit à la neutralité.
Taylor Swift apparaît ainsi comme une figure politique paradoxale : ni militante au sens classique, ni totalement neutre. Son engagement est perçu comme mesuré, parfois stratégique, mais néanmoins porteur d’effets symboliques forts. L’enquête montre que les fans ne sont pas passifs : ils discutent, critiquent et évaluent les prises de position de l’artiste à l’aune de leurs propres valeurs, révélant la politisation croissante de la culture populaire.
Au terme de cette enquête, une chose apparaît clairement : Taylor Swift elle est un fait social. Son œuvre, ses prises de parole et la communauté qu’elle fédère révèlent des transformations profondes de nos rapports à la culture, à l’intimité et au politique. Étudier Taylor Swift, ce n’est donc pas céder à l’air du temps : c’est prendre au sérieux ce que la pop dit du social, des émotions et des attentes collectives – souvent bien au-delà d’une seule génération.
Arnaud Alessandrin ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
31.01.2026 à 09:16
Laurent Mériade, Professeur des universités en sciences de gestion - Agrégé des facultés - IAE - CleRMa, Université Clermont Auvergne (UCA)
De nombreuses universités lancent l’alerte sur leurs difficultés financières. Pourtant, si l’on se réfère aux critères officiels fixés par un décret de soutenabilité mis en place en 2024, la situation semble beaucoup moins préoccupante. Qu’est-ce qui se cache réellement derrière ces nouveaux critères ? Dans quelle mesure nous informent-ils vraiment sur la situation financière des universités ?
En 2024, on dénombrait 60 universités françaises présentant de potentielles difficultés financières (principalement déficitaires). En 2025, alors que 80 % des universités présentent encore des budgets déficitaires et que les universités appellent au secours, officiellement, on ne compterait plus que 12 universités en difficulté. Par quel miracle, en moins d’un an, la situation financière des universités françaises a-t-elle pu se redresser de la sorte ?
La réponse à cette interrogation se trouve dans un décret de soutenabilité financière (n° 2024-1108) du 2 décembre 2024 qui modifie les critères d’évaluation des difficultés financières des universités. Ce décret introduit des indicateurs de soutenabilité financière qui considèrent qu’une université déficitaire (même depuis plusieurs années) n’est plus en difficulté financière. Elle ne l’est que si elle dépasse un seuil minimum de trésorerie (argent détenu sur le compte bancaire au Trésor public), de fonds de roulement (réserve d’argent détenue pour faire face à des dépenses programmées ou imprévues) et un seuil maximum de charges de personnel (rémunérations et cotisations sociales).
En réalité, l’introduction de ces trois nouveaux indicateurs (ou ratios) relâche certaines contraintes budgétaires des universités pour les forcer à utiliser massivement leurs réserves (trésorerie et fonds de roulement), comme cela est également demandé à de nombreux opérateurs de l’État dans le budget 2026 en cours de vote au Parlement.
Cependant, pour les universités, ces réserves ne sont souvent que très partiellement disponibles, car déjà pré-engagées pour financer des investissements à long terme, des contrats de recherche, de maintenance, de fourniture ou certains éléments de rémunérations (primes, promotions ou évolution programmée des salaires).
Décryptons ces nouveaux indicateurs. Ne créent-ils pas surtout une illusion, rendant plus présentable la situation financière des universités et plus acceptable le désengagement progressif de l’État ?
Comme dans d’autres domaines, le diable se cache dans le détail des méthodes de calcul de ces indicateurs.
Selon ce nouveau décret, en fin d’année civile, la trésorerie et le fonds de roulement (FdR) d’une université doivent être respectivement supérieurs à 30 jours et à 15 jours de fonctionnement en crédits de paiement hors investissement. Ces deux premiers ratios sont calculés de la manière suivante :
Le numérateur de ces ratios intègre la trésorerie ou le fonds de roulement générés par les ressources d’investissement. En revanche, le dénominateur ne prend pas en compte les dépenses d’investissement autorisées au cours de l’année (crédits de paiement).
Ce mode de calcul ne respecte pas une règle élémentaire de calcul des ratios de gestion financière qui impose d’utiliser un périmètre de calcul identique pour le numérateur et le dénominateur. Ici le numérateur comprend les investissements et le dénominateur est calculé hors investissement, ce qui augmente artificiellement la valeur du ratio et permet, artificiellement aussi, de dépasser les seuils minimums requis.
Pour permettre le calcul de ces nouveaux indicateurs, le nouveau décret financier a redéfini le périmètre du budget de l’établissement, dénommé désormais « budget » et qui agrège le budget principal (en personnel, fonctionnement et investissement) et les budgets annexes (dont le budget annexe immobilier pour les universités qui en disposent) (article R. 719-52).
Ce changement ne permet plus de différencier, pour le calcul de ces indicateurs, les trésoreries et fonds de roulement réellement disponibles (pour payer le personnel et le fonctionnement) de ceux pré-engagés dans des opérations particulières (investissements, contrats de recherche notamment). En recalculant ces ratios pour la seule partie de trésorerie et fonds de roulement réellement disponibles à partir des informations financières du ministère de l’enseignement supérieur, le nombre de jours de trésorerie est en moyenne divisé par deux et par trois pour celui du fonds de roulement.
Ainsi, une université qui présente officiellement un ratio de trésorerie de 50 jours (donc significativement supérieur au seuil de 30 jours) ne détient probablement que 25 jours de trésorerie réellement disponibles. De même, la même université (ou une autre) qui présenterait un fonds de roulement de 30 jours (donc significativement supérieur au seuil de 15 jours) a toutes les chances de ne détenir seulement qu’environ 10 jours de fonds de roulement de fonctionnement disponible.
Autant dire que juger la santé financière d’une université sur la base du calcul actuel de ces deux ratios relève plus de la « roulette russe » que d’une observation objective et sincère.
Pour ce qui concerne le troisième ratio financier, c’est moins son calcul qui est contestable (total charges de personnel/produits encaissables), même si les produits encaissables intègrent très majoritairement des ressources rigides et contraintes (subvention pour charges de service public), que celui de son seuil maximum (83 % des produits encaissables, 85 % pour les établissements à dominante sciences humaines et sociales).
Pourquoi 83 % (ou 85 %) ? Et pourquoi pas 70 % ? 75 % ? 80 % ? À titre de comparaison, en 2022, les charges de personnel des universités publiques des 38 pays de l’Organisation de coopération et de développement économiques (OCDE) représentaient en moyenne 66 % de leurs dépenses totales (les universités françaises présentant le taux moyen le plus élevé à environ 77 %).
En fixant ce seuil d’alerte à 83 %, on autorise les universités à consacrer seulement 17 % (voire 15 %) de leurs produits encaissables à des charges de fonctionnement pourtant indispensables à la stabilité et la pérennité des universités (électricité, chauffage, entretien de locaux et du matériel, fournitures et services d’enseignement et de recherche, etc.).
Un calcul de ce ratio par catégories de personnel (enseignant, administratif, technique) à partir des dépenses totales, comme le réalise d’ailleurs l’OCDE, serait probablement plus pertinent et autoriserait des comparaisons internationales.
Finalement, l’ensemble de ces approximations ou insuffisances calculatoires peut soit donner une impression d’amateurisme dans le contrôle financier des universités françaises, soit, plus assurément, le sentiment d’une volonté de dissimulation de la réalité des difficultés financières tout en rendant les universités toujours plus comptables de celles-ci.
Un récent rapport d’information du Sénat de 2025 reconnaissait que la seule lecture des budgets et des indicateurs de soutenabilité financière des universités ne permet pas de faire le lien entre les données budgétaires des établissements et leurs activités.
À court terme, les fonds de roulement et trésoreries des universités n’étant pas des puits sans fond, il est probable qu’un grand nombre d’universités ne soit plus en mesure, très rapidement, d’assumer des engagements financiers récurrents (entretien des locaux et matériels, paiement des rémunérations, accueil physique de tous les étudiants).
À moyen terme, c’est la réalisation des principales missions de service public des universités (développement de l’accès à l’enseignement supérieur, réussite des étudiants, augmentation de leur employabilité, renforcement de la cohésion sociale et territoriale, développement de la recherche) qui sera profondément remise en cause.
Laurent Mériade ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
30.01.2026 à 12:31
Rossella Sorio, Professeure Associée, Département Marketing ICN BS, ICN Business School
Insaf Khelladi, Full Professor en Marketing, Excelia
Sylvaine Castellano, Directrice de la recherche, EM Normandie

Après le Dry January, place au French January : boire avec modération, boire autrement ou ne pas boire. Une étude sur les vins sans alcool ou à faible teneur en alcool (vins « nolo », pour no-low) analyse cette nouvelle tendance française invitant à dépasser un choix binaire entre consommation et abstinence. Explication avec le témoignage de consommateurs.
Notre analyse de près de 150 entretiens montre que les consommateurs de vins « nolo », ou no-low, en France ne sont ni majoritairement des abstinents stricts ni des individus contraints par des impératifs médicaux ou physiologiques. Le plus souvent, ces consommateurs réguliers d’alcool sont attachés au vin comme pratique sociale et culturelle, mais restent désireux de mieux maîtriser leur consommation et d’en moduler l’intensité et les occasions.
Nos résultats suggèrent que la sobriété s’inscrit moins dans une logique d’abstinence normative que dans des formes de régulation des pratiques et de gouvernement de soi. C’est dans cette tension, entre contrôle de soi et refus de l’abstinence normative, que s’inscrit aujourd’hui le débat entre Dry January et French January.
Cette régulation prend très concrètement la forme d’une alternance des produits selon les contextes. Un consommateur français dans notre étude de 2019 disait « Ce n’est pas pour arrêter de boire du vin, c’est pour mieux gérer selon les moments ». Un autre consommateur français dans notre étude de 2024 soulignait le caractère situationnel de ce choix : « Je bois du vin classique quand le moment s’y prête, et du sans alcool quand je dois conduire ou rester concentré ». Une autre personne interviewée ajoute « continuer à boire pour le plaisir, sans se sentir limité, et sans renoncer complètement au vin ».
Décryptage de ce paradoxe French (Dry) January.
Le Dry January, lancé au Royaume-Uni en 2013, repose sur une logique claire : une abstinence totale pendant un mois, afin de favoriser une prise de conscience individuelle et de générer des bénéfices mesurables pour la santé. En France, cette initiative, portée depuis 2020 principalement par des associations de prévention, s’inscrit dans un contexte particulier, celui d’un pays où l’alcool, et en particulier le vin, occupe une place centrale dans les pratiques sociales et culturelles.
Face à cette logique de rupture temporaire, le French January s’est imposé comme une contre-proposition culturelle, défendue par la filière vitivinicole et largement relayé dans la presse. Cette orientation est explicitement formulée dans le manifeste du French January qui invite à « savourer plutôt que s’interdire », à reconnaître la pluralité des pratiques – boire avec modération, boire autrement ou ne pas boire – et à rechercher « un juste milieu entre le trop et le zéro ».
Le French January reformule les enjeux de santé publique dans un cadre narratif différent, en revendiquant une sobriété choisie et non imposée, appelée à s’inscrire dans la durée plutôt que dans la seule parenthèse du mois de janvier.
Cette coexistence de deux initiatives révèle une polarisation très française du débat. D’un côté, une sobriété conçut comme abstinence temporaire, de l’autre, une sobriété pensée comme régulation des pratiques. Cette polarisation est souvent caricaturée en opposition entre « hygiénistes » et « épicuriens », alors même que les données scientifiques rappellent une réalité incontestable : toute consommation d’alcool comporte un risque.
Selon l’Organisation mondiale de la santé (OMS), l’alcool est responsable de millions de décès chaque année, et il n’existe pas de seuil de consommation totalement sans risque. Mickaël Naassila, chercheur et président de la Société française d’alcoologie, insiste sur une bascule culturelle réelle : recul des croyances dans un alcool « protecteur », acceptation croissante de la non-consommation, notamment chez les jeunes, et meilleure connaissance des risques.
À lire aussi : Et si l’alcool disparaissait de la planète ?
Cette bascule reste incomplète et entravée par des blocages politiques et institutionnels. Contrairement au tabac, il n’existe pas en France de véritable « plan alcool ». Les campagnes de prévention sont souvent limitées à la lutte contre les excès ou les dépendances, au détriment de la prévention primaire. Dans ce contexte, le Dry January joue un rôle important : il rend visible la non-consommation, légitime le refus de boire et permet à certains individus de développer des compétences psychosociales pour réguler leurs pratiques.
À lire aussi : Alcool et Dry January : Relever le « Défi de Janvier » est toujours bénéfique, même en cas d’échec
Les limites du « tout ou rien » sont également documentées. Des travaux récents suggèrent que l’abstinence temporaire peut produire des effets de compensation après janvier, et qu’elle touche principalement des consommateurs occasionnels, sans nécessairement atteindre les publics les plus vulnérables.
Ces constats ne disqualifient pas le Dry January ils rappellent simplement qu’un changement durable des comportements ne peut reposer sur un seul dispositif normatif.
C’est précisément ici que les recherches en marketing, en comportement du consommateur et en sociologie des marchés peuvent enrichir le débat. La transition vers une consommation d’alcool plus responsable ne dépend pas uniquement des messages de santé publique, mais aussi de la manière dont les produits et les pratiques sont catégorisés, légitimés et émotionnellement valorisés.
Les vins sans alcool ou à faible teneur en alcool (vins « nolo ») constituent un révélateur particulièrement intéressant. Souvent présentés comme des alternatives responsables, ils se situent pourtant dans une zone de tension. D’un côté, ils répondent à une demande croissante de réduction de la consommation ; de l’autre, ils souffrent d’un déficit de légitimité, notamment lorsqu’ils sont associés à une logique de privation ou de contrainte temporaire.
Cette alternance est d’autant plus importante que, pour une majorité de consommateurs interrogés, les vins « nolo » ne sont pas conçus comme des substituts du vin, mais comme des options complémentaires. Nos enquêtes de 2019 et 2024 insistent sur le fait qu’ils continuent à consommer du vin avec alcool pour certaines occasions, tout en recourant au vin sans alcool pour rester pleinement dans le moment social, sans se sentir mis à l’écart. Cette alternance est d’abord liée aux occasions de sociabilité :
« Boire du vin, c’est surtout un moment pour être ensemble, pour partager un repas », explique un consommateur français.
Dans ce contexte, le vin sans alcool est mobilisé non pas comme un substitut, mais comme un ajustement, comme exprimé par un autre consommateur français :
« Ce n’est pas un vin de repas pour moi, plutôt quelque chose pour l’apéritif ou quand on veut rester sobre », souligne une personne interviewée.
Cette distinction entre usages est également très présente dans les discours des consommateurs. Pour les consommateurs français, le vin sans alcool « n’est pas fait pour remplacer le vin », mais pour répondre à des situations spécifiques : « un déjeuner d’affaires », « un événement en journée » ou « un moment où l’on veut rester lucide ».
Nos travaux sur les produits « free-from » montrent que, dans les catégories hédoniques comme le vin, la suppression d’un attribut central – ici l’alcool – peut altérer la valeur perçue, l’authenticité et le plaisir anticipé. Le risque est alors double : soit le vin « nolo » est perçu comme un simple substitut fonctionnel, dépourvu de valeur émotionnelle ; soit il est rejeté comme un « faux vin », ni pleinement vin, ni véritable alternative.
Nos entretiens mettent en évidence une tension entre attentes hédoniques et logiques de régulation. Pour certains consommateurs, l’alcool demeure indissociable du plaisir associé au vin, au point que le vin sans alcool est perçu comme ne permettant ni de « se détendre » ni d’« oublier ses émotions négatives ».
Dans ce contexte, le French January peut offrir un cadre discursif différent. En valorisant la pluralité des choix – boire moins, boire autrement, ou ne pas boire –, il permet de repositionner les vins « nolo » non comme une solution miracle, ni comme un gadget marketing, mais comme une option parmi d’autres dans un répertoire de pratiques responsables. Cette recatégorisation est essentielle : elle conditionne l’acceptabilité sociale de ces produits et leur capacité à s’inscrire durablement dans les usages.
Cette opportunité est ambivalente. Si la modération est invoquée sans rappel explicite des risques liés à l’alcool, elle peut contribuer à brouiller les messages de santé publique. À l’inverse, si les vins « nolo » sont présentés comme une réponse suffisante aux enjeux sanitaires, ils risquent de créer une illusion de solution, détournant l’attention des changements plus profonds nécessaires dans les pratiques.
Ce débat ne devrait pas être lu comme un affrontement entre deux camps irréconciliables, mais comme le symptôme d’une transition normative inachevée. Là où la santé publique explique pourquoi il faut réduire la consommation d’alcool, les sciences sociales et du management permettent de comprendre pourquoi certaines manières de formuler, de vendre et de catégoriser la sobriété fonctionnent… ou échouent.
Une consommation d’alcool plus responsable ne se construira ni par la seule abstinence ponctuelle ni par une modération vague et dépolitisée. Elle suppose des messages clairs sur les risques, des cadres normatifs cohérents, et une réflexion approfondie sur la place des marchés et des émotions dans nos choix. À ce prix seulement, le débat pourra gagner en maturité, et en efficacité.
Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.
30.01.2026 à 12:16
Isabelle Barth, Secrétaire général, The Conversation France, Université de Strasbourg

Dans Gourou, le nouveau film de Yann Gozlan, Pierre Niney interprète un coach en développement personnel qui pousse les limites trop loin. Si les excès du bien-être méritent d’être critiqués, le coaching, sous certaines conditions, reste un outil qui peut être utile… à condition de ne pas lui demander ce qu’il ne peut pas faire. La croyance en une toute-puissance (de soi, du coach ou du coaching), voilà le danger !
« Ce que tu veux, c’est ce que tu es ! » Dans le film Gourou, ce mantra répété jusqu’à l’épuisement par le public à l’initiative du « gourou » (incarné par Pierre Niney) n’est pas un simple slogan de motivation, c’est le symptôme d’une idéologie dans laquelle nous baignons dans nos sociétés occidentales (c’est un prérequis indispensable de se situer dans ce cadre culturel) : celle qui prétend que la volonté suffit à tout, que le bonheur est un choix individuel, que la souffrance relève d’un défaut personnel.
Le film en fait une ritournelle hypnotique, révélant la face sombre de cette croyance devenue hégémonique : car la réalité est qu’elle culpabilise, elle isole, elle invalide.
Traditionnellement, le terme « gourou » désigne un maître spirituel (à l’origine dans la religion brahmanique). Mais les sciences sociales ont montré son évolution vers une figure plus ambiguë : celle d’un individu charismatique qui exerce une influence disproportionnée sur un groupe en promettant transformation, sens et salut personnel. Les travaux de Janet Jacobs et de Benjamin Zablocki sur les dynamiques sectaires montrent que le gourou moderne n’a plus besoin de religion : il lui suffit d’un récit séduisant et performatif pour réunir autour de lui une communauté soudée qui croit en sa promesse de réussite totale.
Dans le film Gourou, cette figure est incarnée par un maître du développement personnel qui exige une adhésion sans faille à son credo. Il ne guide pas : il prescrit. Il ne propose pas : il impose. Et surtout, il réduit toute souffrance à un manque de volonté. C’est là que le film touche juste : il montre comment l’emprise peut se construire non par la contrainte, mais par la promesse de bonheur.
À lire aussi : Le coaching en entreprise : une mode, des paradoxes
Les exemples contemporains abondent. Dans les entreprises, on peut trouver des ateliers de « gestion émotionnelle » proposés à des salariés soumis à des cadences intenables. Sur LinkedIn, des cadres racontent leur burn out comme une « aventure inspirante ». Sur Instagram, des influenceurs affirment que « la maladie est un message de l’Univers ». Dans tous ces cas, la souffrance est requalifiée en défaut de mindset, et la porte de sortie est de rebondir, mais nous ne sommes pas des balles en caoutchouc !
C’est cette dénonciation de la « positivité toxique » qui est, à mon sens, l’angle le plus intéressant et interpellateur du film.
La positivité toxique n’est pas une invention de scénariste. La psychologue Barbara Held parle dès 2002 de « tyranny of the positive attitude », une tyrannie douce qui exige d’afficher un optimisme constant. Dès 2002, Whitney Goodman a popularisé le terme toxic positivity pour désigner cette injonction à nier les émotions négatives. Quant à Sara Ahmed, elle montre dans The Promise of Happiness (2010) que le bonheur est devenu une norme morale : ceux qui ne s’y conforment pas sont perçus comme des perturbateurs.
Cette idéologie produit un mécanisme central : l’invalidation émotionnelle. Les psychologues parlent d’emotional invalidation pour désigner cette dynamique où l’on explique à quelqu’un que ce qu’il ressent n’est « pas utile », « pas constructif », ou « pas la bonne manière de voir les choses ». Dans Gourou, cette invalidation est systémique : toute émotion « basse » est immédiatement interprétée comme un manque de volonté ou un défaut de caractère. La tristesse devient une erreur, la colère une faute morale, la fatigue un manque d’ambition.
Cette invalidation fragilise les individus, les coupe de leur propre expérience, et les rend dépendants d’un discours qui prétend les sauver tout en les dépossédant de leur réalité. Le film illustre bien une dérive, mais s’adosse aux polémiques autour du coaching qui font les choux gras des médias.
Le coaching occupe aujourd’hui une place ambivalente. Le lien entre positivité toxique et coaching est souvent fait. Pour certains chercheurs (on peut citer les travaux de Roland Gori ou ceux d’Eva Illouz et Edgar Cabanas dans leur livre Happycratie, 2018) le coaching contemporain, loin de se limiter à un accompagnement professionnel, s’est transformé en industrie du développement personnel. Pour ces critiques, le coaching promeut une vision individualiste du bonheur : chacun serait responsable de son état émotionnel, indépendamment des conditions sociales, économiques ou politiques.
Le coaching reposerait alors sur une logique d’auto-optimisation permanente : devenir la meilleure version de soi-même, corriger ses « blocages », éliminer ses « pensées limitantes ». Cette rhétorique, en apparence émancipatrice, produit un effet pervers : elle transforme les difficultés structurelles en problèmes psychologiques individuels.
Dans Gourou, le maître-coach incarne cette dérive. Il ne questionne jamais les causes des souffrances ; il accuse les individus de ne pas « vouloir assez ». Il ne libère pas ; il enferme dans une spirale où chaque faille devient une preuve d’insuffisance personnelle.
Mais réduire toute la profession à ces dérives serait injuste. Le coaching, lorsqu’il est exercé avec éthique, offre un espace d’écoute, de clarification et de progression réelle. De nombreux travaux, notamment en psychologie du travail, montrent qu’un accompagnement bien mené peut renforcer l’autonomie, soutenir la prise de décision et aider à traverser des transitions complexes. Le problème n’est donc pas le coaching en soi, mais son instrumentalisation par une idéologie du « tout dépend de toi ». Gourou pointe ces excès, et enfonce la porte déjà bien entrouverte de la valeur d’un métier qui, pratiqué avec rigueur, peut réellement aider.
Le film révèle une violence invisible, enveloppée de bienveillance, mais profondément normative. Une violence qui dit : « Tu n’as pas le droit d’être triste. » Une violence qui exige que chacun soit son propre coach, son propre thérapeute, mais aussi son propre bourreau en s’imposant des défis sans avoir forcément les ressources pour les relever. Une violence qui simplifie le monde pour éviter de regarder en face ce qui ne va pas.
Il est temps de rappeler une évidence : la tristesse n’est pas un échec, la colère n’est pas un défaut, le doute n’est pas une faiblesse. Ce sont des émotions humaines, légitimes, nécessaires. Gourou invite à refuser la dictature du sourire et à retrouver le droit fondamental d’être humain, donc… imparfait.
Isabelle Barth ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
29.01.2026 à 16:03
Niousha Shahidi, Full professor, data analysis, EDC Paris Business School
Caroline Diard, Professeur associé - Département Droit des Affaires et Ressources Humaines, TBS Education
Sana Henda, Professeur en Gestion des Ressources Humaines, ESC Amiens
Chaque jour, sans même y penser, nous classons les choses : ranger les livres de la bibliothèque selon le genre, classer les e-mails… Mais comment classer des éléments quand on ne dispose pas d’une classification existante ? Les mathématiques peuvent répondre à ce type de questions. Ici, une illustration sur le télétravail.
Dans le cadre du télétravail, nous nous sommes posé la question de savoir si les télétravailleurs peuvent être regroupés en fonction de leur perception de l’autonomie et du contrôle organisationnel.
Ceci nous a permis de justifier mathématiquement que deux grandes classes de télétravailleurs existent, et que leur vision du télétravail diffère. Ceci peut permettre aux managers et aux services de ressources humaines d’adapter le management de chacun en fonction de son profil.
Nous avons considéré 159 télétravailleurs. Pour classer les individus, il faut d’abord mesurer à quel point ils se ressemblent. Pour cela on identifie des « profils type » à partir de l’évaluation de « construits », qui sont des ensembles de critères qui traitent le même sujet.
Dans notre étude, les construits principaux sont le contrôle et l’autonomie. On évalue ces deux construits grâce à plusieurs questions posées aux télétravailleurs, par exemple « J’ai l’impression d’être constamment surveillé·e par l’utilisation de la technologie à la maison ». Ceux-ci donnent leur réponse sur une échelle en 5 points (de 1-pas du tout d’accord à 5-tout à fait d’accord).
Ensuite, chaque télétravailleur est représenté par une ligne de données : ce sont les réponses du télétravailleur dans l’ordre des critères. Par exemple pour le collaborateur 1, on peut voir les réponses (3, 1, 3, 2…), voir figure.
Pour regrouper les télétravailleurs, il faut d’abord mesurer à quel point ils se ressemblent. Pour cela, on mesure la distance entre les profils (en utilisant des distances euclidiennes). Cette notion de distance est très importante, car c’est elle qui quantifie la similitude entre deux télétravailleurs. Plus deux profils sont proches, plus ils auront vocation à être dans la même classe.
Si on considère autant de classes que de personnes, la séparation est parfaite mais le résultat est sans intérêt. L’enjeu est donc double : avoir un nombre raisonnable de classes distinctes tel que, dans chaque classe, les individus soient suffisamment semblables.
À lire aussi : Maths au quotidien : pourquoi votre assurance vous propose un contrat avec franchise
Nous avons utilisé la méthode de classification ascendante hiérarchique, qui consiste à regrouper les individus les plus semblables possibles dans une même classe tandis que les classes restent dissemblables.
Plus précisément, au début, chaque télétravailleur est traité comme une classe et on essaie de regrouper deux ou plusieurs classes de manière appropriée pour former une nouvelle classe. On continue ainsi « jusqu’à obtenir la classe tout entière, c’est-à-dire l’échantillon total ». L’arbre aussi obtenu (dendrogramme) peut être coupé à différents niveaux.
Une question importante se pose alors : comment choisir le nombre de classes ? Il existe plusieurs méthodes. Par exemple, la méthode du coude : le point où la courbe (variance intra-classe en fonction du nombre de classes) « fait un coude » correspond au nombre de classes à retenir. Cela signifie que si « on ajoute une classe de plus, on gagne peu en précision ». Dans notre étude, le nombre de classes retenu est deux.
Afin d’améliorer notre classification, nous poursuivons avec une méthode de classification non hiérarchique (k-means) qui répartit à nouveau les télétravailleurs dans deux classes (mais ceux-ci sont légèrement différents) tout en minimisant la distance aux « centres » de classes (scores moyens des critères de chaque classe trouvés précédemment).
Nous découvrons alors deux classes de télétravailleurs mieux répartis : les « satellites-autonomes » et les « dépendants-contrôlés ».
Une fois la classification trouvée, on s’intéresse alors à analyser les scores moyens par rapport aux autres construits du modèle, en l’occurrence l’expérience du télétravailleur. Les « satellites autonomes » ont une vision globalement plus positive de leur travail que les « dépendants contrôlés » et estiment que leurs conditions de travail se sont améliorées depuis la mise en place du télétravail.
Il existe bien sûr des limites à notre étude : il faudra en tester la robustesse, répéter l’analyse avec des sous-échantillons ou d’autres échantillons de télétravailleurs et encore tester plusieurs méthodes de classification. Une nouvelle enquête pourra montrer si le nombre ou la nature des classes que nous avons trouvées évolue. Mais il est important de noter que ce résultat (deux profils de télétravailleurs) est le fruit d’une démarche mathématique et statistique rigoureuse, qui complète les études antérieures qualitatives.
La classification est un outil bien connu en matière de gestion des ressources humaines. Par exemple, elle consiste à « peser » le poste et le positionner dans une grille prédéfinie en comparant son profil aux caractéristiques de quelques postes repères. Chaque convention collective dispose d’une grille de classification. C’est la loi du 23 décembre 1946 et les arrêtés Parodi-Croizat du 11 avril 1946 qui avaient ouvert la voie de la classification des ouvriers en sept échelons.
À l’aide des mathématiques, notre classification montre que le télétravail ne peut pas être géré comme un dispositif unique. Chaque profil correspond à des besoins et à des dynamiques organisationnelles spécifiques. Savoir qu’il existe deux profils majoritaires permet de proposer des actions différenciantes dans l’accompagnement des télétravailleurs.
Les mathématiques sont ici un outil au service du manager et aident à voir des structures invisibles dans un ensemble complexe de données. Il s’agit d’un outil d’aide à la décision.
Rien à déclarer
Caroline Diard et Niousha Shahidi ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur poste universitaire.
29.01.2026 à 16:03
Willem Standaert, Associate Professor, Université de Liège
Alors que le Comité international olympique (CIO) adopte le jugement assisté par l’intelligence artificielle, cette technologie promet une plus grande cohérence et une meilleure transparence. Pourtant, les résultats de la recherche suggèrent que la confiance, la légitimité et les valeurs culturelles comptent autant que la précision technique.
En 2024, le CIO a dévoilé son agenda olympique de l’intelligence artificielle (IA), positionnant celle-ci comme un pilier central des futurs Jeux olympiques. Cette vision a été renforcée lors du tout premier Forum olympique sur l’IA, organisé en novembre 2025, où athlètes, fédérations, partenaires technologiques et décideurs politiques ont discuté de la manière dont l’IA pourrait soutenir le jugement, la préparation des athlètes et l’expérience des fans.
Aux Jeux olympiques d’hiver de 2026 de Milan-Cortina qui démarrent vendredi 6 février, le CIO envisage d’utiliser l’IA pour soutenir le jugement en patinage artistique (épreuves individuelles et en couple, hommes et femmes), en aidant les juges à identifier précisément le nombre de rotations effectuées lors d’un saut.
Son utilisation s’étendra également à des disciplines, telles que le big air, le halfpipe et le saut à ski (des épreuves de ski et de snowboard où les athlètes enchaînent des sauts et figures aériennes), où des systèmes automatisés pourront mesurer la hauteur des sauts et les angles de décollage. À mesure que ces systèmes passent de l’expérimentation à un usage opérationnel, il devient essentiel d’examiner ce qui pourrait bien se passer… ou mal se passer.
Dans les sports olympiques tels que la gymnastique et le patinage artistique, qui reposent sur des panels de juges humains, l’IA est de plus en plus présentée par les fédérations internationales et les instances sportives comme une solution aux problèmes de biais, d’incohérence et de manque de transparence. En effet, les juges doivent évaluer des mouvements complexes réalisés en une fraction de seconde, souvent depuis des angles de vue limités, et ce pendant plusieurs heures consécutives.
Les analyses post-compétition montrent que les erreurs involontaires et les divergences entre juges ne sont pas des exceptions. Cela s’est à nouveau matérialisé en 2024, lorsqu’une erreur de jugement impliquant la gymnaste américaine Jordan Chiles lors des Jeux olympiques de Paris a déclenché une vive polémique. En finale du sol, Chiles avait initialement reçu une note qui la plaçait à la quatrième place. Son entraîneur a alors introduit une réclamation, estimant qu’un élément technique n’avait pas été correctement pris en compte dans la note de difficulté. Après réexamen, la note a été augmentée de 0,1 point, permettant à Chiles d’accéder provisoirement à la médaille de bronze. Cette décision a toutefois été contestée par la délégation roumaine, qui a fait valoir que la réclamation américaine avait été déposée hors délai, dépassant de quatre secondes la fenêtre réglementaire d’une minute. L’épisode a mis en lumière la complexité des règles, la difficulté pour le public de suivre la logique des décisions, et la fragilité de la confiance accordée aux panels de juges humains.
Par ailleurs, des cas de fraude ont également été observés : on se souvient notamment du scandale de jugement en patinage artistique lors des Jeux olympiques d’hiver de Salt Lake City en 2002. À l’issue de l’épreuve en couple, des accusations ont révélé qu’une juge aurait favorisé un duo en échange d’un soutien promis dans une autre compétition, mettant au jour des pratiques d’échanges de votes au sein du panel de juges. C’est précisément en réponse à ce type d’incidents que des systèmes d’IA ont été développés, notamment par Fujitsu en collaboration avec la Fédération internationale de gymnastique.
Nos recherches sur le jugement assisté par l’IA en gymnastique artistique montrent que la question ne se résume pas à savoir si les algorithmes sont plus précis que les humains. Les erreurs de jugement proviennent souvent des limites de la perception humaine, ainsi que de la vitesse et de la complexité des performances de haut niveau, ce qui rend l’IA attrayante. Cependant, notre étude impliquant juges, gymnastes, entraîneurs, fédérations, fournisseurs de technologies et fans met en lumière une série de tensions.
L’IA peut être trop exacte, évaluant les routines avec un niveau de précision qui dépasse ce que les corps humains peuvent réalistement exécuter. Par exemple, là où un juge humain apprécie visuellement si une position est correctement tenue, un système d’IA peut détecter qu’un angle de jambe ou de bras s’écarte de quelques degrés seulement de la position idéale, pénalisant une athlète pour une imperfection imperceptible à l’œil nu. Si l’IA est souvent présentée comme objective, de nouveaux biais peuvent émerger à travers la conception et la mise en œuvre des systèmes. Par exemple, un algorithme entraîné principalement sur des performances masculines ou sur des styles dominants peut pénaliser involontairement certaines morphologies. En outre, l’IA peine à prendre en compte l’expression artistique et les émotions, des éléments considérés comme centraux dans des sports tels que la gymnastique et le patinage artistique. Enfin, si l’IA promet une plus grande cohérence, son maintien exige une supervision humaine continue afin d’adapter les règles et les systèmes à l’évolution des disciplines.
Nos recherches montrent que ces préoccupations sont encore plus marquées dans les sports d’action comme le snowboard et le ski freestyle. Beaucoup de ces disciplines ont été ajoutées au programme olympique afin de moderniser les Jeux et d’attirer un public plus jeune. Pourtant, des chercheurs avertissent que l’inclusion olympique peut accélérer la commercialisation et la standardisation, au détriment de la créativité et de l’identité de ces sports.
Un moment emblématique remonte à 2006, lorsque la snowboardeuse américaine Lindsey Jacobellis a perdu la médaille d’or olympique après avoir effectué un geste acrobatique consistant à saisir sa planche en plein saut en plein saut alors qu’elle menait la finale de snowboard cross. Ce geste, célébré dans la culture de son sport, a entraîné une chute qui lui a coûté la médaille d’or.
Le jugement assisté par l’IA ajoute de nouvelles couches à cette tension. Des travaux antérieurs sur le halfpipe en snowboard avaient déjà montré comment les critères de jugement peuvent, avec le temps, remodeler subtilement les styles de performance. Contrairement à d’autres sports jugés, les sports d’action accordent une importance particulière au style et à la prise de risque, des éléments particulièrement difficiles à formaliser algorithmiquement.
Pourtant, l’IA a déjà été testée lors des X Games 2025, notamment pendant les compétitions de snowboard SuperPipe, une version de grande taille du halfpipe, avec des parois plus hautes permettant des sauts plus amples et plus techniques. Des caméras vidéo ont suivi les mouvements de chaque athlète, tandis que l’IA analysait les images afin de produire une note de performance indépendante. Ce système était testé en parallèle du jugement humain, les juges continuant à attribuer les résultats officiels et les médailles.
Cet essai n’a toutefois pas modifié les résultats officiels, et aucune comparaison publique n’a été communiquée quant à l’alignement entre les notes produites par l’IA et celles des juges humains. Néanmoins, les réactions ont été très contrastées : certains acteurs saluent une plus grande cohérence et transparence, tandis que d’autres ont averti que les systèmes d’IA ne sauraient pas quoi faire lorsqu’un athlète introduit une nouvelle figure – souvent très appréciée des juges humains et du public.
L’influence de l’IA dépasse largement le seul cadre du jugement. À l’entraînement, le suivi des mouvements et l’analyse de la performance orientent de plus en plus le développement technique et la prévention des blessures, façonnant la manière dont les athlètes se préparent à la compétition. Parallèlement, l’IA transforme l’expérience des fans grâce à des ralentis enrichis, des visualisations biomécaniques et des explications en temps réel des performances.
Ces outils promettent davantage de transparence, mais ils cadrent aussi la manière dont les performances sont interprétées, avec davantage de « storytelling » autour de ce qui peut être mesuré, visualisé et comparé.
L’Agenda olympique de l’IA reflète l’ambition de rendre le sport plus juste, plus transparent et plus engageant. Toutefois, à mesure que l’IA s’intègre au jugement, à l’entraînement et à l’expérience des fans, elle joue aussi un rôle discret mais puissant dans la définition de ce qui constitue l’excellence. Si les juges d’élite sont progressivement remplacés ou marginalisés, les effets pourraient se répercuter à tous les niveaux : formation des juges, développement des athlètes et évolutions des sports eux-mêmes.
Le défi auquel sont confrontés les sports du programme olympique n’est donc pas seulement technologique ; il est institutionnel et culturel. Comment éviter que l’IA ne vide de leur substance les valeurs qui donnent à chaque sport son sens ?
Willem Standaert ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
29.01.2026 à 16:01
Valéry Ridde, Directeur de recherche, Institut de recherche pour le développement (IRD)
Dans la Financiarisation de la santé au Sénégal (1840-1960), aux éditions Science et bien commun (ESBC), Valéry Ridde (Institut de recherche pour le développement, IRD) livre une analyse originale des archives coloniales, de la presse et des publications scientifiques pour démontrer combien les idées libérales du financement des soins à l’œuvre dans ce pays, dans le reste de l’Afrique de l’Ouest mais aussi dans le monde, étaient déjà ancrées dans l’administration coloniale française.
À partir des années 1980, les institutions internationales ont incité les pays africains à recourir à des instruments politiques du financement de la santé inspirés d’une approche libérale. Ainsi, les malades ont été de plus en plus souvent amenés à payer pour leurs soins, les formations sanitaires ont été mises en concurrence, des ristournes et des primes ont été données aux soignant·es, des mutuelles de santé ont été lancées.
La Financiarisation de la santé au Sénégal (1840-1960), paru fin 2025, s’adresse aux historien·nes de la santé comme à toutes les personnes intéressées par la santé publique en Afrique. Dans un souci de justice épistémique et d’accès aux connaissances en langue française, ce livre est publié par les éditions Science et bien commun (ESBC) en accès libre, en différents formats et avec une écriture inclusive.
Il s’agit de remonter le temps et de comprendre comment ces outils s’inscrivent dans une continuité historique. À partir du Sénégal et avec une analyse originale des archives coloniales, de la presse et des publications scientifiques, cet ouvrage montre que les idées libérales du financement des soins étaient déjà ancrées dans l’administration coloniale française. Elles étaient même présentes à l’échelle de l’Empire et confirment le manque de préoccupation pour l’accès aux soins des populations africaines et des plus pauvres.
Les défis actuels de ces instruments pour la couverture sanitaire universelle, déjà abordés dans l’ouvrage collectif Vers une couverture sanitaire universelle en 2030. Réformes en Afrique subsaharienne (ESBC, 2021), disponible en accès libre, ont donc une histoire ancienne que l’analyse met au jour pour réclamer un changement de paradigme.
Après une préface de l’historien Mor Ndao, professeur à l’Université Cheikh-Anta-Diop de Dakar, le livre est composé de six parties thématiques dont nous présentons les éléments essentiels à retenir.
Dans la première partie, je présente le contexte de rareté des ressources dévolues au secteur de la santé pendant la période coloniale. Non seulement les hôpitaux coloniaux sont rares et ne disposent que de peu de budget, mais ils doivent déjà réaliser des économies. À partir de 1926, s’opère un basculement budgétaire. Les dépenses des établissements de santé sont transférées aux budgets locaux de chaque colonie de l’Afrique occidentale française (AOF), ce qui exacerbe les défis de financement.
L’administration coloniale commence à formaliser le principe et la possibilité pour certaines personnes malades de payer leur hospitalisation, en même temps qu’elle recherche l’efficience de l’organisation des services. L’hospitalo-centrisme était déjà en marche, l’administration coloniale préférant, comme aujourd’hui, les grandes structures aux soins de santé primaires.
Dans la deuxième partie, je présente les modalités de paiement des patient·es organisées dans les hôpitaux. Bien que le principe fût la gratuité des soins, les personnes malades qui en avaient les moyens ont toujours eu la possibilité de payer leur hospitalisation. Le paiement était très variable d’un hôpital à l’autre, mais il se concrétisait par des catégories d’hospitalisation reproduisant les catégories militaires, sociales et « raciales » de l’époque.
Les personnes indigentes pouvaient bénéficier d’une prise en charge gratuite, mais au prix de multiples procédures administratives pour confirmer leur statut et dans un contexte budgétaire très restreint. Ces défis n’ont jamais été résolus et sont au cœur des luttes actuelles. Les modalités de financement (retenues sur salaire, paiements des entreprises ou des individus) et leur imputation comptable ne sont pas faciles à mettre en place.
J’ai ainsi pu constater une myriade de procédures administratives pour recouvrir ces créances. Les années de retard de remboursement aux formations sanitaires des politiques de gratuité des années 2000 ou de subvention des adhésions aux mutuelles de santé au Sénégal actuellement n’ont rien à envier à l’histoire administrative coloniale.
À lire aussi : Vers la couverture sanitaire universelle en Afrique subsaharienne : le paradoxe des mutuelles de santé au Sénégal
À partir de 1905, la mise en place de l’Assistance médicale indigène (AMI) en AOF est analysée dans la troisième partie. Elle entraîne la création de dispensaires ruraux où le discours colonial présentait les soins comme étant gratuits. Pourtant, l’AMI était largement sous-financée et ne répondait pas aux besoins de la population. Mais surtout, les populations ont été sollicitées pour des paiements directs dans certaines situations.
Comme cela a été généralisé plus tard, dans les années 1980-1990, dans les pays appuyés par l’Unicef et l’Organisation mondiale de la santé (OMS), il arrivait que les malades paient les soins dans ces dispensaires, ce qui ne faisait que renforcer les inégalités constatées dans les hôpitaux. De plus, l’administration coloniale a imposé une taxe spécifique de 1930 à 1938 pour financer l’AMI, avant de l’intégrer en 1939 à l’impôt (régressif) de capitation (forfait par personne).
Dès les années 1920, l’idéologie de la performance et des primes à l’activité, mobilisée plus tard par la Banque mondiale et d’autres organisations dans les années 2000, est déjà bien en place. Des primes sont octroyées aux mamans et aux matrones (accoucheuses traditionnelles) pour soutenir la politique coloniale de natalité.
Dans la quatrième partie, j’analyse la pratique privée de la médecine alors que les salaires et les primes de « dépaysement » des médecins militaires et civil·es, venu·es de France, sont payé·es par l’administration coloniale jusqu’à l’indépendance du Sénégal en 1960. Ces primes servent souvent d’incitatifs à s’expatrier, comme c’est encore le cas aujourd’hui pour les acteurs de l’aide publique au développement.
À l’époque, face aux contraintes budgétaires, ces médecins ne sont pas en nombre suffisant. Pourtant, ces personnes ont une pratique privée au sein et en dehors des formations sanitaires publiques. L’administration coloniale va tardivement tenter de les réguler. De plus, le personnel de santé africain fait face à de multiples défis pour obtenir ce même droit. Dans les années 1950, des syndicats se plaignent alors que les mouvements sociaux augmentent.
Le personnel médical payé par l’administration coloniale obtient des ristournes (autour de 25 %) sur la vente de leurs actes médicaux aux particuliers, pratiqués en plus de leurs activités cliniques de routine (la personne malade est par exemple facturée 100 francs. Le médecin reçoit alors 25 francs de ristourne sur ce montant, le reste étant gardé par l’administration).
Ces ristournes, dont le fonctionnement perdure aujourd’hui, seront formalisées dans les années 1980, avec la généralisation du principe du recouvrement des coûts encouragé par l’OMS et l’Unicef à laquelle la France a contribué.
Actuellement, les soignants du secteur public sénégalais peuvent recevoir une ristourne de 20 % à 30 % des recettes nettes. À l’époque coloniale, l’administration publique tire aussi profit de cette pratique privée des médecins coloniaux puisqu’elle reçoit une partie des sommes payées par les patient·es. Cependant, les médecins du secteur privé (qui paient une patente) se plaignent de la concurrence déloyale des médecins (militaires et civils) payés par l’administration coloniale.
La cinquième partie de mon ouvrage est consacrée au mouvement mutualiste. Durant la période coloniale, le mouvement mutualiste français (très développé en « Métropole ») s’est mobilisé pour développer les mutuelles de santé en Afrique du Nord. Bien que de nombreuses conférences aient été organisées autour de la mutualité dans les colonies, presque rien n’a été réalisé à destination des populations de l’Afrique de l’Ouest.
Cependant, les premières tentatives de mutuelles au Sénégal remontent aux années 1910. Conçues comme des instruments de la politique coloniale, ces mutuelles ne rencontrent pourtant pas de succès. Leur nombre demeure très restreint (à l’image des mutuelles communautaires relancées à partir des années 1990) et elles cherchent, avant tout, à fournir des services aux coloniaux.
À lire aussi : Sénégal : un modèle d’assurance santé résilient en temps de Covid-19
Les approches que j’ai mises au jour pour le Sénégal se retrouvent aussi ailleurs en AOF et dans les territoires de l’Empire français. La présence de la financiarisation de la santé est donc globale, y compris à cette époque. Les archives confirment qu’elle s’est développée dans de nombreux pays de la planète au cours de la période coloniale. Elle a poursuivi son emprise sur nos systèmes de santé jusqu’à maintenant, tant au Sénégal qu’en France.
Ainsi, cet ouvrage centré sur la financiarisation de la santé à l’époque coloniale au Sénégal s’inscrit en complémentarité des analyses contemporaines de sa présence et de sa permanence à l’échelle mondiale. Un détour archivistique vers d’autres territoires ayant dû subir la colonisation française, et d’autres, confirme la situation sénégalaise et donc, la diffusion des idées et des pratiques qu’il faudra évidemment préciser dans des recherches futures.
Valery Ridde a reçu des financements de l'ANR, la FRM, IRSC, INSERM, ECHO, OMS.
29.01.2026 à 16:00
Thomas Melonio, Directeur exécutif « Innovation, stratégie et recherche », Agence Française de Développement (AFD)
Thomas Melonio, chef économiste et directeur exécutif à l’Agence française de développement (AFD), a récemment publié avec Rémy Rioux, directeur général de l’AFD, et Jean-David Naudet, chargé de recherche au sein de cette même organisation, Au-delà de la « dichotomanie » (2025), une étude qui interroge la pertinence de deux notions centrales de l’aide publique au développement : celles de « pays développés » et de « pays en développement ».
Cette manière de classer les pays structure encore aujourd’hui notre compréhension des inégalités mondiales, de l’aide internationale et des grandes politiques globales. Mais est-elle encore justifiée à l’heure où les trajectoires économiques, sociales et politiques des pays sont de plus en plus diverses et imbriquées ? Entretien.
The Conversation : Pouvez-vous revenir sur l’histoire de la dichotomie « pays en développement/pays développés » ?
Thomas Melonio : Ces notions apparaissent vers la fin des années 1950 et le début des années 1960, au moment où se structure la politique de solidarité internationale et de développement. Dans les années précédentes, celles de l’immédiat après-guerre, les grandes institutions internationales, dites de Bretton Woods, c’est-à-dire le Fonds monétaire international et la Banque mondiale, avaient fait leur apparition ; mais elles aidaient prioritairement les pays déjà développés. Historiquement, le premier bénéficiaire d’un prêt de la Banque mondiale, c’est la France !
Un petit peu plus tard, au milieu des Trente Glorieuses, période de croissance rapide notamment en Europe, mais aussi au Japon, s’impose cette distinction entre deux groupes de pays – une distinction qui va donner naissance à un certain nombre de politiques publiques. Il est vrai que, à cette époque, il y a, schématiquement un groupe de pays riches, un groupe de pays pauvres… et pas beaucoup de pays au milieu. Dès lors, il apparaît assez logique d’organiser des transferts – un peu comme on peut le faire au sein de l’Union européenne ou bien, à l’intérieur de la France, entre régions.
Certes, il y a toujours eu une catégorie de pays en transition, notamment le bloc soviétique qui était en quelque sorte à l’extérieur de l’un comme de l’autre de ces deux groupes, et qu’on ne savait pas bien comment classifier dans cette nomenclature. Mais ce bloc était isolé géopolitiquement ; dès lors, ce n’était pas déterminant pour les politiques mondiales de développement.
La politique commerciale et, plus tardivement, la politique climatique seront donc édifiées autour de cette distinction entre pays développés et pays en développement. On le retrouve à l’OMC, où des mesures plus favorables ont été obtenues par des pays dits en développement – et il y a peu, c’était encore le casde la Chine, qui vient tout récemment de renoncer à ce statut privilégié.
Aujourd’hui, ces notions sont-elles encore d’actualité ?
T. M. : Les catégories anciennes ont vieilli, c’est certain. Mais l’idée de solidarité ou d’action humaniste internationale reste plus que jamais d’actualité. La question est de savoir dans quels pays cette action de solidarité humaniste doit s’appliquer. À mon sens, aujourd’hui, elle doit essentiellement être dirigée vers les pays les moins avancés (PMA), c’est-à-dire les pays les plus pauvres et les plus vulnérables, qui sont au nombre de 45. Les autres pays dits émergents doivent continuer de faire l’objet d’opérations de coopération internationale, mais cette coopération ne relève ni du vocable ni des instruments financiers de l’aide publique au développement.
Le concept de « Sud global », qui s’est imposé ces dernières années, reflète-t-il une vraie unité ?
T. M. : Je vois une très grande hétérogénéité parmi les pays que l’on associe au « Sud global » ; dès lors, j’ai du mal à y trouver une forte substance. Pour autant, il est difficile de contester la capacité ou la volonté d’un pays de s’auto-définir comme il le souhaite. Pour un pays donné, dire que l’on relève du Sud global, c’est une démarche assez politique. Mais quand bien même on la trouve insuffisamment substantielle, elle a sa réalité du fait même de sa propre déclamation. Deuxième chose : si on devait trouver une substance concrète dans le Sud global, on peut constater qu’il y a eu la formation d’institutions financières : la Nouvelle banque de développement, qui est la banque des BRICS, la Banque asiatique d’investissement pour les infrastructures, créée à l’initiative de la Chine en 2016, et plus récemment la Banque de l’organisation de la sécurité de Shanghai. Il y a donc quand même déjà trois banques qui revendiquent une appartenance au Sud global, ce qui confère à cette notion une réalité.
L’apparition de ces structures témoigne d’une contestation des règles de fonctionnement de la mondialisation. Certains pays émergents, insuffisamment représentés par rapport à leur poids démographique au sein du FMI ou de la Banque mondiale, vont faire porter leurs efforts sur ces questions financières ; d’autres, parfois les mêmes, vont plutôt cibler le Conseil de sécurité des Nations unies. Pour des pays comme l’Inde ou comme le Brésil, l’objectif principal de l’affirmation du Sud global est plutôt l’obtention d’une place au sein du Conseil de sécurité. De manière générale, ce qui est commun à tous les pays du Sud global, c’est la volonté d’obtenir plus de place dans les mécanismes de décision.
N’y a-t-il pas un risque, quand on utilise toutes ces toutes ces notions – qu’il s’agisse de pays en développement, de pays développés, de Sud global, de PMA… – d’avoir une vision monolithique de chacun de ces pays pris individuellement, alors qu’ils sont tous travaillés par de très fortes inégalités sociales et économiques ?
T. M. : C’est quelque chose qu’il faut avoir à l’esprit, en effet ; mais je veux d’abord souligner que dans les PMA, la très grande majorité de la population vit dans la précarité. Certes, il y a, là aussi, des gens qui sont riches, mais même si une vaste redistribution interne était mise en place, la pauvreté serait quand même endémique. La situation est un peu différente en ce qui concerne les pays à revenu intermédiaire ; c’est souvent dans ces pays que les inégalités sont les plus fortes – je pense par exemple à l’Afrique du Sud, au Brésil, ou encore au Mexique. On observe également une progression des inégalités en Chine et en Inde.
Une fois qu’on a dit cela, se pose la question de la façon d’agir depuis l’extérieur. Il faut être lucide : un acteur extérieur, comme l’AFD, ne peut agir seul pour la réduction des inégalités dans ces grands pays. Il faut y construire des coalitions. A travers la coopération technique ou le financement, on peut contribuer à cette réduction, parce qu’on va cibler des quartiers pauvres ou des populations pauvres, via tel ou tel programme. Mais on ne va pas changer les équilibres politiques ou territoriaux dans un État. Depuis l’extérieur, on peut accompagner des dynamiques nationales, dès lors qu’il y a une volonté locale. Mais si la volonté n’est pas là, on ne crée pas un arbitrage politique totalement différent depuis l’extérieur.
Vous expliquez que c’est une erreur de toujours vouloir tout nomenclaturer ; mais est-ce que ce n’est pas quand même nécessaire pour pouvoir agir ? À trop entrer dans le détail, ne risque-t-on pas de se retrouver incapables de mettre des mots sur des réalités ? Comment éviter ces deux écueils : être trop schématique ou au contraire trop détaillé ?
T. M. : Notre article s’ouvre par une sorte de pirouette où nous disons que le monde se sépare en deux catégories : ceux qui divisent le monde en deux, et ceux qui ne le font pas. Au-delà de la plaisanterie, il y a un intérêt certain à essayer d’identifier des zones cohérentes, par exemple distinguer les pays qui ont plus de moyens de ceux qui en ont moins, ou les pays qui ont une plus forte responsabilité climatique historique de ceux qui en ont moins. En soi, il faut schématiser pour organiser les politiques publiques.
Il y a toujours des formes de schématisation. Le problème, c’est quand cette schématisation produit du blocage, quand on fige dans le temps des catégories qui, à un moment donné, ne correspondent plus au monde réel. Par exemple, il est anormal que du côté des émetteurs de finance climat, on ne trouve ni la Chine ni les pays du Golfe, parce qu’on a fixé la liste dans les années 1990. On se retrouve aujourd’hui avec une problématique de partage du fardeau du changement climatique et avec des catégories qui sont mal définies parce que le processus de classification ne prévoyait pas son actualisation régulière.
Deuxième exemple : l’aide publique au développement (APD). En France, on se demande pourquoi une partie de notre APD est destinée à des pays comme la Chine, l’Inde ou l’Indonésie. En réalité, on ne les aide pas puisqu’on leur octroie des prêts à des taux dits « à conditions de marché », un peu comme une banque le fait avec ses clients, ce qui dégage un excédent financier. Si entre deux pays il y a un emprunt qui est dans le bénéfice de chacun, cela ne relève plus vraiment de l’APD, mais de la recherche de bénéfices mutuels. Mais formellement, on l’appelle encore aide, alors même que cela ne correspond pas à la réalité de nos relations avec ces pays. La catégorisation existante finit par rendre une politique publique trop peu lisible, peu explicable, propice aux manipulations ou à la désinformation.
Le risque, ce sont ces catégories qui sont figées dans le temps et qui, 15 ans, 20 ans, 30 ans après leur définition, produisent des effets négatifs dans le monde réel. Il faut donc régulièrement revisiter ces catégories. Sinon, on risque d’affaiblir le multilatéralisme par une mauvaise caractérisation des pays de la planète.
Avec l’administration Trump au pouvoir à Washington, l’aide internationale apparaît plus mal en point que jamais…
T. M. : Certes, mais il faut tout de même souligner qu’il y a eu une évolution. J’appelle cela Trump 2.2. Je m’explique : il y a eu Trump 2.1, c’était Elon Musk à la tête du DOGE, des coupes franches dans toutes les dépenses publiques, et notamment celles relatives à l’aide internationale. Et Trump 2.2, c’est plutôt la ligne Marco Rubio qui semble l’emporter sur la ligne Elon Musk. Marco Rubio, a notamment annoncé un programme important de coopération dans le domaine de la santé avec le Kenya. Si Washington, qui agit ouvertement au nom de la défense de ses intérêts nationaux, fait des annonces importantes sur une question comme la coopération internationale en matière de santé avec le Kenya, alors on comprend que même dans un logiciel très nationaliste, il y a quand même des familles de pensée différentes : ceux qui pensent qu’il ne faut rien, absolument rien faire à l’international, uniquement défendre ses entreprises ; et d’autres qui vont essayer de défendre d’autres formes de coopération… même si la perspective est de se protéger soi-même ou de défendre ses propres intérêts à travers des partenariats internationaux.
Propos recueillis par Grégory Rayko.
Thomas Melonio est directeur exécutif au sein de l'AFD et également administrateur de l'IRD.
29.01.2026 à 15:59
Jean-Pierre Darnis, Full professor at the University of Côte d’Azur, director of the master’s programme in “France-Italy Relations”. Associate fellow at the Foundation for Strategic Research (FRS, Paris) and adjunct professor at LUISS University (Rome), Université Côte d’Azur
La Chine poursuit sans cesse son ascension, la Russie livre une guerre meurtrière sur le territoire européen et les États-Unis de Donald Trump affichent ouvertement leur mépris à l’égard de l’Union européenne. Et pourtant, celle-ci offre une capacité de résistance remarquable, ce qui confère une force spécifique à son modèle démocratique.
Dans le contexte international actuel, les analyses qui décrivent un triomphe de l’impérialisme dont l’Europe serait fatalement la victime font florès. La guerre en Ukraine et les opérations coup-de-poing de Donald Trump auraient consacré le retour de la force comme pivot des relations internationales, un instrument dont l’Union européenne (UE) serait dépourvue. L’UE ferait face à un dilemme : soit elle devient elle aussi une puissance, soit elle est vouée à disparaître.
Cette représentation se base sur une lecture classique des relations internationales qui décrit la réalité du monde comme un état d’anarchie interétatique. Or cette projection réaliste, souvent critiquée car susceptible d’engendrer des effets négatifs, est parfois prolongée au point de proclamer l’inutilité fondamentale d’une UE déclinante qui devrait s’effacer pour laisser place aux États-nations susceptibles de faire un choix de camp – une description que l’on retrouve dans la récente Stratégie de défense nationale américaine où l’UE est souvent vilipendée.
Il convient cependant de questionner ces différents éléments.
Cette vision sombre qui semble faire le constat fataliste que la force l’a définitivement emporté sur le droit a pour premier défaut d’alimenter la propagande des acteurs qui estiment que l’existence de l’Union européenne n’a guère de sens du fait de sa prétendue impuissance. De tels propos étaient déjà depuis longtemps exprimés de façon récurrente par le pouvoir russe ; ils le sont désormais également par celui des États-Unis.
Ensuite, il faut revenir sur la représentation actuelle d’un monde dominé par les puissances impérialistes. Les États-Unis, la Chine et la Russie seraient les trois États impériaux qui chercheraient à établir des sphères de puissance, une vision géographique porteuse d’un déterminisme négatif pour l’Europe. Or il faut insister sur les différences fondamentales qui existent entre ces différentes entités.
La Chine apparaît comme concentrée avant tout sur les aspects économiques et technologiques de la puissance, qui doivent lui permettre de maintenir les gains qu’elle tire des échanges globaux. Il s’agit certainement d’une recherche de maximisation de ses propres intérêts mais dont la portée et les finalités restent discutées par les spécialistes. D’un point de vue européen, la relation avec Pékin est certes problématique mais semble gérable par les instruments classiques de l’Union. Très justement méfiante à l’égard d’un régime politique chinois totalitaire qui exprime de façon ouverte son néo-impérialisme, l’UE a jusqu’ici suivi les États-Unis sur la voie d’une politique d’endiguement. Le cycle actuel de distanciation transatlantique pourrait remettre en cause de façon partielle cet agenda, alors que les Européens se doivent de diminuer leur dépendance à l’égard des États-Unis.
Le cas russe est différent : nous avons ici une claire manifestation d’impérialisme militaire classique dans lequel une vision historique et idéologique sous-tend les velléités de conquête territoriale. Malgré leurs faiblesses et un système institutionnel peu efficace en matière de mise en œuvre de la force, les Européens n’ont pas failli dans leur soutien à l’effort militaire ukrainien, au-delà de la condamnation politique de l’agression russe. L’Ukraine, qui se bat pour maintenir un destin autonome et européen, a réussi à contenir l’armée russe.
L’impérialisme du Kremlin peut continuer à nourrir des conflits et demander des efforts ultérieurs en matière de réarmement voire de combats, et ce d’autant plus si la garantie de sécurité américaine disparaît, mais il est aussi très clair que les Européens ne veulent pas passer sous la coupe de la Russie et n’entendent pas non plus céder des territoires. Il s’agit donc d’un problème important et douloureux mais dont l’analyse reste nette : l’Union européenne n’est pas un ventre mou qui serait à prendre par les armées du Kremlin.
La vision de l’impérialisme chinois et de l’impérialisme russe comme facteurs qui pourraient atomiser l’UE doit donc être relativisée. Il ne s’agit pas de nier la réalité des dangers et défis liés à ces deux contextes, mais de rappeler que l’Union reste en capacité de gestion.
Le troisième impérialisme, celui des États-Unis, apparaît comme plus problématique. Tout d’abord les velléités d’annexion du Groenland constituent un scénario original de conquête territoriale aux dépens de l’UE, en menaçant la souveraineté du Danemark. Plus globalement, la dégradation du respect du droit international de la part des États-Unis vient potentiellement remettre en question l’alliance transatlantique, qui se basait sur une acceptation de l’hégémonie américaine de la part des Européens en échange non seulement d’une protection militaire incarnée par l’OTAN mais également d’un consensus sur la défense des valeurs de liberté.
L’adoption des logiques de la puissance par la seconde présidence Trump vient rompre cet accord tacite. Les Européens doivent désormais gérer une phase délicate, celle d’un découplage avec les États-Unis, en évitant que cela ne dégénère en conflit. En d’autres termes, le rapport entre Union européenne et États-Unis, s’il est ramené à un simple calcul d’intérêts de type réaliste, perd une dimension essentielle, celle d’une convergence politique et idéologique qui, depuis la Déclaration d’indépendance américaine de 1776, constituait le fondement de la relation, un soubassement nécessaire pour les échanges de biens et de services, en particulier pour les données.
L’administration Trump commet l’erreur de croire que la suprématie provenait de la puissance, qu’elle soit militaire, économique ou technologique. En réalité, l’alliance est nettement plus productive que la domination et cette rupture entraînera probablement un affaiblissement de l’attractivité, et donc de la puissance, américaine, ce qui pourrait par ailleurs accroître les tensions internes et externes. Il suffit par exemple de penser aux conséquences potentielles d’une baisse de l’immigration hautement qualifiée sur une économie américaine essentiellement basée sur la capacité d’innovation technologique.
L’une des caractéristiques principales de l’UE réside dans sa solidité : on a constaté au travers des crises que l’UE était capable non seulement de résister à un contexte négatif (crises financières, Covid) mais également de se renforcer.
L’UE est un millefeuille institutionnel souvent difficile à lire. Ce dispositif mixte, à la fois intergouvernemental et fédéral, fait preuve d’une remarquable résistance car il est le fruit d’une série de compromis qui, une fois adoptés, restent ancrés dans la vie politique européenne. Il est donc particulièrement difficile de défaire ce qui a été fait au sein de l’Union, comme illustré par le Brexit. De plus, le modèle institutionnel alambiqué de l’Union – le processus démocratique mixte entre Parlement, Conseil et Commission – renforce les institutions, ce qui constitue aussi une source de résistance face aux pressions externes.
L’UE s’est construite comme une non-puissance, une création politique qui a mis au centre de son projet l’extension des marchés et la croissance : les fonctions militaires sont depuis le début de l’intégration jalousement conservées par les États membres. Ce refus d’une Europe-puissance traduit l’une des caractéristiques fondamentales de l’Union, celle d’être née comme entité politique de remédiation qui permette de tourner la page des très meurtriers conflits intra-européens, objectif désormais acquis.
Il convient donc aujourd’hui de ne pas l’oublier lorsqu’on réclame une montée en puissance d’une série d’institutions qui n’ont pas été programmées pour cela. Les différentes souverainetés nationales expriment des traditions divergentes en termes d’emploi des forces armées : il apparaît donc politiquement difficile de mettre en place une armée européenne, alors que des coalitions à géométrie variable, déjà en place dans le cas du potentiel dispositif de garantie de sécurité de l’Ukraine ou bien lorsqu’il s’agit d’envoyer des soldats au Groenland en soutien du Danemark, permettent d’envisager une montée en puissance des appareils militaires au niveau européen, ce qui illustre bien que les États membres ne sont pas dénués d’instruments.
Ici encore, il convient de ne pas appliquer une lecture simpliste de la puissance européenne, selon laquelle l’impossibilité d’organiser un monopole collectif unique de la force au niveau européen signifierait la fin de l’Union elle-même. L’Union est en train de montrer que, lorsqu’elle est contrainte par une pression extérieure, elle trouve les ressources communes pour résister.
L’Union européenne illustre le paradoxe d’une croissance institutionnelle qui ne peut être appréhendée en suivant les critères classiques des États et tire sa force d’un processus original à la fois d’extension territoriale (les différents élargissements) et de création de souverainetés européennes qui viennent renforcer celles nationales, le tout au service d’un compromis social-démocrate qui reste un modèle.
Il existe donc une sous-évaluation intrinsèque de l’Union, une représentation de faiblesse qui est amplifiée par les descriptions trop géopolitiques du globe. L’UE n’est pas faible, même si elle n’est pas une puissance, et constitue un remarquable compromis de souveraineté démocratique et de progrès.
Le contexte global actuel n’en reste pas moins particulièrement difficile et menaçant, et ce d’autant que le jeu international est troublé par les actions à l’emporte-pièce de la présidence américaine. Lors du récent forum de Davos, le premier ministre canadien Mark Carney a évoqué une vision de pôle démocratique capable de résister aux empires. C’est certainement dans ce sillage d’une association avec des pays comme le Royaume-Uni et le Canada que doit s’inscrire la stratégie de résistance d’une Union qui peut avoir l’ambition nécessaire de rester organisée autour de l’État de droit, face aux périls impérialistes. Ce qui doit être un facteur non seulement de compétitivité, mais aussi d’espoir pour ceux qui, par exemple aux États-Unis, luttent pour le maintien de la démocratie.
Jean-Pierre Darnis ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
29.01.2026 à 15:57
Céline Barrier, Chercheuse, Université de Corse Pascal-Paoli
À la différence de l’intelligence humaine, régie par un centre de décision (le cerveau), celle du monde marin s’organise sans chef d’orchestre. Elle repose sur une multitude d’interactions où chaque processus physique contribue à un fonctionnement global. Que penser de cette analogie ? Peut-on encore parler d’intelligence ? Étudier ces formes d’organisation non humaines invite à repenser notre définition de l’intelligence.
Docteure en sciences marines, spécialisée dans la modélisation des processus écologiques, je travaille principalement sur la dispersion larvaire et la connectivité entre habitats marins, en particulier dans les écosystèmes côtiers de la Méditerranée.
Mes recherches consistent notamment à « suivre des larves marines », afin de comprendre comment l’information circule dans un système naturel complexe, à travers l’espace, le temps et de fortes contraintes physiques. Les « propagules » marines, larves de poissons ou d’invertébrés, ne sont en effet pas seulement de la matière vivante transportée passivement par les courants.
Elles sont aussi des vecteurs d’information écologique. En effet, elles transportent un patrimoine génétique, des traits d’histoire de vie, une mémoire évolutive et surtout un potentiel fondamental : celui de permettre, ou non, le maintien d’une population dans un habitat donné.
Leur évolution dans l’espace est un exemple intéressant de la façon dont les écosystèmes marins s’organisent. Cette organisation fait intervenir une forme d’intelligence bien différente de celle que nous connaissons en tant qu’humains.
À lire aussi : La Fête de la science 2025 met toutes les intelligences à l’honneur
Les écosystèmes marins peuvent être décrits comme des systèmes distribués : il n’y existe ni centre de décision, ni contrôle centralisé.
L’organisation globale émerge de l’interaction continue entre des processus physiques (courants, stratification de la colonne d’eau), biologiques (développement larvaire, mortalité, parfois comportement) et écologiques (disponibilité et qualité des habitats).
Comprendre cette organisation revient à comprendre comment des systèmes complexes peuvent fonctionner efficacement sans intelligence centrale. Dans ce cadre, l’« intelligence » du monde marin n’est ni neuronale ni intentionnelle. Elle est collective, spatiale et émergente.
Chaque processus physique y joue un rôle spécifique. Par exemple :
les courants marins forment une infrastructure invisible, comparable à un réseau de communication ;
les habitats fonctionnels, zones de reproduction, de nourricerie ou habitats adultes, constituent des nœuds ;
enfin, les larves assurent la circulation entre ces nœuds, rendant possible la connectivité du système.
À lire aussi : Podcast : Intelligence animale… Quand la seiche sèche le poulpe !
Dans mon travail, je cherche à modéliser cette connectivité, c’est-à-dire le réseau d’échanges dont la structure conditionne la résilience, l’adaptabilité et la persistance des populations marines face aux perturbations environnementales.
Pour explorer ces réseaux invisibles, j’utilise des modèles biophysiques dits lagrangiens, qui combinent des données océaniques (courants, température, salinité) avec des paramètres biologiques propres aux espèces étudiées, tels que la durée de vie larvaire ou la période de reproduction.
L’objectif n’est pas de prédire le trajet exact de chaque larve, mais de faire émerger des structures globales : corridors de dispersion, zones sources, régions isolées ou carrefours d’échanges.
C’est précisément ce que j’ai montré dans un travail récent consacré à la grande araignée de mer Maja squinado en Méditerranée nord-occidentale. En simulant plus de dix années de dispersion larvaire à l’échelle régionale, j’ai mis en évidence l’existence de véritables carrefours de connectivité. Ils relient certaines zones côtières éloignées, tandis que d’autres, pourtant proches géographiquement, restent faiblement connectées.
Cette organisation ne résulte d’aucune stratégie consciente. Elle émerge de l’interaction entre la circulation océanique, la biologie des espèces et la distribution spatiale des habitats favorables.
Les résultats obtenus illustrent une forme d’intelligence collective du système, dans laquelle l’organisation globale dépasse largement la somme des trajectoires individuelles.
On retrouve ici des propriétés communes à de nombreux systèmes complexes – colonies d’insectes, réseaux trophiques ou dynamiques sociales humaines. Dans tous les cas, ce sont les relations entre les éléments, bien plus que les éléments eux-mêmes, qui structurent le fonctionnement de l’ensemble.
Un parallèle peut enfin être établi avec l’intelligence artificielle, sans qu’il soit nécessaire de forcer l’analogie. Les modèles que je développe agissent, avant tout, comme des outils de traduction : ils transforment un monde continu, chaotique et tridimensionnel en représentations intelligibles – cartes, matrices de connectivité, probabilités.
Comme en intelligence artificielle, l’enjeu n’est pas de tout contrôler ni de tout prédire, mais d’identifier les échelles pertinentes et les relations clés à partir desquelles le sens peut émerger.
Étudier ces formes d’organisation non humaines nous invite ainsi à repenser notre définition de l’intelligence. Dans un monde marin sans cerveau, sans mémoire explicite et sans intention, des systèmes entiers parviennent pourtant à se maintenir, à se réorganiser et parfois à résister aux perturbations environnementales.
Reconnaître cette intelligence diffuse, incarnée dans des flux et des réseaux, ne revient pas à humaniser la nature, mais à élargir notre regard sur ce que signifie « être intelligent » dans un monde complexe et interconnecté.
Cet article est publié dans le cadre de la Fête de la science (qui a eu lieu du 3 au 13 octobre 2025), dont The Conversation France est partenaire. Cette nouvelle édition porte sur la thématique « Intelligence(s) ». Retrouvez tous les événements de votre région sur le site Fetedelascience.fr.
Céline Barrier ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
29.01.2026 à 15:56
Rose-Marie Borges, Maître de conférences HDR en droit privé , Université Clermont Auvergne (UCA)
Où finit l’inspiration, où commence le plagiat ? Si la question a toujours été complexe à trancher, elle est de plus en plus brûlante alors que les réseaux sociaux permettent à tous de diffuser des contenus à grande échelle et que l’IA brouille le rapport aux sources. Et elle se pose sur les bancs de la fac déjà : peut-on enregistrer son prof ? À quelles conditions partager des images trouvées sur Internet dans un mémoire ? Quelques repères.
Guillaume Musso a-t-il plagié l’ouvrage de Diana Katalayi Ilunga comme l’affirme celle-ci ? La vidéo de Noël avec le loup d’Intermarché constitue-t-elle un plagiat du livre pour enfants Un Noël pour le loup, de Thierry Dedieu ? La chanson On va s’aimer, interprétée par Gilbert Montagné, est-elle un plagiat de la chanson Une fille de France, interprétée par Gianni Nazzaro ?
Ces affaires mettent en lumière les droits que possède l’auteur d’une œuvre sur l’utilisation de celle-ci. Né au XVIIIᵉ siècle, à la suite de l’essor de l’imprimerie, le droit d’auteur protège les œuvres quelle que soit leur nature (musicale, picturale, audiovisuelle) et constitue le lien entre la défense des intérêts des créateurs et la nécessité de permettre la circulation des savoirs et des œuvres.
Les questions relatives au droit d’auteur ne concernent pas simplement les professionnels de la création. Toute personne peut y être confrontée dans son quotidien, dans le cadre de son travail ou de ses études. À l’heure où les réseaux sociaux donnent accès à une multitude d’œuvres et où l’intelligence artificielle (IA) est de plus en plus utilisée, il est facile de ne pas respecter le droit des auteurs, sciemment ou non.
Partant du constat que de très nombreux étudiants ignoraient les principes du droit d’auteur dans la rédaction de leurs travaux, nous avons, avec d’autres enseignants-chercheurs et sous l’impulsion de Marie Latour, créé le MOOC Voler-Coller : stop au plagiat, dont l’objectif est de mieux faire connaître les règles de la propriété intellectuelle aux étudiants, particulièrement de master et de doctorat. Revenons sur quelques-uns de ses enjeux clés.
Le droit d’auteur protège toute œuvre de l’esprit originale, c’est-à-dire portant l’empreinte de la personnalité de l’auteur, qui traduit un apport créatif. Le droit est composé de deux catégories de droits.
Les droits patrimoniaux permettent à l’auteur de contrôler l’utilisation de son œuvre. Cela signifie qu’il peut autoriser ou interdire la reproduction, la représentation ou l’adaptation de son travail. Les droits patrimoniaux peuvent faire l’objet de contrats d’exploitation et bénéficient à l’auteur durant toute sa vie et à ses ayants droit soixante-dix ans après sa mort. Après ce délai, l’œuvre tombe dans le domaine public et peut être exploitée librement.
Les droits moraux garantissent à l’auteur le respect de son nom et l’intégrité de son œuvre. Contrairement aux droits patrimoniaux, ils sont inaliénables et imprescriptibles. Même après la mort de l’auteur, ses héritiers peuvent veiller à ce que sa qualité d’auteur soit respectée et que l’œuvre ne soit pas dénaturée. Par exemple, bien que l’œuvre soit tombée dans le domaine public, les descendants de Victor Hugo conservent un droit moral éternel sur les Misérables, qui leur permettrait de s’opposer à l’adaptation de l’ouvrage en comédie.
Un enseignant bénéficie d’un droit d’auteur sur son cours dès lors que celui-ci est original. De ce fait, toute utilisation de ce cours suppose son autorisation, y compris par les étudiants à qui il est dispensé. Un étudiant ne peut pas capter un cours, quelle que soit la forme de la captation (vidéo, son, photos) et le diffuser, à titre gratuit ou onéreux, sans l’accord de l’enseignant.
De plus, si la captation inclut l’image ou la voix de l’enseignant sans son accord, cela constitue une atteinte aux droits de la personnalité de celui-ci et au droit des données personnelles. À l’inverse, l’étudiant bénéficie également du droit d’auteur sur ses productions, dès lors que celles-ci sont originales. Un enseignant ne pourrait donc pas s’approprier le travail d’un étudiant ou l’utiliser sans son accord.
En principe, toute représentation, reproduction ou modification d’une œuvre est soumise à l’autorisation de l’auteur. Dans un certain nombre de cas, la loi prévoit toutefois qu’une personne peut représenter ou reproduire une œuvre sans avoir à obtenir l’accord de l’auteur. Parmi ces exceptions, le droit de citation et l’exception pédagogique sont particulièrement utilisés dans le cadre académique.
Le droit de citation permet d’utiliser un extrait d’une œuvre protégée sans autorisation, si trois conditions cumulatives sont remplies : la citation doit être courte, elle doit être justifiée par un objectif critique, pédagogique, scientifique ou informatif et elle doit clairement indiquer le nom de l’auteur et la source.
La reproduction de pages entières dans un mémoire ou une thèse ne peut être couverte par le droit de citation et constitue donc du plagiat.
L’exception académique permet aux enseignants et chercheurs d’utiliser certaines œuvres dans un cadre strictement éducatif. Un enseignant pourra par exemple diffuser un extrait de film ou un extrait d’article en classe pour illustrer un cours. En revanche, la diffusion de l’intégralité du film ou de l’article sans autorisation est interdite.
En droit d’auteur, la frontière entre plagiat et inspiration est parfois ténue. Le plagiat suppose une reproduction non autorisée d’une œuvre, sans mention de l’auteur. L’inspiration, en revanche, relève d’un processus créatif où l’on s’appuie sur des idées ou des styles existants pour produire une œuvre nouvelle.
Les idées n’étant pas protégées en tant que telles par le droit d’auteur, on dit qu’elles sont de libre parcours. Tout un chacun peut les reprendre et en donner une expression originale. Ainsi, un auteur qui écrirait une enquête mettant en scène un détective excentrique, doté d’une logique implacable et d’un sens aigu de l’observation rappelant fortement Sherlock Holmes, mais avec ses propres traits de caractère, un contexte différent et une intrigue nouvelle, resterait dans le cadre de l’inspiration.
En revanche, si l’auteur reprend des dialogues, des scènes emblématiques ou des intrigues quasi identiques aux aventures de Sherlock Holmes, sans les transformer ni les citer, cela pourrait être qualifié de plagiat.
Les tribunaux apprécient au cas par cas, en examinant le degré de similitude, l’intention de l’auteur et si l’œuvre nouvelle apporte une véritable originalité ou si elle se contente de copier la forme de l’œuvre antérieure. La frontière se situe donc dans la manière dont l’auteur parvient à injecter une véritable originalité dans son récit.
L’inspiration consiste à reprendre une idée alors que le plagiat reprend une expression originale de l’idée. Par exemple, un étudiant qui doit rédiger un commentaire du Petit Prince, de Saint Exupéry, consulte un site Internet qui propose une analyse détaillée du livre. Si l’étudiant lit l’analyse pour mieux comprendre l’ouvrage et rédige ensuite son propre texte, avec ses propres mots et ses propres exemples, la fiche d’analyse ne constituera qu’une inspiration. En revanche, s’il reprend plusieurs phrases de la fiche, ne change que quelques mots tout en conservant la structure et les idées développées dans le même ordre, sans citer la source, il se rend coupable de plagiat.
L’intelligence artificielle (IA) bouleverse le droit d’auteur dans la mesure où elle s’appuie sur des œuvres existantes pour produire de nouveaux contenus. L’IA peut réutiliser des éléments protégés sans autorisation, parfois de manière subtile, rendant la frontière entre inspiration et reproduction difficile à tracer.
Les auteurs des œuvres originaires craignent, à raison, que leurs œuvres ne soient exploitées sans reconnaissance ni rémunération et que l’usage massif des œuvres existantes par les IA ne fragilise le modèle économique de la création.
Se pose également la question de la titularité des droits sur une œuvre générée par IA : appartiennent-ils à l’utilisateur de l’IA, au concepteur du logiciel ou à personne puisque l’IA n’a pas de personnalité juridique ? À l’heure actuelle, la plupart des juridictions ayant eu à trancher des demandes de protection par le droit d’auteur sur des créations réalisées par l’IA ont rejeté ces demandes.
Certaines décisions ont toutefois admis la protection à des œuvres générées par l’IA. En janvier 2025, l’US Copyright Office a accepté d’accorder une protection par droit d’auteur à l’œuvre A Single Piece of American Cheese réalisée grâce à l’IA Invoke, notamment grâce à la preuve d’une intervention humaine déterminante.
En 2023, un tribunal de Pékin avait déjà déclaré que l’utilisateur de l’IA, à l’origine de la création de l’image litigieuse, était bien le titulaire des droits d’auteur. Ces décisions montrent la nécessité de réfléchir à une adaptation de la législation sur le droit d’auteur ou à la création d’un système de protection hybride.
L’usage de l’IA dans un travail universitaire peut être utile, mais il expose aussi l’étudiant à des risques réels de plagiat, sans qu’il s’en rende compte. Les outils d’IA peuvent générer des phrases ou des formulations très proches de textes existants, sans nécessairement citer la source. Si l’étudiant se contente de copier-coller le texte dans son travail, il peut réaliser un plagiat involontaire. Il faut donc utiliser l’IA pour comprendre, pas pour copier, reformuler les idées avec ses propres mots et vérifier toutes les informations, afin de minimiser les risques.
Le non-respect du droit des auteurs peut avoir des conséquences lourdes, tant financières que réputationnelles. Il faut donc sensibiliser au plus tôt les utilisateurs, qu’ils soient étudiants ou enseignants, au bon usage du droit d’auteur.
Rose-Marie Borges ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
29.01.2026 à 15:55
Aurore Ingarao, Maitre de conférences en Marketing , Université d’Orléans
Charlène Carreteiro, Doctorante en sciences de gestion, Université d’Orléans

Entre la recherche de produits d’exception, des prix bas et la peur de la contrefaçon, le marché des « dupes » est en plein essor. Ces produits qui copient le succès d’une grande marque sont valorisés sur les réseaux sociaux, notamment TikTok. Comment sont-ils perçus par les consommateurs et les professionnels ?
La brosse soufflante Airwrap de Dyson, la crème hydratante Sol de Janeiro ou encore le Birkin d’Hermès… ces produits voient leurs copies s’envoler sur l’Internet. Elles sont mises en avant sur les réseaux sociaux et plus particulièrement sur TikTok à travers des tendances (trend) lancées autour de hashtag intégrant le mot dupe.
Entre la recherche de produits d’exception, de prix bas et la peur de la contrefaçon, le marché des dupes est en plein essor. En 2024, 561 000 de recherches mensuelles pour le terme dupe sont recensés sur Google et 398 100 vidéos sur TikTok. Selon la Fédération des entreprises de la beauté, 31 % des consommateurs ont acheté un dupe de produit cosmétique au cours des 12 derniers mois.
Ce phénomène s’inscrit dans la dynamique du marketing d’influence que nous avons étudié avec Sophie Renault, professeure des universités, dans notre communication scientifique « Tout ce qui brille n’est pas d’or : le défi de l’authenticité dans l’univers complexe du marketing d’influence » (2024). Les créateurs de contenus, en mettant en avant ces inspirations sur les réseaux sociaux, jouent un rôle clé dans la légitimation de l’achat de ces produits, notamment auprès des jeunes générations.
Alors, comment ces produits sont-ils perçus par les consommateurs et les professionnels ?
La contrefaçon est définie par l’Institut national de la propriété intellectuelle (Inpi) comme « la reproduction, l’imitation ou l’utilisation totale ou partielle d’un droit de propriété intellectuelle sans l’autorisation de son propriétaire. Il peut s’agir d’une marque, d’un modèle, d’un brevet, d’un droit d’auteur, d’un logiciel, d’un circuit intégré ou d’une obtention végétale ». La contrefaçon est à distinguer des termes de copycat, imitation, dupe, pingti ou générique.
Désigne des produits qui imitent ceux de marques renommées, donnant l’impression de proposer une offre similaire à moindre coût, mais cette similitude se limite à l’apparence. Les « dupes » ne possèdent absolument rien des caractéristiques de l’original, en termes de matériaux, d’efficacité ou de durabilité.
Une imitation de « l’habillage commercial d’une marque leader, comme son nom ou le design de son emballage, pour profiter de la réputation et des efforts marketing de cette dernière ».
Un « produit ou service, bien que non identique, considéré comme similaire en substance, nom, forme, signification ou intention à un produit ou service reconnu et largement connu actuellement sur le marché. »
Les pingti (« leurre » en mandarin) sont des copies haut de gamme, venant de Chine, de produits de luxe. Seuls les designs et finitions sont reproduits, et non la marque et le logo, les distinguant de la contrefaçon.
Les produits génériques se « caractérisent par leur emballage sobre et l’absence de marque reconnue. Leur principal attrait, pour le consommateur, réside dans l’écart de prix important entre les produits génériques et leurs équivalents de marque. »
Le consommateur a pour première motivation le prix. Près de 39 % des consommateurs déclarent préférer tester un produit équivalent moins cher, afin de comparer son efficacité avec le produit original pour « peut-être » l’acheter par la suite.
Considérer un prix élevé comme un gage de qualité est remis en cause, puisque la qualité des produits est revendiquée comme égale aux originaux, traduisant une culture des dupes.
À lire aussi : Contrefaçon des produits de luxe Vuitton, Saint Laurent, Chanel ou Hermès… Pourquoi la pression sociale l’emporte sur la morale
La valeur perçue repose sur le sentiment de fierté procuré par l’achat de ces copies. Certains acheteurs se considèrent comme des smart shoppers, avec l’impression de contourner les stratégies des marques aux prix élevés. Ces dupes leur permettent de contrôler leur consommation, les libérer des codes élitistes traditionnels, accéder à leurs désirs sans en payer le prix, allant jusqu’à ressentir le plaisir cognitif de la transgression.
Avec pas moins de 180 000 influenceurs recensés en France, les relais auprès des consommateurs sont assurés. Les influenceurs dupes sont définis comme « des individus qui incitent les consommateurs à acheter des contrefaçons via les réseaux sociaux ». Leur force réside dans leur expertise, appréciée par leurs abonnés qui leur font confiance.
Nombreux sont les formats diffusés sur les réseaux sociaux par de célèbres influenceurs. Certains fabricants collaborent avec ces influenceurs pour promouvoir leurs produits. C’est le cas de Celesta, une marque proposant des appareils coiffants comparables à ceux de Dyson, qui a choisi de mener une campagne d’influence sur TikTok.
Le dupe semble accepter par le marché – les fabricants de dupes, les influenceurs, les consommateurs ou les plateformes numériques – comme étant légal, par opposition à la contrefaçon. L’argument principal : le produit ne laisse apparaître ni logo ni nom de marque apparent, souvent caractéristique de la contrefaçon.
La frontière entre l’imitation et l’inspiration se révèle plus mince qu’elle n’y paraît, puisqu’un produit peut être protégé indépendamment de sa marque. Pour certaines d’entre elles, des modèles spécifiques peuvent être protégés au titre du droit d’auteur. Une action en contrefaçon peut être engagée même si la marque n’apparaît pas, selon Vanessa Bouchara, avocate spécialisée dans les questions de propriété intellectuelle.
Contrefaçon ou dupe, ces pratiques très proches ne cessent d’inquiéter les fabricants. L’Union des fabricants (Unifab) alerte et rapproche les deux concepts : « La contrefaçon dupe ». Elle liste des conseils pour être, devenir ou redevenir un consommateur responsable en jouant sur l’affect. « Acheter de la contrefaçon revient à cautionner la perte de plus de 38 000 emplois et 6,7 milliards de revenus en France tous les ans », rappelle l’Unifab.
Des marques tentent de renverser la tendance en surfant sur le buzz généré. C’est le cas d’Olaplex, spécialisée en soins capillaires, qui a lancé l’opération Oladupé en partenariat avec de nombreux influenceurs, mettant en avant un faux dupe de la marque pour montrer que les atouts de l’original sont inégalables.
Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.
29.01.2026 à 15:53
Marie Chaieb, enseignant-chercheur en théologie patristique, UCLy (Lyon Catholic University)
Une rare fresque datant du IIIᵉ siècle représentant Jésus en Bon Pasteur a été mise au jour lors de la découverte d’un tombeau près d’Iznik, en Turquie. Elle nous permet de mieux saisir comment s’est formée l’iconographie symbolique des premiers chrétiens.
La région d’Iznik, l’ancienne Nicée, (Turquie) a été mise à l’honneur récemment par le voyage du pape Léon XIV. Mais elle reste sur le devant de la scène avec la découverte d’un tombeau paléochrétien du IIIᵉ siècle très bien conservé contenant cinq squelettes (dont un nourrisson). Les magnifiques fresques de ce tombeau ont d’emblée attiré l’attention et posent la question des critères artistiques choisis par les chrétiens à cette date haute, et à une période où l’Empire intensifie le rythme des persécutions.
Des campagnes de fouilles régulières avaient déjà mis au jour dans la même région un premier tombeau daté du IVᵉ siècle, époque du concile de Nicée). Dans ce premier tombeau, les paons, symboles d’éternité, étaient mis en valeur : deux paons à la queue traînante, et deux paons faisant la roue ; dans le nouveau tombeau découvert, qui est antérieur, le « motif » principal est la figure d’un jeune homme, imberbe, portant sur ses épaules une des cinq chèvres représentées, sur un fond champêtre de hautes herbes.
Rapidement, les archéologues ont mis en relation cette fresque avec « le Bon Pasteur », une catégorie iconographique qui repose sur la désignation de Jésus comme un berger attentif à son troupeau.
Dans les Évangiles, Jésus lui-même se présente en effet sous ce vocable (cf. Jn 10, 14, « Je suis le bon berger, et je connais mes brebis, et mes brebis me connaissent ») et propose à ses disciples le modèle du bon berger dans la parabole de la brebis égarée (Luc 15, 3-7).
À lire aussi : Quand l’archéologie raconte les grands faits et les petits gestes de notre histoire commune
Utiliser le motif du « bon berger » en contexte funéraire n’est pas rare : les illustrations les plus célèbres traversent les siècles et tout l’Empire, depuis le célèbre Bon Berger de la catacombe de sainte Priscille au IIᵉ siècle, jusqu’au mausolée de Galla Placidia (Ravenne, Vᵉ), en passant par des sarcophages variés tout autour du bassin méditerranéen.
Motif paisible et réconfortant, surtout lorsqu’il est rapproché du Ps 22 :
« Le Seigneur est mon berger : je ne manque de rien. Sur des prés d’herbe fraîche, il me fait reposer. Il me mène vers les eaux tranquilles et me fait revivre »
Ce motif est employé en contexte funéraire pour symboliser la proximité du bon pasteur avec ses brebis, l’accueil du fidèle défunt auprès du Christ et le repos dans la paix ; il exprime la foi en une vie avec lui après la mort. Mais ce motif véhicule aussi un intéressant message au regard de l’insertion du christianisme dans la culture de son temps.
Effectivement, durant les quatre premiers siècles de l’expansion du christianisme, les artistes chrétiens ont créé finalement peu de motifs originaux : le motif du poisson illustre bien cette créativité à partir du mot ichtus qui signifie « poisson » en grec, dans lequel ils ont avec ingéniosité repéré les initiales en acrostiche de « Jésus-Christ, fils de Dieu Sauveur ». Puis au IVᵉ siècle, viendra le motif du chrisme associé à la fin des persécutions et encore plus tard celui de la croix.
Mais aux IIᵉ et IIIᵉ siècles, le plus souvent, les artistes chrétiens ont simplement représenté des scènes de l’Évangile (il est donc faux de dire que les chrétiens n’avaient pas le droit de représenter des images, comme on l’entend dire parfois), ou bien ont réutilisé des motifs païens existants dans lesquels ils ont perçu un lien possible avec leur foi. C’est le cas en particulier pour notre motif du Bon Pasteur.
Deux sources principales d’inspiration pouvaient les guider à propos de ce motif : les représentations d’Hermès « kriophore » d’une part, et les « tableaux » représentant Orphée charmant les animaux de sa lyre. C’est Pausanias, dans sa Description de la Grèce (9.22.1–2), qui explique le cas d’Hermès (Mercure) :
« Ce premier surnom lui fut donné, dit-on, parce qu’il détourna de la ville une maladie contagieuse, en portant un bélier autour des murs ; c’est pour cela que Calamis a fait la statue de Mercure portant un bélier sur ses épaules. »
Le motif étant déjà chargé d’une dimension de salut, les artistes chrétiens y ont perçu l’avantage d’un symbolisme en résonance avec leur foi, capable de « parler » aussi bien à un chrétien que de faire percevoir l’espérance chrétienne à un païen. Le mythe d’Orphée fait aussi écho au contexte funéraire puisque c’est après avoir perdu son épouse Eurydice qu’il se retire dans la nature sauvage, auprès des animaux. Il est le plus souvent entouré d’animaux dangereux (lions, panthères, tigres…) rendus inoffensifs par le pouvoir apaisant de sa cithare. Les artistes chrétiens y voyaient une facile convergence avec les prophéties d’une fin des temps réconciliée :
« Le loup habitera avec l’agneau, le léopard se couchera près du chevreau, le veau et le lionceau seront nourris ensemble… » (Is 11, 6).
Superposer les deux images leur permettait d’« habiter » de leur foi des motifs courants mais aussi de parler à leurs contemporains à travers le langage des symboles. C’est d’ailleurs toujours le cas du paon, dans le tombeau plus tardif, voisin de celui qui nous intéresse. Symbole funéraire connu depuis les Étrusques, le paon est étroitement lié à la mort dans l’antiquité : sa chair réputée imputrescible exprime une espérance de renaissance et d’immortalité, que les chrétiens n’ont pas hésité à accueillir… alors qu’il n’y a pas de paon dans la Bible.
À lire aussi : Les premiers moines chrétiens étaient… des Égyptiens
En période de persécution, ce phénomène est riche de sens. Il permet de dire quelque chose du positionnement des chrétiens dans leur monde. Et du langage symbolique qu’ils partagent avec leur temps. Car il serait trop limité de conclure qu’ils s’emparent de symboles païens pour en faire des symboles chrétiens. Ces symboles sont aussi les leurs culturellement. Au-delà de la question de l’emprunt, cette utilisation des symboles d’Hermès et d’Orphée est fondée sur leur conviction que, malgré les persécutions, un dialogue est possible avec leurs contemporains.
Marie Chaieb ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
29.01.2026 à 12:14
Violaine Nicolas Colin, Maitre de conférence en systématique et phylogéographie, Muséum national d’histoire naturelle (MNHN)

Il est bien plus difficile de prouver une absence que de constater une présence. Il faut donc souvent des années, et un processus minutieux, pour qu’une espèce soit déclarée éteinte. Cela peut-être particulièrement difficile lorsqu’il s’agit d’espèces nocturnes, discrètes ou vivant dans des milieux reculés.
Déclarer une espèce « éteinte », ce n’est pas comme rayer un nom d’une liste. C’est un verdict lourd de sens, prononcé avec une extrême prudence. Car annoncer trop tôt une disparition peut condamner une espèce qui existe peut-être encore quelque part. Alors comment font les scientifiques en pratique ?
Pour en arriver là, les biologistes doivent mener des recherches exhaustives, dans tous les habitats potentiels, aux bonnes périodes (saisons, cycles de reproduction), et sur une durée adaptée à la biologie de l’espèce.
Concrètement, plusieurs indices sont analysés ensemble :
l’absence prolongée d’observations fiables,
des campagnes de recherche répétées et infructueuses,
le temps écoulé depuis la dernière observation confirmée,
et l’état de l’habitat. Si celui-ci a été totalement détruit ou transformé au point d’être incompatible avec la survie de l’espèce, la conclusion devient plus solide.
Autrement dit, on ne déclare pas une espèce éteinte parce qu’on ne l’a pas vue depuis longtemps, mais parce qu’on a tout fait pour la retrouver, sans succès.
À l’échelle mondiale, c’est l’Union internationale pour la conservation de la nature (UICN) qui statue, depuis 1964, via sa célèbre « liste rouge », référence internationale en matière de biodiversité.
La liste rouge classe les espèces selon leur risque d’extinction, en plusieurs catégories allant de « préoccupation mineure » à « éteinte ». Elle est mise à jour régulièrement, accessible en ligne, et donne aujourd’hui le statut de 172 600 espèces.
Bien plus qu’une simple liste d’espèces et de leur statut, elle fournit aussi des informations sur l’aire de répartition, la taille des populations, l’habitat et l’écologie, l’utilisation et/ou le commerce, les menaces ainsi que les mesures de conservation qui aident à éclairer les décisions nécessaires en matière de préservation.
C’est donc un outil indispensable pour informer et stimuler l’action en faveur de la conservation de la biodiversité et des changements de politique. Le processus d’élaboration de la liste rouge implique le personnel de l’équipe d’évaluation et de connaissance de la biodiversité de l’UICN, les organisations partenaires, les scientifiques, les experts de la Commission de la sauvegarde des espèces de l’UICN, ainsi que les réseaux partenaires qui compilent les informations sur les espèces.
L’IUCN déclare une espèce comme « éteinte » quand il n’existe aucun doute raisonnable que le dernier individu a disparu. Des gouvernements ou agences nationales peuvent également déclarer une espèce éteinte localement, sur leur territoire.
Le dodo (Raphus cucullatus) reste l’icône des extinctions causées par l’humain : découvert à la fin du XVIᵉ siècle lors de l’arrivée des Européens sur l’île Maurice, il disparaît moins de cent ans plus tard, victime de la chasse et des espèces introduites.
Mais il est loin d’être un cas isolé, les extinctions récentes touchent tous les groupes du vivant. Si les espèces insulaires représentent une part disproportionnée des extinctions récentes (les îles, bien qu’elles ne couvrent que 5 % des terres émergées, abritent près de 40 % des espèces menacées), les espèces continentales sont également touchées.
Le courlis à bec grêle (Numenius tenuirostris), un oiseau des zones humides, qui hibernait autour de la Méditerranée avant de rejoindre sa Sibérie natale au printemps, n’a plus été observé de manière certaine depuis 1995. Une étude publiée fin 2024 estime à 96 % la probabilité qu’il soit aujourd’hui éteint, victime de l’agriculture intensive et du drainage des marais.
La musaraigne de l’île Christmas (Crocidura trichura), discrète habitante de l’océan Indien, a été officiellement déclarée éteinte en 2025, après quarante ans sans observation malgré des recherches répétées. Les prédateurs introduits (rats, chats) et les perturbations de l’habitat sont les principaux suspects.
Deux escargots polynésiens (Partula dentifera et P. pearcekellyi) ont été officiellement déclarés éteints en 2024. La cause principale de leur disparition serait l’introduction d’un escargot prédateur invasif (Euglandina rosea), une tragédie silencieuse mais fréquente sur les îles.
Chez les plantes, Amaranthus brownii, une plante herbacée annuelle endémique d’une petite île hawaïenne, a été déclarée éteinte en 2018 après plus de trente-cinq ans sans observation malgré des recherches intensives. La destruction de son habitat et l’arrivée d’espèces invasives ont conduit à sa disparition, sans qu’aucune graine ni plant viable n’ait pu être conservé.
Depuis 2024, la liste rouge de l’IUCN comprend aussi des champignons. En mars 2025 la liste évaluait le statut de 1 300 espèces de champignons. Nous sommes loin des 155 000 espèces connues, mais les premières évaluations restent préoccupantes avec 411 espèces de champignons menacées d’extinction, soit près d’un tiers des espèces recensées.
L’histoire de la biodiversité peut être pleine de rebondissements.
Selon le naturaliste, Brett Scheffers et ses collaborateurs au moins 351 espèces ont ainsi été « ressuscitées » en un peu plus d’un siècle, parfois après des décennies d’absence. La perruche nocturne (Pezoporus occidentalis) ou la rousserolle à grand bec (Acrocephalus orinus) en sont des exemples spectaculaires. Il est important de noter que la majorité de ces redécouvertes concerne des espèces si rares ou difficiles à trouver que leur seule occurrence confirmée provenait de leur description initiale. Ces espèces redécouvertes sont donc pour leur grande majorité toujours considérées comme gravement menacées et pourraient disparaître prochainement.
Résultat : on cesse les efforts de conservation… alors qu’il restait peut-être une chance de la sauver. Ce nom fait référence au Roméo de Shakespeare qui renonce à vivre en croyant Juliette morte, alors qu’elle ne l’est pas encore. La conure de Caroline (Conuropsis carolinensis), un perroquet d’Amérique du Nord, pourrait en être un triste exemple. Présumée éteinte au début du XXᵉ siècle cette espèce a probablement survécu plus longtemps comme en atteste les nombreux témoignages locaux (incluant des détails sur son comportement) jusqu’aux années 1950, et peut-être même jusqu’aux années 1960.
Le thylacine, dont le dernier animal (captif) est officiellement mort en 1936, continue de fait d’alimenter de nombreuses rumeurs et témoignages d’observations non vérifiables. Selon l’étude scientifique la plus complète à ce sujet le dernier animal sauvage entièrement documenté (avec des photographies) a été abattu en 1930, mais il n’y aurait aucune raison de douter de l’authenticité de deux carcasses signalées en 1933, ni de deux autres captures suivies de relâchers en 1935 et en 1937. Par la suite, sur une période de huit décennies, 26 morts et 16 captures supplémentaires ont été rapportées, mais sans être vérifiées, ainsi que 271 observations par des « experts » (anciens piégeurs, chasseurs, scientifiques ou responsables) et 698 signalements par le grand public. En 2005, le magazine australien d’information The Bulletin a offert une récompense de plus d’un million de dollars (soit plus 836 000 euros) à quiconque fournirait une preuve scientifique de l’existence du thylacine, en vain. Entre 2014 et 2020, 3 225 sites équipés de pièges photographiques en Tasmanie, totalisant plus de 315 000 nuits de surveillance, n’ont révélé aucune détection pouvant être attribuée à un thylacine.
Prouver une absence est bien plus compliqué que constater une présence. L’UICN préfère donc l’extrême prudence et ne classe une espèce « éteinte » que lorsqu’elle peut l’affirmer avec certitude. En effet, comme nous l’avons vu, officialiser une extinction est un acte lourd de conséquences car cela conduit à clôturer les éventuelles mesures de protection. Ainsi, le requin perdu (Carcharhinus obsoletus) est estimé comme « gravement menacé d’extinction – possiblement éteint » par la dernière publication de la liste rouge de l’UICN en 2020, alors qu’il n’a plus été vu dans ses eaux de la mer de Chine depuis 1934. La liste rouge ne déclarant éteintes que des espèces pour lesquelles il n’y a aucun doute, les extinctions enregistrées sont largement sous-estimées.
De plus, notre vision est biaisée : les vertébrés (en particulier les oiseaux et les mammifères) sont relativement bien suivis, mais l’immense majorité des espèces – insectes, invertébrés, champignons, microorganismes – restent très mal connues et leur taux d’extinction est sous-estimé. Beaucoup d’espèces sont discrètes, minuscules, nocturnes ou vivent dans des milieux difficiles d’accès. Pour la majorité d’entre elles, les données sont quasi inexistantes et elles peuvent disparaître sans que personne ne s’en aperçoive.
Savoir si une espèce a réellement disparu permet de choisir les bonnes stratégies de conservation. Beaucoup d’espèces peuvent encore être sauvées lorsque quelques individus subsistent. C’est par exemple le cas du condor de Californie (Gymnogyps californianus) pour lequel il restait seulement 22 individus à l’état sauvage dans les années 1980. Un programme de capture de ces spécimens, puis d’élevage en captivité et de réintroduction progressive a permis à la population sauvage de réaugmenter progressivement et d’atteindre 369 individus en 2024.
À l’inverse, un diagnostic erroné – trop optimiste ou trop pessimiste – peut détourner les efforts au mauvais moment.
L’extinction est un fait biologique, mais c’est aussi un défi méthodologique. Entre prudence scientifique, incertitudes du terrain et illusions collectives, établir la frontière entre « menacée » et « éteinte » reste l’un des exercices les plus sensibles de la conservation moderne.
Violaine Nicolas Colin a reçu des financements de l'ANR
29.01.2026 à 11:29
Garritt C. Van Dyk, Senior Lecturer in History, University of Waikato
Copie assumée de l’Arc de triomphe parisien, l’« Independence Arch », déjà surnommé « Arc de Trump », s’inscrit dans une longue tradition monumentale, entre célébration du pouvoir, réécriture du passé et affirmation politique.
Donald Trump a pris le temps cette semaine, alors que l'actualité internationale et américaine était particulièrement chargée, de présenter trois nouvelles propositions architecturales pour son projet d’« Independence Arch » à Washington. Les trois rendus rappellent clairement l’Arc de triomphe de la place de l’Étoile à Paris, même si l’un d’eux se distingue par des ornements dorés, dans la lignée des choix décoratifs de Trump pour le Bureau ovale de la Maison-Blanche.
Commandée en vue du 250ᵉ anniversaire de la signature de la Déclaration d’indépendance des États-Unis, le 4 juillet, cet arc de triomphe s’inscrit dans une longue tradition de monuments célébrant les victoires militaires, des empereurs romains à Napoléon Bonaparte.
Ce projet de monument participe ainsi pleinement de la politique étrangère de Donald Trump et de l’ambition qu’affiche ce dernier de voir les États-Unis étendre leur contrôle sur l’« hémisphère occidental » – une orientation que le président a lui-même baptisée la « doctrine Donroe ».
Mais une question demeure, largement posée : alors que le projet copie l’Arc de triomphe, monument emblématique s’il en est, un hommage personnel est-il vraiment la manière la plus pertinente de marquer l’anniversaire de la rupture des États-Unis avec le pouvoir absolu et la monarchie britannique ?
Lorsque Donald Trump a présenté pour la première fois, en octobre 2025, des maquettes de l’arche envisagée, un journaliste lui a demandé à qui elle était destinée. Trump a répondu : « À moi. Ce sera magnifique. » Dans une déclaration faite en décembre, le président a affirmé que la nouvelle arche « sera comme celle de Paris, mais pour être honnête avec vous, elle la surpasse. Elle la surpasse à tous les niveaux ».
Une exception toutefois, a-t-il précisé :
« La seule chose qu’ils ont, c’est l’histoire […] Je dis toujours que c’est la seule chose avec laquelle on ne peut pas rivaliser, mais nous finirons par avoir cette histoire nous aussi. »
Le président est manifestement convaincu que son arche contribuera à forger cette histoire. « C’est la seule ville au monde d’une telle importance qui ne possède pas d’arc de triomphe », a-t-il déclaré à propos de Washington, DC.
Prévue à proximité du cimetière national d’Arlington et du Lincoln Memorial, l’implantation placerait la nouvelle structure en dialogue visuel avec plusieurs des monuments les plus emblématiques de la capitale fédérale.
Le projet s’inscrit par ailleurs dans une série d’initiatives destinées à laisser l’empreinte de Donald Trump sur le paysage bâti de Washington : les transformations apportées à la Maison-Blanche l’an dernier, avec notamment la minéralisation du célèbre Rose Garden, la décoration du Bureau ovale dans un style rococo doré, ou encore la démolition de l’East Wing pour permettre une extension de la salle de bal estimée à 400 millions de dollars (334,5 millions d’euros).
Surnommé l’« Arc de Trump », le projet est désormais la « priorité absolue » de Vince Haley, directeur du Conseil de politique intérieure de la Maison-Blanche.
L’Arc de triomphe de Paris, situé au sommet des Champs-Élysées, est une commande de Napoléon Bonaparte (1804-1814/1815) en 1806 pour honorer l’armée impériale française après sa victoire à la bataille d’Austerlitz (2 décembre 1805). Il ne sera achevé qu’en 1836, sous la Restauration et le règne de Louis-Philippe (1830-1848), dernier roi de France.
Les architectes du projet, Jean-François Chalgrin et Jean-Arnaud Raymond, se sont inspirés des arcs antiques, en prenant pour modèle principal l’arc de Titus à Rome (vers 85 de notre ère). Celui-ci fut érigé par l’empereur Domitien (51–96 de notre ère), tyran cruel et ostentatoire, populaire auprès du peuple mais en conflit permanent avec le Sénat, dont il avait restreint le pouvoir législatif. L’arc fut commandé par Domitien pour célébrer à la fois l’apothéose de son frère Titus et sa victoire militaire contre la rébellion en Judée.
Par ses références, l’arche proposée par Trump ne renvoie à aucun élément de conception spécifiquement américain. Son style néoclassique s’inscrit en revanche dans la continuité de monuments plus anciens, eux aussi inspirés de l’Antiquité.
Le Washington Monument, par exemple, adopte la forme d’un obélisque égyptien. Ce pilier à quatre faces, qui s’amincit en s’élevant et se termine par une pyramide, rend hommage au dieu solaire Rê. Mais il intégrait aussi un élément destiné à symboliser les avancées technologiques et l’esprit d’innovation américains : un pyramidion en aluminium. Lorsque l’obélisque a été achevé en 1884, l’aluminium était un matériau rare, le procédé permettant de le raffiner n’étant pas encore maîtrisé. Le sommet du monument constituait alors la plus grande pièce d’aluminium moulé au monde.
L’arc de triomphe voulu par Trump s’inscrit dans un débat de longue date sur les monuments publics et sur ce qu’ils disent des valeurs qu’une société choisit de mettre en avant.
Ainsi, pendant le mouvement Black Lives Matter, de nombreuses statues de figures historiques ont été retirées de l’espace public, car elles étaient perçues comme glorifiant le racisme et l’impérialisme. Donald Trump a depuis fait remettre en place au moins une statue confédérée renversée à cette période, et son ambition d’ériger un monument à sa propre personne ne saurait donc surprendre.
Sous le régime des lois Jim Crow (1877, abrogées en 1964), qui ont institutionnalisé la ségrégation raciale, puis durant le mouvement des droits civiques, le nombre de monuments consacrés aux soldats et aux généraux confédérés a connu une nette hausse.
De la même façon que le déboulonnage de ces statues relevait d’un geste politique, l’érection d’un nouveau mémorial destiné à promouvoir la lecture positive que Trump propose de l’histoire nationale en constitue un autre. Le projet s’intègre d’ailleurs dans la mission revendiquée par son administration de « restaurer la vérité et la raison dans l’histoire américaine ».
Reste une question plus immédiate : l’Independence Arch pourra-t-il seulement voir le jour d’ici au 4 juillet, jour de la fête nationale ? Un défi de taille, même pour ce président. Quant à son accueil, l’histoire tranchera.
Garritt C. Van Dyk a reçu des financements du Getty Research Institute.
29.01.2026 à 09:57
Laurent Bainier, Directeur de la rédaction The Conversation France, The Conversation

Elle a rédigé le rapport « Défendre et promouvoir la liberté académique », commandé par France Universités. Stéphanie Balme, directrice du Centre de recherches internationales de Sciences Po et experte de la diplomatie scientifique, était l'invitée vendredi 23 janvier de notre émission « La Grande Conversation », en partenariat avec CanalChat Grandialogue.
La liberté académique est aujourd’hui confrontée à des tensions inédites : pressions politiques, restrictions budgétaires, ingérences étrangères et remise en question des principes d’indépendance scientifique. Ces enjeux, qui touchent les chercheurs et les institutions en France comme à l’international, interrogent notre capacité à produire un savoir libre et critique.
Lors de cette émission, nous abordons avec Stéphanie Balme, rédactrice du rapport« Défendre et promouvoir la liberté académique », le rôle des institutions et des politiques publiques pour la protéger. Quelles mesures prendre pour assurer sa défense? Comment répondre aux critiques récurrentes d'une partie de l'opinion publique? Quelles leçons tirer de ce qui se passe sur les campus américains ? Une émission à retrouver sur notre chaîne YouTube.
28.01.2026 à 16:14
Frank Chouraqui, Senior University Lecturer in Philosophy, Leiden University

La crise de la démocratie est liée à une crise du rapport à la vérité mais aussi à une crise de sens, qu’il est important de distinguer de la première. La démocratie cherche à construire un monde porteur de sens, et pas seulement un univers de connaissances permettant la délibération. La rupture des liens sociaux, historiques ou culturels, qui donnent du sens à nos existences, est une aubaine pour les ennemis de la démocratie.
Nous sommes au cœur d’une crise de la vérité. La confiance dans les institutions publiques du savoir (les écoles, les médias traditionnels, les universités et les experts) n’a jamais été aussi faible, et des menteurs éhontés obtiennent des victoires politiques partout dans le monde. On pourrait penser que, collectivement, nous avons cessé de nous soucier de la vérité.
La fébrilité des démocrates face à cette crise repose en partie sur l’idée qu’il n’y a pas de démocratie sans vérité. Mais cette approche n’est pas sans conséquence. Surestimer la valeur de la vérité peut conduire à négliger d’autres exigences démocratiques, ce que ne manquent pas d’exploiter les ennemis de la démocratie. Les philosophes ont avancé plusieurs arguments en faveur d’un lien entre vérité et démocratie. Il semble que l’idée soit si répandue qu’on oublie de l’examiner : la démocratie représente tout ce que nous aimons, et la vérité en fait partie.
Mais il existe des manières plus sophistiquées d’exprimer cette conception. Le philosophe allemand Jürgen Habermas soutient qu’une démocratie en bonne santé possède une culture délibérative, et que la délibération exige des « prétentions à la validité ». Lorsque nous parlons de politique, nous devons nous donner la peine d’essayer de nous assurer que ce que nous disons est vrai.
Maria Ressa, journaliste philippine et lauréate du prix Nobel de la paix, soutient de manière similaire que la démocratie a besoin de la vérité parce que : « Sans faits, il ne peut y avoir de vérité. Sans vérité, il ne peut y avoir de confiance. Sans ces trois éléments, nous n’avons pas de réalité partagée, et la démocratie telle que nous la connaissons – ainsi que toute entreprise humaine porteuse de sens – disparaissent. »
Mais avons-nous vraiment besoin de la vérité pour partager la réalité ? En pratique, la plupart de nos expériences de réalités communes n’impliquent pas la vérité. Pensez aux mythes, au sentiment de voisinage, ou au sens de la communauté, peut-être même à la religion, et certainement à la réalité partagée ultime : la culture elle-même. On ne peut soutenir que nous partageons la culture de notre communauté parce qu’elle est vraie ou parce que nous la croyons vraie. Certains pourraient affirmer que la démocratie est liée à la vérité parce que la vérité serait en quelque sorte neutre : ceux qui cherchent à dire la vérité, contrairement aux menteurs ou aux populistes de l’ère de la post-vérité, doivent rendre des comptes. Ils sont soumis aux règles de la vérité. Concluons que le lien entre démocratie et vérité ne tient qu’à cela : la démocratie est sans doute plus liée à la responsabilité qu’elle ne l’est nécessairement à la vérité.
Quoi qu’il en soit, le problème demeure : comme Ressa et Habermas le reconnaissent eux-mêmes, le but de la démocratie est de promouvoir des « entreprises humaines porteuses de sens ». La démocratie a pour vocation de construire un monde dans lequel les êtres humains peuvent vivre de manière pleinement humaine. Or, cela ne peut être assuré par la seule vérité. Une vie véritablement humaine exige non seulement la connaissance de faits concernant la réalité, mais aussi une compréhension subjective du monde et de la place que l’on y occupe. Nous oublions souvent que, bien qu’elles aillent fréquemment de pair, ces deux exigences peuvent aussi entrer en conflit. Cela tient au fait que la vérité relève des faits, tandis que le sens relève de la compréhension.
La compréhension, contrairement à la connaissance, relève de la manière dont nous regardons le monde, de nos habitudes de pensée et de nos constructions culturelles – principalement les identités, les valeurs et les institutions. Ces éléments remplissent leur fonction, qui est de nous faire sentir chez nous dans le monde, sans pour autant formuler la moindre prétention à la vérité. Selon la philosophe allemande Hannah Arendt, il s’agit là de la seule fonction de la politique, proprement entendue.
Trop souvent, l’esprit démocratique disqualifie ces éléments en les réduisant à des préjugés et à des superstitions. L’association populaire entre démocratie et vérité conduit à une dévalorisation du domaine du sens, qui demeure le but d’une politique humaniste. C’est ce qu’ont bien vu nombre de critiques de la modernité et du capitalisme quand ils critiquent la tendance des démocraties modernes à se soumettre a une « raison instrumentale » qui privilégie le prouvable sur le valable.
Les défenseurs de la vérité démocratique feraient bien de se souvenir que la démocratie cherche à construire un monde porteur de sens, et pas seulement un univers de connaissances arides et de recherche factuelle. L’actualité montre que négliger ce principe implique de lourdes conséquences politiques. L’insistance sur la vérité et la dévalorisation du sens ont conduit à la dépression moderne bien connue, souvent décrite comme un sentiment d’aliénation – une rupture des liens sociaux, historiques et traditionnels. Et cela a des répercussions politiques. Car le valable prendra sa revanche sur le prouvable, au risque de le sacrifier. C’est ce que l’on observe sous le néologisme de post-vérité ; un humanisme monstrueux et tordu mais qui trouve son succès dans le faiblesses de l’association entre démocratie et vérité. Car cette aliénation a également constitué un terrain fertile pour les populistes et les antidémocrates qui prétendent répondre à la crise du sens. Ce n’est pas un hasard si les thèmes récurrents du populisme contemporain sont ceux de l’appartenance, de la tradition, de l’identité, des origines et de la nostalgie.
Nous traversons une crise de la vérité, mais nous sommes aussi confrontés à une crise du sens. Lorsque nous accordons une importance excessive à la vérité au détriment du sens, nous nourrissons un sentiment d’aliénation et livrons les citoyens aux mains des ennemis de la démocratie. Nous ferions bien de construire nos démocraties en gardant à l’esprit que l’attachement à la vérité n’est qu’une condition parmi d’autres – et très partielle – d’une vie véritablement humaine.
Frank Chouraqui est membre (non actif) du parti politique néerlandais Groenlinks-PvdA (centre gauche).
28.01.2026 à 16:13
Virginie Tisserant, Enseignante-Chercheure Histoire de la Politique (laboratoire Telemme-CNRS), Aix-Marseille Université (AMU)

L’opération qui a permis aux États-Unis de capturer Nicolas Maduro n’a, en soi, pas grand-chose de nouveau : fondamentalement, Washington considère l’Amérique latine comme sa chasse gardée depuis deux cents ans, et ne s’est pas privé d’y intervenir par la force tout au long de cette période, y compris à de multiples reprises au XXᵉ siècle. Ce qui constitue un vrai changement, c’est le fait que le prétexte démocratique n’est pratiquement plus invoqué, Donald Trump assumant ouvertement que l’objectif premier de son opération est la prise de contrôle du pétrole vénézuélien. Cet épisode est révélateur de l’époque actuelle, où les grandes puissances ne s’embarrassent plus guère de prétendre agir au nom de la liberté des peuples et ne cachent plus que leurs intérêts bien compris sont leur unique moteur.
L’enlèvement du président vénézuélien Nicolas Maduro par les États-Unis, le 3 janvier 2025, et la réaction de la communauté internationale à cet événement illustrent un phénomène en cours depuis plusieurs années : le passage brutal de l’ordre mondial libéral vers un ordre réaliste, c’est-à-dire reposant avant tout sur la loi du plus fort.
Tout au long du XXᵉ siècle, l’ingérence historique et le rôle messianique des États-Unis en Amérique latine et ailleurs dans le monde ont permis d’asseoir l’hégémonie internationale de Washington. Cette hégémonie, devenue totale avec la chute du bloc soviétique à la fin des années 1980, est fortement remise en cause depuis les attentats de 2001. Des spécialistes comme Fareed Zakaria ou Hubert Védrine ont théorisé un monde « post-américain » : au XXIᵉ siècle, face à la montée des BRICS et la désoccidentalisation du monde, les États-Unis ne seraient plus leaders mais pivot des relations internationales.
Dans la Stratégie de sécurité nationale publiée en novembre 2025, l’administration Trump réaffirme la volonté des États-Unis de demeurer une puissance structurante de l’ordre international tout en dénonçant « la vision destructrice du mondialisme et du libre-échange » ainsi que la responsabilité des élites qui « ont lié la politique américaine à un réseau d’institutions internationales, dont certaines sont animées par un anti-américanisme pur et simple et beaucoup par un transnationalisme qui cherche explicitement à dissoudre la souveraineté des États individuels ». Le document s’en prend également à la Chine qui a su utiliser « l’ordre international fondé sur des règles » pour s’implanter en Amérique latine reléguée, dans le document, au rang de part de l’« hémisphère » destiné à être dominé par Washington.
Dès le 2 décembre 1823, l’interventionnisme des États-Unis en Amérique latine est institutionnalisé par la doctrine Monroe qui affirme que « toute intervention dans les affaires du continent américain serait considérée comme une menace pour leur sécurité et pour la paix ».
En 1904, dans le « corollaire Roosevelt à la doctrine Monroe », le président Theodore Roosevelt déclare :
« L’injustice chronique ou l’impuissance qui résulte d’un relâchement général des règles de la société civilisée peut exiger, en fin de compte, en Amérique ou ailleurs, l’intervention d’une nation civilisée et, dans l’hémisphère occidental, l’adhésion des États-Unis à la doctrine de Monroe peut forcer les États-Unis, à contrecœur cependant, dans des cas flagrants d’injustice et d’impuissance, à exercer un pouvoir de police international. »
Les États-Unis s’autorisent ainsi le droit d’intervenir s’ils jugent que leurs intérêts commerciaux et politiques sont menacés. Tout au long du XXe siècle, sous couvert de moderniser les économies latino-américaines, ils mettent en place des chefs d’État compatibles avec leurs intérêts politiques et commerciaux.
L’implantation de la culture de la banane dans les Caraïbes permet à l’United Fruit Company (UFCO) de servir directement ses intérêts. Au Guatemala, en réaction aux réformes agraires qui auraient directement porté préjudice aux intérêts de la firme internationale, la CIA organise en 1954 un coup d’État contre le président Jacobo Arbenz.
Au Venezuela, la première loi nationale d’hydrocarbures est promulguée en 1920. Dès 1921-1922, des juristes états-uniens font pression pour la modifier. Les États-Unis maintiennent d’excellents rapports avec le dictateur en place, Juan Vicente Gomez, président du Venezuela de 1908 à 1913, de 1922 à 1929 puis de 1931 à 1935. Ils investissent alors massivement dans le pétrole vénézuélien, dont l’Europe a d’ailleurs également bien besoin. Et jusqu’en 1938, il n’y a ainsi pas de trace de comptabilité.
Par la suite, ça sera sous couvert de la défense du continent contre le communisme que Washington interviendra en Amérique latine en formant les militaires, par exemple au Chili en 1973, en contribuant au renversement du président socialiste Salvador Allende et à son remplacement par le dictateur Augusto Pinochet. On peut également mentionner la formation idéologique des élites latino-américaines à la pensée nord-américaine à travers la doctrine de Milton Friedman : les « Chicago Boys » vont mettre cette vision en pratique dans plusieurs pays du continent.
Au début du XXᵉ siècle, la création des organisations internationales repose sur l’élaboration d’un ordre mondial qui assoit, par les institutions, un projet de société libéral. Le rôle prépondérant des normes et de la coopération permettent de pacifier les relations internationales mais également de défendre, par les institutions, les intérêts des grands industriels américains. L’objectif pour les États-Unis et leurs grands industriels est de pouvoir influencer l’élaboration des normes. C’est ce qu’il se passe avec la Société des Nations (1920-1946) : le gouvernement américain envoie des experts dans les différentes commissions.
Le phénomène d’ouverture des économies nationales sur le marché mondial entraîne une interdépendance croissante des pays entre eux qui évitent ainsi de se faire la guerre. Cette interdépendance permet également d’asseoir l’universalisation des enjeux et des cultures dans l’ordre mondial libéral et de solder la « brutalisation » de l’Histoire que représentent les deux guerres mondiales par la libéralisation des sociétés.
Dès lors, la paix repose sur la construction de réseaux de coopération et sur le libre-échange, s’inspirant du modèle porté par Montesquieu ou sur la diffusion du modèle politique démocratique développé par Kant. La liberté politique coïncide avec la liberté économique et le degré d’ouverture des sociétés. Les États libéralisés ont donc intérêt à développer le commerce pour renforcer le lien social entre les individus et assurer la protection des libertés individuelles, ce qui régule les excès de pouvoir. Entre 1945 et 1989, le conflit se déplace dans l’usage des institutions internationales. La guerre d’influence que se livrent les deux blocs antagonistes se manifeste par l’usage massif du droit de veto au Conseil de sécurité de l’ONU.
Alors que la construction de réseaux forts et durables a permis aux États-Unis de demeurer la superpuissance dominante et structurante dans l’ordre mondial du XXᵉ siècle, l’effondrement du mur de Berlin et l’éclatement de l’URSS consacrent le triomphe des valeurs libérales. Mais le nouveau siècle s’ouvre avec une remise en question profonde de l’hégémonie américaine, qui se matérialise par les attentats du 11 septembre 2001 et la large contestation ultérieure de l’intervention en Irak à partir de 2003. On se souvient à ce titre de la prise de parole d’Hugo Chavez à l’ONU en 2006 : à propos d’une intervention la veille de George W. Bush, il déclare : « Hier le diable était présent, dans ce lieu même, ça sent toujours le soufre. » Cette remise en cause prend également une dimension économique avec l’entrée de la Chine au sein de l’OMC en 2001 et la constitution des BRICS une dizaine d’années plus tard.
Ce basculement de l’ordre mondial libéral vers un ordre mondial relatif sert la volonté des BRICS+. Le groupe, désormais composé d’une dizaine d’États, est dominé par le couple sino-russe, qui dans une déclaration commune publique du 4 février 2022 proclame que :
« […] La nature universelle des droits humains doit être vue à travers le prisme de la situation réelle de chaque pays particulier, et les droits humains doivent être protégés en fonction de la situation spécifique de chaque pays et des besoins de sa population. Selon cette perspective, les principes du droit international comme l’universalisme des droits humains doivent désormais être envisagés selon une définition relative aux critères de développement des États. »
Dans la Stratégie de sécurité nationale de l’administration Trump, l’usage de la notion d’« hémisphère » pour qualifier le continent hispanique réactive pleinement la doctrine Monroe :
« Nous affirmerons et appliquerons un “corollaire Trump” à la doctrine Monroe. »
Le texte pose ainsi un nouveau cadre diplomatique international qui envisage la paix à partir de la menace du recours à la force, faisant basculer la coopération à une relation d’obligés : le bandwagoning. C’est d’ailleurs ce que fait ouvertement Donald Trump lorsqu’il menace de surtaxer huit nations européennes, dont la France, si elles s’opposent à sa volonté d’annexer le Groenland. Cette perspective est d’ailleurs reconnue par Emmanuel Macron qui, dans ses vœux aux Français pour 2026, constate que « la loi du plus fort tente de s’imposer dans les affaires du monde ».
Cette évolution traduit à la fois une nouvelle phase de la mondialisation, un retour des empires dans les normes et un basculement des valeurs vers le relativisme qui consacre la régionalisation du monde envisagé désormais en sphères. Cette fin du monde de Yalta permet à trois blocs et zones d’influence de s’affirmer : la Chine, la Russie et l’Amérique. Mais au-delà des normes et des valeurs, au XXIᵉ siècle, comme dans l’histoire de l’humanité et des conflits, leur compétition demeurera principalement sur les ressources.
Virginie Tisserant ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
28.01.2026 à 16:12
Maya Leclercq, Postdoctorante en anthropologie, Institut de recherche pour le développement (IRD)
Catherine Sabinot, Ethnoécologue et anthropologue, Institut de recherche pour le développement (IRD)
Les îles du Pacifique sont parmi les plus exposées aux aléas climatiques. Leur histoire les rend aussi particulièrement dépendantes des importations pour se nourrir. Mobiliser les savoirs locaux pour renforcer la souveraineté alimentaire et la résilience des territoires insulaires face au changement climatique est donc crucial.
« Depuis deux ans, peut-être, on ressent quand même qu’il y a un changement au niveau climatique, au niveau de la pluie. Avant, c’était assez fixe. On sait que juillet, c’est [la] saison fraîche […]. Mais l’année dernière, on était en sécheresse depuis juin jusqu’à novembre », constate un homme sur la presqu’île de Taravao, en Polynésie.
Sur l’île de Moorea, à 70 km de là, une femme renchérit.
« C’est vrai qu’on a remarqué les changements climatiques, quand on était plus petit, tu voyais bien les saisons […]. Maintenant, même sur les abeilles, on le voit. Normalement, là, ça y est, on est en période d’hiver austral, de juin jusqu’à septembre, on n’a plus de [miel]. Là, elles continuent encore à produire. Même les abeilles, elles sentent qu’il y a eu un changement. »
Les îles du Pacifique ont régulièrement été confrontées à des événements météorologiques parfois violents : fortes chaleurs, sécheresses, cyclones… L’une des premières conséquences du changement climatique est l’augmentation de la fréquence et/ou de l’intensité de ces évènements, auxquels sont particulièrement exposées les îles du Pacifique.
En effet, de par leur nature insulaire, ces phénomènes affectent l’intégralité des terres, qui sont également plus sensibles à la montée du niveau des océans.
L’agriculture est un secteur important pour ces îles. C’est à la fois une source de nourriture et de revenus pour les agriculteurs comme pour les personnes qui cultivent un jardin océanien. Ces jardins, qui regroupent une grande diversité d’espèces végétales (fruits, légumes, tubercules, plantes aromatiques et parfois médicinales), favorisant la biodiversité dans son ensemble, sont largement répandus dans les îles du Pacifique et particulièrement en Polynésie où ils constituent une part significative de l’identité polynésienne. Les surplus de productions sont régulièrement vendus au bord des routes.
Les impacts du changement climatique présents et à venir sur l’agriculture sont considérables et risquent d’affecter la sécurité alimentaire des îles du Pacifique, fragilisées entre autres par leur dépendance aux importations alimentaires. Les habitants s’y préparent déjà et ont déployé une culture du risque, nourrie de savoirs et de savoir-faire sans cesse renouvelés pour y faire face.
Si les savoirs autochtones et locaux sont depuis longtemps identifiés par leurs détenteurs et par les chercheurs en sciences humaines et sociales pour leur potentiel d’adaptation à l’environnement, une attention particulière leur est portée depuis les accords de Paris en 2015. Ils sont depuis internationalement reconnus comme ressource pour comprendre le changement climatique et ses effets et également pour mettre au point des actions pertinentes pour l’adaptation.
Dans le cadre du projet CLIPSSA, notre équipe a mené des entretiens auprès des cultivateurs et cultivatrices des îles du Pacifique pour comprendre comment se construisent leurs cultures du risque, leurs savoirs et pratiques agricoles pour faire face aux effets du changement climatique.
Face aux fortes chaleurs ou aux fortes pluies qui comptent parmi les effets marquants du changement climatique dans la région, les cultivateurs du Pacifique combinent par exemple différentes techniques comme le paillage (protéger un sol avec de la paille, du fumier, ou de la bâche plastique), la diversification et l’adaptation des types de cultures et de plantations…
Ces différents savoirs et techniques sont parfois transmis par les aînés, parfois expérimentés par soi-même, parfois observés chez d’autres cultivateurs. À Tahiti et à Moorea, deux îles proches de l’archipel de la Société, en Polynésie française, les jardins océaniens (faaapu en tahitien) sont des lieux clés où ces savoirs circulent, s’échangent, s’expérimentent et s’hybrident.
Ces savoirs autochtones, locaux sont avant tout ancrés dans un territoire et adaptés à leur environnement et à ses changements : à ce titre, ils sont en constante évolution. Pourtant, on les désigne souvent comme des savoirs traditionnels ou ancestraux, ce qui peut sous-entendre qu’ils sont transmis à l’identique, de génération en génération. Mais comment ces savoirs ancestraux habitent et nourrissent les savoirs locaux aujourd’hui ?
La figure des Anciens (tupuna) est importante en Polynésie ; particulièrement en agriculture. En effet, le secteur agricole a connu d’importants changements dans les années 1970, avec l’arrivée du Centre d’expérimentation du Pacifique : la mise en œuvre des essais nucléaires a eu de nombreuses conséquences sanitaires, mais aussi économiques (tertiarisation de l’économie polynésienne), et agricoles (développement des importations, notamment alimentaires).
Si le secteur agricole n’a pas pour autant disparu, il a été marginalisé pendant cette période, créant ainsi une rupture dans la transmission des savoirs. Cette rupture a contribué à renforcer l’estime portée aux savoirs agricoles des Anciens qui ont commencé à cultiver avant cette période de changements et s’inscrit dans la continuité de la réappropriation culturelle de l’identité polynésienne, matérialisée, entre autres, par les liens et références à ses ancêtres.
Ainsi, la transmission des connaissances et pratiques des Anciens reste importante, dotée d’une valeur symbolique forte et largement citée par les Polynésiens ; au point où nous pouvons parler d’un socle de savoirs ancestraux.
Mais l’on ne cultive plus aujourd’hui en Polynésie comme l’on cultivait dans les années 1950 ; l’agriculture s’est modernisée, ouverte aux intrants et à de nouvelles cultures. Ce socle s’est donc enrichi de nombreuses influences (modernisation de l’enseignement agricole, tutoriels issus des réseaux sociaux…).
C’est ce que tâche de faire Thierry, qui s’occupe d’un faaapu depuis une quarantaine d’années sur la presqu’île de Tahiti. Cet habitant cultive sur quelques hectares plusieurs dizaines de variétés de bananes, tubercules, coco, agrumes, avocats, destinées à l’autoconsommation mais aussi à la vente.
Le socle de connaissances (savoirs et pratiques) principalement mobilisé par Thierry est celui des savoirs ancestraux, considérés comme une base de savoirs auxquels se référer. Par exemple, il mobilise des indicateurs environnementaux pour planifier ses activités, comme la floraison d’une Zingiberacée qui annonce une période d’abondance pour la pêche, signifiant aux agriculteurs qu’ils doivent se préparer à laisser leurs cultures quelques semaines pour se concentrer sur une activité complémentaire.
Sa parcelle est traversée par une rivière, principale source d’irrigation de ses cultures. Mais pour faire face aux périodes de fortes sécheresses qui peuvent assécher la rivière, ce qu’il observe depuis 2008, il utilise également des bidons en plastique dans lesquels il stocke de l’eau à proximité de ses cultures.
Il utilise aussi le paillage, une technique de recouvrement des sols pour les protéger et garder l’humidité, en disposant des palmes de cocotiers, des troncs de bananiers qu’il complète avec des cartons depuis qu’il a constaté l’assèchement annuel de la rivière :
« Alors, moi, je ne vais pas aller par quatre chemins, nous raconte-t-il. Je vais mettre des cartons par autour. Je vais aller chez les commerçants, leur demander des cartons vides. Je vais mettre par autour parce que je n’ai pas envie de passer mon temps courbé. Après, tu lèves, tu retires. »
Plus globalement, d’une année sur l’autre, Thierry adapte ses cultures en fonction de l’évolution du climat qu’il ressent et décrit ; par exemple en plantant des tubercules, comme le taro, un tubercule tropical adapté au milieu humide.
« Avant, il n’y a jamais d’eau qui coulait ici. Jamais. Et depuis deux-trois ans… Avec cette pluie qui tombe à partir de février-mars, je veux planter des taros, là. Comme ça, je m’adapte, je tire pour le prix de cette eau qui tombe gratuitement. »
À travers l’exemple du faaapu de Thierry, nous pouvons observer que si les savoirs ancestraux restent le socle de références mobilisé pour cultiver, pour faire face aux aléas du changement climatique, il n’hésite pas à adapter ses pratiques, introduire des matériaux ou changer certaines de ses cultures.
Évoquer les savoirs autochtones et locaux renvoie généralement aux notions de « savoirs traditionnels », de « savoirs ancestraux ». Ces savoirs peuvent effectivement avoir un ancrage temporel, beaucoup sont transmis depuis plusieurs générations par exemple. Mais il s’agit d’abord de savoirs ancrés localement, adaptés à leur environnement, qui, à ce titre, ont la capacité de se transformer, de s’hybrider avec d’autres types de savoirs mais aussi de se cumuler, comme nous avons pu le voir dans l’étude de cas présentée.
Face à l’urgence du changement climatique et de ses impacts en milieu insulaire, les politiques publiques locales, nationales ou globales recherchent souvent des solutions d’atténuation ou d’adaptation efficaces et radicales, en misant sur les innovations technologiques, l’ingénierie climatique, les énergies renouvelables…
Au-delà des changements importants et à grande échelle, qui peuvent aussi être complexes, longs et coûteux à mettre en place, les stratégies locales d’adaptation doivent également être envisagées comme des solutions. En revanche, ces solutions locales sont rarement des pratiques délimitées et liées à des savoirs « extraordinaires » (c’est-à-dire en dehors du cours ordinaire des règles et normes attendues). L’adaptation au changement climatique se fait plutôt par succession de petites adaptations, parfois invisibles, dont la configuration est presque unique à chaque agriculteur ou jardinier.
En Polynésie, c’est l’articulation d’un socle de savoirs ancestraux, combiné avec de nombreuses autres ressources, qui fait aujourd’hui la richesse des savoirs agricoles locaux et permet de s’adapter à certains effets du changement climatique. Ces savoirs sont une ressource précieuse à étudier et à mobiliser pour faire face aux risques systémiques du changement climatique qui pèsent sur les petits territoires du Pacifique et notamment sur l’agriculture et la souveraineté alimentaire.
Nous tenons à remercier à Alexi Payssan (anthropologue, Tahiti) pour les échanges inspirants concernant cet article.
Cet article est publié dans le cadre de la Fête de la science (qui a eu lieu du 3 au 13 octobre 2025), dont The Conversation France est partenaire. Cette nouvelle édition porte sur la thématique « Intelligence(s) ». Retrouvez tous les événements de votre région sur le site Fetedelascience.fr.
Le postdoctorat de Maya Leclercq dans le cadre duquel cette recherche a été menée est financé par le projet CLIPSSA (dont les fonds proviennent de l'AFD, de l'IRD et de Météo-France).
Catherine Sabinot a reçu des financements de l'AFD pour réaliser le programme de recherche qui a permis de produire les résultats présentés dans l'article.
28.01.2026 à 16:11
Lukas Slothuus, Postdoctoral Research Fellow, School of Global Studies, University of Sussex

Le sous-sol du Groenland regorge de richesses, qui expliquent en partie la convoitise des États-Unis. Rien ne dit pourtant qu’il est possible pour le moment de les extraire, de les exploiter, puis de les exporter dans des conditions économiques satisfaisantes.
Les États-Unis renouent avec une rhétorique martiale concernant le Groenland. Les richesses naturelles de ce vaste territoire refont surface dans le débat, un an après que Michael Waltz, alors conseiller américain à la sécurité nationale, avait résumé l’enjeu ainsi : « Il est question de minéraux critiques. Il est question de ressources naturelles. »
Car l’île est dotée à la fois de combustibles fossiles et de matières premières essentielles. Elle possède au moins 25 des 34 matières premières considérées comme telles par l’Union européenne.
La loi européenne 2024 sur les matières premières critiques vise à améliorer la sécurité de l’approvisionnement européen pour ces matériaux. Le président des États-Unis, Donald Trump, comme l’UE souhaitent affaiblir la domination chinoise dans ce commerce. Parallèlement, d’immenses réserves de pétrole se trouvent au large dans l’est et l’ouest du Groenland. La valeur de ces ressources est difficile à estimer, car les prix du pétrole et des matières premières essentielles fluctuent énormément.
À lire aussi : Donald Trump ou pas, le Groenland, futur pivot logistique arctique
Comme pour le pétrole vénézuélien, il faudra beaucoup d’argent pour construire les infrastructures nécessaires à l’exploitation des ressources naturelles au Groenland. Les projets miniers et de combustibles fossiles sont très consommateurs de capital, nécessitant d’importants investissements initiaux avec de longs délais avant que les projets ne génèrent des bénéfices.
En dehors de sa capitale, Nuuk, le Groenland dispose de très peu d’infrastructures routières et de ports en eau profonde capables d’accueillir de grands pétroliers et des porte-conteneurs.
À travers le monde, les entreprises privées des secteurs minier et des énergies fossiles peuvent s’appuyer sur des infrastructures publiques – routes, ports, production d’électricité, logements et main-d’œuvre spécialisée – pour rendre leurs activités rentables.
Au Groenland, en revanche, d’énormes investissements en capital seraient nécessaires pour extraire la toute première cargaison de minerais et le premier baril de pétrole. Dans ce contexte, le gouvernement est confronté à un dilemme classique : laisser des multinationales privées exploiter les ressources au risque de perdre l’essentiel des revenus, ou bien imposer une propriété étatique tout en peinant à réunir les capitaux et les capacités publiques nécessaires pour lancer l’extraction.
La richesse minérale du Groenland est connue depuis longtemps. En avril 2025, le radiodiffuseur public danois DR a diffusé un documentaire montrant comment le Danemark avait, historiquement, capté les profits d’une mine de cryolite au Groenland. Cette émission avait provoqué une importante crise politique et médiatique, certains estimant qu’elle remettait en cause l’idée selon laquelle le Groenland serait financièrement dépendant du Danemark.
Les minerais constituent un enjeu majeur, mais aussi sensible, dans les relations du Groenland avec le reste du monde. Depuis des décennies, des entreprises étrangères tentent d’y développer une industrie minière viable… sans résultats probants. En réalité, contrairement aux affirmations du président américain Donald Trump, les entreprises américaines ont depuis longtemps la possibilité d’entrer sur le marché minier groenlandais. L’ampleur des investissements requis, conjuguée à des conditions climatiques extrêmement rigoureuses, a jusqu’à présent empêché toute entreprise de lancer une exploitation minière commerciale.
La ministre groenlandaise des ressources naturelles Naaja Nathanielsen déclarait en 2025 souhaiter que l’exploitation minière devienne un « très bon complément stable » à la dépendance écrasante du pays à l’industrie de la pêche. Pourtant, en 2021, le nouveau gouvernement Inuit Ataqatigiit (d’orientation socialiste) groenlandais a interdit l’extraction de l’uranium pour des raisons environnementales. En 2023, l’entreprise australienne Energy Transitions Minerals (ETM) a poursuivi le Groenland et le Danemark pour un montant de 76 milliards de couronnes (environ 10 milliards d’euros), soit près de quatre fois le PIB du Groenland.
L’entreprise minière a affirmé avoir été privée de profits futurs après l’abandon de son projet d’uranium à Kuannersuit/Kvanefjeld. Les tribunaux danois ont rejeté la plupart des recours d’ETM, les jugeant infondés, et des inquiétudes ont été exprimées quant à la possibilité qu’ETM se déclare en faillite, ce qui lui permettrait potentiellement d’éviter le paiement de lourds frais de justice.
Dans un communiqué, ETM a affirmé que sa filiale GM avait « travaillé de bonne foi pendant plus d’une décennie, en étroite coopération avec les gouvernements groenlandais et danois ». L’entreprise a ajouté que ces deux gouvernements avaient utilisé GM pour promouvoir le Groenland comme une destination sûre pour les investisseurs miniers. Mais des travaux de recherche publiés en 2025 ont qualifié ce type de comportement de « victimisation feinte ». Il s’agit généralement de situations dans lesquelles des entreprises se perçoivent – ou se présentent – comme des victimes de procédures injustes, plutôt que comme des acteurs puissants avant tout soucieux de leurs profits.
Forer dans le sous-sol groenlandais aurait des répercussions jusqu’à Copenhague, le Groenland ayant conclu avec le Danemark un accord de partage des profits miniers. Dans le cadre du transfert progressif de compétences du Danemark vers le Groenland, ce dernier détient désormais la propriété de ses ressources naturelles.
Toutefois, le Danemark verse chaque année une dotation globale de 3,9 milliards de couronnes (un peu plus de 500 millions d’euros) – soit environ la moitié du budget de l’État groenlandais – afin de soutenir l’économie intérieure, largement dominée par le secteur de la pêche.
Cette dotation est réduite à hauteur de 50 % des bénéfices miniers, ce qui signifie que, jusqu’à concurrence du montant de la subvention, les profits de l’exploitation minière sont en pratique partagés à parts égales entre le Groenland et le Danemark.
Récemment, le groupe australo-américain Critical Metals a obtenu l’autorisation de construire un bureau permanent pour son projet Tanbreez, destiné à fournir des terres rares – y compris des terres rares lourdes – dans le sud du Groenland.
Le lendemain, la société minière Amaroq a annoncé que les États-Unis envisageaient d’investir dans ses projets miniers dans le sud du Groenland par l’intermédiaire de l’EXIM, la banque américaine d’export-import. Si ce prêt public est approuvé, il s’agirait du premier financement accordé par l’administration Trump à un projet minier à l’étranger.
Un récent décret présidentiel de Donald Trump a par ailleurs réservé 5 milliards de dollars (4,2 milliards d’euros) au soutien de projets miniers jugés essentiels à la sécurité nationale. Cela illustre l’étroite imbrication entre les industries extractives et les enjeux militaires.
La production d’énergies fossiles, en revanche, a peu de chances de voir le jour à court terme. En 2021, pour des raisons environnementales, le gouvernement groenlandais a interdit l’exploration et l’exploitation des hydrocarbures. Une majorité parlementaire continue de soutenir cette interdiction.
Compte tenu de la volatilité des prix du pétrole et du gaz, et des mêmes contraintes climatiques et d’infrastructures que pour les autres ressources naturelles, une production d’hydrocarbures au Groenland paraît peu plausible, même en cas de prise de contrôle totale par les États-Unis.
Les raisons pour lesquelles l’administration Trump pourrait chercher à renforcer sa domination dans l’Arctique sont nombreuses, notamment pour accroître son avantage stratégique face à la Russie et à la Chine. Mais l’extraction des ressources naturelles est peu susceptible d’y jouer un rôle central.
D’autant plus que les États-Unis disposent déjà de bases militaires au Groenland, en vertu d’un accord de défense conclu avec le Danemark. Les initiatives états-uniennes récentes semblent ainsi s’inscrire dans un nouvel épisode du retour de leurs ambitions impérialistes.
Lukas Slothuus a reçu des financements de l'Engineering and Physical Sciences Research Council.
28.01.2026 à 16:10
Heike Baldauf-Quilliatre, analyse interactionnelles, interaction en situation de jeux, interaction avec des robots sociaux, interaction à travers des dispositifs technologiques, Université Lumière Lyon 2
Isabel Colon de Carvajal, Maitre de conférences HDR, Analyste conversationnelle, linguiste interactionnelle, ENS de Lyon

Si l’on veut comprendre le jeu et sa place dans nos sociétés, il faut s’intéresser aux joueurs et à leurs interactions. Filmer les situations de jeu offre une lecture renouvelée qui en dévoile le potentiel d’expérimentation sociale.
Des rayons pleins, des ludothèques et magasins spécialisés, des associations, un festival international des jeux annuel en France, des revues scientifiques (Sciences du jeu, Board Games Studies Journal) et même un dictionnaire qui leur est consacré – les jeux sont loin d’être un simple passe-temps d’enfant. Et celui qui pense uniquement aux jeux vidéo ou aux jeux télévisés ou encore aux jeux d’argent, lorsqu’il est question des adultes, se trompe. Les jeux de société aussi occupent une place importante pour ces derniers.
Dans un article paru en 2021, Vincent Berry, sociologue et spécialiste du jeu, remarque une hausse continue du chiffre d’affaires dans ce secteur, un développement constant de nouveaux jeux et une hausse du temps consacré aux jeux en tant qu’activité de loisir. Mais que peut-on trouver dans cette activité pour qu’elle gagne autant en popularité ? Pourquoi des personnes de différents âges se réunissent-elles autour des jeux de société ?
Un élément de réponse se trouve déjà dans cette dernière question. Le jeu est une activité sociale qui réunit des personnes, à travers les âges, autour d’une même activité. Cela ne va pas de soi, pour plusieurs raisons. D’une part, parce que le jeu n’est pas systématiquement lié à une activité ludique. Lorsqu’on est dans une situation de confrontation, ou en train de perdre, le jeu n’est pas principalement un plaisir. Le côté ludique est construit, par les joueurs et joueuses, pendant et à travers le jeu. Évidemment, le cadre du jeu favorise ce côté ludique, mais il ne l’implique pas obligatoirement.
D’autre part, le jeu n’existe pas en dehors de tout autre cadre ou activité sociale : on joue à la maison, dans un bar, au travail, en famille, entre collègues, avec des inconnus. Et, pendant qu’on joue, on boit, on mange, on répond au téléphone, on parle avec des gens qui passent, etc.
Si l’on veut comprendre le jeu et sa place dans nos sociétés, il faut donc s’intéresser au jeu en tant que tel, mais également aux joueurs et à ce qu’ils font dans une situation et à un moment précis. C’est sur ce point que débutent nos recherches.
Dans notre approche, on porte l’attention aux pratiques des joueurs et joueuses et on essaye de comprendre comment ils et elles construisent cette activité dans une situation sociale donnée. Pour cela, nous filmons et enregistrons des situations de jeu, dans leur cadre naturel. Les personnes qui jouent acceptent d’être filmées pendant des sessions de jeu de société, sans instruction particulière, dans des situations de jeu qui se seraient déroulées même sans l’enregistrement. Le tout sur la base d’un appel à une participation volontaire au projet de recherche.
Nous transcrivons par la suite tout ce que nous entendons et voyons, et analysons ces situations en prêtant attention à tous les détails (parole, gestes, mimique, manipulation d’objets). Nous nous appuyons sur la méthodologie de l’analyse conversationnelle, dont le but est de décrire comment nous organisons et construisons nos sociétés à travers les interactions.
Nous ne nous intéressons pas tant à ce que disent les personnes, mais plutôt à la manière dont elles agissent ensemble, les pratiques par lesquelles elles construisent leur activité. On peut ainsi observer comment les joueurs et joueuses construisent ensemble des (ou leurs) visions du monde, comment ils intègrent le jeu dans leurs pratiques du quotidien, comment ils (s’)expérimentent en transgressant des règles, en créant ou inversant des catégories. Nos différentes analyses apportent des briques d’éléments de réponse à la grande question : pourquoi les gens jouent-ils aux jeux de société ?
Différentes activités sociales sont associées au jeu. Autrement dit, que font les personnes lorsqu’elles jouent ? Dans nos données, qui contiennent essentiellement des jeux en famille et entre amis à la maison, ou bien entre collègues au travail, nous avons observé trois grands types d’activités : apprendre, s’organiser et s’amuser.
L’apprentissage dans un sens très large n’est pas limité aux jeux éducatifs ou aux enfants. En jouant, on se confronte à différentes visions du monde et on se construit en tant qu’individu et comme groupe, à travers des règles et des normes morales. Cela va de l’apprentissage de ce qui est accepté, souhaité ou recommandé dans un jeu particulier à la connaissance et aux pratiques sociétales de manière générale.
Dans l’extrait en ligne d’une famille jouant à Timeline Inventions, l’année de naissance de la mère a permis de construire des repères pour situer l’invention dans la ligne temporelle du jeu.
D’une part, les échanges autour de tout et de n’importe quoi permettent de découvrir d’autres façons de voir les choses, d’autres préoccupations, et ainsi d’élargir nos horizons. D’autre part, ces échanges participent à la construction discursive du groupe en tant que tel et, dans une perspective plus large, de nos sociétés. Pour donner un exemple, Emilie Hofstetter et Jessica Robles ont montré dans un article sur la manipulation stratégique dans le jeu, que les types de manipulation autorisés (jusqu’où peut-on aller pour gagner ?) sont constamment et négociés pendant le jeu sur la base de certaines valeurs d’équité et de moralité.
L’aspect organisationnel concerne la régulation du jeu, c’est-à-dire l’alternance des tours de jeu, le respect des règles, mais aussi la vie sociale qui se poursuit autour. Car, lorsqu’on joue, le monde ne s’arrête pas de tourner. Il y a des personnes et des activités autour des joueurs qui existent en dehors du jeu : d’autres personnes dans la même pièce, un téléphone qui sonne, des conversations entre certains joueurs, des activités parallèles comme manger et boire. L’analyse conversationnelle parle ici de multiactivité qui est gérée de différentes manières. Cependant, ce n’est pas la multiactivité en soi qui est recherchée dans le jeu, mais plutôt les possibilités qu’ouvre cette implication dans différentes activités :on ne joue pas pour pouvoir faire plusieurs activités en même temps, mais on utilise les opportunités qui s’offrent grâce à cela.
Ainsi, des activités parallèles permettent de gagner du temps dans le jeu ou bien, à l’inverse, le jeu permet d’adoucir une discussion sérieuse, un reproche ou une transgression des règles sociales du groupe. Par exemple, les pleurs d’une fille ouvrent pour les parents un moment éducatif tout en gardant le focus principal sur le jeu (et donc sur le plaisir partagé).
Enfin, l’amusement paraît certainement le type d’activité le plus évident lorsqu’on parle du jeu. Nos données et nos analyses montrent de manière plus détaillée en quoi consiste cet amusement. Le jeu permet par exemple d’expérimenter des catégorisations sociales, bien évidemment en adossant des identités dans le jeu, mais également en jouant avec les ambiguïtés entre le monde du jeu et le monde des joueurs : être la princesse et donc solliciter l’aide des autres pour ranger ses cartes, être pauvre dans le jeu et dans la vie et demander de l’aide aux autres, être sérieux dans son rôle du jeu ou, au contraire, ne pas le prendre au sérieux et donc brouiller les pistes pour les autres.
Dans cet extrait en ligne, qui montre une partie du jeu Catane entre trois amis, Romain rappelle Marie à l’ordre pour ranger ses cartes. Elle refuse en se référant à ses cartes et en indiquant qu’une princesse a bien le droit de déléguer ces tâches.
Il permet aussi d’inverser les rôles entre parents et enfants (les enfants expliquent et applaudissent les parents), ou bien de jouer avec la compétition (renforcer le caractère compétitif ou bien collaboratif d’un jeu, indépendamment du type de jeu). Il permet d’expérimenter des pratiques sociales peu appréciées ou peu communes, sans la crainte d’une sanction sociale : dans le jeu, on peut se moquer des autres, on peut apprécier les attaques, et on peut même explicitement « détester » une personne présente, comme dans cet extrait en ligne, dans une partie de Splendor.
Cela ne situe pas le jeu en dehors du cadre social, comme on le pensait au début des études sur le jeu, mais comme un espace de la vie où l’on peut expérimenter.
Et si l’on n’aime pas le jeu ? Ce n’est évidemment pas bien grave. On le répète, le côté ludique n’est pas directement lié au jeu, on peut le trouver, le construire partout dans ses activités sociales. Faire du sport et même travailler peut également avoir des moments ludiques, autant que le jeu n’est pas ludique en soi. D’où notre intérêt pour les interactions qui permettent d’observer comment les joueurs et joueuses construisent ce côté ludique dans des situations concrètes.
Heike Baldauf-Quilliatre a reçu des financements de l'ENS de Lyon et du LabEx ASLAN (ANR).
Isabel Colon de Carvajal a reçu des financements de l'ENS de Lyon et du LabEx ASLAN (ANR).
28.01.2026 à 14:43
Jean-Jacques Hublin, Paléoanthropologue, Collège de France; Académie des sciences
Le site de la grotte aux Hominidés à Casablanca, sur la côte atlantique du Maroc, offre l’un des registres de restes humains les plus importants d’Afrique du Nord. Il est connu depuis 1969 et étudié par des missions scientifiques impliquant le Maroc et la France. Ce site éclaire une période cruciale de l’évolution humaine : celle de la divergence entre les lignées africaines qui donneront nos ancêtres directs, les Néandertaliens en Europe et les Dénisoviens en Asie.
Une étude très récente publiée dans Nature décrit des fossiles d’hominines datés de 773 000 ans. Le groupe des hominines rassemble à toutes les espèces qui ont précédé la nôtre depuis la divergence de la lignée des chimpanzés. Ces fossiles (des vertèbres, des dents et des fragments de mâchoires) ont été découverts dans une carrière qui a fait l’objet de fouilles pendant de nombreuses années. Les découvertes les plus importantes et les plus spectaculaires ont eu lieu en 2008-2009. La raison pour laquelle ce matériel n’avait pas été révélé plus tôt à la communauté scientifique et au public est que nous n’avions pas de datation précise.
Grâce à l’étude du paléomagnétisme, nous avons finalement pu établir une datation très précise. Cette technique a été mise en œuvre par Serena Perini et Giovanni Muttoni de l’Université de Milan (Italie). Ces chercheurs s’intéressent à l’évolution du champ magnétique terrestre. Le pôle Nord magnétique se déplace au cours du temps, mais il y a aussi de très grandes variations : des inversions. À certaines époques, le champ devient instable et finit par se fixer dans une position inverse de la précédente. Ce phénomène laisse des traces dans les dépôts géologiques sur toute la planète.
Certaines roches contiennent des particules sensibles au champ magnétique, comme des oxydes de fer, qui se comportent comme les aiguilles d’une boussole. Au moment où ces particules se déposent ou se fixent (dans des laves ou des sédiments), elles « fossilisent » l’orientation du champ magnétique de l’époque. Nous connaissons précisément la chronologie de ces inversions passées du champ magnétique terrestre et, dans cette carrière marocaine, nous avons identifié une grande inversion datée de 773 000 ans (l’inversion Brunhes-Matuyama). Les fossiles se trouvent précisément (et par chance) dans cette couche.
En Afrique, nous avons pas mal de fossiles humains, mais il y avait une sorte de trou dans la documentation entre un million d’années et 600 000 ans avant le présent. C’était d’autant plus embêtant que c’est la période pendant laquelle les chercheurs en paléogénétique placent la divergence entre les lignées africaines (qui vont donner nos ancêtres directs), les ancêtres des Néandertaliens en Europe et les formes asiatiques apparentées (les Dénisoviens).
Ce nouveau matériel remplit donc un vide et documente une période de l’évolution humaine assez mal connue. Ils nous permettent d’enraciner très loin dans le temps les ancêtres de notre espèce – les prédécesseurs d’Homo sapiens – qui ont vécu dans la région de Casablanca.
Le manque d’informations pour la période précédant Homo sapiens (entre 300 000 ans et un million d’années) a poussé quelques chercheurs à spéculer sur une origine eurasienne de notre espèce, avant un retour en Afrique. Je pense qu’il n’y a pas vraiment d’argument scientifique pour cela. Dans les débuts de la paléoanthropologie, les Européens avaient du mal à imaginer que l’origine de l’humanité actuelle ne se place pas en Europe.
Plus tard, au cours du XXᵉ siècle, le modèle prépondérant a été celui d’une origine locale des différentes populations actuelles (les Asiatiques en Chine, les Aborigènes australiens en Indonésie et les Européens avec Néandertal). Ce modèle a été depuis largement abandonné face notamment aux preuves génétiques pointant vers une origine africaine de tous les hommes actuels.
Notre découverte ne clôt peut-être pas définitivement le débat, mais elle montre que, dans ce qui était un vide documentaire, nous avons des fossiles en Afrique qui représentent un ancêtre très plausible pour les Sapiens. On n’a donc pas besoin de les faire venir d’ailleurs.
Nous avons en projet de réaliser le séquençage des protéines fossiles peut-être préservées dans ces ossements. Si ces analyses sont couronnées de succès, elles apporteront des éléments supplémentaires à la compréhension de leur position dans l’arbre des origines humaines.
Tout savoir en trois minutes sur des résultats récents de recherches, commentés et contextualisés par les chercheuses et les chercheurs qui les ont menées, c’est le principe de nos « Research Briefs ». Un format à retrouver ici.
Jean-Jacques Hublin ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
28.01.2026 à 12:38
Arne De Keyser, Professor of Marketing, EDHEC Business School
Katrien Verleye, Associate Professor of Service Innovation, Ghent University
Around the world, governments and businesses are talking more and more about the need to move from today’s “take, make, waste” economy to a circular one, where products are designed to last, materials stay in use, and waste is dramatically reduced. On paper, the case is compelling: recent assessments show that shifting to a circular economy offers both a major climate opportunity and a significant economic one. A study from the European Commission’s Joint Research Centre finds that “reduction, reuse and recovery” measures could cut Europe’s heavy industrial emissions by up to 231 million tonnes of CO₂ each year, and global analyses estimate that circular models could generate around $4.5 trillion in value by 2030).
Yet progress may be stalling. The latest Circularity Gap Report shows that the share of secondary materials in the global economy fell from 9.1% in 2015 to 6.9% in 2021. Instead of becoming more circular, the world, in a recent timeframe, became less so.
What would actually help stakeholders such as consumers, companies and governments embrace circular models? In our recent research project, we reviewed more than 130 studies on circular business models to understand this very question. What we found is simple but often overlooked: circularity is not just a design or engineering challenge, it is also an engagement one. If consumers hesitate, or companies delay investments, or policymakers fail to create the right conditions, the circular shift stalls.
Our work identifies 6 practices that can boost circular economy engagement. They fall into 3 areas: helping stakeholders feel motivated, giving them opportunities, and ensuring they are able to act. Understanding these levers is key to accelerating the transition to a circular economy.
For circular behaviour to emerge, stakeholders first need a clear reason to care. Motivation is about creating the desire to act by explaining why circular options matter, how they are beneficial and why they are worth choosing over familiar linear habits.
A first part of this involves strategic signalling: making the benefits of circular models visible, concrete and easy to grasp. Many companies now deliberately make a point of doing this. Mud Jeans, for example, communicates the exact water and CO2 savings associated with its “Lease A Jeans” model, helping customers immediately see the environmental value of extending product life. Fairphone similarly signals the impact of modular design by showing how repairable smartphones reduce e-waste and keep devices in use for longer.
But motivation also depends on convincing stakeholders that circular options are safe, reliable and worthwhile. Even when people like the idea of circularity, they may still worry about the quality or convenience of second-hand or refurbished products. Companies are responding by offering guarantees, services and financial incentives that lower perceived risks. Decathlon, for instance, promotes its repair services and spare-part availability, reassuring customers that products can be kept in good condition for longer.
Even highly motivated stakeholders cannot engage in circular behaviour if the environment around them makes it difficult or uncommon. Opportunity is about creating the partnerships, norms and systems that make circular actions feasible, convenient and socially accepted.
“Matching” is a key part of this, in other words connecting the right stakeholders so that circular solutions can function. Few organisations can operate reuse, repair or recycling systems single-handedly; they need logistics partners, refurbishment specialists and intermediaries that help keep materials in circulation. We are witnessing more and more of these typically well-thought out matches. The fashion platform Vestiaire Collective, for example, collaborates with brands to authenticate and resell pre-owned items, creating a trusted ecosystem that individual firms would struggle to build alone. Cities such as Amsterdam foster circular procurement networks that bring together suppliers, waste operators, innovators, and citizens to jointly develop reuse and refurbishment pathways.
Opportunity also depends on legitimising circular practices, which makes them appear commonplace, expected and in line with broader societal rules. Governments play a central role here through standards and regulations. The European Union’s Right to Repair legislation, for instance, requires manufacturers to make spare parts and repair information available for many household products. This reinforces the idea that repairing rather than replacing is the default. Companies contribute to legitimising as well. When global brands like Apple promote refurbished devices as high-quality options and expand their certified repair networks, they help shift expectations about what counts as new or desirable.
“Closing the loop” also requires skills, knowledge and resources. Ability is about ensuring that stakeholders are equipped with the funding, infrastructure, education or practical support that make circular actions realistic in everyday life.
A first part of this involves supporting stakeholders with the resources they need. Many organisations and individuals want to engage in circular behaviour but simply lack the means. Companies may need finance to redesign products or set up reverse logistics. Households may need convenient places to return used goods. Cities may require infrastructure that enables citizens and organisations to share goods and materials. Increasingly, these needs are being addressed. The European Investment Bank, for example, has issued dedicated circular economy loans that help firms invest in recycling capacities, keep goods and materials in use, and design out waste. Startups such as Too Good To Go provide digital infrastructure that connects retailers with customers to reduce food waste, making it easier for small businesses to participate in circular practices without building new systems from scratch.
Ability also depends on empowering stakeholders with knowledge and skills to navigate circular models. Circularity requires understanding how products can be repaired, how materials flow through a system and how to be renters, sharers or repairers rather than one-time users. Education and training help build this understanding. Repair cafés, which have grown across Europe, offer hands-on opportunities for people to learn how to fix household items alongside volunteers. Many universities now provide open-access courses on circular design principles, giving students and professionals the tools to rethink production and consumption. These initiatives can help shift circularity from a niche practice to an accessible, everyday one.
What becomes clear from our research is that isolated efforts rarely work. The studies we reviewed suggest that clear communication about the benefits of circular options may have little impact if people are not reassured that these options are reliable and worthwhile. Incentives or guarantees alone may fall short when companies lack the partners needed to run repair, reuse or return systems. Even well-designed collaborations may struggle to gain traction when circular behaviour is not supported by social norms or policy signals that make it feel like the normal thing to do. And investments in new infrastructure or funding may have limited effect if stakeholders do not have the knowledge or confidence to use circular services in practice. Progress is most likely to occur when all of these elements reinforce one another.
For all stakeholders, the key is to reflect on what is needed to make circular practices part of everyday life. This includes asking questions such as:
How do we help those we interact with understand the value of circular choices?
How can we collaborate to create systems that make it workable to share, repair and reuse?
Do we, and those around us, have the infrastructure, resources and knowledge to participate in the circular transition with confidence?
Recognising these shared responsibilities and needs helps ensure that consumers, companies and governments move forward together, rather than in isolation, which is essential for a successful circular transition.
A weekly e-mail in English featuring expertise from scholars and researchers. It provides an introduction to the diversity of research coming out of the continent and considers some of the key issues facing European countries. Get the newsletter!
Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.
28.01.2026 à 12:26
Olivia Roth-Delgado, Cheffe de projets scientifiques, Agence nationale de sécurité sanitaire de l’alimentation, de l’environnement et du travail (Anses)
Thomas Bayeux, Chef de projet socio-économique, Agence nationale de sécurité sanitaire de l’alimentation, de l’environnement et du travail (Anses)
Mixed anxiety-depressive disorders (MADD) and suicidal thoughts, online bullying, poorer self-esteem, alcohol, cannabis and psychoactive substance use… social networks exploit young people’s vulnerability and actually help boost certain disorders that they are prone to.
This is the conclusion of a large-scale report by the French Agency for Food, Environmental and Occupational Health & Safety (Anses) which dissects the mechanisms behind digital marketing tools designed to target the specific vulnerabilities and emotional weak spots associated with adolescence.
Olivia Roth-Delgado and Thomas Bayeux are part of the team at Anses coordinating the research project. They offered to present the main teachings from this latest report.
The Conversation: What makes Anses’ “The Effects of Social media use on teenagers’ mental health” report unprecedented?
Olivia Roth-Delgado: This expert appraisal is the result of five years of research and over 1 000 sought-after articles. It is unprecedented in its originality and the extensive nature of the work that are, in our knowledge, unequalled as far as public authorities such as Anses are concerned.
For the first time, certain mechanisms pointing to the ways in which social networks operate are being linked to effects impacting the health of adolescents. These mechanisms are known as dark patterns (editor’s note: they are designed to capture users’ attention and monetise it, and they come in several forms which aren’t necessarily limited to social media. Some are also used by online shopping sites, for example).
Adolescence is a vulnerable time because the brain is still maturing. During this phase, teenage boys and girls experience changes in the way they process and handle their emotions in the reward-related circuits of the brain. They are also more sensitive to social context, which can favour risk-taking behaviour when around their peers. It is also a time of heightened vulnerability for mental health disorders.
Thomas Bayeux: During adolescence, a culture encouraging confrontation with others, an appetite for communication and character building, consisting of testing social norms develops. All of these arguments lead us to the 11-17 age group at which these dispositions occur.
Anses’ mission as a public health authority is to assess health risks. That said, in the chapters of the study on practices and maintaining inter-generational relations, the expert review raises the potential positive effects of social media and the motivations encouraging engagement during adolescence.
The report suggests particularly concerning social media-related effects among adolescents including anxiety-depressive disorders, suicidal thoughts or self-harming. What mechanisms are at play?
O.R.-D.: Among the mechanisms we have highlighted and studied featured misleading (or mainpulative) interfaces as well as algorithms that produce personalised content. They all equate to attention-grabbing that keep social media users engaged, by offering them increasingly well-targeted or extreme content.
If a teenage boy or girl for example, searches “self-harm” once, this kind of content will be offered repeatedly and can trap them in a negative spiral.
T.B.: Capturing attention serves the business model that supports these online platforms. It gives them access to a large amount of data which it can capitalise on while equally contributing to ad space sales.
Online platforms have everything to gain from keeping people engaged using the two strategies we have outlined : on one hand, by providing personalised content using increasingly productive algorithms which ensnare users in an information loop, and on the other hand, by highlighting the most impactful content.
Dark patterns roll out familiar techniques such as likes, notifications, scrolling, reels on auto play, etc. Also known as “deceptive design patterns”, these user interfaces have been carefully crafted to trick people into doing things they wouldn’t do otherwise.
The adolescent phase greatly resonates with these “push strategies” that social media implement. At Anses, we are seeing major public health challenges as supply and demand meet, so to speak. The cocktail they produce is potentially explosive !
Where mental health-related disorders are concerned but also, bullying, and alcohol, tobacco, cannabis use along with other risk-taking behaviours that you are safeguarding against, are social networks boosting pre-existing phenomena?
O.R.-D.: Absolutely. Social networks constitute a social space. They offer a sounding board for problems that are present in society, gender stereotypes or encouraging drug use, etc.
T.B.: Social networks contribute to adolescent socialisation and social construction, they provide continuity with the world offline, encompassing both its good points and its flaws. There is no watertight barrier between what happens offline and what happens on social media.
Should the existing rules for protecting minors in society extend to social media?
O.R.-D.: This is actually the founding principle of the Digital Services Act. The European regulatory framework for digital services seeks to vet online content on very large platforms, in line with the following ethos : “What is illegal offline, is illegal online.
T.B.: This preoccupation motivates one of the key recommendations to emerge from the Anses report, which is that users under 18 can only access social networks designed and configured for protecting minors. Our intention is not for social media to be eradicated all together. But for technical solutions to be put into place to make social media a safe place for teenagers, and Anses urges platforms to become accountable in this respect.
Going forward, teenagers then discussing their social media habits with their peers, parents, teaching staff or youth workers could prove to be a very good thing. That said, it doesn’t let public authorities and online platforms ‘off the hook’ where adopting collective strategies to make social media a safe space for teenagers are concerned.
The report shows links between social media use with some disorders, without really establishing a cause-effect relationship between the two. Why is this?
O.R.-D.: The cause-effect subject remains a thorny one. It is fair to say that the expert appraisal that we are basing ourselves on is very dense and documented. Our methodology is solid, but it isn’t backed up by a "body of evidence”. That said, we can vouch for strong associations between social media use and the disorders we have mentioned for which we explicitly highlight the underlying mechanisms at work.
In relation to sleep, for example several factors are involved. When teenagers go on social media at night before bedtime, the exposure to digital blue light from screens can prolong the time it takes to fall asleep, because by stimulating our cognitive alertness, it shortens sleep duration. The long-term effects of chronic sleep deprivation on mental and physical health are well-documented. Add to that the fact that the emotional stimuli involved in going on social media can also prevent sleep. We are seeing that there is a host of proof to support this. But the concrete effects of social media on sleep in teenage boys and girls also depends on their practices.
Similarly, in the event of anxiety-depressive disorders or suicidal thoughts, the type of content on offer plays a major role. The two-way street factor must also come into consideration. Allow me to explain: an adolescent boy or girl who is already psychologically fragile are more likely to go on social media. Content design algorithms pick up on their emotional weaknesses and suggest emotionally-charged content. And this is precisely how teenagers get trapped in a negative spiral. Proving that there is a cause-effect relationship associated with feedback loops and bidirectional effects is however, far more complicated.
And as for social media’s impact on self-image, we also have a convincing amount of evidence demonstrating the same type of mechanisms based on repeated exposure to content that glorifies muscular men and thin women.
Girls seem more sensitive to the negative effects of social media than boys. What is this down to?
T.B.: This is one of the key takeaways of the report. Girls clearly represent a highly vulnerable segment on social media as far as health risks are concerned, and not just concerning how it impacts self-image. More girls than boys on social media are being bullied, and becoming victims of gender shaming, and social pressure… Girls pay more attention to what happens on social media, and comments that are posted.
LGBTQIA+ communities also represent a high-risk segment on social media. They are more likely to become victims of online bullying which is one of the associated health hazards, particularly mental health.
The report from Anses mentions that the amount of time spent on social media is not the only factor that should be considered.
T.B.: Time of use is helpful, but that alone isn’t enough to fully grasp the subject. Knowing how long users spend on social media allows us to study certain health factors like sedentariness, despite the growing number of digital nomad tools out there for connecting to social media. Quantifying the amount of time users engage also turns out to be precious in the case of late-night social media use, which is likely to affect sleep, for example.
However, we also know that understanding social media practices is essential for studying some of the related health side effects. It is important to know what you can do on social media : publish, like, read comments, retouch photos, for instance and the emotional attachment involved. It’s not about opposing different approaches, but aiming for complimentary.
Your report is based on a research project that fails to address, or barely addresses the impact of the very latest digital tools such as TikTok or AI chatbots. Can we assume that these new technologies increase mental health risks for teenagers as well?
O.R.-D.: The Anses’ expert appraisal draws on over a thousand articles mainly published between 2011 and 2021. Due to the time accumulated and spent researching and bringing the appraisal together, the technologies our studies focused on have naturally evolved. That said, we based ourselves on a common core of mechanisms, like deceptive user interfaces (dark patterns) and content personalisation algorithms that are related to health risks.
Therefore, our conclusions and recommendations can be applied to more recent social media. As for the question of artificial intelligence and AI chatbots, Anses recommends that the subject becomes the focus of future reports.
A weekly email in English featuring expertise from scholars and researchers. It provides an introduction to the diversity of research coming out of the continent and considers some of the key issues facing European countries. Get the newsletter!
In your recommendations, you suggest getting teenagers involved in risk-prevention programs.
O.R.-D.: Anses offers young people the opportunity to get onboard with our research, because they know best what motivates them to engage with social media as they are the ones creating and spreading new ways of using social media. This makes including them in discussions and boundary-setting with parents and teachers, all the more important. This will make them more inclined to follow the rules that they actually had a hand in making. Among the recommendations, Anses mentioned the need to promote forums in which young people can share their online experiences.
T.B.: And again, let me remind you that Anses is not recommending banning social media all together, it suggests a complete overhaul of the way networks are designed so they do not harm the health of adolescents.
Interview by Health Journalists Lionel Cavicchioli and Victoire N’Sondé, The Conversation France.
Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.
28.01.2026 à 12:21
Frédéric Gonthier, Professeur de science politique, Sciences Po Grenoble - Université Grenoble Alpes
Malgré la montée de l’extrême droite, les enquêtes montrent que les Français restent très attachés à la démocratie. En revanche, l’insatisfaction vis-à-vis de son fonctionnement est grande. Le sentiment de déni de la souveraineté populaire est au cœur du vote populiste et de l’abstention.
Les Françaises et les Français seraient-ils en train de se lasser de la démocratie ? À écouter certains commentateurs, la réponse semble évidente. Montée de la défiance, abstention élevée, succès des partis de droite radicale populiste… Tout indiquerait un pays gagné par la tentation illibérale et autoritaire. Pourtant, les données disponibles livrent une image plus nuancée et, d’une certaine manière, plus rassurante.
Selon l’Enquête sociale européenne (ESS) de 2020, les citoyens restent en effet massivement attachés au régime démocratique. Une écrasante majorité juge important voire très important le fait de vivre en démocratie. Là où le bât blesse, c’est sur la pratique : près de la moitié des enquêtés appartiennent à la catégorie des démocrates insatisfaits, celles et ceux qui soutiennent la démocratie mais se disent mécontents de la façon dont elle fonctionne en France (figure 1).
Ces démocrates insatisfaits ne sont pas des antidémocrates. Ils expriment au contraire une forme d’exigence élevée : plus on attend de la démocratie, plus on est enclin à juger sévèrement son fonctionnement. Cette tension entre un attachement profond aux valeurs démocratiques et un regard critique sur la réalité institutionnelle organise de plus en plus la vie politique française.
Figure 1. Importance et satisfaction par rapport à la démocratie en France
Depuis une dizaine d’années, la question du renouveau démocratique est au cœur des mouvements sociaux. Nuit debout en 2016, les gilets jaunes à partir de 2018, les mobilisations contre le passe sanitaire en 2020 ou, plus récemment, la journée d’action Bloquons tout ont débordé la démocratie participative institutionnalisée. En demandant de « rendre la parole au peuple », ces mobilisations ont contribué à rouvrir le débat sur les règles du jeu démocratique : qui décide et selon quelles procédures ?
Les exécutifs ont tenté de répondre, au moins symboliquement, à cette démocratie d’interpellation. Le grand débat national et, surtout, les conventions citoyennes sur le climat, sur la fin de vie ou sur les temps de l’enfant ont consacré l’entrée des mini-publics délibératifs dans le répertoire institutionnel français. Mais ces dispositifs ont également montré les limites des innovations démocratiques lorsque les promesses de reprise intégrale des propositions citoyennes ne sont pas tenues.
La politisation du renouveau démocratique vient aussi des partis eux-mêmes. Les partis challengers se positionnent souvent en entrepreneurs de la cause démocratique. Les données Chapel Hill Expert Survey (CHES) montrent ainsi que La France insoumise (LFI) et le Rassemblement national (RN) sont les plus enclins à défendre l’idée selon laquelle « le peuple » devrait décider en dernière instance (figure 2). Bien sûr, les deux forces politiques ne mobilisent pas la souveraineté populaire de la même façon. Là où le RN privilégie l’appel direct au peuple plutôt que la médiation parlementaire pour faire pièce au prétendu laxisme des institutions et des élites, LFI promeut plutôt un approfondissement démocratique par l’effectivité et l’extension des droits.
Figure 2. Soutien à la souveraineté populaire
Il n’en reste pas moins que la démocratie libérale perd son caractère consensuel, le conflit partisan portant désormais sur le modèle lui-même, et non seulement sur sa mise en œuvre. Des visions alternatives gagnent en visibilité.
Pour corriger les dysfonctionnements d’un modèle élitiste fondé sur les élus et sur la représentation, faut-il un modèle technocratique qui donne le pouvoir aux experts ? un modèle participatif, qui s’appuie sur l’implication et la délibération des citoyens ? ou un modèle majoritariste, fondé sur l’exercice direct de la souveraineté populaire ? Surtout, comment combiner ces modèles, qui comportent chacun des avantages et des inconvénients, pour décider des fins de l’action publique ?
Tout comme les autres Européens, les Français n’investissent pas le mot-valise « démocratie » de façon univoque. L’ESS distingue trois grandes composantes : libérale (élections libres, protection des droits, indépendance des médias et de la justice), populaire (souveraineté du peuple via des référendums) et sociale (égalité et protection). L’ESS mesure à la fois l’importance accordée à chacune de ces composantes (les aspirations) et le jugement porté sur la manière dont elles sont réalisées en France (les évaluations).
En soustrayant les évaluations aux aspirations, on obtient des scores de déficit démocratique perçu : plus l’écart est grand, plus les attentes sont déçues. Les résultats sont éloquents.
Sur la démocratie libérale, les Français perçoivent un déficit, mais d’ampleur relativement modérée. C’est sur la souveraineté populaire et, surtout, sur la dimension sociale que les écarts sont les plus prononcés. Beaucoup, notamment parmi les démocrates insatisfaits, souhaitent une démocratie où les citoyens sont davantage appelés à trancher les grandes orientations politiques, et où l’État joue son rôle de protection contre les risques sociaux.
Comment ces déficits perçus se traduisent-ils dans les comportements électoraux ? Des modèles statistiques permettent de dessiner plusieurs profils.
Les personnes qui perçoivent un fort déficit en matière de démocratie libérale ont tendance à s’abstenir davantage ou à se tourner vers la gauche, qu’elle soit modérée ou radicale. En revanche, ce déficit n’alimente pas le vote pour la droite radicale populiste. Plus les attentes libérales sont déçues, plus la probabilité de voter pour le RN recule (figure 3A).
Il en va différemment pour le déficit de démocratie populaire. Les électeurs qui estiment que « le peuple » n’a pas suffisamment son mot à dire, que les décisions sont confisquées par les élites ou que les référendums manquent sont plus enclins à voter pour la gauche radicale ou pour le RN, mais aussi à s’abstenir. C’est ici que se loge le cœur du vote populiste et de l’abstention : non pas dans un rejet abstrait du système, mais dans la conviction que la souveraineté populaire est entravée (figure 3B).
Par ailleurs, le déficit de démocratie sociale ne profite pas à la droite radicale. Il tend même à réduire l’abstention et le vote RN, ainsi qu’à accroître le vote pour la gauche modérée. Autrement dit, celles et ceux qui jugent que la démocratie française ne tient pas ses promesses en matière de justice sociale sont loin de s’abstenir ou de voter mécaniquement pour les partis de droite radicale (figure 3C).
Figure 3. Probabilités de vote en fonction du déficit démocratique perçu.
Plus instructif encore, ces déficits démocratiques perçus ont un impact plus prononcé sur le vote que l’insatisfaction globale vis-à-vis de la démocratie. Être un démocrate insatisfait augmente bien les probabilités statistiques de voter pour des partis challengers ou de s’abstenir. Mais les attentes déçues vis-à-vis de la démocratie influencent encore plus fortement ces probabilités.
Au total, il est difficile de bien saisir les logiques électorales du soutien à la démocratie si l’on s’en tient au diagnostic d’une insatisfaction généralisée, sans se demander quelles conceptions de la démocratie motivent le vote protestataire et l’abstention.
C’est parce qu’ils restent profondément attachés aux composantes sociales et populaires de la démocratie que les Français sont des démocrates insatisfaits, enclins à sanctionner les partis de gouvernement ou à se détourner des urnes. L’insatisfaction vis-à-vis de la démocratie ne vient pas de citoyens hostiles à la démocratie libérale, mais de citoyens exigeants et porteurs d’autres manières de « faire démocratie ».
Cet article est tiré de l'ouvrage French Democracy in Distress. Challenges and Opportunities in French Politics (Palgrave Macmillan, 2025), sous la direction de Élodie Druez, Frédéric Gonthier, Camille Kelbel, Nonna Mayer, Felix-Christopher von Nostitz et Vincent Tiberj. Une conférence autour de cette publication est organisée à Sciences Po, le jeudi 29 janvier 2026, de 17 heures à 19 heures, 27 rue Saint-Guillaume, Paris (VIIᵉ).
Frédéric Gonthier a reçu des financements du programme Horizon Europe n°1010952237: TRUEDEM—Trust in European Democracies.
28.01.2026 à 12:07
Claude Lelièvre, Enseignant-chercheur en histoire de l'éducation, professeur honoraire à Paris-Descartes, Université Paris Cité
En principe interdits dès l’institution de l’école républicaine, les châtiments corporels ont longtemps perduré dans la réalité ordinaire des classes. Et lorsqu’ils étaient l’objet de plaintes, la jurisprudence était pour le moins complexe, voire à géométrie variable. A ainsi souvent été invoqué un « droit de correction » que la Cour de cassation vient d’écarter définitivement.
Ce 14 janvier 2026, la Cour de cassation a écarté l’existence d’un « droit de correction » pouvant justifier les violences éducatives sur des enfants. Il n’existe pas de « droit de correction parental » dans la loi française, les textes internationaux ou la jurisprudence moderne, a-t-elle indiqué dans un communiqué de presse.
Alors qu’un père de famille avait été condamné en première instance en 2023 par le tribunal de Thionville à dix-huit mois de prison avec sursis probatoire et au retrait de l’autorité parentale pour des violences sur ses deux fils mineurs, la cour d’appel de Metz avait prononcé sa relaxe le 18 avril 2024 au nom d’un « droit de correction ».
Durant l’audience du 19 novembre 2025 à la Cour de cassation, la rapporteuse avait mis en avant que certains arrêts de la Chambre criminelle invoquaient certes un « droit de correction » parental, mais qu’ils étaient fort anciens, notamment l’un d’entre eux souvent évoqué en l’occurrence datant de 1819.
La plus haute instance judiciaire est donc revenue sur la relaxe qui avait indigné les associations de protection de l’enfance. Celles-ci avaient dénoncé un retour en arrière par rapport à la loi dite « anti-fessée » de 2019 qui avait abouti à l’inscription suivante dans le Code civil :
« L’autorité parentale s’exerce sans violences physiques ou psychologiques. »
Le fait que la Cour de cassation ait dû réaffirmer cette inscription dans la loi nous rappelle que l’interdiction des châtiments corporels est le fruit d’une longue histoire et a rencontré de multiples résistances. Un certain nombre d’ambiguïtés apparues dès les débuts de l’école républicaine.
À lire aussi : L’affaire de Bétharram, ce n’est pas du passé : interroger l’idéologie punitive en France
Les punitions corporelles ont été en principe nettement interdites dans l’espace scolaire depuis l’institution de l’école républicaine. Dès 1887, les règlements pour les écoles maternelles indiquent que « les seules punitions dont on peut faire l’usage sont la privation, pour un temps court, du travail et de jeux en commun ou le retrait des bons points ». Le règlement pour les écoles primaires élémentaires précise formellement en son article 20 qu’« il est absolument interdit d’infliger aucun châtiment corporel ».
Cela ne signifie pas que, dans la réalité ordinaire des classes, il en était ainsi, tant s’en faut. Et cela d’autant plus que, lorsque des châtiments corporels étaient mis en œuvre et l’objet de plaintes, il apparaît que la jurisprudence a été pour le moins complexe, voire à géométrie variable.
Dès 1889, soit deux ans après l’interdiction formelle des châtiments corporels dans l’école républicaine, la Cour de cassation a en effet reconnu aux maîtres un droit de correction au même titre que celui attribué aux parents, dans la mesure où il n’y a pas excès et où la santé de l’enfant n’est pas compromise.
Une vingtaine d’années plus tard, un arrêt de la Chambre criminelle de la Cour de cassation du 4 décembre 1908 précise :
« Les instituteurs ont incontestablement par délégation paternelle, un droit de correction sur les enfants qui leur sont confiés ; mais, bien entendu, ce droit de correction, pour demeurer légitime, doit être limité aux mesures de coercition qu’exige la punition de l’acte d’indiscipline commis par l’enfant. »
C’est en se fondant sur ces considérations que, par exemple, la cour d’appel de Toulouse a relaxé, le 18 décembre 1999, le responsable de l’internat d’un collège de la région de Foix. L’arrêt de la cour d’appel estime :
« S’il est arrivé à monsieur J. de donner des gifles ou coups de poing à certains élèves, des coups de pied ou de classeurs, il convient de rappeler que l’élément intentionnel de l’infraction fait défaut lorsque les violences alléguées se rattachent à l’exercice du droit de correction qui appartient aux parents et dans une moindre mesure au maître. Or, en l’espèce, il a été constaté que M. J. avait la lourde responsabilité d’un internat, qu’il assumait par conséquent une fonction substitutive de celle des parents et que certains des élèves présentaient des difficultés d’ordre psychologique et des retards scolaires et perturbaient par leur comportement le bon déroulement des études. »
Les tribunaux admettent le plus souvent que, dans le cadre du maintien de la discipline scolaire, les enseignants bénéficient d’un exceptionnel droit de correction pour assurer le bon déroulement du cours dans un ordre scolaire dégradé, répondre à une attitude provocatrice ou sanctionner physiquement des violences ou injures contre l’enseignant ou entre élèves.
Dans quels cas le « droit de correction » à l’école n’était-il il pas admis ? Y avait-il une jurisprudence claire à ce sujet ?
Le « droit de correction » a été rarement toléré par les tribunaux pour d’autres buts, par exemple pour sanctionner une mauvaise application au travail ou de mauvais résultats. Ainsi la cour d’appel d’Agen juge, en 1999, qu’une institutrice qui avait infligé une fessée (occasionnant un gros hématome) à une jeune élève de 5 ans qui « ne savait pas faire son travail » est « coupable de violences volontaires ».
Un instituteur, qui criait régulièrement sur un élève de 7 ans, jetait ses affaires, déchirait son travail, le moquait, lui donnait des claques et lui tirait les oreilles, est également condamné le 23 janvier 2002 par la cour d’appel de Pau à une peine de six mois d’emprisonnement avec sursis.
En juin 2006, le directeur d’une école maternelle se voit infliger cinq mois de prison avec sursis par le tribunal correctionnel de Nice : il rudoyait ses élèves, leur administrait parfois des coups de pied ou de règles en fer et se rendait coupable de brimades en particulier contre les enfants en difficulté scolaire.
Les corrections ne doivent pas non plus dépasser une certaine intensité ni prendre des formes considérées comme inacceptables, moralement et juridiquement. Ainsi la cour d’appel de Bourges a-t-elle condamné à une peine d’amende un instituteur d’école maternelle qui avait fait mine de mordre le doigt d’un enfant afin de mettre un terme à son comportement agressif et à ses morsures réitérées.
Par ailleurs, un responsable d’un internat est condamné pour avoir donné des coups de pied dans le dos d’un élève qu’il avait projeté à terre – alors même qu’il est relaxé pour les gifles et les coups de pied donnés aux élèves perturbateurs restés debout (cour d’appel de Toulouse, 18 février 1999).
En définitive, les principes mêmes de la jurisprudence n’ont pas été d’une clarté absolue en la matière, même s’il semble exister quelques règles de base, et aucun jugement n’était vraiment assuré.
En écartant l’existence d’un « droit de correction » parental en ce début 2026, la Cour de cassation a donc comblé un flou de la jurisprudence.
« C’est la fin de l’idée, pourtant persistante chez certains juges, qu’il aurait existé à côté de la loi un droit coutumier de correction des parents sur leurs enfants […]. La loi de 2019 est claire et sans dérogation : dans notre droit, les prétendues violences éducatives n’existent pas »,
s’est félicité auprès de l’AFP Patrice Spinosi, avocat de la famille Milla.
Claude Lelièvre ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
28.01.2026 à 12:05
Thomas Posado, maître de conférences en civilisation latino-américaine contemporaine, Université de Rouen Normandie
Il est présent dans les noms de la Bolivie et de la République bolivarienne du Venezuela, dont les monnaies s’appellent le boliviano et le bolivar, et ses statues parsèment l’ensemble de l’Amérique latine. Mais sa gloire, en réalité, est planétaire. Au moment où le chavisme – dernier avatar du bolivarisme, dont il constitue une version très spécifique – vacille sous les coups de boutoir de Washington, Thomas Posado, maître de conférences en civilisation latino-américaine contemporaine à l’Université de Rouen-Normandie, explique dans cet entretien qui était Simon Bolivar.
Qui fut Simon Bolivar et quel a été son rôle historique ?
Thomas Posado : Simon Bolivar (1783-1830), surnommé El Libertador, est l’une des figures centrales des guerres d’indépendance de l’Amérique hispanique au début du XIXᵉ siècle. Il est issu de la grande bourgeoisie créole de la vice-royauté de Nouvelle-Grenade – une entité administrative appartenant à l’Espagne qui couvrait les territoires des actuels États de Colombie, d’Équateur, de Panama et du Venezuela.
L’Espagne, qui domine ces territoires depuis le XVIᵉ siècle, est alors elle-même fragilisée par l’invasion napoléonienne. Bolivar est inspiré des changements politiques que connaît l’Europe : il y a vécu quelque temps avant de rentrer en Nouvelle-Grenade en 1810. Il commence alors à exercer un commandement militaire dans ce qui tourne rapidement en véritable guerre d’indépendance. Il sera placé à la tête de plusieurs armées de plus en plus grandes et jouera un rôle majeur dans les indépendances du Venezuela, de la Colombie et de l’Équateur, et même du Pérou et de la Bolivie, plus au sud.
Dans quel contexte son action s’inscrit-elle ? Quels sont les modèles politiques qui l’inspirent ?
T. P. : L’indépendance des États-Unis (1776) est alors récente, la Révolution française (1789) encore plus. Les Lumières et les idéaux républicains influencent fortement Bolivar. En revanche, le lire comme un penseur « social » au sens contemporain serait anachronique. Bolivar est avant tout un militaire et un homme issu des élites créoles. Sa pensée oscille entre idéaux républicains et préoccupations d’ordre et de stabilité, dans des sociétés profondément fragmentées.
Son projet politique était-il l’unité de l’Amérique hispanique ?
T. P. : Oui, c’est le grand projet – et le grand échec – de sa vie. Bolivar est convaincu que la fragmentation des nouveaux États indépendants sera un obstacle majeur à leur développement. Il rêve d’une vaste entité politique qui regroupera les anciens territoires espagnols d’Amérique. Cette ambition se concrétise partiellement avec la Grande Colombie (1819–1831), mais celle-ci se désagrège rapidement. Le Congrès de Panama de 1826, censé jeter les bases d’une union durable, échoue. Bolivar résumera son amertume par une formule célèbre : « J’ai labouré la mer. »
Simon Bolivar est parfois présenté comme un précurseur de l’anti-impérialisme. Est-ce justifié ?
T. P. : Bolivar est sans ambiguïté un anti-impérialiste face à l’Espagne, puissance coloniale de son temps. En revanche, son hostilité supposée à l’égard des États-Unis est largement une relecture postérieure. Une phrase de 1829 est souvent citée – « Les États-Unis semblent destinés par la Providence à répandre la misère en Amérique au nom de la liberté » –, mais elle ne constitue pas le cœur de sa pensée. À cette époque, les États-Unis sont une puissance encore jeune, sans véritable politique impériale en Amérique du Sud. Bolivar pressent toutefois des velléités d’ingérence, notamment après la proclamation en 1823 de la doctrine Monroe, même si celle-ci n’a alors que peu d’effets concrets.
Quelle était sa position sur l’esclavage et sur les populations indigènes du continent ?
T. P. : Bolivar affranchit les esclaves de sa famille et adopte progressivement une position abolitionniste, mais cela s’inscrit aussi dans un contexte stratégique : il cherche à rallier des populations que ses adversaires loyalistes tentent de mobiliser. Son intérêt pour les populations indigènes reste limité, en particulier au Venezuela où elles représentent une part relativement faible de la population. L’image d’un Bolivar défenseur des peuples autochtones est en grande partie une construction ultérieure.
Comment sa figure est-elle utilisée après sa mort ?
T. P. : Dès le XIXe siècle, Bolívar devient une référence centrale dans la construction des identités nationales. Au Venezuela, son pays natal, cette sacralisation est particulièrement forte. Ses restes – il est décédé en Colombie de la tuberculose en 1830, et y a été enterré dans un premier temps – sont rapatriés à Caracas dans les années 1840, puis il fait l’objet d’une véritable religion civique sous le régime de Guzman Blanco, de 1870 à 1887, avec la création du Panthéon national et la multiplication des places Bolivar dans tout le pays. Cette instrumentalisation est bien antérieure au chavisme.
Pourquoi Bolivar est-il surtout associé au Venezuela, et non à la Bolivie qui porte son nom ?
T. P. : Parce qu’il est né à Caracas, que ses premières grandes campagnes s’y déroulent et qu’il y incarne la victoire contre l’Espagne. En Bolivie, qui adopte son nom en 1825, Bolivar reste une figure honorée mais extérieure. Au Venezuela, il devient le socle du récit national dans un État jeune, dépourvu d’identité collective solide après l’indépendance.
Comment Hugo Chavez s’inscrit-il dans cet héritage bolivarien ?
T. P. : Chavez se revendique explicitement de Bolivar dès ses débuts politiques. Son mouvement putschiste de 1992 s’appelle le Mouvement bolivarien révolutionnaire. Une fois au pouvoir (1999), il fait du bolivarisme l’axe idéologique du régime et rebaptise le pays République bolivarienne du Venezuela. Il relit Bolivar à travers un prisme national-populaire, social et anti-impérialiste, en lien avec Cuba et d’autres gouvernements de gauche, notamment ceux des Kirchner en Argentine, de Rafael Correa en Équateur et d’Evo Morales en Bolivie. Comme toute relecture historique, elle est sélective, accentuant certains aspects de Bolivar et en effaçant d’autres.
Cette relecture était-elle consensuelle à gauche ?
T. P. : Non. Karl Marx, par exemple, portait un jugement très sévère sur Bolivar, qu’il voyait comme un représentant des intérêts bourgeois. C’est notamment la révolution cubaine qui contribue à réhabiliter Bolivar à gauche, en articulant héritage national et lutte anti-impérialiste, aux côtés de figures comme José Marti (1853-1895), le fondateur du Parti révolutionnaire cubain.
Simon Bolivar ayant été si fortement associé au chavisme, comment le Libertador est-il perçu par l’opposition vénézuélienne ?
T. P. : Bolivar est omniprésent dans l’imaginaire national, bien au-delà du chavisme. La monnaie nationale s’appelle le bolivar depuis 1879, les places Bolivar sont les places principales de chaque municipalité du pays, son portrait jalonne nombre de foyers vénézuéliens… Le rejeter frontalement serait politiquement suicidaire. Cependant, il existe des intellectuels considérant que le culte bolivarien a favorisé le militarisme en Amérique latine. En tout état de cause, pour l’opposition vénézuélienne actuelle, le problème est moins Bolivar lui-même que son appropriation par Chavez puis par Maduro.
L’Alliance bolivarienne pour les peuples de notre Amérique (ALBA) est souvent présentée comme l’incarnation contemporaine du projet bolivarien. De quoi s’agit-il exactement ?
T. P. : L’ALBA est créée en 2004 à l’initiative d’Hugo Chavez et de Fidel Castro, en réaction directe à un projet promu par les États-Unis : la zone de libre-échange des Amériques, dite ALCA.
Là où l’ALCA reposait sur une logique de libre-échange classique, l’ALBA se voulait une alternative fondée sur la coopération, la solidarité et la complémentarité entre États, en particulier dans les domaines de l’énergie, de la santé et de l’éducation. L’ALBA rassemblait les États les plus engagés dans un combat anti-impérialiste (Cuba, Venezuela, Équateur, Bolivie, Nicaragua et quelques îles des Caraïbes). Le Venezuela, fort de ses revenus pétroliers, y jouait un rôle central, notamment via des livraisons de pétrole à prix préférentiel.
Dans le discours chaviste, l’ALBA s’inscrit explicitement dans l’héritage de Bolivar : refus de l’hégémonie états-unienne, intégration régionale et souveraineté collective. Chavez a agi pour l’intégration régionale en contribuant à la création d’instances supranationales latino-américaines (l’UNASUR pour les États sud-américains, la CELAC pour l’ensemble de l’Amérique latine). Il s’agit d’une relecture contemporaine du bolivarisme, qui s’appuyait sur la convergence politique des gouvernements de gauche de la région et sur une conjoncture économique favorable.
Avec l’effondrement économique du Venezuela à partir de 2014, l’ALBA perd une grande partie de sa capacité d’action et de son influence, illustrant les limites structurelles de ce projet d’intégration lorsqu’il repose largement sur un seul pays moteur financé par une abondante rente pétrolière.
Que reste-t-il du bolivarisme sous Nicolas Maduro ?
T. P. : Le discours demeure, mais la pratique s’en éloigne fortement. Sous Maduro, le Venezuela traverse une crise économique majeure (- 74 % de PIB entre 2014 et 2020), qui limite toute ambition régionale. Contrairement à Chavez, Maduro ne dispose ni des ressources économiques ni de l’influence diplomatique nécessaires pour incarner un projet d’intégration latino-américaine. Le bolivarisme devient avant tout un outil de légitimation du pouvoir.
Le bolivarisme a-t-il encore une influence en Amérique latine aujourd’hui ?
T. P. : Comme projet politique structuré, il est affaibli. Mais comme symbole, il reste puissant. La revendication de la souveraineté sur les ressources naturelles et le rejet de toute tutelle étrangère – notamment états-unienne – demeurent des thèmes centraux dans la région, et plus que jamais d’actualité à l’heure de l’interventionnisme de Donald Trump.
Même si Bolivar n’a jamais formulé ces enjeux dans les termes actuels, il incarne une figure fondatrice de l’anticolonialisme latino-américain, dont l’héritage dépasse largement le cas vénézuélien. C’est notamment ainsi qu’il est célébré dans de nombreuses villes du continent, et ailleurs également, y compris à Paris où une station de métro porte son nom, à New York, à Londres et même à Madrid, alors qu’il a combattu l’Espagne. Le poète chilien Pablo Neruda écrivait dans son Canto para Bolívar qu’il « se réveille tous les cent ans quand le peuple se réveille ». Comme référence anti-coloniale, Bolivar ne mourra jamais.
En définitive, on peut donc dire que Bolivar survivra au chavisme ?
T. P. : Sans aucun doute. Son image pourra être temporairement ternie par l’effondrement du Venezuela, mais à long terme, l’historiographie retiendra Bolivar comme une figure majeure des indépendances. Sa singularité tient à l’ampleur géographique de son action et à son ambition d’unité continentale. À ce titre, il restera l’un des grands personnages de l’histoire mondiale du XIXᵉ siècle.
Propos recueillis par Grégory Rayko.
Thomas Posado ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
28.01.2026 à 12:00
Stefan Hanß, Professor of Early Modern History, University of Manchester

Les livres médicaux de la Renaissance ne sont pas seulement des textes anciens : ils portent aussi les traces invisibles de ceux qui les ont manipulés. Des chercheurs ont découvert des protéines et autres indices biologiques qui révèlent les pratiques et expérimentations médicales du XVIᵉ siècle.
Et si le papier des pages d’un vieux livre pouvait nous dire qui les a touchées, quels remèdes furent préparés et même comment les corps réagirent aux traitements ?
Les livres de recettes médicales de la Renaissance regorgent de notes manuscrites laissées par des lecteurs qui ont testé des remèdes contre des problèmes allant de la calvitie au mal de dents. Pendant des années, les historiens ont étudié ces annotations pour comprendre comment on expérimentait la médecine autrefois. Nos recherches récentes vont plus loin. Avec mes collègues, nous avons mis au point une méthode permettant de lire non seulement les mots inscrits sur ces pages, mais aussi les traces biologiques invisibles laissées par les personnes qui les ont utilisées.
Des milliers de manuscrits et de livres imprimés ont survécu de l’Europe de la Renaissance, consignant des recettes médicales employées dans la vie quotidienne. Il ne s’agissait pas de volumes rares ou réservés à une élite. Beaucoup étaient des « best-sellers » médicaux, largement diffusés, puis personnalisés par des lecteurs qui ajoutaient des notes dans les marges. Quelles recettes fonctionnaient le mieux ? Quels ingrédients pouvaient être remplacés ou améliorés ? Loin d’être des textes figés, ces livres étaient des documents de travail. La Renaissance fut une période d’innovation médicale, nourrie par des expérimentations pratiques maintes fois répétées.
Pour la première fois, nous avons pu prélever et analyser des protéines invisibles laissées sur les pages de ces livres par les personnes qui les ont manipulés.
Ce travail relève d’une véritable enquête biochimique. Chaque fois qu’un lecteur du XVIᵉ siècle touchait une page, il y déposait de minuscules traces d’acides aminés, les éléments constitutifs des protéines. Ces traces peuvent aujourd’hui être prélevées grâce à des films spécialisés produits par SpringStyle Tech Design, qui soulèvent délicatement la matière à la surface du papier sans l’endommager. Nous avons échantillonné des livres médicaux allemands du XVIᵉ siècle, aujourd’hui conservés à la bibliothèque John-Rylands de l’Université de Manchester. Les échantillons de protéines ont été analysés dans des laboratoires des universités de York et d’Oxford tandis que le laboratoire d’imagerie de la Rylands a utilisé des techniques avancées pour restituer des textes effacés ou devenus illisibles.
Se concentrer sur des livres est essentiel. Comme ces volumes ont été produits en plusieurs exemplaires, il est possible de comparer les traces biochimiques entre des textes similaires, ce qui nous aide à distinguer ce que le livre prescrivait de ce que les lecteurs faisaient réellement avec lui.
Cette approche combinée nous a permis de recueillir des informations remarquables sur les personnes qui utilisaient ces livres, les substances qu’elles manipulaient et les remèdes qu’elles préparaient. Lue en parallèle des sources d’archives, elle offre un éclairage nouveau sur le fonctionnement concret de la médecine de la Renaissance dans la vie quotidienne.
Sur des pages recommandant des remèdes précis, nous avons identifié des traces protéiques provenant justement des ingrédients mentionnés dans les recettes. On trouve des traces de cresson de fontaine, de hêtre européen et de romarin à côté d’instructions visant à traiter la perte de cheveux ou à stimuler la croissance des cheveux et de la barbe.
Cette attention portée aux cheveux n’a rien de surprenant. Avec l’essor du portrait et l’expansion du commerce des peignes et des miroirs, les barbes et les nouvelles coiffures sont devenues à la mode à la Renaissance. Les cheveux étaient alors très visibles, chargés de sens social et étroitement liés aux conceptions de la santé et de la masculinité.
Certaines découvertes se sont révélées plus déroutantes. À proximité d’une recette proposant un traitement extrême contre la calvitie, nous avons détecté des traces d’excréments humains.
Cela correspond étroitement aux conceptions de la Renaissance sur les cheveux. Dans la pensée médicale médiévale et du début de l’époque moderne, les cheveux étaient considérés comme une excrétion du corps, au même titre que la sueur, les matières fécales ou les ongles. Comme l’ont formulé crûment certains chercheurs, « les cheveux, c’était de la merde ». Dans cette perspective, utiliser des déchets humains pour traiter les cheveux n’avait rien de grotesque, mais relevait d’une logique cohérente.
Nous avons également identifié des protéines provenant de plantes à fleurs jaune vif à proximité de recettes destinées à teindre les cheveux en blond. Ces plantes ne figuraient pas parmi les ingrédients mentionnés par écrit. Leur présence suggère que les lecteurs expérimentaient au-delà des instructions figurant sur la page, guidés par le symbolisme des couleurs et par des propriétés médicinales supposées. Ici, l’expérimentation devient visible non seulement dans les notes marginales, mais aussi dans l’archive biologique elle-même.
D’autres traces protéiques indiquent l’utilisation de lézards dans des remèdes capillaires. Dans la philosophie naturelle de la Renaissance, les lézards étaient classés parmi les animaux poïkilothermes, c’est-à-dire dont la température corporelle varie en fonction de l’environnement. On pensait que la croissance des cheveux dépendait de la chaleur interne du corps. Une augmentation de cette chaleur était censée stimuler la pousse des cheveux, tandis qu’un excès pouvait les détruire. La présence de protéines de lézard suggère que les praticiens testaient activement ces théories concurrentes en transformant des matières animales en remèdes.
Citons ensuite l’hippopotame. Nous avons retrouvé des protéines correspondant à des éléments provenant d’hippopotames sur des pages traitant de problèmes dentaires. Dans les marges, les lecteurs se plaignaient de dents malodorantes, de maux de dents et de pertes dentaires. Dans la médecine de la Renaissance, l’os d’hippopotame était censé renforcer les dents et les gencives et était parfois utilisé pour fabriquer des dentiers. Sa présence suggère que les lecteurs allemands des XVIᵉ et XVIIᵉ siècles avaient accès à des matériaux médicaux exotiques, échangés sur de longues distances.
Nos méthodes combinent une lecture historique approfondie avec l’analyse en laboratoire, permettant aux historiens d’étudier la pratique médicale d’une manière jusqu’alors impossible. Elles réunissent des formes de preuves habituellement séparées : textes, corps et matériaux.
Peut-être plus intrigant encore, nous avons identifié des protéines aux fonctions antimicrobiennes, y compris des molécules couramment impliquées dans les réponses immunitaires humaines, telles que celles liées à l’inflammation et à la défense contre les bactéries. Ces protéines aident le corps à lutter contre les infections. Leur présence suggère que les personnes manipulant ces livres ne se contentaient pas de préparer des remèdes, mais étaient elles-mêmes en train de tomber malades ou de guérir, laissant derrière elles des traces d’activité immunitaire.
Dans ce sens, il est possible d’entrevoir des systèmes immunitaires réagissant à la maladie et au traitement directement sur les pages. Nous commençons à peine à comprendre ce que ces preuves peuvent révéler, mais ce travail ouvre des voies entièrement nouvelles pour étudier la manière dont la médecine de la Renaissance était pratiquée, testée et vécue.
Cette recherche a été financée par une bourse pilote du John Rylands Research Institute 2020–21 (chercheur principal : Stefan Hanß) et résulte de discussions interdisciplinaires initiées lors de l’événement financé par la British Academy « Microscopic Records : The New Interdisciplinarity of Early Modern Studies, c. 1400–1800 » (British Academy Rising Star Engagement Award BARSEA 19\190084, chercheur principal : Stefan Hanß.
28.01.2026 à 12:00
Morteza Hajizadeh, Hajizadeh, University of Auckland, Waipapa Taumata Rau

De Rûmî à Hafez, l’amour homoérotique a nourri l’imaginaire spirituel islamique. Son effacement brutal, au tournant des XIXᵉ et XXᵉ siècles, révèle l’impact profond des valeurs victoriennes importées en terres d’islam.
Pendant des siècles, la littérature issue des régions islamiques, en particulier d’Iran, a célébré l’amour homoérotique masculin comme un symbole de beauté, de mysticisme et de désir spirituel. Ces attitudes étaient particulièrement marquées durant l’âge d’or de l’islam, du milieu du VIIIᵉ siècle au milieu du XIIIᵉ siècle.
Mais cette tradition littéraire a progressivement disparu à la fin du XIXᵉ et au début du XXᵉ siècle, sous l’influence des valeurs occidentales et de la colonisation.
Les attitudes à l’égard de l’homosexualité dans les sociétés islamiques anciennes étaient complexes. D’un point de vue théologique, l’homosexualité a commencé à être désapprouvée au VIIe siècle, dès la révélation du Coran au prophète de l’islam, Mohammed.
Cependant, la diversité des attitudes et des interprétations religieuses laissait place à une certaine marge de manœuvre. Les sociétés islamiques médiévales des classes supérieures acceptaient souvent ou toléraient les relations homosexuelles. La littérature classique d’Égypte, de Turquie, d’Iran et de Syrie suggère que toute interdiction de l’homosexualité était fréquemment appliquée avec clémence.
Même dans les cas où le droit islamique condamnait l’homosexualité, les juristes autorisaient les expressions poétiques de l’amour entre hommes, en soulignant le caractère fictif du vers. La composition de poésie homoérotique permettait ainsi à l’imagination littéraire de s’épanouir dans des limites morales.
Les littératures classiques arabe, turque et persane de l’époque faisaient une place à une poésie homoérotique célébrant l’amour sensuel entre hommes. Cette tradition a été portée par des poètes tels que l’Arabe Abû Nuwâs, les maîtres persans Saadi, Hafez et Rûmî, ainsi que les poètes turcs Bâkî et Nedîm, qui, tous, célébraient la beauté et l’attrait de l’aimé masculin.
Dans la poésie persane, les pronoms masculins pouvaient être utilisés pour décrire aussi bien des aimés masculins que féminins. Cette ambiguïté linguistique contribuait à légitimer davantage encore l’homoérotisme littéraire.
Dans le soufisme – une forme de croyance et de pratique mystiques de l’islam apparue durant l’âge d’or de l’islam –, les thèmes de l’amour entre hommes étaient souvent utilisés comme symbole de transformation spirituelle. Comme le professeur d’histoire et d’études religieuses Shahzad Bashir le montre, les récits soufis présentent le corps masculin comme le principal vecteur de la beauté divine.
Dans le soufisme, l’autorité religieuse se transmet par la proximité physique entre un guide spirituel, ou cheikh (Pir Murshid), et son disciple (Murid).
La relation entre le cheikh et le disciple mettait en scène le paradigme de l’amant et de l’aimé, fondamental dans la pédagogie soufie : les disciples s’approchaient de leurs guides avec le même désir, le même abandon et la même vulnérabilité extatique que celle exprimée dans la poésie amoureuse persane.
La littérature suggère que les communautés soufies se sont structurées autour d’une forme d’affection homoérotique, utilisant la beauté et le désir comme métaphores pour accéder à la réalité cachée.
Ainsi, le maître saint devenait le reflet de la radiance divine, et l’élan du disciple signifiait l’ascension de l’âme. Dans ce cadre, l’amour masculin incarné devenait un vecteur d’anéantissement spirituel et de renaissance sur la voie soufie.
L’amour légendaire entre le sultan Mahmud de Ghazni et son esclave masculin Ayaz en offre un exemple parfait. Submergé par la vision de la beauté d’Ayaz nu dans un bain, le sultan Mahmud confesse :
Alors que je n’avais vu que ton visage, j’ignorais tout de tes membres. À présent, je les vois tous, et mon âme brûle de cent feux. Je ne sais lequel aimer davantage.
Dans d’autres récits, Ayaz se propose volontairement de mourir de la main de Mahmud, symbolisant la transformation spirituelle par l’anéantissement de l’ego.
La relation entre Rûmî et Shams de Tabriz, deux soufis persans du XIIIe siècle, constitue un autre exemple d’amour mystique entre hommes.
Dans un récit rapporté par leurs disciples, les deux hommes se retrouvent après une longue période de transformation spirituelle, s’embrassent, puis tombent aux pieds l’un de l’autre.
La poésie de Rûmî brouille la frontière entre dévotion spirituelle et attirance érotique, tandis que Shams remet en cause l’idée d’une pureté idéalisée :
Pourquoi regarder le reflet de la lune dans un bol d’eau, quand on peut regarder la chose elle-même dans le ciel ?
Les thèmes homoérotiques étaient si courants dans la poésie persane classique que des critiques iraniens ont affirmé :
La littérature lyrique persane est fondamentalement une littérature homosexuelle.
À la fin du XIXe siècle, écrire de la poésie célébrant la beauté et le désir masculins est devenu tabou, non pas tant en raison d’injonctions religieuses que sous l’effet des influences occidentales.
Les puissances coloniales britannique et française ont importé une morale victorienne, l’hétéronormativité et des lois antisodomie dans des pays comme l’Iran, la Turquie et l’Égypte. Sous leur influence, les traditions homoérotiques de la littérature persane ont été stigmatisées.
Le colonialisme a amplifié ce basculement, en présentant l’homoérotisme comme « contre nature ». Ce mouvement a été encore renforcé par l’application stricte des lois islamiques, ainsi que par des agendas nationalistes et moralistes.
Des publications influentes telles que Molla Nasreddin (publiée de 1906 à 1933) ont introduit des normes occidentales et tourné en dérision le désir entre personnes de même sexe, en l’assimilant à la pédophilie.
Les modernisateurs nationalistes iraniens ont mené des campagnes visant à purger les textes homoérotiques, les présentant comme des vestiges d’un passé « pré-moderne ». Même des poètes classiques tels que Saadi et Hafez ont été requalifiés ou censurés dans les histoires littéraires iraniennes à partir de 1935.
Un millénaire de libertinage poétique a alors cédé la place au silence, et la censure a effacé l’amour masculin de la mémoire littéraire.
Morteza Hajizadeh ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
28.01.2026 à 11:59
Giles Gasper, Professor in High Medieval History, Durham University

Les monastères médiévaux imposaient pauvreté et austérité, mais la présence de chauffoirs et de quelques douceurs hivernales montre que le confort et la chaleur n’étaient pas complètement ignorés.
De nombreux chroniqueurs monastiques le rappellent : tout monastère devait idéalement être situé près de l’eau et d’une réserve de bois. Orderic Vital, né en Angleterre près de Shrewsbury en 1075 et envoyé à l’âge de 5 ans à l’abbaye normande de Saint-Évroult, insiste clairement sur cette double exigence. De l’eau pour se laver, pour l’hygiène, pour boire, pour fabriquer l’encre, pour préparer le mortier de chaux, et du bois pour construire et, sans doute, pour se chauffer.
La forme bénédictine de la vie monastique a été la plus répandue tout au long de la période médiévale, même si bien d’autres ont existé. La règle attribuée à saint Benoît détaille en 73 chapitres comment les moines devaient mener leur vie : se concentrer sur le monde à venir, sur la vie après la mort, ainsi que sur l’obéissance et l’humilité.
Privés de toute propriété individuelle, les moines vivaient sans fortune personnelle tandis que les monastères pouvaient, eux, être d’une grande opulence. Le confort matériel n’était pas une priorité, du moins en théorie. On observe d’ailleurs souvent, dans l’expression religieuse de l’époque, une opposition entre inconfort matériel et valeur spirituelle : plus l’épreuve physique était rude, plus la valeur spirituelle était jugée élevée. Les Cisterciens, apparus comme un courant monastique distinct à la toute fin du XIᵉ siècle et eux aussi fidèles à la règle de saint Benoît, accordaient une importance centrale à l’austérité dans tous les aspects de leur existence.
La manière dont les communautés monastiques étaient régies éclaire leur rapport au froid. Les concessions prévues à ce sujet dans la règle de saint Benoît étaient limitées : il est reconnu que les moines vivant dans des régions plus froides avaient besoin de davantage de vêtements. De manière générale, la seule différence entre la tenue d’hiver et celle d’été consistait en une coule épaisse et laineuse
– une capuche couvrant les épaules – pour les mois froids, contre une version plus légère le reste de l’année.
Benoît a rédigé sa règle dans l’Italie du VIᵉ siècle. Les conditions qui prévalaient dans les régions du nord de l’Europe aux siècles suivants différaient profondément, à bien des égards, de celles du monde méditerranéen du haut Moyen Âge – notamment en ce qui concerne le froid qui pouvait régner dans les monastères. Orderic a ainsi décrit les effets de l’hiver à la fin de son quatrième livre (sur treize) de son Historia ecclesiastica. Après avoir évoqué brièvement les conflits et affrontements à la frontière entre la Normandie et le Maine, il note que :
« Les mortels sont accablés de tant de malheurs qu’il faudrait de vastes volumes pour les consigner tous. Mais à présent, engourdi par le froid de l’hiver, je me tourne vers d’autres occupations et, las de tant de labeur, décide de clore ici le livre que j’écris. Quand la douceur du printemps sera revenue, je rapporterai dans les livres suivants tout ce que je n’ai fait qu’effleurer ou que j’ai entièrement passé sous silence. »
Mais une pièce du monastère était chauffée pendant les périodes de grand froid. Le chauffoir, ou calefactorium, était équipé d’un foyer et, dans certains cas, de quelques aménagements supplémentaires.
Très peu de bâtiments au sein des ensembles monastiques disposaient d’une cheminée. Les églises n’étaient pas chauffées, pas plus que les dortoirs. Dans ce contexte, le chauffoir constituait un lieu à part, rare et important. Même lorsqu’il était relativement vaste, il ne pouvait accueillir qu’un nombre limité de personnes à la fois. On imagine sans peine une dizaine de moines rassemblés autour de l’âtre, le bois crépitant, échangeant quelques mots à voix basse – la parole étant elle-même découragée dans les monastères – et cherchant un peu de chaleur dans un environnement glacial. Cette scène n’est sans doute pas loin de la réalité.
Malgré leur utilité évidente pour la communauté, les chauffoirs occupent une place très marginale dans les sources écrites. Les bâtiments conservés et les mentions textuelles qui subsistent permettent néanmoins d’éclairer la vie monastique et de mesurer ce que l’existence d’un chauffoir changeait concrètement.
En Angleterre médiévale, on peut citer le monastère cistercien de Meaux, dans le Yorkshire. Fondé en 1141, il n’en reste aujourd’hui aucun vestige bâti, mais une chronique abondante nous est parvenue.
Le registre des nouvelles constructions réalisées sous l’abbatiat de Thomas à partir de 1182 mentionne non seulement un magnifique réfectoire en pierre pour les moines, mais aussi le chauffoir et une petite cuisine. Le fait que ces bâtiments figurent dans la chronique comme autant d’accomplissements de l’abbé, destinés à laisser une trace pour les générations futures, témoigne de l’importance qui leur était accordée. Il est également intéressant de noter que, tandis que le réfectoire fut construit rapidement grâce à un don, la cuisine et le chauffoir furent réalisés progressivement, au rythme des ressources disponibles.
Si le chauffoir de Meaux (Yorkshire) n’existe plus que par les sources historiques, de bons exemples de chauffoirs encore conservés sont assez fréquents. L’abbaye de Rievaulx, dans le nord du Yorkshire, en offre un bon exemple.
Le chauffoir de Rievaulx est situé à côté du réfectoire et a subi d’importantes modifications entre le XIIᵉ et le XVIᵉ siècle. Finalement doté de deux étages, le complexe comprenait également des installations pour laver les vêtements des moines pendant l’hiver.
Puis direction Durham (nord-est de l’Angleterre). Nous nous appuyons ici sur un remarquable traité du XVIᵉ siècle (et postérieur), The Rites of Durham, dernière mémoire des pratiques du monastère avant la Réforme.
Il indique que le chauffoir, ici appelé « maison commune », se trouvait sur le côté droit en sortant du cloître. À l’intérieur, on y trouvait :
« Un feu entretenu tout l’hiver pour que les moines puissent s’y réchauffer, aucun autre feu n’étant permis ; seuls les maîtres et officiers disposaient de leurs propres foyers. »
Si les bâtiments médiévaux étaient difficiles à chauffer, la présence de salles chauffées témoigne de l’importance accordée à la chaleur. Dans le cas de la maison commune du prieuré de la cathédrale de Durham, les moines bénéficiaient même, si l’on en croit le récit, de quelques friandises supplémentaires à l’occasion de Noël : figues, raisins, gâteaux et bière, consommés avec modération.
Giles Gasper reçoit un financement de l’Arts and Humanities Research Council, de Research England, de la John Templeton Foundation et du Leverhulme Trust.
28.01.2026 à 11:57
Zaradat Domínguez Galván, Profesora de Literatura, Universidad de Las Palmas de Gran Canaria

Longtemps éclipsée par les figures canoniques de la tradition occidentale, Enheduanna est pourtant la première autrice connue de l’histoire. Il y a plus de 4 000 ans, en Mésopotamie, cette grande prêtresse a signé ses textes, mêlant poésie, pouvoir et spiritualité, et laissé une œuvre fondatrice.
Quand on se demande qui fut le premier écrivain de l’histoire, on pense souvent à Homère. L’image du poète aveugle de la Grèce antique occupe le sommet du panthéon de la tradition littéraire occidentale.
Mais en réalité, il faut remonter bien plus loin, au-delà de la Grèce, au-delà même de l’alphabet, et tourner notre regard vers le berceau de l’écriture : l’ancienne Mésopotamie. Là, il y a plus de 4 000 ans, une femme a signé son œuvre de son propre nom : Enheduanna.
Enheduanna a vécu aux alentours de 2300 avant notre ère, dans la cité d’Ur, dans l’actuel sud de l’Irak. Sa figure se distingue à plusieurs titres : elle fut grande prêtresse du dieu lunaire Nanna, une fonction qui lui conférait un pouvoir politique et religieux considérable. Elle était également la fille du roi Sargon d’Akkad, fondateur du premier empire mésopotamien, et surtout l’autrice d’une œuvre littéraire d’une grande profondeur théologique, politique et poétique.
« Enheduanna » n’était pas son nom personnel, mais un titre religieux que l’on peut traduire par « grande prêtresse, parure du ciel ». Son véritable nom demeure inconnu. Ce qui ne fait en revanche aucun doute, c’est son importance historique : Enheduanna a écrit, signé ses textes et revendiqué leur paternité intellectuelle, ce qui fait d’elle la première personne connue, homme ou femme, à avoir laissé une œuvre littéraire en son nom propre.
L’écriture cunéiforme existait déjà depuis le milieu du IVe millénaire avant notre ère. Elle était née comme un outil administratif, utile pour tenir des registres économiques, contrôler les impôts ou compter le bétail. Mais à l’époque d’Enheduanna, on commençait également à l’utiliser pour exprimer des idées religieuses, philosophiques et esthétiques. C’était un art sacré, associé à la déesse Nisaba, patronne des scribes, des céréales et du savoir.
Dans ce contexte, la figure de cette autrice est particulièrement révélatrice. Son œuvre associe une profonde dévotion religieuse à un message politique explicite. Sa poésie s’inscrit dans une stratégie impériale : légitimer la domination d’Akkad sur les cités sumériennes par l’usage d’un langage commun, d’une foi partagée et d’un discours théologique unifié.
Plusieurs compositions d’Enheduanna nous sont parvenues. Parmi les plus importantes figure L’Exaltation d’Inanna, un long hymne qui célèbre la déesse de l’amour et de la guerre, Inanna, et dans lequel l’autrice implore son aide durant une période d’exil. Ce texte est souvent considéré comme son œuvre la plus personnelle et la plus puissante.
On conserve également les Hymnes des temples, un ensemble de quarante-deux hymnes dédiés à différents temples et divinités de Sumer. À travers eux, Enheduanna compose une véritable cartographie spirituelle du territoire, mettant en valeur le lien étroit entre religion et pouvoir politique.
S’y ajoutent enfin d’autres hymnes fragmentaires, dont l’un est consacré à son dieu Nanna.
Ces exemples ne sont pas de simples textes religieux : ils sont construits avec une grande sophistication, chargés de symbolisme, d’émotion et d’une véritable vision politique. Enheduanna y apparaît comme une médiatrice entre les dieux et les humains, entre son père, l’empereur, et les cités conquises.
Il est surprenant qu’Enheduanna soit absente des manuels scolaires et de la plupart des cursus universitaires de littérature. En dehors des spécialistes de l’histoire ancienne ou des études de genre, son nom reste largement méconnu.
Il est légitime de se demander si l’oubli d’Enheduanna relève d’une invisibilisation systémique des femmes dans l’histoire culturelle. Comme le souligne l’historienne de l’art Ana Valtierra Lacalle, pendant des siècles, la présence de femmes scribes ou artistes dans l’Antiquité a été niée, malgré des preuves archéologiques attestant qu’elles savaient lire, écrire et administrer des ressources.
Enheduanna ne fut pas une exception isolée : son existence montre que les femmes ont participé activement au développement de la civilisation mésopotamienne, aussi bien dans la sphère religieuse qu’intellectuelle. Le fait qu’elle soit la première personne connue à avoir signé un texte de son propre nom devrait lui offrir une place de choix dans l’histoire de l’humanité.
Elle ne représente pas seulement un moment fondateur de l’histoire littéraire : elle incarne aussi, avec une force rare, la capacité des femmes à créer, penser et exercer une autorité dès l’aube de la culture écrite. Sa voix, gravée sur des tablettes d’argile, nous parvient intacte à travers les millénaires. Avec elle, l’histoire ne commence pas uniquement par des mots, mais par une voix singulière, une expérience vécue et une conscience aiguë du geste d’écrire – autant d’éléments qui méritent pleinement d’être reconnus.
On conserve également les Hymnes des temples, un ensemble de quarante-deux hymnes dédiés à différents temples et divinités de Sumer. À travers eux, Enheduanna compose une véritable cartographie spirituelle du territoire, mettant en valeur le lien étroit entre religion et pouvoir politique.
S’y ajoutent enfin d’autres hymnes fragmentaires, dont l’un est consacré à son dieu Nanna.
Ces exemples ne sont pas de simples textes religieux : ils sont construits avec une grande sophistication, chargés de symbolisme, d’émotion et d’une véritable vision politique. Enheduanna y apparaît comme une médiatrice entre les dieux et les humains, entre son père, l’empereur, et les cités conquises.
Il est surprenant qu’Enheduanna soit absente des manuels scolaires et de la plupart des cursus universitaires de littérature. En dehors des spécialistes de l’histoire ancienne ou des études de genre, son nom reste largement méconnu.
Il est légitime de se demander si l’oubli d’Enheduanna relève d’une invisibilisation systémique des femmes dans l’histoire culturelle. Comme le souligne l’historienne de l’art Ana Valtierra Lacalle, pendant des siècles, la présence de femmes scribes ou artistes dans l’Antiquité a été niée, malgré des preuves archéologiques attestant qu’elles savaient lire, écrire et administrer des ressources.
Enheduanna ne fut pas une exception isolée : son existence montre que les femmes ont participé activement au développement de la civilisation mésopotamienne, aussi bien dans la sphère religieuse qu’intellectuelle. Le fait qu’elle soit la première personne connue à avoir signé un texte de son propre nom devrait lui offrir une place de choix dans l’histoire de l’humanité.
Elle ne représente pas seulement un moment fondateur de l’histoire littéraire : elle incarne aussi, avec une force rare, la capacité des femmes à créer, penser et exercer une autorité dès l’aube de la culture écrite. Sa voix, gravée sur des tablettes d’argile, nous parvient intacte à travers les millénaires. Avec elle, l’histoire ne commence pas uniquement par des mots, mais par une voix singulière, une expérience vécue et une conscience aiguë du geste d’écrire – autant d’éléments qui méritent pleinement d’être reconnus.
Zaradat Domínguez Galván ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
28.01.2026 à 11:56
Michael Falk, Senior Lecturer in Digital Studies, The University of Melbourne

Des mythes antiques à la tête parlante du pape, de Prométhée aux algorithmes modernes, l’intelligence artificielle (IA) puise dans notre fascination intemporelle pour la création et le pouvoir de la connaissance.
Il semble que l’engouement pour l’intelligence artificielle (IA) ait donné naissance à une véritable bulle spéculative. Des bulles, il y en a déjà eu beaucoup, de la tulipomanie du XVIIe siècle à celle des subprimes du XXIe siècle. Pour de nombreux commentateurs, le précédent le plus pertinent aujourd’hui reste la bulle Internet des années 1990. À l’époque, une nouvelle technologie – le World Wide Web – avait déclenché une vague d’« exubérance irrationnelle ». Les investisseurs déversaient des milliards dans n’importe quelle entreprise dont le nom contenait « .com ».
Trois décennies plus tard, une autre technologie émergente déclenche une nouvelle vague d’enthousiasme. Les investisseurs injectent à présent des milliards dans toute entreprise affichant « IA » dans son nom. Mais il existe une différence cruciale entre ces deux bulles, qui n’est pas toujours reconnue. Le Web existait. Il était bien réel. L’intelligence artificielle générale, elle, n’existe pas, et personne ne sait si elle existera un jour.
En février, le PDG d’OpenAI, Sam Altman, écrivait sur son blog que les systèmes les plus récents commencent tout juste à « pointer vers » l’IA dans son acception « générale ». OpenAI peut commercialiser ses produits comme des « IA », mais ils se réduisent à des machines statistiques qui brassent des données, et non des « intelligences » au sens où on l’entend pour un être humain.
Pourquoi, dès lors, les investisseurs sont-ils si prompts à financer ceux qui vendent des modèles d’IA ? L’une des raisons tient peut-être au fait que l’IA est un mythe technologique. Je ne veux pas dire par là qu’il s’agit d’un mensonge, mais que l’IA convoque un récit puissant et fondateur de la culture occidentale, celui des capacités humaines de création. Peut-être les investisseurs sont-ils prêts à croire que l’IA est pour demain, parce qu’elle puise dans des mythes profondément ancrés dans leur imaginaire ?
Le mythe le plus pertinent pour penser l’IA est celui de Prométhée, issu de la Grèce antique. Il en existe de nombreuses versions, mais les plus célèbres se trouvent dans les poèmes d’Hésiode, la Théogonie et les Travaux et les Jours, ainsi que dans la pièce Prométhée enchaîné, traditionnellement attribuée à Eschyle.
Prométhée était un Titan, un dieu du panthéon grec antique. C’était aussi un criminel, coupable d’avoir dérobé le feu à Héphaïstos, le dieu forgeron. Dissimulé dans une tige de fenouil, le feu fut apporté sur Terre par Prométhée, qui l’offrit aux humains. Pour le punir, il fut enchaîné à une montagne, où un aigle venait chaque jour lui dévorer le foie.
Le don de Prométhée n’était pas seulement celui du feu ; c’était celui de l’intelligence. Dans Prométhée enchaîné, il affirme qu’avant son don, les humains voyaient sans voir et entendaient sans entendre. Après celui-ci, ils purent écrire, bâtir des maisons, lire les étoiles, pratiquer les mathématiques, domestiquer les animaux, construire des navires, inventer des remèdes, interpréter les rêves et offrir aux dieux des sacrifices appropriés.
Le mythe de Prométhée est un récit de création d’un genre particulier. Dans la Bible hébraïque, Dieu ne confère pas à Adam le pouvoir de créer la vie. Prométhée, en revanche, transmet aux humains une part du pouvoir créateur des dieux.
Hésiode souligne cet aspect du mythe dans la Théogonie. Dans ce poème, Zeus ne punit pas seulement Prométhée pour le vol du feu ; il châtie aussi l’humanité. Il ordonne à Héphaïstos d’allumer sa forge et de façonner la première femme, Pandore, qui déchaîne le mal sur le monde. Or le feu qu’Héphaïstos utilise pour créer Pandore est le même que celui que Prométhée a offert aux humains.
Les Grecs ont avancé l’idée que les humains sont eux-mêmes une forme d’intelligence artificielle. Prométhée et Héphaïstos recourent à la technique pour fabriquer les hommes et les femmes. Comme le montre l’historienne Adrienne Mayor dans son ouvrage Gods and Robots, les Anciens représentaient souvent Prométhée comme un artisan, utilisant des outils ordinaires pour créer des êtres humains dans un atelier tout aussi banal.
Si Prométhée nous a donné le feu des dieux, il semble logique que nous puissions utiliser ce feu pour fabriquer nos propres êtres intelligents. De tels récits abondent dans la littérature grecque antique, de l’inventeur Dédale, qui créa des statues capables de prendre vie, à la magicienne Médée, qui savait rendre la jeunesse et la vigueur grâce à ses drogues ingénieuses. Les inventeurs grecs ont également conçu des calculateurs mécaniques pour l’astronomie ainsi que des automates remarquables, mues par la gravité, l’eau et l’air.
Deux mille sept cents ans se sont écoulés depuis qu’Hésiode a consigné pour la première fois le mythe de Prométhée. Au fil des siècles, ce récit a été repris sans relâche, en particulier depuis la publication, en 1818, de Frankenstein ; ou le Prométhée moderne de Mary Shelley.
Mais le mythe n’est pas toujours raconté comme une fiction. Voici deux exemples historiques où le mythe de Prométhée semble s’être incarné dans la réalité.
Gerbert d’Aurillac fut le Prométhée du Xe siècle. Né au début des années 940 de notre ère, il étudia à l’abbaye d’Aurillac avant de devenir moine à son tour. Il entreprit alors de maîtriser toutes les branches du savoir connues de son temps. En 999, il fut élu pape. Il mourut en 1003 sous son nom pontifical de Sylvestre II.
Des rumeurs sur Gerbert se répandirent rapidement à travers l’Europe. Moins d’un siècle après sa mort, sa vie était déjà devenue légendaire. L’une des légendes les plus célèbres, et la plus pertinente à l’ère actuelle de l’engouement pour l’IA, est celle de la « tête parlante » de Gerbert. Cette légende fut racontée dans les années 1120 par l’historien anglais Guillaume de Malmesbury dans son ouvrage reconnu et soigneusement documenté, la Gesta Regum Anglorum (Les actions des rois d’Angleterre).
Gerbert possédait des connaissances approfondies en astronomie, une science de la prévision. Les astronomes pouvaient utiliser l’astrolabe pour déterminer la position des étoiles et prévoir des événements cosmiques, comme les éclipses. Selon Guillaume, Gerbert aurait mis son savoir en astronomie au service de la création d’une tête parlante. Après avoir observé les mouvements des étoiles et des planètes, il aurait façonné une tête en bronze capable de répondre à des questions par « oui » ou par « non ».
Gerbert posa d’abord la question : « Deviendrai-je pape ? »
« Oui », répondit la tête.
Puis il demanda : « Mourrai-je avant d’avoir célébré la messe à Jérusalem ? »
« Non », répondit la tête.
Dans les deux cas, la tête avait raison, mais pas comme Gerbert l’avait prévu. Il devint bien pape et évita judicieusement de partir en pèlerinage à Jérusalem. Un jour cependant, il célébra la messe à la basilique Sainte-Croix-de-Jérusalem à Rome. Malheureusement pour lui, la basilique était alors simplement appelée « Jérusalem ».
Gerbert tomba malade et mourut. Sur son lit de mort, il demanda à ses serviteurs de découper son corps et de disperser les morceaux, afin de rejoindre son véritable maître, Satan. De cette manière, il fut, à l’instar de Prométhée, puni pour avoir volé le feu.
C’est une histoire fascinante. On ne sait pas si Guillaume de Malmesbury y croyait vraiment. Mais il s’est bel et bien efforcé de persuader ses lecteurs que cela était plausible. Pourquoi ce grand historien, attaché à la vérité, aurait-il inséré une légende fantaisiste sur un pape français dans son histoire de l’Angleterre ? Bonne question !
Est-ce si extravagant de croire qu’un astronome accompli puisse construire une machine de prédiction à usage général ? À l’époque, l’astronomie était la science de la prédiction la plus puissante. Guillaume, sobre et érudit, était au moins disposé à envisager que des avancées brillantes en astronomie pourraient permettre à un pape de créer un chatbot intelligent.
Aujourd’hui, cette même possibilité est attribuée aux algorithmes d’apprentissage automatique, capables de prédire sur quelle publicité vous cliquerez, quel film vous regarderez ou quel mot vous taperez ensuite. Il est compréhensible que nous tombions sous le même sortilège.
Le Prométhée du XVIIIe siècle fut Jacques de Vaucanson, du moins si l’on en croit Voltaire :
Le hardi Vaucanson, rival de Prométhée,
Semblait, de la nature imitant les ressorts
Prendre le feu des cieux pour animer les corps.
Vaucanson était un grand mécanicien, célèbre pour ses automates, des dispositifs à horlogerie reproduisant de manière réaliste l’anatomie humaine ou animale. Les philosophes de l’époque considéraient le corps comme une machine – alors pourquoi un mécanicien n’aurait-il pu en construire une ?
Parfois, les automates de Vaucanson avaient aussi une valeur scientifique. Il construisit par exemple un « Flûteur automate » doté de lèvres, de poumons et de doigts, capable de jouer de la flûte traversière de façon très proche de celle d’un humain. L’historienne Jessica Riskin explique dans son ouvrage The Restless Clock que Vaucanson dut faire d’importantes découvertes en acoustique pour que son flûtiste joue juste.
Parfois, ses automates étaient moins scientifiques. Son « Canard digérateur » connut un immense succès, mais se révéla frauduleux. Il semblait manger et digérer de la nourriture, mais ses excréments étaient en réalité des granulés préfabriqués dissimulés dans le mécanisme.
Vaucanson consacra des décennies à ce qu’il appelait une « anatomie en mouvement ». En 1741, il présenta à l’Académie de Lyon un projet visant à construire une « imitation de toutes les opérations animales ». Vingt ans plus tard, il s’y remit. Il obtint le soutien du roi Louis XV pour réaliser une simulation du système circulatoire et affirma pouvoir construire un corps artificiel complet et vivant.
Il n’existe aucune preuve que Vaucanson ait jamais achevé un corps entier. Finalement, il ne put tenir la promesse que soulevait sa réputation. Mais beaucoup de ses contemporains croyaient qu’il en était capable. Ils voulaient croire en ses mécanismes magiques. Ils souhaitaient qu’il s’empare du feu de la vie.
Si Vaucanson pouvait fabriquer un nouveau corps humain, ne pourrait-il pas aussi en réparer un existant ? C’est la promesse de certaines entreprises d’IA aujourd’hui. Selon Dario Amodei, PDG d’Anthropic, l’IA permettra bientôt aux gens « de vivre aussi longtemps qu’ils le souhaitent ». L’immortalité semble un investissement séduisant.
Sylvestre II et Vaucanson furent de grands maîtres de la technologie, mais aucun des deux ne fut un Prométhée. Ils ne volèrent nul feu aux dieux. Les aspirants Prométhée de la Silicon Valley réussiront-ils là où leurs prédécesseurs ont échoué ? Si seulement nous avions la tête parlante de Sylvestre II, nous pourrions le lui demander.
Michael Falk a reçu des financements de l'Australian Research Council.
28.01.2026 à 11:55
Michelle Lynn Kahn, Associate Professor of History, University of Richmond
Avant l’ère d’Internet, l’extrême droite la plus radicale utilisait déjà la propagande imprimée et les premiers ordinateurs pour se connecter et recruter. Aujourd’hui, l’intelligence artificielle et le Web sont ses nouvelles armes pour atteindre un public mondialisé.
Comment la société peut-elle contrôler la propagation mondiale de l’extrémisme d’extrême droite en ligne tout en protégeant la liberté d’expression ? C’est une question à laquelle les décideurs politiques et les organisations de surveillance ont déjà été confrontés dans les années 1980 et 1990 – et elle n’a pas disparu.
Des décennies avant l’intelligence artificielle, Telegram et les streams du nationaliste blanc Nick Fuentes, les extrémistes d’extrême droite avaient déjà adopté les premiers ordinateurs personnels et Internet. Ces nouvelles technologies leur offraient un bastion de liberté d’expression et une plate-forme mondiale. Ils pouvaient y diffuser leur propagande, répandre la haine, inciter à la violence et gagner des adeptes dans le monde entier comme jamais auparavant.
Avant l’ère numérique, les extrémistes d’extrême droite se radicalisaient principalement entre eux grâce à la propagande imprimée. Ils rédigeaient leurs propres bulletins et réimprimaient des textes d’extrême droite tels que le Mein Kampf d’Adolf Hitler ou Les Carnets de Turner de l’Américain néonazi William Pierce, une œuvre de fiction dystopique décrivant une guerre raciale. Ils envoyaient ensuite cette propagande à leurs partisans, tant dans leur pays qu’à l’étranger.
Je suis historienne et j’étudie les néonazis et l’extrémisme d’extrême droite. Comme mes recherches le montrent, la plupart de la propagande néonazie saisie en Allemagne entre les années 1970 et 1990 provenait des États-Unis. Les néonazis américains exploitaient leur liberté d’expression garantie par le Premier Amendement pour contourner les lois allemandes sur la censure. Les néonazis allemands reprenaient ensuite cette propagande imprimée et la distribuaient dans tout le pays.
Cette stratégie n’était cependant pas infaillible. La propagande imprimée pouvait se perdre dans le courrier ou être confisquée, notamment lors de son arrivée en Allemagne. La production et l’expédition étaient également coûteuses et chronophages, et les organisations d’extrême droite manquaient souvent de personnel et de moyens financiers.
Les ordinateurs, qui se sont démocratisés en 1977, promettaient de résoudre ces problèmes. En 1981, Matt Koehl, dirigeant du National Socialist White People’s Party aux États-Unis, sollicite des dons pour « aider le parti à entrer dans l’ère informatique ». Le néonazi américain Harold Covington réclame, lui, une imprimante, un scanner et un « PC performant » capable de faire tourner le logiciel de traitement de texte WordPerfect. « Nos multiples ennemis possèdent déjà cette technologie », note-t-il alors, en faisant référence aux Juifs et aux responsables gouvernementaux.
Rapidement, les extrémistes d’extrême droite ont trouvé comment connecter leurs ordinateurs entre eux. Ils utilisaient pour cela des Bulletin board system (pour systèmes de tableaux d’affichage en ligne), ou BBS, un précurseur d’Internet. Le BBS était hébergé sur un ordinateur personnel, et d’autres ordinateurs pouvaient se connecter à lui via un modem et un logiciel, permettant aux utilisateurs d’échanger messages, documents et logiciels.
Avec les BBS, toute personne souhaitant accéder à la propagande d’extrême droite pouvait simplement allumer son ordinateur et composer le numéro de téléphone annoncé par une organisation. Une fois connectée, elle pouvait lire les publications publiques, échanger des messages et télécharger ou téléverser des fichiers.
Le premier système de tableaux d’affichage d’extrême droite, le Aryan Nations Liberty Net, a été créé en 1984 par Louis Beam, un membre haut placé du Ku Klux Klan et des Aryan Nations. Beam expliquait : « Imaginez, si vous le pouvez, un seul ordinateur auquel tous les dirigeants et stratèges du mouvement patriotique sont connectés. Imaginez encore que tout patriote du pays puisse accéder à cet ordinateur à volonté afin de bénéficier de tout le savoir et de toute l’expérience accumulés par les dirigeants. “Un jour peut-être”, direz-vous ? Et pourquoi pas aujourd’hui ? »
Puis sont apparus des jeux néonazis violents pour ordinateurs. Les néonazis aux États-Unis et ailleurs pouvaient téléverser et télécharger ces jeux via les BBS, les copier sur des disquettes et les distribuer largement, notamment aux enfants.
Dans le jeu allemand KZ Manager, les joueurs incarnaient un commandant d’un camp de concentration nazi qui assassinait des Juifs, des Sintés et des Roms ainsi que des immigrants turcs. Un sondage du début des années 1990 révélait que 39 % des lycéens autrichiens connaissaient l’existence de tels jeux et que 22 % en avaient déjà vu.
Au milieu des années 1990, avec l’arrivée du World Wide Web plus facile d’accès, les BBS ont perdu de leur popularité. Le premier site majeur de haine raciale sur Internet, Stormfront, a été fondé en 1995 par le suprémaciste blanc américain Don Black. L’organisation de défense des droits civiques Southern Poverty Law Center a établi que près de 100 meurtres étaient liés à Stormfront.
En 2000, le gouvernement allemand avait découvert et interdit plus de 300 sites web allemands à contenu d’extrême droite – soit une multiplication par dix en seulement quatre ans.
En réponse, les suprémacistes blancs américains ont de nouveau exploité leurs droits à la liberté d’expression pour contourner les interdictions de censure allemandes. Ils ont offert aux radicaux d’extrême droite du monde entier la possibilité d’héberger leurs sites web en toute sécurité et anonymat sur des serveurs américains non régulés – une stratégie qui perdure encore aujourd’hui.
La prochaine frontière pour les radicaux d’extrême droite est l’IA. Ils utilisent des outils d’intelligence artificielle générative pour créer de la propagande ciblée, manipuler images, sons et vidéos, et échapper à la détection. Le réseau social d’extrême droite Gab a même créé un chatbot Hitler avec lequel les utilisateurs peuvent discuter.
Des chatbots adoptent également les vues d’extrême droite des utilisateurs des réseaux sociaux. Grok, le chatbot d’Elon Musk, s’est récemment appelé MechaHitler, a diffusé des propos antisémites et a nié l’Holocauste.
Combattre la haine en ligne est une urgence mondiale. Cela nécessite une coopération internationale étroite entre gouvernements, organisations non gouvernementales, associations de surveillance, communautés et entreprises technologiques.
Les radicaux d’extrême droite sont depuis longtemps à la pointe de l’exploitation des avancées technologiques et de la liberté d’expression. Les efforts pour contrer cette radicalisation doivent constamment tenter de garder une longueur d’avance sur leurs innovations technologiques.
Michelle Lynn Kahn a reçu des financements du National Humanities Center, du United States Holocaust Memorial Museum, de l’American Historical Association et des American Jewish Archives.
27.01.2026 à 18:57
Florian Bonnet, Démographe et économiste, spécialiste des inégalités territoriales, Ined (Institut national d'études démographiques)
Carlo Giovanni Camarda, Docteur, spécialiste des méthodes de prévision (mortalité, longévité, etc.), Ined (Institut national d'études démographiques)
France Meslé, Démographe, Ined (Institut national d'études démographiques)
Josselin Thuilliez, Economiste, Directeur de recherche au CNRS, Centre national de la recherche scientifique (CNRS)
On peut encore gagner des années d’espérance de vie en Europe. Les régions pionnières en matière de longévité en apportent la preuve, année après année. Pourtant, depuis le milieu des années 2000, tandis que certaines d’entre elles avancent, d’autres décrochent. Dans ces dernières, l’allongement de l’espérance de vie est freiné par une mortalité autour de 65 ans qui ne recule plus, voire réaugmente.
Depuis plus d’un siècle et demi, l’espérance de vie progresse régulièrement dans les pays riches. Les gains ont été spectaculaires au XXᵉ siècle, grâce au recul des maladies infectieuses puis aux progrès de la médecine cardiovasculaire.
Cependant, depuis quelques années, une question obsède les experts : et si cette formidable mécanique s’essoufflait ? Dans plusieurs pays occidentaux, les gains d’espérance de vie sont devenus modestes, voire inexistants.
Certains chercheurs y voient le signe que nous approchons d’un « plafond » biologique de la longévité humaine. D’autres, au contraire, estiment que des marges de progression existent encore.
Pour trancher, il ne suffit pas de regarder les chiffres nationaux. En effet, derrière la moyenne d’un pays se cachent des réalités régionales très contrastées. C’est ce que nous avons montré dans une étude tout juste publiée dans Nature Communications. Analysant des données collectées entre 1992 et 2019, elle a porté sur 450 régions d’Europe occidentale regroupant près de 400 millions d’habitants.
Pour mener à bien nos travaux, nous avons rassemblé des données de mortalité et de population en provenance d’instituts statistiques nationaux de 13 pays d’Europe occidentale, de l’Espagne au Danemark, du Portugal à la Suisse.
À partir de ces données originales, nous avons d’abord mené un large travail d’harmonisation, crucial parce que les régions ne sont pas toutes de taille équivalente et que les données étaient plus ou moins détaillées selon les pays.
Nous avons ensuite reconstitué, pour chaque région, l’évolution annuelle entre 1992 et 2019 de l’espérance de vie à la naissance, un indicateur qui reflète la mortalité à tous les âges. Grâce à des méthodes statistiques avancées, nous avons pu dégager les grandes tendances de fond, au-delà des fluctuations de court terme entraînées par des épisodes tels que la canicule de 2003 ou par des épidémies virulentes de grippe saisonnière, telle que celle de 2014-2015. Nous arrêtons nos analyses à l’année 2019, car il est aujourd’hui encore trop tôt pour savoir si la pandémie de Covid-19 a impacté ces tendances sur le long terme, ou uniquement entre 2020 et 2022.
Le résultat obtenu nous donne un panorama inédit des trajectoires régionales de longévité en Europe sur près de trente ans, duquel nous pouvons tirer trois enseignements.
Le premier message fort de notre étude est le suivant : les limites de la longévité humaine ne sont pas encore atteintes. En effet, en nous concentrant sur les régions pionnières qui affichent les niveaux d’espérance de vie les plus élevés (en bleu sur le graphique ci-dessous), nous ne constatons aucune décélération des progrès.
Les régions concernées continuent à gagner environ deux mois et demi d’espérance de vie par an pour les hommes, et un mois et demi pour les femmes, un rythme équivalent à celui observé durant les décennies précédentes. Parmi elles figuraient en 2019 les régions du nord de l’Italie, de la Suisse tout comme certaines provinces espagnoles.
Pour la France, on y retrouve des départements tels que Paris, les Hauts-de-Seine ou les Yvelines (aussi bien pour les hommes que pour les femmes) et les départements autour de l’Anjou et de la frontière suisse (uniquement pour les femmes). En 2019, l’espérance de vie y atteignait près de 83 ans pour les hommes, et 87 ans pour les femmes.
Autrement dit, malgré les inquiétudes récurrentes, rien n’indique à ce jour que la progression de la durée de vie ait atteint un plafond de verre ; l’allongement de l’espérance de vie reste possible. C’est un résultat fondamental, qui nuance les discours alarmistes : il existe encore un potentiel d’amélioration.
Le tableau devient plus sombre quand on se penche sur les régions en retard, indiquées en rouge sur la figure ci-dessus. Dans les années 1990 et au début des années 2000, ces régions connaissaient des gains rapides d’espérance de vie. Les progrès y étaient même plus rapides qu’ailleurs, conduisant à une convergence des espérances de vie régionales en Europe.
Cet âge d’or, cumulant hausse rapide de l’espérance de vie en Europe et réduction des disparités régionales, a pris fin vers 2005. Dans les régions les plus en difficulté, qu’il s’agisse de l’est de l’Allemagne, de la Wallonie en Belgique ou de certaines parties du Royaume-Uni les gains d’espérance de vie ont fortement ralenti, atteignant des niveaux quasiment nuls. On ne retrouve pas de départements français parmi ces régions pour les femmes, mais en ce qui concerne les hommes, les départements de la région Hauts-de-France y figurent.
Au final, l’Europe de la longévité est de plus en plus coupée en deux. D’un côté, des régions pionnières qui poursuivent leur progression ; de l’autre, des régions en retard où la dynamique s’essouffle, voire s’inverse. Nous vivons donc une véritable divergence régionale, qui contraste avec l’élan de rattrapage des années 1990.
Pourquoi un tel basculement ? Au-delà de l’espérance de vie par âge, nous avons cherché à mieux comprendre ce changement spectaculaire en analysant l’évolution des taux de mortalité par âge.
Nous pouvons affirmer que cette divergence régionale ne s’explique ni par l’évolution de la mortalité infantile (qui reste très faible) ni par l’évolution de la mortalité au-delà de 75 ans (qui continue de reculer un peu partout). Elle vient principalement de la mortalité autour de 65 ans.
Dans les années 1990, celle-ci reculait rapidement, grâce à la diffusion des traitements cardiovasculaires et à des changements dans les comportements à risque. Mais, depuis les années 2000, ce progrès s’est ralenti. Dans certaines régions, le risque de mourir entre 55 et 74 ans a même commencé à augmenter à nouveau ces dernières années, comme le montrent les cartes ci-dessous.
C’est notamment le cas de la plupart des départements du pourtour méditerranéen français pour les femmes, qui apparaissent en rose clair. C’est aussi le cas d’une grande partie de l’Allemagne. Or, ces âges intermédiaires sont cruciaux dans la dynamique des gains d’espérance de vie, car un grand nombre de décès s’y concentrent. Une stagnation ou une hausse de la mortalité entre 55 et 74 ans suffit à briser la dynamique d’ensemble.
Même si notre étude ne permet pas de cerner les causes précises expliquant ces évolutions préoccupantes, la littérature récente nous permet d’avancer quelques pistes, qui devront être testées scientifiquement à l’avenir. Parmi elles, on retrouve les comportements à risque, notamment le tabagisme, mais aussi la consommation d’alcool, la mauvaise alimentation ou le manque d’activité physique qui sont autant de facteurs qui se concrétisent à ces âges.
Par ailleurs, la crise économique de 2008 a accentué les inégalités territoriales en Europe. Certaines régions ont souffert durablement, fragilisant la santé des populations y vivant, tandis que la croissance est à nouveau vigoureuse dans d’autres régions où les emplois fortement qualifiés se concentrent. Ces facteurs nous rappellent que la longévité n’est pas seulement une affaire de progrès de la médecine, mais qu’elle s’explique aussi par des facteurs économiques et sociaux.
Notre étude délivre un double message. Oui, il reste possible d’allonger l’espérance de vie. Les régions pionnières en Europe en donnent la preuve : elles continuent à progresser régulièrement, sans signe de plafonnement. Cependant, cette progression n’est pas partagée par tous. Depuis quinze ans, une partie de l’Europe décroche, en particulier à cause de l’évolution de la mortalité autour de 65 ans.
L’avenir de la longévité humaine semble, encore aujourd’hui, moins dépendre de l’existence d’un hypothétique plafond biologique que de notre capacité collective à réduire les écarts d’espérance de vie. En extrapolant les tendances récentes, on peut craindre qu’une Europe à deux vitesses ne se crée, opposant une minorité de territoires qui continuent à repousser les frontières de la longévité à une majorité de territoires où les progrès s’étiolent.
En clair, la question n’est plus seulement de savoir jusqu’où l’espérance de vie peut grimper, mais surtout quels sont les territoires qui pourront en bénéficier.
Pour aller plus loin
Nos résultats détaillés, région par région, sont disponibles dans une application interactive en ligne.
Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.
27.01.2026 à 16:43
Carolin Waldner, Assistant Professor of Sustainability Management, ESCP Business School
Andreas Rasche, Professor of Business in Society, Copenhagen Business School
Stephanie Schrage, Professor of Business Administration, University of Kiel
Development aid is often provided by large, international NGOs based in the Global North. These globally operating NGOs are under growing pressure to adapt the nature of their work – including administrative tasks – to the places where it occurs. However, this process of localisation is rarely straightforward. It’s not just about transferring responsibilities or adjusting ways of working to fit local contexts. It’s the contradictions within organisations that can distort or stall this process, which get left out.
Our article on Organization Studies takes a unique, long-term look at this question. We tracked the expansion of Viva con Agua (VCA) – a German NGO that launches and supports water, sanitation and hygiene (WASH) initiatives – over a 15-year period from its headquarters in Hamburg, Germany, to Uganda. Through 74 interviews, 272 hours of observation, and over 100 internal and public documents, we show how localising development work not only requires NGOs to reconsider what they do and how they do it, but also raises questions about organisational identity, such as “who are we?”, “what are our core values?” and “what distinguishes us from other NGOs?”.
VCA emerged in the early 2000s from the creative and activist culture of Hamburg’s St. Pauli District. Its founding identity was shaped by inclusiveness, anti-racism, cultural openness, and civic engagement – expressed through partnerships with artists, football fans, and musicians. The most emblematic partnership is the one with football club FC St. Pauli, which is also known for its activist culture. When VCA started to work in Uganda in 2007, this energy helped the organisation build rapport and find local collaborators with similar values.
However, it soon became clear that cultural alignment wasn’t enough. For example, the water, sanitation and hygiene infrastructure that worked in other countries didn’t always fit Ugandan realities. One early challenge involved latrines built by VCA for local communities in northern Uganda. Soon after building the latrines, staff realised that the facilities were not used by many villagers due to local norms and traditions – such as the fact that a father-in-law and his daughter-in-law are not allowed to share facilities.
To improve local engagement, VCA developed culturally resonant initiatives such as Football4WASH and Dance4WASH, which are education-through-sport programmes, and other participatory formats. These efforts succeeded in creating more meaningful local traction. For example, a few weeks after VCA organised a Dance4WASH choreography with primary school pupils in a rural school north of Kampala, the school principal told us that during parent-teacher day, parents talked about the dance routine and performed the typical featured gestures (which reflected the World Health Organization’s handwashing guidelines. Children were showing the handwash dance to their parents, brothers, sisters, and other community members, and thus, the information spread.
However, these localised efforts also raised new questions: Who defines what VCA stands for? Where are decisions made? And how much autonomy can be given to the Ugandan team without losing organisational cohesion?
In our study, we identified two entangled organisational tensions: the need to scale globally while adapting locally, called global–local paradox,and the need to evolve identity while maintaining continuity, called identity elasticity paradox.
What emerged was not just a series of dilemmas that could be resolved easily by organisational decisions, but a knotted dynamic of complex, interconnected, and irresolvable challenges. Addressing one tension – such as adapting projects to the Ugandan context – made the identity questions more urgent. This interplay, which we call an “asymmetric paradox knot”, meant that VCA’s efforts to adapt their business to local life were deeply intertwined with questions of internal legitimacy, leadership, and coherence. In a 2020 interview, a VCA founder highlighted the challenges he and his team faced due to the increasing VCA network, including local supporters in Kampala and elsewhere. He emphasised that the question of “who we are as an organisation?” is present in the NGO’s daily work and something they reflect on in strategy meetings. “It’s the same family,” he said, “with the stoned son and the rock ‘n’ roll daughter, but everything has a very similar DNA. And that’s what Viva con Agua does in the end, keeping it together. »
In our study, we identified two key "knotting mechanisms” that helped VCA manage tensions in practice. The first mechanism was stretching identity by integrating Ugandan staff into the NGO’s strategy and representation. For example, VCA actively supported local staff to build their own branch of VCA and gradually increased their responsibility for local WASH projects. Stretching identity also meant creating space for new ways of “being VCA” that aligned with core values and local context, such as a new collaboration with a social enterprise to provide affordable water filters from natural materials for rural communities – cross-subsidised by an artistic, “lifestyle” version of the same filters aimed at wealthier consumers. This project was one of the first initiatives of the Ugandan VCA staff that was independent of Western donations.
VCA also helped manage tensions by contextualising activities. This involved redesigning programme content and delivery methods to reflect local knowledge, norms and social rhythms. For instance, VCA members realised that some teachers they collaborated with for Football4WASH programmes kept the provided footballs, instead of giving them to the children to practise the hygiene exercises. So the local crew came up with a school competition: they showed the pupils and teachers specific Football4WASH drills and tricks, and only the best schools were rewarded. This way, they ensured that the teachers were committed to the idea, and led practice sessions with the children using the footballs.
It is interesting to note that small, everyday practices reinforced VCA’s shift. For example, field visits were traditionally planned by the German team, which flew to 1-2 project sites and the local office in Kampala. In March 2019, the local crew organised the field trips for a German delegation for the first time. They rented a bus so that more project sites, all over the country, could be visited, and they invited various Ugandan artists, musicians, and dancers to join the trip with local and German VCA members. They had concerts and workshops along the way, raising awareness of the organisation and the programmes.
According to VCA representative interviewees, small shifts also encouraged more horizontal, trust-based communication. Ugandan staff voiced ideas and opinions more often, and challenged German team members in constructive ways.
In 2017, the Ugandan VCA team was formally registered as an independent chapter of the NGO. While the global organisation maintained support structures, decision-making authority increasingly shifted to local teams. Weekly calls between Hamburg and Kampala became not only coordination meetings, but spaces to continually renegotiate identity and alignment. One of the project coordinators from Germany explained in an interview that he talks to the local VCA crew in Kampala once a week to check in and “to evaluate how far their work is still based on the same basic ideas and principles as the work is in Germany”. These calls were aimed at empowering the local team to become creative and take responsibility, while also ensuring that they acted within the value system of VCA.
VCA’s experience is not offered as a blueprint, but as a diagnostic lens. It shows that one development organisation faced overlapping tensions that had to be navigated simultaneously. More specifically, we can see that the NGO’s localisation efforts could not be separated from identity work. Without deliberate efforts to manage internal contradictions, VCA’s well-intentioned initiatives may have continued to stall or backfire. As the aid sector continues to decentralise and evolve toward more hybrid models, our study provides a conceptual framework for how organisations can adapt without becoming fragmented.
Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.
27.01.2026 à 16:26
Catherine Guaspare, Sociologue, Ingénieure d'études, Centre national de la recherche scientifique (CNRS)
Michel Dubois, Sociologue, Directeur de recherche CNRS, Sorbonne Université
Dans un contexte où la production scientifique est soumise à des pressions multiples, où les théories pseudoscientifiques circulent sur les réseaux sociaux, l’intégrité scientifique apparaît plus que jamais comme l’un des piliers de la confiance dans la science. Nous vous proposons de découvrir les conclusions de l’ouvrage L’intégrité scientifique. Sociologie des bonnes pratiques, de Catherine Guaspare et Michel Dubois aux éditions PUF, en 2025.
L’intégrité scientifique est une priorité institutionnelle qui fait consensus. Par-delà la détection et le traitement des méconduites scientifiques, la plupart des organismes d’enseignement supérieur et de recherche partagent aujourd’hui un même objectif de promouvoir une culture des bonnes pratiques de recherche.
Il est tentant d’inscrire cette culture dans une perspective historique : la priorité accordée aujourd’hui à l’intégrité n’étant qu’un moment dans une histoire plus longue, celle des régulations qui s’exercent sur les conduites scientifiques. Montgomery et Oliver ont par exemple proposé de distinguer trois grandes périodes dans l’histoire de ces régulations : la période antérieure aux années 1970 caractérisée par l’autorégulation de la communauté scientifique, la période des années 1970-1990 caractérisée par l’importance accordée à la détection et la prévention des fraudes scientifiques et, depuis les années 1990 et la création de l’Office of Research Integrity, première agence fédérale américaine chargée de l’enquête et de la prévention des manquements à l’intégrité dans la recherche biomédicale financée sur fonds publics, la période de l’intégrité scientifique et de la promotion des bonnes pratiques.
Cette mise en récit historique de l’intégrité peut sans doute avoir une valeur heuristique, mais comme tous les grands récits, celui-ci se heurte aux faits. Elle laisse croire que la communauté scientifique, jusque dans les années 1970, aurait été capable de définir et de faire appliquer par elle-même les normes et les valeurs de la recherche. Pourtant, la régulation qui s’exerce par exemple sur la recherche biomédicale est très largement antérieure aux années 1970, puisqu’elle prend forme dès l’après-Seconde Guerre mondiale avec le Code de Nuremberg (1947), se renforce avec la Déclaration d’Helsinki (1964) et s’institutionnalise progressivement à travers les comités d’éthique et les dispositifs juridiques de protection des personnes.
Elle laisse ensuite penser que la détection des fraudes scientifiques comme la promotion des bonnes pratiques seraient autant de reculs pour l’autonomie de la communauté scientifique. Mais, à y regarder de plus près, les transformations institutionnelles – l’adoption de la charte nationale de déontologie des métiers de la recherche en 2015, la création de l’Office français de l’intégrité scientifique en 2017, l’entrée de l’intégrité dans la loi en 2020 –, sont le plus souvent portées par des représentants de la communauté scientifique. Et ce qui peut paraître, de loin, une injonction du politique faite au scientifique relève fréquemment de l’auto-saisine, directe ou indirecte, de la communauté scientifique. L’entrée en politique de l’intégrité scientifique démontre la capacité d’une partie limitée de la communauté scientifique à saisir des fenêtres d’opportunité politique. À l’évidence, pour la France, la période 2015-2017 a été l’une de ces fenêtres, où, à la faveur d’une affaire retentissante de méconduite scientifique au CNRS en 2015, du rapport porté par Pierre Corvol en 2016, de la lettre circulaire de Thierry Mandon en 2017, ces questions passent d’un débat professionnel à un objet de politique publique structuré.
Enfin, ce récit historique de l’intégrité semble suggérer qu’à la culture institutionnelle de détection des fraudes scientifiques, caractéristique des années 1970-1990, viendrait désormais se substituer une culture, plus positive, des bonnes pratiques et de la recherche responsable. Certes, l’innovation et la recherche responsables sont autant de mots-clés désormais incontournables pour les grandes institutions scientifiques, mais la question de la détection des méconduites demeure plus que jamais d’actualité, et ce d’autant qu’il s’est opéré ces dernières années un déplacement de la détection des fraudes scientifiques vers celle des pratiques discutables. La question de la qualification des méconduites scientifiques comme celle de leur mesure n’ont jamais été autant d’actualité.
Si le sociologue ne peut que gagner à ne pas s’improviser historien des sciences, il ne peut toutefois rester aveugle face aux grandes transformations des sciences et des techniques. En particulier, la communauté scientifique du XXIᵉ siècle est clairement différente de celle du siècle dernier. Dans son rapport 2021, l’Unesco rappelait qu’entre 2014 et 2018 le nombre de chercheurs a augmenté trois fois plus vite que la population mondiale, avec un total de plus de huit millions de chercheurs en équivalent temps plein à travers le monde.
Cette densification de la communauté scientifique n’est pas sans enjeu pour l’intégrité scientifique. Avec une communauté de plus en plus vaste, il faut non seulement être en mesure de parler d’une même voix, normaliser les guides et les chartes, mais s’assurer que cette voix soit entendue par tous. Même si l’institutionnalisation de l’intégrité est allée de pair avec une forme d’internationalisation, tous les pays ne sont pas en mesure de créer les structures et les rôles que nous avons eu l’occasion de décrire.
Par ailleurs, la croissance de la communauté scientifique s’accompagne mécaniquement d’une augmentation du volume des publications scientifiques qui met à mal les mécanismes traditionnels de contrôle. D’où d’ailleurs le développement d’alternatives au mécanisme de contrôle par les pairs. On a beaucoup parlé de la vague de publications liées à la crise de la Covid-19, mais la vague souterraine, peut-être moins perceptible pour le grand public, est plus structurelle : toujours selon les données de l’Unesco, entre 2015 et 2019, la production mondiale de publications scientifiques a augmenté de 21 %. Qui aujourd’hui est capable de garantir la fiabilité d’un tel volume de publications ?
Qui dit enfin accroissement du volume de la communauté scientifique, dit potentiellement densification des réseaux de collaborations internationales, à l’intérieur desquels les chercheurs comme les équipes de recherche sont autant d’associés rivaux. La multiplication des collaborations internationales suppose de pouvoir mutualiser les efforts et de s’assurer de la qualité de la contribution de chacun comme de sa reconnaissance. Nous avons eu l’occasion de souligner l’importance de considérer les sentiments de justice et d’injustice éprouvés par les scientifiques dans la survenue des méconduites scientifiques : une contribution ignorée, un compétiteur qui se voit récompensé tout en s’écartant des bonnes pratiques, des institutions scientifiques qui interdisent d’un côté ce qu’elles récompensent de l’autre, etc., autant de situations qui nourrissent ces sentiments.
Par ailleurs, la multiplication des collaborations, dans un contexte où les ressources (financements, postes, distinctions, etc.) sont par principe contraintes, implique également des logiques de mise en concurrence qui peuvent être vécues comme autant d’incitations à prendre des raccourcis.
Outre la transformation démographique de la communauté scientifique, le sociologue des sciences ne peut ignorer l’évolution des modalités d’exercice du travail scientifique à l’ère numérique. La « datafication » de la science, à l’œuvre depuis la fin du XXᵉ siècle, correspond tout autant à l’augmentation du volume des données numériques de la recherche qu’à l’importance prise par les infrastructures technologiques indispensables pour leur traitement, leur stockage et leur diffusion. L’accessibilité et la diffusion rapide des données de la recherche, au nom de la science ouverte, ouvrent des perspectives inédites pour les collaborations scientifiques. Elles créent une redistribution des rôles et des expertises dans ces collaborations, avec un poids croissant accordé à l’ingénierie des données.
Mais, là encore, cette évolution technologique engendre des défis majeurs en termes d’intégrité scientifique. L’édition scientifique en ligne a vu naître un marché en ligne des revues prédatrices qui acceptent, moyennant paiement, des articles sans les évaluer réellement. Si les outils de l’intelligence artificielle s’ajoutent aux instruments traditionnels des équipes de recherche, des structures commerciales clandestines, les « paper mill » ou usines à papier, détournent ces outils numériques pour fabriquer et vendre des articles scientifiques frauduleux à des auteurs en quête de publications. Si l’immatérialité des données numériques permet une circulation accélérée des résultats de recherche, comme on a pu le voir durant la crise de la Covid-19, elle rend également possibles des manipulations de plus en plus sophistiquées. Ces transformations structurelles créent une demande inédite de vigilance à laquelle viennent répondre, chacun à leur manière, l’évaluation postpublication comme ceux que l’on appelle parfois les nouveaux détectives de la science et qui traquent en ligne les anomalies dans les articles publiés (images dupliquées, données incohérentes, plagiat) et ce faisant contribuent à la mise en lumière de fraudes ou de pratiques douteuses.
À lire aussi : Ces détectives qui traquent les fraudes scientifiques : conversation avec Guillaume Cabanac
Plus fondamentalement, cette montée en puissance des données numériques de la recherche engendre des tensions inédites entre l’intégrité scientifique et l’éthique de la recherche. À l’occasion d’un entretien, un physicien, travaillant quotidiennement à partir des téraoctets de données générés par un accélérateur de particules, nous faisait remarquer, avec une pointe d’ironie, qu’il comprenait sans difficulté l’impératif institutionnel d’archiver, au nom de l’intégrité scientifique, l’intégralité de ses données sur des serveurs, mais que ce stockage systématique d’un volume toujours croissant de données entrait directement en contradiction avec l’éthique environnementale de la recherche prônée par ailleurs par son établissement. Intégrité scientifique ou éthique de la recherche ? Faut-il choisir ?
On touche du doigt ici la diversité des dilemmes auxquels sont quotidiennement confrontés les scientifiques dans l’exercice de leurs activités. La science à l’ère numérique évolue dans un équilibre délicat entre l’intégrité scientifique et l’éthique de la recherche. Et l’un des enjeux actuels est sans doute de parvenir à maximiser les bénéfices des technologies numériques tout en minimisant leurs impacts négatifs. D’où la nécessité pour les institutions de recherche de promouvoir une culture de l’intégrité qui puisse dépasser la simple exigence de conformité aux bonnes pratiques, en intégrant les valeurs de responsabilité sociale auxquelles aspire, comme le montrent nos enquêtes, une part croissante de la communauté scientifique.
Le texte a été très légèrement remanié pour pouvoir être lu indépendamment du reste de l’ouvrage en accord avec les auteurs.
Catherine Guaspare et Michel Dubois sont les auteurs du livre L'intégrité scientifique dont cet article est tiré.
Michel Dubois a reçu des financements de l'Agence nationale de la recherche (ANR). Il est directeur de l'Office français de l'intégrité scientifique depuis septembre 2025.
27.01.2026 à 16:25
Nonna Mayer, Directrice de recherche au CNRS/Centre d'études européennes, Sciences Po
Elodie Druez, Chercheure associée, Sciences Po
Mickaël Durand, Chercheur postdoctoral, Université catholique de Louvain (UCLouvain)
Face à la montée de l’extrême droite et du conservatisme, observée tant aux États-Unis qu’en Europe, différentes théories ont été avancées. Certaines mettent le facteur générationnel au centre de l’analyse. Si cette focale apporte des clés de lecture utiles, elle révèle aussi des tendances contradictoires. Analyse.
Selon la thèse de la « déconsolidation démocratique », la montée de l’extrême droite et du conservatisme serait avant tout due aux millennials, les jeunes nés entre le début des années 1980 et la fin des années 1990, qui oscillent entre apathie politique et antipathie pour la démocratie. À l’inverse, selon la théorie du « cultural backlash » (ou « retour de bâton culturel »), ce seraient les générations les plus âgées qui, nostalgiques d’une époque révolue et critiques des valeurs post-matérialistes (libéralisation des mœurs, place accordée aux groupes minorisés), seraient les principales responsables de la montée de l’extrême droite, nourrie d’attitudes conservatrices et xénophobes.
Le cas de la France, avec l’essor spectaculaire du Rassemblement national (RN), qui a comptabilisé 41,4 % des voix au second tour de l’élection présidentielle de 2022, invite à remettre en question ces deux théories.
En s’appuyant sur l’enquête Youngelect (2022) et le baromètre annuel de la Commission nationale consultative des droits de l’homme ou CNCDH (depuis 1990), cet article révèle des dynamiques plus complexes.
La tolérance augmente, quelle que soit la génération. Les jeunes sont les plus progressistes et les plus en demande de démocratie. Pourtant, ils sont plus enclins à voter pour le RN. Comment comprendre ces tendances contradictoires ?
Le baromètre de la CNCDH, qui mesure l’évolution de différentes attitudes culturelles dans le temps, atteste une hausse globale des positions progressistes concernant les opinions vis-à-vis des minorités sexuelles, raciales et religieuses, du rôle social des femmes et de la peine de mort. Il montre une tendance positive, quelle que soit la génération : si les cohortes les plus récentes sont plus tolérantes et libérales que celles qui les précèdent, les anciennes générations ne deviennent pas de plus en plus intolérantes et autoritaires, au contraire. Loin d’être hermétiques à l’évolution des mœurs, les valeurs des seniors se transforment avec la société.
Les données de l’enquête European Social Survey montrent une tendance similaire dans d’autres pays européens. Néanmoins, en menant des analyses permettant d’isoler l’effet propre de différents facteurs, on observe que la génération en tant que telle ne détermine pas l’ouverture à l’égard des minorités ethnoraciales et religieuses. D’autres dimensions, comme l’augmentation du niveau d’éducation, l’origine migratoire et la religion, sont davantage déterminantes.
Si les jeunes générations sont plus tolérantes, c’est moins dû à leur année de naissance que parce qu’elles présentent davantage de caractéristiques favorisant l’acceptation d’autrui, comme des niveaux de diplôme plus élevés, une moindre religiosité, une ascendance immigrée, etc. Concernant le rapport aux minorités sexuelles, les attitudes se révèlent également de plus en plus libérales. Chaque nouvelle cohorte est plus progressiste que la précédente ; et au fil des années, l’acceptation de l’homosexualité progresse même chez les seniors.
S’agissant de l’émancipation des femmes, l’évolution est aussi positive mais moins linéaire que pour l’homosexualité. Ce n’est pas les cohortes les plus récentes qui sont les plus ouvertes, mais les cohortes nées entre 1967 et 1976. De tels résultats suggèrent l’existence d’un retour de bâton chez les plus jeunes, et notamment parmi les jeunes hommes.
Au sujet de l’autoritarisme, mesuré à partir de l’opinion sur la peine de mort, l’effet générationnel est clair : entre 2004 et 2022, chaque nouvelle cohorte est davantage opposée à la peine capitale que la précédente. Et pour chaque génération, le rejet augmente de décennie en décennie. De même, le soutien à la démocratie représentative fait consensus, tant chez les personnes les plus jeunes que chez les plus âgées.
Certes les jeunes sont plus critiques à l’égard du fonctionnement de la démocratie, et davantage favorables à des modes de gouvernement alternatifs, plus technocratiques (gouvernement d’experts) ou participatifs (tirage au sort ou référendum populaire), mais pas dans leurs versions autoritaires – une différence générationnelle persiste même lorsque cette dimension est contrôlée par d’autres facteurs.
Comment ces attitudes culturelles et ce rapport à la démocratie se traduisent-ils dans les urnes, notamment au regard du vote RN ? Ce sont davantage les jeunes générations qui sont enclines à voter pour ce parti lors du premier tour de l’élection présidentielle de 2022. Plus la cohorte est âgée, plus la propension à voter pour Marine Le Pen plutôt que pour Emmanuel Macron diminue, à rebours de la thèse du « cultural backlash » chez les seniors. Mais la même dynamique s’observe avec le vote pour Jean-Luc Mélenchon. Les jeunes ont plus de chances que les générations plus âgées de voter pour le candidat de La France insoumise (LFI) que pour Emmanuel Macron.
Prendre le président sortant comme référence met en évidence que les jeunes privilégient tantôt le RN, tantôt LFI. Les logiques qui sous-tendent ces préférences ne sont toutefois pas les mêmes, un faible niveau d’éducation et le racisme sont déterminants dans le vote pour Marine Le Pen, le vote pour Jean-Luc Mélenchon étant à l’inverse davantage le fait de profils diplômés et tolérants. Néanmoins, les attitudes négatives envers la place sociale des femmes et l’homosexualité ou le fait de soutenir le rétablissement de la peine de mort n’augmentent pas la probabilité de voter pour Marine Le Pen plutôt que pour Emmanuel Macron. En outre, être favorable au tirage au sort, c’est-à-dire confier le pouvoir décisionnel à des citoyens ordinaires plutôt qu’aux élites dirigeantes, augmente la probabilité du vote RN.
Comment comprendre alors le paradoxe d’une jeunesse plus ouverte à l’égard des groupes minorisés et peu favorable aux alternatives autoritaires de gouvernement, mais encline à voter pour le RN ?
Premièrement, les cohortes, quelle que soit la génération, sont socialement et politiquement diverses : plusieurs variables doivent être prises en compte. De plus, selon le sociologue Vincent Tiberj, cela s’expliquerait par une politisation différenciée des valeurs selon les générations : chez les personnes plus âgées, les valeurs culturelles (sexisme, opinion sur l’homosexualité ou sur l’immigration) seraient moins politisées et orienteraient dès lors moins leur vote que chez les jeunes générations.
Ce paradoxe découle aussi possiblement des données mobilisées qui diffèrent au regard de la population sélectionnée : l’enquête de la CNCDH se fonde sur des échantillons représentatifs de la population adulte vivant en France (incluant les personnes immigrées étrangères), à l’inverse de l’enquête Youngelect qui cible uniquement des personnes inscrites sur les listes électorales.
Et si les jeunes votent davantage pour le RN, elles et ils se caractérisent avant tout par leur abstention, à l’inverse des personnes plus âgées qui se rendent massivement aux urnes. D’ailleurs, les analyses du vote « Macron », « Mélenchon » ou « Le Pen » ne tiennent pas compte de l’abstention (26 % au premier tour de l’élection présidentielle de 2022), accentuant l’impression trompeuse d’un vote massif pour l’extrême droite.
In fine, loin de se réduire à un vote générationnel, le vote RN séduit avant tout les segments les moins éduqués de l’électorat et les classes populaires. De surcroît, les écarts entre cohortes semblent s’estomper depuis les élections législatives anticipées de 2024. Ces dernières révèlent que le RN gagne en popularité auprès des seniors et des personnes retraitées jusqu’à présent hostiles à ce parti. Les municipales et la présidentielle à venir nous permettront de juger dans quelle mesure cette tendance se confirme, ou non.
Cet article est tiré de l’ouvrage French Democracy in Distress. Challenges and Opportunities in French Politics (Palgrave Macmillan, 2025), sous la direction d’Élodie Druez, Frédéric Gonthier, Camille Kelbel, Nonna Mayer, Felix-Christopher von Nostitz et Vincent Tiberj. Une conférence autour de cette publication est organisée à Sciences Po, le jeudi 29 janvier 2026, de 17 heures à 19 heures, 27 rue Saint-Guillaume, Paris (VIIᵉ).
Nonna Mayer est membre de la Commission nationale consultative des droits de l'Homme et coordonne son Baromètre annuel sur le racisme
Elodie Druez a reçu, en tant que chercheuse en postdoctorat, des financements de l'ANR, du FNRS (Fonds de la Recherche Scientifique belge), de l'ERC et de l'Institut Convergences Migrations (ICM). Elle membre de l'AFSP et de l'AFS.
Dans le cadre de ses postdoctorats, Mickaël Durand a reçu des financements de l'ANR, de l'Ined et du FNRS belge. Il a participé à l'enquête 2022 de la CNCDH sur l'hétérosexisme et les préjugés à l'égard des LGBTI. Il est membre du RT28 de l'Association française de sociologie.
27.01.2026 à 16:24
Héloïse Calvier, Chargée d’accompagnement à l’innovation, Ademe (Agence de la transition écologique)
De nombreuses initiatives promeuvent aujourd’hui le retour des communs, c’est-à-dire des formes de gestion collective des ressources dont les communautés humaines ont besoin. Pertinente pour répondre à une multitude d’enjeux, cette approche, de par son caractère coopératif, innovant et transversal, apparaît particulièrement prometteuse pour accompagner la transition écologique.
La notion de « communs » revient depuis quelques années sur le devant de la scène, déclinée à des domaines aussi variés que les transports, la santé, l’éducation ou le numérique. Qu’est-ce que les communs ? On peut les définir comme des ressources matérielles (jardins partagés, boîte à livres…) ou immatérielles (Wikipédia, OpenStreetMap…) gérées collectivement par une communauté qui établit des règles de gouvernance dans le but de les préserver et de les pérenniser.
Leur théorisation est récente, mais le principe des communs est en réalité très ancien, beaucoup plus d’ailleurs que la construction juridique et politique, plus récente, de la propriété privée. L’exploitation et l’entretien des ressources, en particulier naturelles, ont très longtemps été organisés collectivement par les communautés humaines… jusqu’à ce que différents processus, dont la construction des États-nations et l’essor du commerce international, contribuent à démanteler ces communs.
Ces dernières décennies, plusieurs facteurs ont entraîné leur regain :
D’une part, la prise de conscience, des effets néfastes de la privatisation des terres sur l’équilibre alimentaire des pays du Sud.
De l’autre, l’essor d’internet et de l’open source, mouvement qui s’oppose au modèle du logiciel propriétaire.
Les travaux d’Elinor Ostrom, qui a reçu en 2009 le Nobel d’économie pour ses travaux démontrant l’efficacité économique des communs, ont largement contribué à imposer le terme dans la sphère médiatique.
À lire aussi : « L’envers des mots » : Biens communs
Aujourd’hui, l’idée des communs prend d’autant plus d’importance dans le contexte de la transition écologique. En effet, la prise de conscience d’un monde aux ressources finies implique de repenser leur gestion collective. Or, les communs sont particulièrement propices aux démarches d’intérêt général. Leur logique, fondée sur la coopération, va à rebours de celle, dominante, de la concurrence. Dans un cadre de ressources contraintes, une telle logique est précieuse.
C’est pourquoi de nombreux acteurs, pouvoirs publics comme acteurs privés, commencent à s’en emparer. En France, l’Agence de la transition écologique (Ademe) a déjà accompagné 50 projets de communs depuis quatre ans, à travers un appel à communs (AAC) inédit consacré à la sobriété et la résilience des territoires.
Les porteurs de projets (associations, entreprises, collectivités…) ayant bénéficié d’un soutien technique et financier dans ce cadre doivent ainsi respecter un certain nombre de critères en matière de coopération et de transparence.
Toutes les ressources produites doivent, par exemple, être encadrées par des licences ouvertes. Les porteurs doivent également s’inscrire dans une posture collaborative : s’organiser pour diffuser au maximum les ressources, intégrer les retours utilisateurs et se connecter aux communautés déjà formées dans le domaine.
D’autres acteurs participent à la transformation de l’action publique et se mobilisent sur les communs : la Fondation Macif, l’IGN, France Tiers-Lieux (partenaires de l’AAC de l’Ademe), l’Agence nationale de la cohésion des territoires (ANCT), le ministère de l’éducation nationale, la direction interministérielle du numérique (Dinum)…
En favorisant les synergies entre acteurs, les communs apportent des réponses moins cloisonnées.
La 3e édition de l’Appel à communs de l’Ademe traite cinq thématiques sous forme de défis (alimentation et forêt, aménagement et bâtiment, mobilité et logistique, recyclage matière et numérique) qui peuvent être abordés de manière transversale.
Autre spécificité, les candidatures sont rendues publiques avant le dépôt et la sélection des projets, ce qui encourage les postulants à créer des synergies, voire des fusions de projets, des échanges de briques techniques. Les moyens humains et financiers nécessaires au développement des communs sont alors mutualisés, ce qui, à moyen et long terme, permet de réduire les dépenses et de multiplier les impacts.
Parmi les projets de communs que l’Ademe a accompagnés, on peut citer La rue commune. Cette méthode pour repenser les rues en tant que premier bien commun urbain prend en compte des enjeux de différentes natures selon cinq principes :
le lien social,
la priorité au piéton pour favoriser la santé et le bien-être,
la biodiversité,
le rafraîchissement urbain,
et la valorisation des eaux pluviales.
Un autre exemple, Le logement social paysan, entend promouvoir la réhabilitation des fermes pour en faire des logements sociaux paysans, en organisant la rencontre entre paysans et bailleurs sociaux. Ici se croisent les enjeux du bâtiment et ceux de l’agriculture.
Un intérêt croissant est porté aujourd’hui aux communs numériques, qui constituent à la fois un outil très puissant pour croiser des données complexes et les mettre en commun au service de la transition.
Parmi les projets que l’Ademe a déjà soutenus, citons Pas de vacances pour la vacance, un outil de datavisualisation construit à partir de données publiques qui permet d’observer, à différentes échelles du territoire, la part de logements vacants. L’intérêt : permettre de les revaloriser dans une logique d’urbanisme circulaire et de mieux exploiter ce levier pour répondre aux besoins de logements.
Même principe pour le commun Diagnostic mobilité. Cet outil permet, par datavisualisation, un prédiagnostic pour les collectivités rurales des flux de déplacement majoritaires sur leur territoire, afin de les guider dans les choix de leur politique de transport.
Les communs constituent aujourd’hui un cadre d’action stratégique pour mobiliser l’intelligence collective, dans une logique d’innovation ouverte au service de la transition écologique, en décloisonnant les approches et en mutualisant les savoirs.
À lire aussi : Aux sources de la démocratie : penser le « commun » avec Alcméon, Héraclite et Démocrite
Héloïse Calvier ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
27.01.2026 à 16:24
Jimmy Bordarie, Docteur, Maitre de conférences, Université de Tours
Audrey Damiens, Maître de conférences en droit privé, Université de Tours
La vitesse à laquelle le numérique évolue soulève des questions éthiques. Mais disposons-nous des connaissances nécessaires pour les affronter ? Une partie non négligeable de la population, parmi laquelle un certain nombre de jeunes, se trouverait en situation d’illectronisme.
Moins d’un étudiant sur deux disposerait des compétences numériques attendues en fin de licence, selon une étude de l’Observatoire Pix, relayée fin 2025 par différents médias nationaux. Ces résultats mettent en avant ce qu’on peut appeler l’illectronisme chez les jeunes, loin du cliché des digital natives souvent associé à cette génération née à l’ère des réseaux sociaux.
Formé par la contraction d’illettrisme et d’électronique, l’illectronisme – certains auteurs parlent d’e-lettrisme – fait référence à l’état d’une personne qui ne maitrise pas les compétences nécessaires à l’utilisation et à la création des ressources numériques.
À lire aussi : « L’envers des mots » : Illectronisme
Selon l’Insee, cela correspond à la situation dans laquelle une personne n’a pas utilisé Internet dans les trois derniers mois, soit par incapacité, soit pour des raisons matérielles ou ne possède pas les compétences numériques de base. L’illectronisme est parfois évoqué comme relevant de la fracture numérique informationnelle.
Pour évaluer le niveau de connaissances dont on dispose sur le plan numérique, il faut considérer cinq domaines de compétences :
la recherche d’information en ligne (sur des produits, services ou la vérification des sources, etc.) ;
la communication électronique (envoyer ou recevoir des e-mails, etc.) ;
l’usage de logiciels (traitement de texte, etc.) ;
la protection de la vie privée en ligne (refuser les cookies, restreindre l’accès à sa position géographique, etc.) ;
la résolution de problèmes sur Internet (accéder à son compte bancaire par Internet, suivre des cours en ligne, etc.).
Certaines personnes maîtrisent une partie d’entre eux, d’autres n’en maîtrisent aucun. Pour repérer l’illectronisme, il faut différencier l’illectronisme total et l’illectronisme partiel.
Selon l’Insee, l’illectronisme total concerne environ 15,4 % des Français de plus de 15 ans, ce qui correspond à environ 8 millions de personnes. Cela concerne soit celles qui n’ont pas utilisé Internet dans les trois derniers mois (90,3 % des 8 millions), soit celles qui n’ont pas les compétences numériques de base – c’est-à-dire qu’elles obtiennent 0/2 dans au moins 4 des 5 domaines de compétences (10,7 % des 8 millions).
L’illectronisme partiel correspond aux personnes qui n’ont pas certaines compétences de base, ce qui concerne environ 30 % des personnes de plus de 15 ans. Notons par ailleurs que 20,5 % des internautes en général n’ont pas la compétence de base de protection de la vie privée, alors même que cette compétence concerne tout le monde, et ce dans une période où toute information est susceptible d’être monnayée, utilisée, voire détournée (« fake news », deepfakes, etc.).
Des facteurs sociodémographiques existent, à commencer par l’âge. Les personnes les plus âgées sont les plus touchées par l’illectronisme total (60 % des plus de 75 ans, contre 2 % des 15-24 ans). Pour autant, 19 % des 15-24 ans ont des compétences faibles.
D’autres variables ont une influence importante. Le niveau d’éducation par exemple peut être déterminant : les personnes sans diplôme ou titulaires d’un certificat d’études primaires ont 7 fois plus de risque d’être en situation d’illectronisme qu’une personne ayant un niveau bac+3 ou plus. Le niveau socio-économique également : les personnes vivant dans un foyer parmi les 20 % plus modestes ont 6,6 fois plus de risque d’être touchées par l’illectronisme qu’une personne vivant dans un ménage parmi les 20 % plus aisés.
Lorsque l’on s’intéresse en particulier aux 15-24 ans, des données viennent relativiser le mythe du jeune qui maîtriserait le numérique. Si les jeunes n’ont jamais été aussi connectés, le baromètre de l’Observatoire Pix appelle à la vigilance.
À l’entrée à l’université, 40 % des étudiants sont en deçà du niveau attendu, et en sortie de licence, 52 % des étudiants ne maîtrisent pas les usages numériques nécessaires à leur poursuite d’études ou à leur insertion sur le marché du travail. Parmi les compétences soulevant des difficultés : vérifier la fiabilité d’une information en ligne ou connaître ses droits en matière de protection des données.
De nombreux freins, notamment psychologiques, pourraient expliquer ces constats. Sur le plan individuel, le fait de (ne pas) se sentir capable (Bandura parle de sentiment d’auto-efficacité) est un déterminant majeur. Cela influence la motivation à utiliser les outils numériques et la performance lors de leur usage et, plus globalement, la motivation scolaire.
En outre, l’anxiété vis-à-vis du numérique et le technostress (concept relatif au stress induit par le numérique) influencent également le rapport au numérique des adolescents, notamment en fonction du genre.
Sur le plan collectif, les représentations et les stéréotypes peuvent conduire à une stigmatisation de certains jeunes dits offline (utilisant pas ou peu les outils numériques). Ils peuvent générer une menace du stéréotype (c’est-à-dire une altération des performances lorsque l’on est victime d’un stéréotype en situation d’évaluation ou de jugement), influençant notamment les trajectoires en études d’informatique en fonction du genre.
Maîtriser les outils numériques, c’est aussi avoir conscience et connaissance des enjeux juridiques et environnementaux.
Sur le plan juridique, c’est comprendre par exemple les réglementations européennes ou les règles relatives au droit à la vie privée, au partage des informations en ligne et à la désinformation, au cyberharcèlement, au télétravail ou encore au droit à la déconnexion.
Sur le plan environnemental, c’est savoir que le numérique représente 4,4 % de l’empreinte carbone de la France, 11,3 % de la consommation électrique en 2022, avec une prévision, en l’état, d’une augmentation de 80 % à l’horizon 2050 selon l’ADEME ; que la consommation d’énergie des data centers a augmenté de 11 % en un an, et leur consommation d’eau pour le refroidissement des circuits a augmenté de 19 % entre 2022 et 2023. Notons par ailleurs que ces données sont antérieures à la démocratisation de l’usage des intelligences artificielles génératives.
La vitesse à laquelle le numérique évolue (le développement des intelligences artificielles génératives en étant une manifestation) soulève des questions éthiques. Nous avons tenté de répondre à certaines d’entre elles dans le Bon Usage du numérique. Comment s’en servir, pour soi et pour les autres (Ellipses, 2025). Il s’agit désormais pour chacun et chacune d’entre nous de prendre conscience de tous ces enjeux, de développer une littératie numérique, autrement dit de nous éduquer aux médias et au numérique.
Et si vous souhaitez faire un bilan de vos propres compétences, vous pouvez vous tester à l’aide de l’outil mis à disposition par Pix.
Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.
27.01.2026 à 16:22
Yann Algan, Professeur d'économie, HEC Paris Business School
Le malaise français ne relève pas seulement de la défiance envers les politiques ou les institutions, mais d’une promesse trahie de l’économie, lorsque les efforts consentis n’améliorent plus les conditions de vie. Toutefois, la confiance n’a pas disparu, elle s’est relocalisée là où l’action publique est visible, incarnée et compréhensible.
Cet article est publié en partenariat avec Mermoz, la revue du Cercle des économistes dont le numéro 9 a pour thème « Territoires abandon ou rebond ? ».
La défiance est devenue l’un des traits dominants de la société française contemporaine. Les enquêtes d’opinion successives, notamment Fractures françaises 2025, décrivent une société pessimiste, inquiète quant à son avenir et profondément divisée. Mais cette défiance ne se manifeste pas de manière uniforme. Elle s’enracine dans des expériences concrètes, situées dans des territoires précis, là où se vivent au quotidien les transformations économiques et sociales. Dès lors, restaurer la confiance au niveau local ne relève pas seulement d’un impératif démocratique ou symbolique : c’est aussi un enjeu économique majeur à l’échelle nationale.
Le mouvement des « gilets jaunes », apparu à l’automne 2018, a joué à cet égard un rôle de révélateur. Parti d’une contestation fiscale liée à la hausse des taxes sur les carburants, il a rapidement mis au jour une crise plus profonde, mêlant conditions de vie, organisation territoriale et perte de confiance. Loin d’être un simple épisode conjoncturel, il a mis en lumière une réalité trop souvent sous-estimée par l’analyse macroéconomique : l’économie, tout comme la démocratie, est d’abord vécue localement, et c’est à ce niveau que se forgent l’adhésion ou le rejet des politiques publiques.
À lire aussi : Malbouffe et désertification – quelles recettes pour repenser l’attractivité des centres-villes ?
L’analyse développée dans les Origines du populisme (Seuil, 2019) montre que le mouvement des gilets jaunes ne peut être compris ni comme une simple révolte des « perdants » de la mondialisation, ni comme un phénomène idéologiquement homogène. Nos données révèlent un profil social et territorial précis : ouvriers, employés, retraités modestes, ménages situés sous le revenu médian, vivant majoritairement dans des villes petites ou intermédiaires, souvent en périphérie des grandes métropoles.
Le symbole du rond-point est à cet égard particulièrement éclairant. Il incarne à la fois la dépendance à la voiture, la dispersion de l’habitat, l’éloignement des services publics et la disparition progressive des lieux traditionnels de sociabilité. Dans ces territoires, la vie quotidienne repose sur des arbitrages contraints : temps de transport élevé, coûts fixes incompressibles, accès limité aux services essentiels. La contestation fiscale n’a fait que cristalliser un malaise déjà ancien.
Ce malaise s’accompagne d’un effondrement de la confiance, tant interpersonnelle qu’institutionnelle. Les soutiens les plus déterminés aux gilets jaunes se situent dans le quadrant combinant faible sentiment d’avoir « réussi sa vie » et faible confiance envers autrui. La défiance à l’égard des institutions est massive : près de huit sur dix déclarent ne pas faire confiance au gouvernement, et la méfiance s’étend à l’Union européenne et aux corps intermédiaires. Cette défiance généralisée explique en grande partie l’incapacité du mouvement à se transformer en projet politique structuré : la colère est collective, mais la confiance nécessaire à la construction de compromis fait défaut.
L’un des enseignements centraux des Origines du populisme est que cette crise de confiance ne relève pas uniquement d’un choc économique ponctuel, mais d’une rupture de la promesse implicite de l’économie. Pendant plusieurs décennies, l’effort, le travail et la mobilité sociale constituaient un horizon partagé : s’adapter, travailler davantage, accepter les transformations devait permettre de vivre mieux et d’offrir à ses enfants des perspectives supérieures.
Or, dans de nombreux territoires, cette promesse s’est progressivement érodée. Une part importante des gilets jaunes a suivi le modèle dominant des décennies précédentes : accéder à la propriété en zone périurbaine pour des raisons de coût, organiser sa vie autour de la voiture, s’inscrire dans une trajectoire d’ascension sociale modeste mais réelle. Ce modèle s’est retourné contre eux, rendant la mobilité plus coûteuse, les services plus éloignés et les marges de manœuvre quotidiennes de plus en plus étroites.
La colère exprimée ne traduit donc pas un rejet abstrait de l’économie de marché ou de la mondialisation, mais un sentiment de promesse trahie. Lorsque les efforts consentis ne produisent plus d’amélioration tangible des conditions de vie, la confiance dans le système économique et dans ceux qui le gouvernent s’effondre. Ce mécanisme est renforcé par la concentration spatiale de la richesse. Voir la prospérité se concentrer dans quelques grandes métropoles, sans diffusion perceptible vers les territoires environnants, nourrit un sentiment d’injustice plus puissant encore que la baisse du revenu lui-même.
Cette dynamique éclaire la difficulté à conduire les grandes transitions contemporaines, en particulier la transition écologique. Demander des efforts supplémentaires à des populations qui ont déjà le sentiment de ne pas bénéficier des fruits de la croissance est politiquement et économiquement risqué. L’épisode des gilets jaunes l’a montré avec force : une mesure écologiquement justifiée et économiquement rationnelle peut devenir explosive lorsqu’elle heurte un quotidien déjà fragilisé.
Ces constats rejoignent étroitement les analyses de la note « Territoires, bien-être et politiques publiques » du Conseil d’analyse économique (CAE). Ce dernier y montre que le mécontentement social s’explique moins par les seuls indicateurs économiques classiques que par un ensemble de facteurs liés à la qualité de la vie locale (accès aux services publics, commerces de proximité, lieux de sociabilité, conditions de mobilité).
Certaines politiques publiques ont privilégié l’efficacité économique globale – concentration de l’activité, métropolisation, spécialisation territoriale – sans toujours prendre en compte leurs effets sur le bien-être local. Or, lorsque les gains se concentrent spatialement et que les coûts d’ajustement pèsent ailleurs, la défiance s’installe.
À l’échelle nationale, cette fragmentation territoriale a un coût économique réel. Elle fragilise le consentement à l’impôt, complique la mise en œuvre des réformes et nourrit une instabilité sociale qui pèse sur l’investissement et la croissance. Une économie peut afficher de bonnes performances agrégées tout en devenant socialement et politiquement vulnérable.
Dans ce paysage de défiance généralisée, un fait mérite une attention particulière : la confiance accordée aux maires demeure élevée. Les enquêtes récentes du Cevipof menées avec Ipsos montrent que le maire reste la figure politique bénéficiant du plus haut niveau de confiance. Cette confiance repose moins sur la proximité affective que sur des critères simples et exigeants : honnêteté, capacité à tenir ses engagements, sens de l’intérêt général.
Ce constat est central pour la question économique. Il montre que la confiance n’a pas disparu ; elle s’est relocalisée. Là où l’action publique est visible, incarnée et compréhensible, le lien de confiance subsiste. Ce lien facilite la coordination des acteurs locaux, l’acceptation des projets d’aménagement et la mise en œuvre des transitions nécessaires.
S’appuyant sur ce diagnostic, le CAE plaide pour une réorientation des politiques territoriales autour d’un objectif central : le bien-être local, et non la seule performance économique agrégée. Cela implique de mieux intégrer des indicateurs de qualité de vie dans l’évaluation des politiques publiques, de renforcer les services de proximité et de considérer certains équipements – santé, mobilité, sociabilité – comme de véritables infrastructures de confiance.
Donner aux collectivités locales, et en particulier aux communes, les moyens d’agir est également essentiel. Sans visibilité financière ni capacité d’adaptation, les promesses locales risquent de se transformer en déceptions supplémentaires, alimentant à nouveau la défiance.
Restaurer la confiance au niveau local n’est ni un supplément d’âme ni une politique périphérique. Les gilets jaunes ont montré ce qui se produit lorsque le bien-être local se dégrade et que la promesse économique ne tient plus : la contestation devient la seule forme d’expression disponible. À l’inverse, une économie capable de s’appuyer sur des territoires vivants, dotés de services accessibles et d’institutions locales crédibles, est une économie plus résiliente, plus inclusive et plus durable. Investir dans la confiance locale, c’est créer les conditions sociales et politiques de la prospérité nationale.
Cet article est publié en partenariat avec Mermoz, la revue du Cercle des économistes dont le numéro 9 a pour thème « Territoires abandon ou rebond ? ».
Yann Algan ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
27.01.2026 à 16:21
Maxime Parola, Doctorant en Art, Université Côte d’Azur

Thriller psychologique teinté de comédie noire, la série Pluribus explore la perte de l’individualité. Sous ses airs d’utopie, le monde sans conflit mis en scène par Vince Gilligan devient terrifiant, car il efface tout ce qui fait le propre de l’humain : le manque, la colère et le libre arbitre.
Attention, si vous n’avez pas vu la première saison de Pluribus, cet article en divulgâche l’intrigue.
Pluribus fait l’unanimité tant du côté des spectateurs que de la critique. Il y est question d’une thématique classique en science-fiction : une entité extraterrestre transforme la population mondiale en une conscience unique (on peut penser à Terre et Fondation, d’Asimov, à l’Invasion des profanateurs de sépultures, de Don Siegel et même à un épisode de la série d’animation Rick et Morty).
Précisons d’emblée le point de départ du récit : un virus d’origine extraterrestre se propage sur Terre, mais, contrairement aux pandémies habituelles, il rend les gens parfaitement heureux, calmes et connectés à une sorte de conscience collective harmonieuse. Carol Sturka (jouée par Rhea Seehorn), une romancière cynique et névrosée, découvre qu’elle est l’une des rares personnes immunisées. Elle se retrouve alors dans la position paradoxale de devoir « sauver l’humanité du bonheur ».
Certes, le psychanalyste Jacques Lacan explique qu’il y a une forme de « goujaterie » à vouloir psychologiser les personnages d’une fiction, et a fortiori leur auteur. Mais il reste possible de proposer une « interprétation ». C’est ce que nous allons essayer de faire ici, à partir de trois questions que la série nous pose en filigrane.
« Soyez vous-même, les autres sont déjà pris. » Cette citation (probablement fausse) d’Oscar Wilde pose avec humour la question d’une individualité qui nous est finalement imposée par la condition humaine. Pluribus nous place dans un cas où cette individualité n’est non seulement plus une obligation, mais une exception.
La série nous montre deux catégories d’individu, ceux qui ont été contaminés et forment maintenant une conscience collective unique (appelons-les « eux ») ; et les 11 personnages immunisés, qui sont restés eux-mêmes, groupe auquel appartient l’héroïne de la série, Carol, autrice désabusée de romances de science-fiction à succès.
Tout au long de la série, le groupe majoritaire prétend que sa situation nouvelle est bien meilleure que celle d’avant. Si le souvenir spécifique d’un individu reste conservé (un personnage peut raconter qui il était avant), sa personnalité est détruite, pour rejoindre la personnalité unique et bienveillante de la conscience collective.
Le philosophe Paul Ricœur déduit de la psychanalyse freudienne que l’inconscient est le vrai lieu de la subjectivité. C’est-à-dire que l’inconscient n’est pas le négatif de la conscience ou un fourre-tout de ce qui n’est pas conscient, mais le lieu originel où se forme l’identité. Ce qui fait que je suis moi et pas un autre, ça n’est pas ma personnalité, mais bien mon inconscient. Si l’on suit ce précepte, il ne peut y avoir de subjectivité sans inconscient et nous devons donc nous demander si le groupe « eux » a un inconscient pour comprendre ce que signifie de rejoindre la conscience collective.
Il semble évident que, pour le groupe contaminé, il n’y a pas d’inconscient individuel, qui serait propre à chaque individu. Mais existe-t-il chez « eux » un inconscient collectif, comme il existe une conscience collective ?
Si l’on retrouve bien l’expression d’émotions, telles que la joie (omniprésente ad nauseam) et la peur, ou même l’expression de besoins biologiques, y compris l’impératif de contaminer l’autre, il n’y a rien dans le comportement du groupe contaminé qui fasse penser à du désir, par exemple. C’est-à-dire qu’il n’y a jamais chez « eux » l’expression d’un manque. Or, notre subjectivité découle du fait que nous sommes des sujets divisés par le langage, c’est-à-dire que le fait de parler nous permet de mettre à distance le monde en le symbolisant. Mais du fait de cette distance, il reste un manque impossible à combler : nous ne sommes pas fusionnés avec le monde, quelque chose reste extérieur à nous.
On peut supposer que cette entité n’habite pas sa langue comme nous habitons la nôtre. Les mots, pour « eux », sont juste l’outil technique d’une expression alors que, pour nous, ils structurent le rapport au monde.
Devenir « eux », ça n’est pas juste se diluer dans un grand tout ou recevoir toute l’humanité en soi, c’est passer d’un rapport au monde structuré par un manque absolu à la possibilité d’être un tout sans extérieur à soi-même. Nous sommes tout, donc nous ne sommes plus.
Au fil des épisodes, Carol – qui perd sa compagne au cours du premier épisode – se lie à Zosia, une femme qui appartient au groupe contaminé, et finit par développer une relation amoureuse avec elle. Mais est-ce réellement de l’amour ? Lacan nous dit dans une phrase célèbre que « l’amour, c’est donner ce qu’on n’a pas à quelqu’un qui n’en veut pas ».
Essayons de comprendre cette phrase.
« L’amour, c’est donner ce qu’on n’a pas » : ce que veut dire Lacan, c’est que l’amour, ça n’est pas offrir des fleurs ou un objet, c’est d’abord et avant tout offrir un manque. C’est présenter à l’autre son incomplétude et donc lui laisser une place puisque nous ne sommes pas comblés.
« À quelqu’un qui n’en veut pas » : nous présentons notre incomplétude, certes, nous laissons à l’autre une place, certes, mais ce manque que nous lui offrons ne répond pas à son manque à lui. Pour la psychanalyse, l’amour, ça n’est pas combler le désir de l’autre mais tisser avec l’autre le lien du manque.
Dans Pluribus, le manque de Carol est largement mis en scène au travers de sa souffrance et de sa misanthropie. Nous pouvons le voir à travers la façon dont elle vit son deuil mais aussi dans son impossibilité à assumer publiquement sa sexualité. « Eux » semblent l’accepter telle qu’elle est et vouloir combler son manque. Pour autant, est-ce vraiment de l’amour ?
Si l’on reste attaché à la théorie lacanienne, « eux » doivent avoir un manque fondamental à offrir. Or, si nous pouvons en avoir l’illusion en même temps que Carol, nous nous rendons compte en définitive que le manque qu’ils mettent en avant (Carol n’est pas fusionnée) n’est pas un manque au sens d’un sujet divisé par le langage, car ce manque-là ne peut jamais être comblé. Nous pourrions considérer leur manque comme fondamental si après avoir fusionné tout l’univers, ils se rendaient compte que ça ne suffisait pas à les satisfaire.
Si « eux » ne ressentent pas de manque au sens du manque fondamental que ressent Carol, alors l’amour que Carol pense ressentir est un malentendu. Et l’on retombe sur la phrase de Lacan citée plus haut. Carol donne ce qu’elle n’a pas, c’est-à-dire son manque, à quelqu’un qu’elle ne pense pas pouvoir satisfaire. L’erreur de Carol porte sur ce dernier point : le don de Carol pourrait tout à fait les satisfaire ! Mais ça n’est donc pas de l’amour au sens où l’entend Lacan.
Dans la série, « eux » incarnent une forme de bienveillance poussée à son extrême (ils préfèrent mourir de faim que de tuer), mais ne comprennent pas en quoi manger des cadavres humains reconditionnés en brique de lait représente une violence symbolique insupportable pour Carol. De leur point de vue, ils incarnent une morale universelle dans un monde où toute forme de violence aurait disparu.
Une morale tellement universelle qu’elle peut se passer du consentement des gens. C’est ainsi qu’ils envahissent la Terre sans préavis et n’ont aucun scrupule à contraindre Carol à devenir l’une des leurs, mais « pour son bien ».
Lacan aborde cette question d’une morale universelle dans un texte classique intitulé « « Kant avec Sade ». Il y commente le propos de Kant qui cherche à concevoir une morale parfaite, c’est-à-dire reposant sur une pure logique dénuée de tout sentiment subjectif. Lacan souligne que cette morale sans désir va à l’encontre de celui qui la porte et constitue donc une forme de masochisme. Lacan explique qu’une loi universelle, en niant le sujet qui la porte, devient son persécuteur, sous forme d’une injonction impossible à satisfaire. C’est ce que l’on voit dans la série quand la morale incite les contaminés à se laisser mourir de faim.
Dans ce même texte, Lacan explique que la morale de Sade est l’application logique des principes kantiens. Chez Sade, le bourreau doit aussi agir sans sentiment, en ne visant que la jouissance de sa toute-puissance, ce qui est tout à fait compatible avec la structure d’une morale kantienne.
Donc Kant pose les principes d’une loi pour elle-même, toute-puissante et sans sujet ; et Sade met concrètement en application ce principe en proposant une doctrine où la toute-puissance du bourreau est une fin en soi.
On retrouve la même logique dans la morale du groupe fusionné. Leur souverain bien repose sur une fusion totale et ils sont, comme le dit un personnage, poussés par cet impératif biologique. Aucun désir ni sujet n’intervient ici, si ce n’est une morale universelle qui s’impose comme seul discours de vérité.
Finalement, Lacan proposera dans le le Séminaire, Livre VII une « éthique du désir » pouvant se substituer à la morale universelle. L’idée n’est alors plus de chercher le bien de tous, mais d’être fidèle à son désir, quitte à en assumer la tragédie. Cela rejoint la dernière scène de la première saison de la série où Carol, fidèle à sa volonté de ne pas fusionner, préfère apparemment déclencher une guerre nucléaire. Allant au bout de son désir, elle assume les conséquences tragiques de son choix.
Maxime Parola ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
27.01.2026 à 15:46
Normand Mousseau, Directeur de l’Institut de l’énergie Trottier, Polytechnique Montréal et Professeur de physique, Université de Montréal
Roberta Dagher, Professionnelle de recherche, Institut de l'énergie Trottier de Polytechnique Montréal, Polytechnique Montréal
Record forest fires, under-utilized agricultural residues like straw and husks and struggling sawmills have left Canada with an abundance of undervalued biomass. If carefully and strategically managed, this resource could become a powerful ally in the fight against climate change.
Canada’s biomass sectors are facing significant uncertainty because of political and natural disruptions. The forestry sector was hit last year by new American tariffs announced by the Donald Trump administration on Canadian forest products, bringing the total duties imposed on Canadian lumber to 45 per cent.
The agricultural and agri-food sector is also particularly vulnerable, since it exports more than 70 per cent of its main crops.
In addition to facing these political uncertainties, biomass sectors are increasingly experiencing the effects of climate disasters. In 2025, fires had burned 8.3 million hectares of Canadian forests by Sept. 30, making it Canada’s second-worst wildfire season on record. With climate change, extreme weather events like wildfires and droughts are likely to become more frequent and intense.
Change is accelerating and risks are mounting. For industries and communities that rely on biomass, this is the moment to define a long-term role in the climate transition.
Canada needs to move towards a carbon-neutral economy, and the biomass sectors have a key role to play in this transition.
The availability of diverse biomass resources in Canada’s forests and agricultural lands, combined with new technologies to convert them into bioproducts and bioenergy, makes biomass a potential solution for reducing carbon emissions in several sectors, including industry, construction and all modes of transport (road, marine, rail and air).
Biomass can be part of climate change mitigation strategies. Used properly, it can replace fossil fuels and products, and help store carbon in different ways: in sustainable materials made from wood or agricultural residues, in the form of biochar that traps carbon in the soil or through bioenergy with carbon capture and storage (BECCS), which prevents carbon released during energy production from entering the atmosphere.
Several recent projects have demonstrated that interest in biomass feedstocks is high in many industries. In 2025, Canada’s first industrial-scale biochar plant was inaugurated in Québec, while the Strathcona refinery in Alberta will become Canada’s largest facility for renewable diesel.
The potential role of biomass becomes clear in the pathways now being modelled to achieve Canada’s climate goals. These analyses show that if a significant portion of available biomass were used differently, it would be possible to sequester up to 94 million tonnes of CO₂ equivalent per year through BECCS and biochar.
These results underscore the need for Canada to carefully plan new project developments and judiciously allocate biomass between its traditional and emerging uses.
As we explain in a recent study, several factors influence the potential of biomass to reduce emissions, including the type of ecosystem where it’s harvested, the efficiency of its conversion, the fuels used and the products it replaces in the sectors concerned.
In other words, the climate benefits of biomass are not automatic: they depend on the choices that are made at each stage of the value chain. For example, if the processing or transport of resources requires a lot of fossil energy, or if the final product displaces a low-emission alternative, the climate benefit may be marginal or even negative.
Using biomass effectively requires understanding what resources will be available under climate change and their true potential to cut emissions. That potential depends not only on technological efficiency, but also on the cultural, environmental and economic realities of communities.
Decision-makers must avoid working in isolation and take into account the collateral effects of resource allocation. Practices in biomass sectors, whether in forestry or agriculture, evolve slowly. Forests, in particular, follow long growth and harvesting cycles, so the choices made today will influence emissions for decades to come.
Yet, despite the importance of its resources, Canada has no strategy or vision for the role biomass will play in the transition to carbon neutrality by 2050.
Canada has developed several bioeconomy frameworks, including the Renewed Forest Bioeconomy Framework (2022) and the Canadian Bioeconomy Strategy (2019). However, there is still no comprehensive strategy that defines the role biomass will play in achieving a carbon-neutral future, either in energy-related or non-energy-related sectors.
À lire aussi : Océans : les poissons, un puits de carbone invisible menacé par la pêche et le changement climatique
Canada can draw inspiration from its own Canadian Hydrogen Strategy to develop a similar strategy for biomass, based on integrated modelling of its potential in different sectors of the Canadian economy. There is an urgent need to adopt a realistic approach based on analyses at multiple scales — from regional to national — rather than on isolated sectoral targets.
Many players in the sector are stressing the urgent need to adopt a clear national strategy for the bioeconomy in order to provide more predictability to biomass industries in Canada. In an article in Canadian Biomass Magazine, Jeff Passmore (founder and president of Scaling Up) says he’s been waiting for Canada to develop a concrete national strategy for the bioeconomy.
Another article in Bioenterprise in 2023 argued that “one of the key areas needed to build the future of biomass in Canada is a solid, long-term national bioeconomy strategy, supported by industry and governments.”
Finally, a call to action from Bioindustrial Innovation Canada recommends revising the national bioeconomy strategy by setting measurable targets for interdepartmental and intersectoral co-ordination, with a clear road map for collaboration between industry and the public sector.
Biomass cannot be managed blindly. Its impacts vary depending on the region and uses. For future projects to truly contribute to Canada’s climate goals, a coherent national vision is needed now.
In connection with the work reported in this article, Normand Mousseau received funding from Environment and Climate Change Canada, the Trottier Family Foundation (through its support for the activities of the Institut d'Énergie Trottier) and the Transition Accelerator, a non-profit organization with the mandate to support energy transition in various economic sectors. The organizations that funded this text or the reports on which it is based were not given any right to review the analyses and conclusions. The authors are solely responsible for these.
The Institut de l'Énergie Trottier (IET) at Polytechnique Montréal was created thanks to a generous donation from the Trottier Family Foundation. Its mission covers research, training and the dissemination of information related to the challenges of decarbonizing energy systems. To support the research mandate of the Carbon Neutrality Advisory Group, the IET's biomass project was carried out with financial support from the Government of Canada. Funding was provided by the Climate Action and Awareness Fund of the Environmental Damages Fund, administered by Environment and Climate Change Canada. The organizations that funded this report were not given any say in the analyses and conclusions. The authors are solely responsible for these. Roberta Dagher works at the IEG in support of the Transition Accelerator. Roberta Dagher does not work for, advise, own shares in, or receive funding from any organization that could benefit from this article.
27.01.2026 à 13:59
Catherine Bros, Professeur des universités en économie, Université de Tours - LEO, Université de Tours
Daniel Mirza, Professeur d'Université, Université de Tours
La présence d’Ursula von der Leyen en Inde est l’occasion de concrétiser un projet d’accord commercial lancé en 2007 entre l’Union européenne et le pays le plus peuplé du monde. Loin de constituer une réaction aux tarifs douaniers de Donald Trump, ce partenariat repose sur un objectif de long terme: tracer une voie autonome ensemble. Pour comprendre cet accord, retour sur les relations commerciales entre le Vieux Continent et New Delhi.
La visite d’Ursula von der Leyen, présidente de la Commission européenne, en Inde vient clôturer une série de déplacements en 2025 de dirigeants européens dans ce pays devenu un partenaire convoité à la suite des inquiétudes issues de la prééminence chinoise dans le commerce mondial. À cette occasion est annoncée la conclusion d’un accord de libre-échange négocié depuis 2007 entre l’Union européenne (UE) et l’Inde.
Nous serions tentés, dans le tumulte actuel, de penser que cet accord est le fruit d’une réaction à la politique tarifaire hargneuse des États-Unis, qui ferait de l’Europe un succédané des États-Unis aux yeux de l’Inde et vice versa. Ce serait tout à fait inexact.
Le rappel de la longue gestation de cet accord suffit à montrer qu’il est fondé sur une politique de long terme. Les négociations ont été lancées en 2007, puis suspendues pendant neuf ans – des désaccords sur le degré de libéralisation et le traitement de secteurs sensibles freinaient aussi bien les Indiens que les Européens. Elles ont repris vigueur en 2022, au moment où le monde, et en particulier l’UE, a pris soudainement conscience de sa dépendance à la Chine.
Car l’Inde est le pays le plus peuplé du monde avec 1 471 179 309 d’habitants au 26 janvier 2026, et la quatrième puissance économique mondiale depuis ce début d’année. Ensemble, l’Inde et l’UE représentent 25 % du produit intérieur brut (PIB) mondial et un tiers du commerce international.
Tandis que l’UE est le deuxième marché commercial pour l’Inde, en absorbant 8 % des ventes indiennes à l’étranger en 2025, juste derrière les États-Unis qui en captent près de 13 %, à l’inverse, l’Inde reste un partenaire commercial modeste pour l’UE. Seulement 2 % des exportations européennes lui sont destinées, ce qui place le pays au 10ᵉ rang des clients de l’UE.
Alors, que cherchent l’UE et l’Inde dans cet accord ? Et, concrètement, quelles relations commerciales cet accord vise-t-il à faire évoluer entre les deux blocs ?
Cet accord commercial s’inscrit dans une vision stratégique de long terme, dont l’accélération a été catalysée par les dynamiques de reconfiguration du commerce mondial depuis la pandémie de Covid-19. Au cœur de cette dynamique, une volonté commune de réduire les dépendances vis-à-vis de la Chine. En 2025, près de 18 % du marché indien et plus de 23 % du marché européen de biens importés proviennent de Chine.
Ainsi, cet accord n’est pas une recherche opportuniste de nouveaux débouchés face à la fermeture relative du marché des États-Unis, mais bien un choix structurant dont la concrétisation à ce moment précis répond, elle, à une logique éminemment politique.
Sous l’administration Trump, tant l’Inde que l’UE subissent les contrecoups d’une politique commerciale agressive, une remise en cause unilatérale des équilibres commerciaux établis. En signant, dans ce contexte, l’accord de libre-échange, l’Inde comme l’UE entendent tracer une voie autonome.
Au moment de la reprise des discussions, en 2022, le taux de croissance de l’économie de l’Inde frisait les 7 %, et sa population venait de dépasser celle de la Chine. En 2024-2025, malgré un niveau de revenus encore modeste, la consommation finale était dynamique, avec une croissance aux alentours de 4 %.
L’Inde a longtemps fait preuve d’une certaine circonspection vis-à-vis du commerce mondial. Elle a pratiqué, bien avant Trump, une politique de droits de douane élevés : 18 % de taxes en moyenne applicable aux marchandises originaires de pays membres de l’Organisation mondiale du commerce (OMC) en 2021, rendant son marché intérieur relativement difficile d’accès.
Son retrait du commerce mondial a été marqué entre 2014 et 2020. Comme l’illustre le graphique ci-dessous, l’ouverture de son économie, mesurée par le poids des échanges commerciaux (exportations plus importations) dans son PIB, a diminué durant cette période. Cette tendance reflète une réduction de son activité économique à l’international par rapport à son dynamisme interne.
À partir de 2014, le gouvernement indien a mis en place des programmes, comme le Make in India, visant à attirer les investissements directs étrangers (IDE).
Dans cet objectif, le gouvernement a mis en place des politiques de levée des restrictions sur les IDE, de facilitation administrative et d’investissement dans les infrastructures, dont la défaillance a longtemps été pointée du doigt comme un frein à l’investissement.
À lire aussi : Inde : vers un cauchemar démographique ?
Car l’Inde a un besoin aigu de développer son secteur manufacturier pour ne pas voir son dividende démographique lui échapper, et être en mesure de créer des emplois à un rythme aussi soutenu que la croissance de sa population active.
Dans cet article, nous nous appuyons sur les données du Global Trade Tracker qui compile en temps réel les informations douanières publiées par les administrations compétentes de chaque pays.
L’UE représente un partenaire commercial essentiel pour l’Inde. C’est son deuxième fournisseur, juste derrière la Chine et devant les États-Unis. Entre 2011 et 2025, les importations indiennes en provenance de l’UE sont restées stables, oscillant entre 10 % et 12 %, dépassant systématiquement celle des États-Unis, 8 à 9 % sur les cinq dernières années.
Parmi les produits les plus exportés par l’UE et les États-Unis vers l’Inde, on trouve des produits métalliques à recycler – fer, acier, aluminium –, des avions et des pièces détachées, ou encore des gammes de médicaments. L’UE se distingue des États-Unis par ses exportations de machines-outils, d’appareils de mesure, de véhicules de tourisme et de produits chimiques.
Un autre point clé est la plus grande diversité des exportations européennes comparées aux exportations américaines. Les 25 produits européens les plus exportés vers l’Inde représentent un tiers de ses exportations totales, contre 58 % côté états-unien. Avec cette concentration moindre, l’accord avec l’UE diffusera une baisse des coûts et des prix dans l’économie indienne.
Depuis la fin de la décennie 2010, l’UE a vu s’éroder ses parts de marché dans le monde, en particulier dans les pays en développement. Celles-ci sont passées de 18 % en 2018 à près 15 % en 2025, soit une perte de 20 % de parts du marché mondial. Cette perte concerne la majorité de ses produits, au profit principalement de la Chine.
Même les 100 produits les plus exportés par l’UE vers le reste du monde – avions, véhicules de tourisme haut de gamme, boîtes de vitesse, turboréacteurs, certains médicaments et vaccins, ou encore articles de parfumerie – ont subi une baisse de leurs parts de marché, pour des raisons pas encore bien identifiées par les économistes. Cela a profité à des pays disposant de technologies comparables, telles que les États-Unis ou d’autres membres de l’OCDE.
De surcroît, la pandémie du Covid-19 a accéléré cette dégradation de la position européenne. Ce recul n’est pas sans lien avec la réactivation des négociations qui a conduit à cet accord.
Quand l’administration Trump a annoncé sa première salve de taxes en avril 2025, l’Inde, qui pensait qu’elle serait épargnée par rapport à ses voisins sud-asiatiques, a pris une gifle avec l’imposition de droits de douane de 25 %, agrémentée d’un autre 25 % si elle persistait à se fournir en pétrole auprès de la Russie.
Cette ingérence a profondément heurté l’Inde, tant son gouvernement que son opinion publique, alors que le pays tentait de s’affirmer comme un acteur diplomatique majeur, libre de toute allégeance et maître de ses choix en politique étrangère.
Pour l’UE, la tentative d’acquisition du Groenland par les États-Unis n’est que le dernier épisode d’une longue série de coups de canif dans la relation transatlantique.
Cet accord entend montrer une voie singulière entre l’Union européenne et l’Inde, loin des turbulences répétées engendrées par l’administration Trump, et démontrer que le monde ne se limite pas à l’influence, et aux caprices, de la politique des États-Unis.
Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.
27.01.2026 à 12:51
Mickael Naassila, Professeur de physiologie, Directeur du Groupe de Recherche sur l'Alcool & les Pharmacodépendances GRAP - INSERM UMR 1247, Université de Picardie Jules Verne (UPJV)
Margot Debris, Docteur en neurosciences, Université de Picardie Jules Verne (UPJV)
Olivier Pierrefiche, Professeur des universités en Neurosciences, Université de Picardie Jules Verne (UPJV)
Les conséquences du binge drinking ne sont pas seulement liées à la quantité d’alcool ingérée. Des travaux de recherche expérimentaux menés sur des rongeurs suggèrent que la fréquence des épisodes d’alcoolisation importante altère la plasticité cérébrale, qui plus est de façon différente selon le sexe. Des résultats qui expliqueraient pourquoi, chez les jeunes, des déficits mnésiques peuvent apparaître dès les premiers épisodes de binge drinking.
Les conséquences délétères du binge drinking, pratique qui consiste à boire une grande quantité d’alcool en un temps très court, sont souvent pensées comme résultant du volume d’alcool ingurgité en une seule occasion.
Or, nos travaux suggèrent qu’un paramètre clé à prendre en compte est le « schéma » de consommation. En effet, la répétition d’épisodes de binge drinking perturbe des mécanismes cellulaires essentiels à l’apprentissage et à la mémoire. Bonnes nouvelles, cependant : certaines altérations semblent réversibles lorsque les épisodes cessent, et des pistes thérapeutiques commencent à émerger.
En France, les enquêtes montrent que les comportements de consommation d’alcool chez les jeunes évoluent : la proportion de ceux qui ne boivent pas augmente depuis quelques années. Cependant, des profils à risque persistent, notamment dans certains contextes : formation professionnelle en apprentissage, sortie du système scolaire, précarité…
Pourquoi s’y intéresser ? Parce que l’adolescence et le début de l’âge adulte sont des périodes clés du développement cérébral. À ces âges, le cerveau continue de se remodeler, au moment même où se construisent des compétences essentielles, telles que mémoire, prise de décision, contrôle du comportement, toutes indispensables à la réussite scolaire, professionnelle et sociale.
On qualifie de binge drinking le fait de consommer rapidement et massivement de l’alcool : boire environ 6 à 7 verres d’alcool en deux heures, ce qui entraîne une alcoolémieAlcoolémie
taux d’alcool par litre de sang ou par litre d’air expiré. d’environ 1 à 1,5 gramme d’alcool par litre de sang. Certains jeunes atteignent même deux à trois fois ce niveau, ce que l’on qualifie de binge drinking extrême ou à haute intensité.
Surtout, le binge drinking n’est pas un événement isolé. Il s’inscrit dans un pattern de consommation caractérisé par :
Dans un article de conceptualisation du binge drinking publié récemment, nous avons proposé, plutôt que de se focaliser sur la seule quantité d’alcool consommée, d’analyser conjointement ces différentes dimensions.
En effet, une de nos études menées chez des jeunes a révélé que la fréquence des ivresses contribue fortement à définir la sévérité du comportement de binge drinking. De manière convergente, des travaux français ont montré que le binge drinking fréquent (deux fois par mois et plus, entre 18 et 25 ans) triple le risque de développer une alcoolodépendance après 25 ans, comparativement à l’absence de pratique ou à une pratique occasionnelle.
Depuis plusieurs années, notre équipe explore les effets du binge drinking sur le cerveau et la cognition, chez l’animal comme chez l’humain. Nos travaux ont contribué à élucider les mécanismes cellulaires à l’origine de ces comportements, dont les conséquences peuvent s’avérer particulièrement délétères.
Chez l’animal, nous avons démontré que, dès les premiers épisodes, le binge drinking altère la plasticité synaptique dans l’hippocampe, une région du cerveau essentielle pour la mémoire et l’apprentissage, notamment via des récepteurs impliqués dans les mécanismes de plasticité synaptique : (les récepteurs NMDA).
Nos travaux menés chez le rat ont révélé que la vulnérabilité à ces effets diffère selon le sexe. En effet, les différences entre les sexes ne tiennent pas seulement aux quantités d’alcool consommées, mais aussi au contexte hormonal. Nous avons notamment mis en évidence une interaction entre l’alcool et les œstrogènesŒstrogènes
les œstrogènes sont des hormones féminines qui jouent un rôle clé dans le développement sexuel et la reproduction. au niveau de l’hippocampe.
Concrètement, à l’adolescence, les œstrogènes potentialisent les effets de l’alcool sur le cerveau : lorsque leurs niveaux sont élevés, l’alcool perturbe plus fortement les mécanismes de la mémoire chez les rats femelles que chez les rats mâles. Ainsi, chez les rates adolescentes, l’alcool altère la plasticité synaptique uniquement lorsqu’il est consommé pendant les périodes de pic d’œstrogènes, autrement dit durant le proœstrus (qui est l’équivalent de la phase préovulatoire chez la femme).
En outre, lorsque l’on administre aux animaux de l’estradiol, un puissant œstrogène, en même temps que l’alcool, les mêmes altérations apparaissent, y compris chez les mâles ou chez des femelles prépubères normalement peu exposées aux œstrogènes.
Cette interaction entre alcool et œstrogènes crée ainsi une fenêtre de vulnérabilité spécifique, à un moment où le cerveau est encore en pleine maturation.
Le binge drinking perturbe également la prise de décision et le fonctionnement d’un système clé du cerveau impliqué dans la motivation, l’apprentissage par la récompense et l’évaluation des conséquences des actions (le système dopaminergique striatal). Cette situation peut entretenir un cercle vicieux, une prise de décision altérée favorisant la répétition des ivresses.
Nous avons constaté que le binge drinking altère la prise de décision principalement chez les mâles, qui deviennent moins capables de faire des choix avantageux. Chez les femelles, il augmente surtout l’impulsivité et modifie le fonctionnement du système dopaminergique, sans altération majeure de la décision elle-même.
Soulignons que ces déficits de prise de décision sont observés en période d’abstinence (24 heures après la dernière consommation), ce qui indique que ce problème ne se limite pas aux périodes durant lesquelles les effets de l’alcool sont aigus : il peut persister entre les épisodes de binge drinking.
Dans nos études cliniques (menées chez l’être humain, donc), nous avons observé chez les jeunes binge drinkers des perturbations spécifiques de la mémoire verbale, touchant l’encodage, le stockage et la récupération des informations. Concrètement, ces perturbations pourraient se traduire par des difficultés à retenir un cours ou à restituer spontanément des informations apprises. Elles sont aussi observées en dehors des épisodes d’ivresse, en période d’abstinence, ce qui indique que l’altération de la mémoire persiste là aussi entre deux épisodes de binge drinking.
Tous ces résultats convergent vers une idée simple : le binge drinking n’est pas un « dérapage » ponctuel, mais un mode de consommation susceptible de laisser des traces neurobiologiques mesurables et d’affecter des comportements essentiels de la vie des jeunes.
Les résultats de notre dernière étude vont dans ce sens, puisqu’ils indiquent que la fréquence des épisodes de binge drinking change la signature cérébrale des atteintes des mécanismes cellulaires de la mémoire.
La question peut paraître simple en apparence, mais elle était jusqu’ici restée sans réponse : le temps qui sépare deux épisodes de binge drinking a-t-il un impact sur le cerveau ?
Basée sur un modèle expérimental où des rats adolescents sont exposés à deux fréquences différentes d’épisodes de binge drinking (espacés ou rapprochés), notre dernière étude révèle que les atteintes cérébrales dépendent du rythme des épisodes de binge drinking.
Parmi les points à retenir, ces travaux démontrent que les altérations de certaines formes de plasticité de l’hippocampe dépendent de la fréquence des épisodes de binge drinking, avec des effets opposés.
Lorsque les épisodes sont rapprochés (haute fréquence), l’alcool bloque ou réduit fortement une forme clé de plasticité synaptique impliquée dans la mémoire, ce qui suggère une incapacité du cerveau à affaiblir certaines connexions synaptiques lorsque cela est nécessaire. À l’inverse, lorsque les épisodes sont plus espacés (basse fréquence), cette même plasticité est exagérée, c’est-à-dire plus intense que la normale.
Pour le dire autrement, à quantité d’alcool comparable, répéter les épisodes à des fréquences différentes modifie différemment le fonctionnement cérébral, en augmentant ou en abolissant la plasticité synaptique.
Ces deux situations sont potentiellement délétères pour l’apprentissage et la mémoire, car elles traduisent un déséquilibre des mécanismes qui permettent normalement au cerveau d’ajuster, de renforcer ou d’affaiblir les connexions neuronales en fonction de l’expérience.
Une plasticité réduite ou absente peut limiter la capacité à modifier des réseaux neuronaux existants, entravant l’acquisition de nouvelles informations. À l’inverse, une plasticité excessive peut rendre les traces mnésiques moins stables ou moins sélectives, favorisant des apprentissages moins précis ou plus labiles.
Toutefois, les conséquences cognitives exactes de ces altérations opposées restent encore à déterminer. L’étude montre clairement des modifications des mécanismes synaptiques clés de la mémoire, mais des travaux complémentaires sont nécessaires pour établir précisément comment ces déséquilibres se traduisent, à long terme, en termes de performances mnésiques et d’apprentissage.
Autre enseignement de ces travaux : l’arrêt des épisodes de binge drinking permet une récupération spontanée de ces perturbations en deux semaines environ, ce qui suggère l’existence d’une capacité de récupération fonctionnelle.
Enfin, ces recherches nous ont également permis d’explorer les possibilités de réparer les atteintes causées par les épisodes de binge drinking grâce à un traitement précoce original.
Notre étude montre qu’après une exposition répétée à des binge d’alcool, un traitement par un anti-inflammatoire (minocycline) (anti-inflammatoire) atténue les perturbations de plasticité induites par l’alcool.
Ce résultat s’inscrit dans un ensemble de travaux suggérant que le binge drinking déclenche une réponse neuro-inflammatoire précoce dans le cerveau, en particulier à l’adolescence. L’alcool active notamment les cellules immunitaires du cerveau (microglie) et augmente la production de médiateurs pro-inflammatoires (cytokines), susceptibles de perturber la transmission entre les neurones.
On sait que le binge drinking est particulièrement toxique pour le cerveau, car entraîne une mort neuronale et des atteintes de la substance blanche (les axones, les extensions des neurones). Ces atteintes sont relayées par des processus de neuro-inflammation.
Attention toutefois : ces résultats ne justifient pas à ce stade une utilisation clinique systématique de médicaments anti-inflammatoire. Leur intérêt potentiel se situerait plutôt en amont de l’addiction, dans une logique de prévention ou d’intervention précoce, par exemple chez des jeunes exposés à des épisodes répétés de binge drinking mais ne présentant pas encore d’addiction à l’alcool.
Par ailleurs, il est important de souligner que ces observations découlent de travaux précliniques, donc menés uniquement chez l’animal. Pour l’instant, les premiers essais de modulateurs neuro-inflammatoires menés chez des patients souffrant de troubles de l’usage d’alcool ont donné des résultats mitigés.
En effet, chez les personnes souffrant d’addiction installée, les mécanismes en jeu sont plus complexes et durables, et l’efficacité de stratégies anti-inflammatoires seules reste à démontrer dans des essais cliniques contrôlés.
Les repères de réduction des risques insistent déjà sur des limites hebdomadaires et sur le fait d’avoir des jours sans alcool.
Mais dans la vie réelle, que ce soit en médecine générale ou aux urgences par exemple, les épisodes de binge drinking sont parfois banalisés (« Ce n’est que le week-end »). Or, nos résultats soutiennent que la répétition pourrait être un facteur clé des atteintes neurocognitives : cela plaide pour un repérage systématique de la fréquence des épisodes et pour des interventions brèves ciblées. En consultation, les médecins doivent avoir conscience que demander « combien de fois ? » peut être aussi important que « quelle quantité ? »
Le fait que l’on constate une récupération de certaines atteintes de la transmission synaptique après l’arrêt peut se traduire facilement en un puissant message de santé publique : réduire la fréquence (ou interrompre la séquence d’épisodes) du binge drinking pourrait permettre au cerveau de recouvrer des fonctions essentielles d’apprentissage à l’adolescence. C’est un levier motivant, notamment pour les jeunes : on ne parle pas seulement de risques lointains, mais d’effets mesurables et potentiellement réversibles à court terme.
Enfin, ces travaux pourraient ouvrir des pistes thérapeutiques, cibler la neuro-inflammation, mais avec prudence, car leur efficacité chez l’humain dans le cadre du binge drinking ou de l’addiction à l’alcool n’est pas encore démontrée.
Ces résultats vont dans le sens des constats posés par des synthèses récentes qui soulignent que, chez les jeunes, des déficits mnésiques peuvent apparaître très tôt et impliquer des mécanismes de neuro-inflammation ou d’épigénétique.
Ils renforcent une idée structurante : en matière de binge drinking et de consommation d’alcool en général, il faut sortir d’une vision « dose totale = risque total ». Pour comprendre et prévenir, on doit intégrer le pattern, autrement dit le schéma de consommation, dont la fréquence des épisodes.
Mickael Naassila est Président de la Société Française d'Alcoologie et d'Addictologie (SF2A) et de la Société Européenne de Recherche Biomédicale sur l'Alcoolisme (ESBRA); Vice-président de la Fédération Française d'Addictologie (FFA) et vice-président junior de la Société Internationale de recherche Biomédicale sur l''Alcoolisme (ISBRA). Il est membre de l'institut de Psychiatrie, co-responsable du GDR de Psychiatrie-Addictions et responsable du Réseau Nationale de Recherche en Alcoologie. Il a reçu des financements de l'ANR, de l'IReSP/INCa Fonds de lutte contre les addictions. Il est membre sénior de l'IUF Institut Universitaire de France.
Margot Debris a reçu des financements du ministère français de l’Enseignement supérieur et de la Recherche dans le cadre de son doctorat. Elle est membre de l'ESBRA (European Society for Biomedical Research on Alcohol).
Olivier Pierrefiche est membre de l'ESBRA (European Society for Biomedical Research on Alcoholism) et de la Société française des Neurosciences.