23.04.2026 à 16:15
Christel Cournil, Professeur de droit public, Sciences Po Toulouse
Laurence Dubin, Pofesseure agrégée de droit public, spécialisée en droit international, Université Paris 1 Panthéon-Sorbonne
Sabrina Robert, Professeure de droit public, Nantes Université; Université Paris 1 Panthéon-Sorbonne
Du 24 au 29 avril 2026 à Santa Marta, en Colombie, une conférence inédite entend placer la sortie des combustibles fossiles au cœur de l’agenda international. Dans un contexte de dépendance fossile et de tensions géopolitiques, l’enjeu dépasse la transition énergétique : il s’agit de tester la capacité des États à transformer en actes un objectif climatique indispensable qui n’est pas, aujourd’hui, engagé à la hauteur requise. En cause, un véritable verrouillage juridique, économique et financier qui protège le capitalisme fossile, et qu’il va falloir désarmer.
Les gouvernements de la Colombie et des Pays-Bas organisent, du 24 au 29 avril 2026, à Santa Marta (Colombie) la première conférence internationale consacrée à une sortie juste des combustibles fossiles. L’enjeu est clair : mettre la sortie des combustibles fossiles au cœur d’une feuille de route politique, juridique et financière, fondée sur la réduction des dépendances, la transformation de l’offre et de la demande et une coopération internationale renforcée.
Ce n’est pas un sommet de plus : c’est un test de crédibilité. En 2024, la demande mondiale d’énergie a encore progressé et les énergies fossiles occupent toujours une place centrale dans le mix énergétique mondial. Malgré les inflexions introduites sur la sortie du charbon lors de la COP26 à Glasgow en 2021, puis sur la sortie des énergies fossiles lors de la COP28 à Dubaï en 2023, le soutien aux énergies fossiles se poursuit et la transition énergétique reste lente. Les États continuent de projeter, à l’horizon 2030, des niveaux de production fossiles très au-delà de ce qui serait compatible avec une trajectoire à 1,5 °C.
Nous savons donc deux choses : la sortie fossile est indispensable ; or elle n’est actuellement pas engagée à la hauteur requise.
Ce rendez-vous intervient, en outre, dans un contexte international de « backlash climatique » et de réaffirmation brutale de l’ordre fossile.
Aux États-Unis, la devise « Drill, baby, drill » a relancé la production, tandis que les crises géopolitiques (Ukraine, Venezuela et, désormais, Iran) rendent plus que jamais urgente la nécessité de s’affranchir de la dépendance aux hydrocarbures.
L’« éléphant dans la pièce » des négociations climatiques tient en grande partie au fait que le cadre juridique international protège le capitalisme fossile. Le résultat : un véritable « verrouillage » juridique qui concourt au maintien du statu quo sur les énergies fossiles. En conséquence, les flux financiers restent encore massivement orientés vers les énergies fossiles, malgré les efforts des États, des institutions internationales et de certains acteurs privés. Il faut passer d’une logique de décarbonation partielle de la demande à une véritable refonte de l’architecture juridique, cohérente entre droit national, droit de l’Union européenne et droit international, pour la rendre compatible avec la sortie des énergies fossiles.
Comment fixer les priorités ? Nous développons, dans un policy brief consacré à la sortie fossile, un état des lieux ainsi que 14 propositions d’action concrète. Ici, nous exposons quelques-unes de ces propositions, que la conférence de Santa Marta peut être l’occasion de concrétiser.
Depuis trente ans, le régime climatique international s’est surtout construit autour de la réduction des émissions de gaz à effet de serre. Longtemps, la question de la réduction de l’offre fossile est restée au second plan. On a cherché à réduire les émissions sans organiser sérieusement la fermeture des infrastructures qui en sont responsables.
Dès lors, la conférence de Santa Marta devra mettre sur la table les questions que la diplomatie climatique traditionnelle a trop longtemps évitées. Comment sortir des dépendances fossiles à la fois énergétiques et industrielles ? Comment organiser la baisse de l’offre ? Comment lever les obstacles juridiques internationaux qui sécurisent encore le capital fossile, à commencer par l’arbitrage entre investisseurs et États, notamment dans le cadre du Traité sur la charte de l’énergie ?
Sur ce dernier point, 220 économistes et juristes ont récemment exhorté la Colombie, dans une lettre adressée au président Gustavo Petro, à se retirer du système de règlement des différends entre investisseurs et États (ISDS) et à fédérer une coalition d’États décidés à s’en désengager. Cette prise de position met en lumière un point décisif : la sortie des combustibles fossiles n’est pas seulement une question de politique climatique, mais aussi de désarmement des mécanismes juridiques qui sécurisent encore la rentabilité des investissements fossiles.
À lire aussi : Le droit international protège les investissements dans les énergies fossiles, et c’est un problème
Le capitalisme fossile est ainsi porté par une construction juridique structurante. Les investisseurs fossiles sont protégés par des traités, peuvent consolider leurs droits dans des contrats de long terme, se voir favorisés par des régimes fiscaux, sécurisés par des assurances et soutenus par des financements publics et privés.
Privilégiés, les investisseurs fossiles peuvent encore attaquer, devant des tribunaux spéciaux, des États dans lesquels ils réalisent leurs activités si ces derniers, en s’avisant de corriger leur trajectoire carbone, portent atteinte à leurs droits. Les investisseurs fossiles sont, en effet, juridiquement protégés par de nombreux instruments juridiques. Il existe ainsi des milliers de traités bilatéraux d’investissements, des traités plurilatéraux, des contrats d’investissements, des codes d’investissements et miniers ainsi que des politiques d’assurances et de garanties contre les risques encourus par les investisseurs.
Citons, par exemple, parmi les traités plurilatéraux : le Traité sur la charte de l’énergie. Même dénoncé par de nombreux États européens, il continue de s’appliquer au titre de sa clause crépusculaire, qui impose un délai de vingt ans avant une sortie effective du traité.
La sortie fossile ne peut donc plus être pensée comme une simple transition technologique. Il faut s’attaquer aux structures juridiques, économiques et financières qui prolongent l’ordre fossile. Ce « verrouillage » fossile se traduit par un enchevêtrement d’infrastructures, de rentes, de chaînes de valeur, de subventions, de protections contractuelles et de garanties juridiques qui rendent la sortie à la fois nécessaire et politiquement coûteuse.
L’exploitation des combustibles fossiles ne saurait ignorer les limites planétaires, et le droit doit évoluer pour en tenir compte. Cela suppose de défaire des anticipations de rentabilité, de neutraliser les clauses de survie ou crépusculaires pérennisant les garanties offertes par les traités d’investissements dénoncés et de réorienter les flux financiers. Cela implique aussi d’assumer la conflictualité du désinvestissement, de traiter la question des actifs échoués et d’empêcher que la pétrochimie ne devienne le refuge stratégique des Carbon Majors.
À lire aussi : COP30 : Comment éviter que le plastique ne devienne le canot de sauvetage de l’industrie pétrolière ?
Par ailleurs, l’avis rendu par la Cour internationale de justice en 2025 a rappelé qu’un État qui ne prend pas les mesures appropriées pour protéger le système climatique peut engager sa responsabilité internationale. Et cela, y compris lorsqu’il favorise la production ou la consommation de combustibles fossiles, accorde des licences d’exploration ou maintient des subventions. La défossilisation n’est donc plus seulement un horizon souhaitable : elle devient un horizon légal et concret, sous la forme d’obligations préventives de diligence, d’efficacité, de cohérence et de coopération climatiques.
Les contentieux climatiques engagés à travers le monde participent déjà de ce déplacement. Ils ne se bornent plus à dénoncer l’inaction, mais mettent en cause les incohérences normatives, les soutiens publics et les dispositifs juridiques qui prolongent l’ordre juridique fossile. Toutefois, le juge, à lui seul, ne fermera ni les puits ni les terminaux gaziers. Il peut fissurer l’architecture du verrouillage juridique qui protège les énergies fossiles, au nom de la protection des droits humains ou du droit à un environnement sain. Mais il ne sera pas en mesure de prendre des décisions politiques, par exemple pour ordonner la fermeture de ces infrastructures.
C’est ici que Santa Marta peut devenir autre chose qu’une conférence supplémentaire. Cela pourrait être un moment de vérité sur la capacité des États à gouverner la fermeture des activités fossiles, au lieu de la repousser au nom d’un prétendu réalisme économique, alors même que ce réalisme produit un désordre climatique, financier, sanitaire et même démocratique toujours plus grand.
La question n’est donc plus de savoir s’il faut sortir des fossiles (la réponse est oui !), mais si les États accepteront enfin d’en assumer les conséquences normatives et de l’organiser d’une manière juste et efficace. Parce que sortir des fossiles exige bien davantage qu’un simple « verdissement » de l’existant. Il faut cesser d’autoriser l’expansion de secteurs incompatibles avec l’objectif de 1,5 °C, réorienter les flux financiers, intégrer la pétrochimie aux politiques de sortie, désactiver les verrous juridiques du capital fossile et organiser une transition juste. Autant de pistes que nous développons dans notre policy brief.
Il n’est plus possible de célébrer la transition tout en continuant à consolider l’économie fossile. À Santa Marta, l’enjeu sera de savoir quels États accepteront enfin de rompre avec ce verrouillage et d’organiser, en droit comme en politique, la sortie effective et juste des combustibles fossiles.
À lire aussi : Comment échapper à la malédiction de la rente fossile ?
Christel Cournil est administratrice de l'association Notre affaire à tous et vice-présidente de la SFDE Midi-Pyrénées.
Laurence Dubin est membre de l'association Intérêt à agir (IAA)
Sabrina Robert ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
23.04.2026 à 16:14
Guillaume Guérard, Enseignant-chercheur, Intelligence Artificielle, ESILV, Pôle Léonard de Vinci

La plupart des algorithmes performants actuels – notamment l’apprentissage profond (deep learning) et ses réseaux de neurones – fonctionnent comme des boîtes noires. On sait qu’ils donnent de bons résultats, mais impossible de comprendre leur logique interne. Ceci pose problème pour de nombreux domaines d’application (médecine, justice…), ce qui incite les régulateurs à exiger des systèmes « explicables ». Plusieurs pistes vers l’explicabilité existent. Zoom sur la « prétopologie ».
Imaginons un patient dont les résultats sanguins montrent un taux d’hémoglobine de 12,5 grammes par décilitres de sang. Un algorithme de détection précoce du cancer analyse ces chiffres, mais aussi ses antécédents familiaux (présents ou absents), son statut de fumeur (oui ou non), son niveau d’activité physique (faible, moyen, élevé). L’algorithme le classe dans un groupe à risque modéré. Mais quand son médecin lui demande pourquoi, le système ne peut pas répondre : c’est une boîte noire.
Et c’est évidemment un problème pour le patient, le médecin, l’assurance maladie, etc. C’est pour cela que l’AI Act européen, adopté en mars 2024, impose des obligations strictes aux organisations et entreprises opérant en Europe. D’ici 2026-2027, tous les systèmes d’IA dits à haut risque devront être « transparents » et « explicables », c’est-à-dire dont un humain puisse comprendre la logique. Les sanctions pourront atteindre 35 millions d’euros ou 7 % du chiffre d’affaires annuel mondial, car les domaines concernés peuvent avoir des effets importants.
Par exemple, en ressources humaines, les logiciels de tri de CV qui analysent à la fois des niveaux de diplômes, des années d’expérience et des compétences techniques doivent pouvoir justifier pourquoi un candidat est retenu et un autre écarté. Dans l’industrie énergétique, les systèmes de maintenance prédictive qui combinent données de capteurs (température, vibrations), historique de maintenance et type d’équipement doivent expliquer pourquoi une éolienne ou un autre équipement est signalé comme « à risque de panne ».
Pour contrer l’« effet boite noire » des systèmes d’IA actuels, nous proposons une méthode issue d’une discipline méconnue du grand public, la « pré-topologie », qui permet de rendre explicables les raisonnements faits sur des données mixtes (le taux d’hémoglobine est un chiffre tandis que la présence ou non d’antécédents familiaux ne se chiffre pas).
Le clustering hiérarchique est aujourd’hui la méthode de référence pour regrouper automatiquement des observations similaires et donc pour rendre les données plus interprétables : en organisant les observations en une hiérarchie de groupes emboîtés (un dendrogramme), il permet à un expert de naviguer entre niveaux de granularité, d’identifier des profils types et d’expliquer pourquoi deux individus sont regroupés ensemble, sans avoir à ouvrir la “boîte noire” d’un modèle prédictif.
Son fonctionnement est simple et transparent. On mesure d’abord la distance entre chaque paire d’observations. Ensuite, on regroupe progressivement les observations les plus proches. Enfin, on obtient un arbre (appelé dendrogramme) qu’on peut couper à différents niveaux pour former des groupes.
Prenons l’exemple des manchots de l’archipel Palmer en Antarctique. Si on mesure la longueur de leur bec et leur masse corporelle, le clustering hiérarchique identifie automatiquement trois groupes qui correspondent aux trois espèces biologiques présentes : Adélie, Jugulaire et Papou. L’atout majeur est sa transparence : on visualise l’arbre, on suit les regroupements successifs, on comprend facilement comment les groupes se sont formés, la hauteur d’embranchement donne une idée de la « différence » entre deux groupes.
Le défi survient quand on mélange chiffres et catégories. Mesurer une distance entre deux chiffres est facile : si un patient a une glycémie de 5,5 millimoles par litres (une unité de concentration) et un autre de 6,2 millimoles par litres, la différence est de 0,7. Mais comment mesurer la distance entre deux « catégories » que l’on ne peut pas chiffrer, comme une réponse oui ou non (fumeur ou non-fumeur), ou encore la couleur d’un tissu biologique ?
Par exemple, dans notre exemple de détection précoce du cancer, si le patient A présente une concentration d’hémoglobine de 12,5 grammes par décilitres (chiffre), des antécédents familiaux (catégorie « oui ») et ne fume pas (catégorie « non ») ; tandis que le patient B présente une concentration d’hémoglobine de 13,1 grammes par décilitres, pas d’antécédents et fume… comment dire si ces deux patients sont « proches » ou « éloignés », en termes de risques ?
Les solutions existantes, comme le k-means, HDBSCAN et DIANA ont toutes des limites. Transformer les catégories en chiffres artificiels (« oui » = 1, « non » = 0) est arbitraire et fait perdre du sens. Plus précisément, ceci signifie que l’on introduit une relation d’ordre et une distance qui n’existent pas : coder « chat » = 1, « chien » = 2, « oiseau » = 3 suggère implicitement que chien est « entre » chat et oiseau, ou que la distance chat-chien est égale à chien-oiseau, ce qui peut biaiser tous les calculs de similarité en aval.
Ignorer les catégories pour ne garder que les chiffres, comme dans les méthodes citées précédemment, fait perdre des informations cruciales comme les antécédents familiaux. Les méthodes statistiques plus complexes sont souvent opaques ou nécessitent des hypothèses fortes sur la structure des données. C’est le cas de la distance de Gower ou de l’analyse des facteurs latents – le genre de structure qui peut se cacher derrière les grands modèles de langage (LLM).
C’est précisément dans la définition de ces voisinages – comment mesurer qu’un patient « ressemble » à un groupe malgré des données hétérogènes – que la prétopologie offre un cadre naturel : elle permet de construire des zones d’influence flexibles, sans imposer de distance artificielle ni d’hypothèses sur la structure des données.
Pour cela, au lieu de chercher à mesurer des distances, nous proposons de changer de perspective en définissant des « voisinages », construits via des formes normales disjonctives, ou DNF. Derrière ce nom se cachent des règles logiques simples du type : « Un patient appartient au voisinage d’un groupe si (il est diabétique ET âgé de plus de 60 ans) OU (il a des antécédents familiaux ET est hypertendu) ». Chaque condition entre parenthèses est un bloc ; le voisinage est l’union de ces blocs. Pas de chiffres, pas de distance : seulement des combinaisons de caractéristiques, comme des règles de décision lisibles.
Une fois les voisinages définis, on calcule pour chaque groupe l’ensemble de tous les patients qui lui « adhèrent » – c’est-à-dire qui tombent dans au moins un de ces blocs DNF. Ce calcul d’adhérence est itératif : à chaque étape, des patients rejoignent ou quittent un groupe, jusqu’à stabilisation. Le résultat est analogue à un dendrogramme : on obtient une hiérarchie de regroupements successifs, du plus local (blocs fins, peu de patients) au plus global (grands groupes stables), sans avoir jamais posé de distance artificielle entre catégories et chiffres.
Une analogie aide à comprendre. Sur une carte géographique, on mesure la distance entre Paris et Lyon en kilomètres. Mais on peut aussi dire que Dijon est voisine de Lyon parce qu’elles partagent des caractéristiques : région similaire, climat comparable, économie proche. Cette notion de « voisinage » par caractéristiques communes ne nécessite pas de calculer une distance précise.
C’est le principe de base de PretopoMD, notre algorithme qui classe automatiquement des données mixtes (chiffres et catégories) tout en rendant explicite sa logique de regroupement. Pour les chiffres, deux valeurs sont voisines si elles tombent dans la même fenêtre : toutes les glycémies entre 5 et 7 mmol/L sont voisines. Pour les catégories, deux observations sont voisines si elles partagent la même modalité : deux patients sont voisins s’ils sont tous deux fumeurs, ou si tous deux ont des antécédents familiaux.
PretopoMD est d’ores et déjà disponible en accès libre pour permettre à des équipes en santé, RH ou maintenance de l’utiliser pour des études pilotes. À moyen terme, nous espérons que cette approche puisse aider les organisations européennes à répondre aux exigences de l’AI Act en proposant des classifications explicables par construction.
L’avantage clé est la traçabilité. Pour notre exemple médical, on peut dire :
« Les patients A et C sont dans le même groupe parce qu’ils partagent une glycémie dans la fenêtre 5-7 millimoles par litres (étape 1), tous deux ont des antécédents familiaux (étape 1), et tous deux ont un IMC entre 25-30 (étape 2). Le patient B les rejoint à l’étape 3 via un IMC similaire, malgré l’absence d’antécédents. »
Cette explication pas-à-pas répond directement aux exigences de l’AI Act. De plus, la structure hiérarchique est préservée, on peut identifier grands groupes et sous-groupes pertinents.
Néanmoins, notre algorithme possède des limites, puisqu’il faut choisir la taille des fenêtres et les seuils de similarité, faisant actuellement appel à un expert métier. Nous travaillons sur des méthodes pour automatiser ces choix.
Ainsi, la question reste ouverte : jusqu’où peut-on pousser la performance tout en conservant l’explicabilité ? Dans des domaines sensibles comme la santé ou le droit, ce compromis est-il acceptable ? Notre travail montre qu’on peut au moins explorer cette voie.
Guillaume Guérard ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
23.04.2026 à 16:14
Clotilde Coron, Professeure des universités en Sciences de gestion, Université Paris-Saclay
Le 26 avril a lieu la journée de la visibilité lesbienne qui vise à mettre en avant des modèles, à célébrer la culture lesbienne et à lutter contre la lesbophobie. La question de la visibilité dans le cadre professionnel mérite d’autant plus d’être mise à l’ordre du jour que les lesbiennes sont exposées à davantage de violences et de discriminations.
La journée de la visibilité lesbienne, le 26 avril, est d’autant plus nécessaire notamment dans le monde du travail que les lesbiennes subissent une double invisibilité. Tout d’abord, elles sont quasi absentes des discours publics, des médias, des représentations culturelles. Cette absence de visibilité peut notamment freiner la prise de conscience de l’orientation sexuelle, et certaines lesbiennes interrogées dans le cadre de l’enquête expliquent qu’elles ont construit une vie hétérosexuelle (avec un compagnon et des enfants), avant de se rendre compte qu’elles étaient lesbiennes.
Ensuite, un grand nombre de salariées lesbiennes cachent leur orientation sexuelle au travail. Plus précisément, d’après notre enquête, 14 % des salariées lesbiennes déclarent qu’aucun de leurs collègues n’a connaissance de leur orientation sexuelle. Cette stratégie de non-dévoilement est coûteuse sur le plan relationnel, sachant que de nombreuses conversations au travail, par exemple dans les espèces de socialisation comme la pause-café, la pause-déjeuner, portent sur la vie quotidienne (loisirs, famille, enfants…).
Elle suppose de très peu parler de sa vie quotidienne, ou bien de parler au « je » pour éviter de mentionner l’existence d’une compagne, ou encore de dire « il » en parlant de sa compagne, pour passer pour hétérosexuelle. 28 % déclarent ne dévoiler leur orientation sexuelle qu’auprès d’un petit groupe de collègues dont elles ont auparavant vérifié l’ouverture d’esprit. Cette stratégie se fait donc en deux temps : il s’agit tout d’abord de lancer des sujets de conversation orientés autour de valeurs progressistes pour identifier comment se positionnent les collègues, avant, dans un second temps, de dévoiler son orientation sexuelle.
À lire aussi : Comment les employés LGBTQIA+ adaptent leurs usages des réseaux sociaux vis-à-vis de leur entreprise
Elle est coûteuse en matière de charge mentale car elle suppose de se souvenir des collègues qui le savent et ceux qui ne le savent pas, et d’adapter ses propos et la manière de parler de sa vie quotidienne en fonction des cercles de collègues. Une femme lesbienne interrogée raconte aussi une situation dans laquelle, croisant dans la rue une collègue qu’elle connaît de loin, elle a demandé à sa compagne de lui lâcher la main. Cette dernière lui a dit « Je croyais que tes collègues étaient au courant », ce à quoi elle a répondu « Oui, ils sont au courant, mais pas elle en particulier ».
Cette invisibilité s’explique en partie par le fait que les lesbiennes sont surexposées aux violences et aux discriminations au travail, comme c’est également le cas dans l’espace public. Par exemple, toujours d’après notre enquête, 10 % des salariées lesbiennes disent avoir été victimes de violences physiques dans leur organisation de travail, contre 3 % des salariées hétérosexuelles et 7 % des salariés gays. 23 % déclarent avoir été victimes de violences psychologiques et morales, contre 14 % des salariées hétérosexuelles et 18 % des salariés gays. Enfin, 9 % ont été victimes de violences sexuelles, contre 4 % des salariées hétérosexuelles et 7 % des salariés gays.
Ces chiffres montrent une forte surexposition des salariées lesbiennes aux violences, et cette surexposition se retrouve pour les discriminations : 27 % des salariées lesbiennes estiment avoir déjà été discriminées en raison de leur genre ou de leur orientation sexuelle dans leur organisation de travail, contre 11 % des salariées hétérosexuelles.
Les récits recueillis donnent à voir différentes formes de micro-agressions et violences, allant de maladresses, à des agressions sexuelles, en passant par de l’homophobie ou de la lesbophobie d’ambiance, c’est-à-dire des propos homophobes ou lesbophobes non dirigés vers la personne qui les entend. Comme le raconte une des salariées lesbiennes interviewées, Sarah, qui travaille dans un collège :
« Ça reste des ados, et on sait comment ça se propage. Il y a des problématiques où effectivement j’ai eu une jeune la semaine dernière qui m’a dit : ‘Je ne l’aime pas parce qu’il est gay’. Enfin, voilà, clairement, je suis confrontée aussi à ça. Du coup, ça me travaille et du coup, je sais aussi comment ça se véhicule et potentiellement l’image négative que certains ont. »
Les données sur la réussite professionnelle (carrière, salaire) montrent des résultats étonnants. En effet, alors qu’elles sont plus exposées aux violences et aux discriminations que les salariées hétérosexuelles, les salariées lesbiennes semblent moins pénalisées en ce qui concerne le salaire, l’accès à la promotion, ou encore l’accès à des postes managériaux. Par exemple, d’après notre enquête, 43,7 % des salariées lesbiennes ont des responsabilités managériales, contre 38,4 % des salariées hétérosexuelles. Une piste d’explication à cette moindre pénalisation des salariées lesbiennes peut se trouver dans le fait qu’elles sont moins soumises aux normes de genre, et notamment au modèle de « monsieur gagne-pain », qui domine encore largement les couples hétérosexuels, et dans lequel le revenu du foyer est supposé dépendre avant tout du salaire et donc de la réussite professionnelle du mari.
Les couples lesbiens sont par ailleurs beaucoup plus égalitaires en termes de répartition des tâches domestiques, et d’ailleurs les salariées lesbiennes travaillent moins fréquemment à temps partiel que les salariées hétérosexuelles. Tout cela peut les conduire à accorder à la fois plus de temps et plus d’importance à leur travail, à leur rémunération, et à leur carrière. Certaines salariées lesbiennes interrogées témoignent aussi de l’existence de stéréotypes sur les femmes lesbiennes qui peuvent les avantager professionnellement (notamment le fait que les femmes lesbiennes sont perçues comme ayant plus de caractéristiques « masculines ») tout en les enfermant dans des cases.
Finalement, cette enquête suggère des pistes pour les organisations souhaitant s’engager en faveur de l’inclusion des salariées lesbienne :
visibiliser leur existence, par exemple en tenant compte des enjeux liés à l’orientation sexuelle dans les politiques d’égalité femmes-hommes et des enjeux liés au genre dans les politiques d’engagement LGBT+, ou encore en mettant en avant des rôles modèles ;
sensibiliser sur la persistance de violences, de discriminations et de stéréotypes ;
affirmer une politique de tolérance zéro à l’égard des actes et propos sexistes, homophobes et lesbophobes.
Le projet « ODILE ») est soutenu par l’Agence nationale de la recherche (ANR), qui finance en France la recherche sur projets. L’ANR a pour mission de soutenir et de promouvoir le développement de recherches fondamentales et finalisées dans toutes les disciplines, et de renforcer le dialogue entre science et société. Pour en savoir plus, consultez le site de l’ANR.
Clotilde Coron a reçu des financements de l'ANR (projet "ODILE") pour le projet dont l'ouvrage est issu.
23.04.2026 à 16:13
Ilana Eloit, Professeure en études de genre, Université de Genève
À quelques jours de la journée de la visibilité lesbienne, le 26 avril, retour sur l’œuvre de Monique Wittig (1935–2003). Icône lesbienne, cette écrivaine et intellectuelle est longtemps tombée dans l’oubli après avoir été écartée du mouvement féministe français. Depuis quelques années, sa pensée connaît un retour fulgurant dans le paysage féministe. Théoricienne du lesbianisme politique, elle analyse l’hétérosexualité comme un régime politique de domination soumettant les femmes aux hommes et auquel le lesbianisme permet d’échapper.
En 2014, au moment où j’entamais une thèse de doctorat consacrée à l’histoire politique du lesbianisme en France dans les années 1970, Monique Wittig était encore peu connue. Figure majeure du Mouvement de libération des femmes (MLF), elle était pourtant à l’origine d’une pensée lesbienne qui a profondément bouleversé l’histoire des idées féministes.
Près d’une décennie plus tard, sa présence s’est imposée avec une évidence fulgurante. Les références à son œuvre parsèment les manifestations féministes ; ses ouvrages s’affichent en tête de gondole dans les librairies ; colloques et journées d’étude se multiplient à l’université ; des créations scéniques font revivre sa pensée en lui conférant une actualité nouvelle – pour ne citer que quelques formes de ce « moment culturel » wittigien.
Comment expliquer l’oubli et l’effacement de sa critique, puis l’engouement qu’elle suscite quatre décennies plus tard ? Pourquoi résonne-t-elle tant aujourd’hui ? Retour sur l’histoire et l’actualité d’une pensée lesbienne.
C’est à 29 ans que Monique Wittig se fait connaître publiquement avec la publication de son premier roman, l’Opoponax, qui reçoit le prix Médicis en 1964. Dès cet ouvrage, elle entreprend d’éradiquer le genre – ou les catégories de sexe – dans la langue. La « marque du genre » est, selon elle, un stratagème par lequel « le sexe est forcé sur ses utilisateurs » et les femmes assignées à une catégorie subordonnée qui les prive d’accès à l’universel.
Elle poursuit cette entreprise politico-littéraire avec la publication, en 1969, de son poème épique les Guérillères, dans lequel elle emploie le pronom « elles » pour désigner une troupe de combattantes, conférant ainsi au féminin pluriel la force du générique, qu’elle dérobe au pronom « ils ». Quelques mois plus tard, à l’automne 1970, elle compte à Paris parmi les figures fondatrices du MLF et participe au collectif des Gouines rouges ainsi qu’au Front homosexuel d’action révolutionnaire.
À lire aussi : Françaises, Français : le langage inclusif n’est pas une nouveauté !
Elle contribue, aux côtés notamment de Christine Delphy ou de Colette Guillaumin, à l’émergence du féminisme matérialiste. Inspiré du marxisme, ce courant soutient que la division des individus en « hommes » et « femmes » n’est pas une donnée naturelle mais le produit – la « marque » – d’un rapport d’oppression, dont la naturalisation sert en retour à justifier la domination d’un groupe sur un autre.
Pour les féministes matérialistes, cette division des individus en « classes de sexe » repose sur un rapport d’exploitation domestique, c’est-à-dire sur l’appropriation, par la classe des hommes, du travail gratuit des femmes au sein du foyer.
À lire aussi : Stérilet, spéculum, pilule… Retour sur l’histoire mouvementée du Planning familial en cinq objets
Ainsi, puisque les catégories de sexe – à l’instar des classes sociales – sont le produit d’un rapport d’exploitation, l’objectif du féminisme doit être, pour ces théoriciennes, l’abolition de ce rapport, dont la conséquence immédiate sera l’élimination des catégories de sexe – un projet qui rejoint, dans le champ de la théorie féministe, celui de Wittig d’abolition du genre dans la langue.
C’est dans la continuité de cette réflexion que Wittig élabore une pensée politique spécifiquement lesbienne, depuis les États-Unis où elle s’installe en 1976 en réponse aux résistances des féministes françaises à sa volonté de politiser le lesbianisme. Dans ses deux textes majeurs, « La pensée straight » et « On ne naît pas femme » (1980), Wittig met en évidence un angle mort du féminisme matérialiste : l’hétérosexualité comme régime politique, ou système social contraignant, qui institutionnalise l’appropriation des femmes par les hommes.
Surtout, elle affirme que c’est à travers ce régime qu’est produite la différence des sexes, articulant ainsi patriarcat et hétérosexualité, classes de sexe (ou genre) et sexualité. C’est à cette lumière qu’il faut comprendre sa phrase la plus célèbre, selon laquelle « les lesbiennes ne sont pas des femmes » car « ce qui fait une femme, c’est une relation sociale particulière à un homme […] relation à laquelle les lesbiennes échappent en refusant de devenir ou de rester hétérosexuelles ».
Dès lors, les lesbiennes incarnent, pour Wittig, cet au-delà des catégories de sexe que le féminisme matérialiste appelle de ses vœux. Alors que le MLF reposait sur l’identification collective à la catégorie « femmes », le lesbianisme politique de Wittig repose sur la désidentification aux catégories de sexe, comme pierre angulaire de la naturalisation de l’hétérosexualité.
À Paris, les féministes disqualifient cette pensée en l’accusant d’être « séparatiste », « dogmatique », « sectaire », voire « terroriste » et « totalitaire », en ce qu’elle politise l’hétérosexualité – et non plus seulement le patriarcat – comme norme oppressive, et substitue au sujet « femmes » le sujet « lesbiennes » comme figure de résistance : une violence dont Wittig ne se remettra jamais et qui contribue à effacer durablement le lesbianisme politique du paysage intellectuel féministe français.
La vague de disqualification de sa pensée en France ainsi que son départ outre-Atlantique expliquent que son recueil d’essais théoriques, The Straight Mind, ait d’abord été publié aux États-Unis en 1992, avant de faire l’objet d’une première traduction française en 2001 (sous le titre la Pensée straight).
Mais c’est surtout depuis le début des années 2020 que sa pensée retrouve une place de premier plan. Outre la republication de l’ensemble de son œuvre et la publication d’écrits inédits, l’espace public irradie désormais de la présence spectrale de Wittig – un jardin Monique-Wittig a notamment été inauguré à Paris en 2021.
En 2023, l’Humanité consacrait sa une à Wittig avec le titre : « Monique Wittig, retour en grâce », à la suite d’autres portraits publiés dans le Monde ou Libération à l’occasion du vingtième anniversaire de sa disparition. La même année, j’organisais avec des collègues un double colloque international à l’Université de Genève et à l’Université de Berkeley sur l’actualité de son œuvre. Artistes, intellectuelles et intellectuels trouvent également, en Wittig, une source d’inspiration majeure, faisant résonner sur scène une œuvre tonitruante.
Cette redécouverte tardive mais foudroyante tient sans aucun doute au contexte politique actuel : celui d’une quatrième vague du féminisme, dans le sillage de #MeToo. Celle-ci a placé au cœur de la réflexion la dimension structurelle des violences sexistes et sexuelles et a, par ricochet, redonné un souffle nouveau au lesbianisme politique, lequel interroge la fonction politique et sociale de la contrainte à l’hétérosexualité en régime patriarcal, ainsi que les bénéfices d’une sortie du régime hétérosexuel d’un point de vue féministe.
D’autres raisons peuvent être invoquées : la contestation de la domination blanche au sein du féminisme, fortement bousculée par l’afroféminisme, participe de l’épuisement du paradigme universaliste et favorise la visibilité des minorités.
À cet égard, la non-mixité du lesbianisme politique et celle de l’afroféminisme se font éminemment écho, comme l’hostilité qu’elles provoquent en retour. Nulle coïncidence si les lesbiennes d’hier et les afroféministes d’aujourd’hui sont confrontées aux mêmes accusations de « séparatisme », mobilisées pour mieux disqualifier des regroupements qui interrogent des régimes d’oppression naturalisés, y compris au sein du féminisme : la race et l’hétérosexualité.
Enfin, il est clair que la proposition visionnaire d’un féminisme ne reposant pas sur la catégorie « femmes » et visant la destruction de l’épistémologie binaire de la différence des sexes trouve aujourd’hui son public parmi des individus qui refusent de se dire « hommes » ou « femmes » – catégories qui, comme l’écrivait Wittig, « contribu[ent] au maintien de l’hétérosexualité » – et préfèrent se dire non-binaires, queers, ou trans.
Ilana Eloit ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
23.04.2026 à 16:12
Marwân-al-Qays Bousmah, Chargé de Recherche, Ined (Institut national d'études démographiques)
Bruno Ventelou, Chercheur CNRS-AMSE, économie, santé publique,, Aix-Marseille Université (AMU)
Mohammad Abu-Zaineh, Professeur, Aix-Marseille Université (AMU)
Simon Combes, Lecturer in Economics, UCL

Pour avoir des systèmes de santé performants, par exemple en termes de gains d’espérance de vie, faut-il privilégier la maîtrise des dépenses de santé ou la lutte contre les inégalités de santé ? Une étude qui s’est appuyée sur l’observation des systèmes de santé de 36 pays de l’OCDE, dont la France, au cours des deux dernières décennies apporte des éléments de réponse… à rebours des choix politiques habituellement privilégiés.
La question des conflits possibles entre efficience et équité est une question très ancienne, mais l’évolution récente des systèmes de santé en donne une illustration renouvelée.
En matière de santé, la recherche de l’efficience pourrait notamment conduire à négliger des segments importants de la population, les plus démunis, en matière d’accès aux soins et de traitement équitable de leurs problèmes de santé.
Les systèmes de santé doivent-ils favoriser l’efficacité ou l’équité ? Bien que la tension entre ces deux objectifs apparaisse évidente et qu’elle occupe les débats de façon continue, elle a été relativement peu étudiée empiriquement, notamment dans le domaine des politiques de santé. Notre étude récente vise à combler cette lacune.
À partir de séries temporelles couvrant la période 2004-2021 et portant sur 36 pays de l’Organisation de coopération et de développement économiques (OCDE), nous avons examiné, sans a priori, toutes les interrelations statistiques possibles entre efficience et équité dans les systèmes de santé.
L’efficience est mesurée par l’amélioration d’un ratio dépenses/résultats en matière de gain d’espérance de vie. Pour évaluer l’équité, nous utilisons une mesure simple et très courante, fondée sur l’évaluation de l’état de santé par les personnes elles-mêmes. En établissant un rapport entre la proportion de répondants en bonne santé dans les catégories les plus aisées et les moins aisées, nous obtenons un indicateur des inégalités sociales de santé.
Que nous apprend l’observation sans a priori des systèmes de santé des pays les plus riches du monde sur une période de vingt ans ? Les pays ayant réalisé les plus gros efforts d’efficience – c’est-à-dire ceux qui ont le plus fortement réduit leurs dépenses pour un résultat donné – sont-ils ceux qui ont vu les inégalités de santé progresser le plus, ou le moins ? Et, inversement, l’évolution des inégalités de santé s’est-elle vue statistiquement associée à des variations de l’efficience, et dans quel sens ?
Les responsables politiques comme les commentateurs médiatiques recourent volontiers à la métaphore du gâteau : avant de le partager, il faudrait d’abord le faire croître. Cette image traduit une idée aujourd’hui largement répandue : la priorité doit être donnée à l’efficience. L’équité – entendue ici comme la santé pour tous, indépendamment des revenus – viendrait dans un second temps, une fois qu’un niveau d’efficience économique jugé suffisant aura été atteint.
C’est aussi la fameuse théorie du « ruissellement » (trickle down, en anglais) qui sous-tend le primat donné à l’efficience, selon laquelle, si les riches deviennent plus riches, alors les pauvres deviendront moins pauvres.
Or, cette perspective n’a pas toujours été dominante. Comme l’enseigne la lecture de Thinking like an Economist (Penser comme un économiste, en français) d’Elizabeth Popp Berman (2022), la recherche de politiques plus efficientes a émergé aux États-Unis dans les années 1960 ; les présidents Kennedy et Johnson ont lancé le mouvement, faisant de l’efficience le moteur de la « réorientation des services sociaux vers la fourniture de services aux pauvres, plutôt que vers leur autonomisation ».
Avant Kennedy et Johnson, l’efficience n’était qu’un objectif parmi d’autres, comme la stabilité économique ou l’équité entre les citoyens. Selon Berman, le choix de privilégier l’efficience, à partir des mandats de ces présidents états-uniens, a été un choix éminemment politique, même si ce choix était souvent masqué par l’utilisation d’outils sophistiqués, excessivement techniques.
Dans notre étude, l’analyse descriptive des données permet tout d’abord de détecter les tendances. Dans la plupart des pays, l’indicateur d’efficience a presque partout progressé au cours des vingt dernières années. On peut dire que l’effort d’efficience a été important, bien que diversement distribué entre les 36 pays. En France, on peut par exemple se référer aux réductions considérables, au cours des deux dernières décennies, des durées de séjour à l’hôpital. Les inégalités de santé ont, de leur côté, légèrement reculé sur la période.
Mais l’enseignement le plus éclairant vient de l’analyse conjointe de ces deux évolutions à l’échelle nationale. Les résultats statistiques mettent en évidence une relation bidirectionnelle entre efficience et équité dans les systèmes de santé. Autrement dit, chacune influence l’autre. Et le sens de ces relations s’avère particulièrement instructif.
Premièrement, les gains d’efficience – autrement dit une meilleure maîtrise des coûts pour atteindre un certain niveau d’espérance de vie – s’accompagnent d’un creusement des inégalités de santé. Cet effet n’est toutefois observé que dans les pays où l’offre de soins est majoritairement opérée par le secteur privé. Deuxièmement, la réduction des inégalités de santé produit l’effet inverse. Lorsqu’elle a lieu, elle améliore de façon systématique l’efficience du système, que les soins soient fournis par des acteurs publics ou privés.
Ces résultats suggèrent donc que, contrairement à ce qui est régulièrement avancé, c’est l’équité qui est un préalable à une meilleure performance globale des systèmes, et non l’inverse.
Mettre l’accent sur l’efficience dans les systèmes de santé de l’OCDE aurait donc un coût social important : l’accroissement des inégalités de santé.
Aux États-Unis, certains économistes de la santé s’interrogent sur les choix opérés sous l’administration Trump. Cherche-t-elle réellement à améliorer l’efficience, dans le cadre d’un arbitrage assumé avec l’équité ? Ou bien ignore-t-elle les effets des licenciements massifs sur le système de santé et sur les inégalités qui en découlent ?
À lire aussi : Santé publique : les incertitudes sur les financements sont préjudiciables, comme le montre l’exemple des États-Unis
La réponse est claire : c’est de l’ignorance, et il s’agit même probablement d’une « ignorance délibérée » ! Sachant le rôle même que joue la protection sociale, lorsque les décideurs mettent en œuvre des réformes drastiques visant à améliorer l’efficience d’un système, sauf dispositifs particuliers de protection des publics fragiles, on peut dire qu’ils choisissent de négliger délibérément les conséquences de leurs actions pour les personnes les plus défavorisées, qui sont les premières bénéficiaires de la protection offerte par le système de santé.
Plusieurs mécanismes pourraient être en jeu. En France (classée 13ᵉ sur 36 en termes d’efficience en 2021, selon nos résultats), les inégalités persistantes en matière de santé pourraient en partie découler des inégalités territoriales d’accès aux soins, exacerbées par une raréfaction délibérée de médecins qualifiés (du fait du numerus clausus mis en place dans les années 1990 pour accéder à la deuxième année d’études de médecine), afin de maîtriser les dépenses de santé. Ce problème d’inégalité sociospatiale dans le maillage des soins primaires suggère un mécanisme concret par lequel la tentative de maîtriser les coûts – de manière bien maladroite, en réduisant le nombre de médecins formés – peut aggraver les inégalités de santé.
D’autres pays présentent des dynamiques comparables. Au Chili, par exemple, si la couverture sanitaire universelle a amélioré l’accès aux soins pour tous, la fragmentation persistante du système de santé maintient des différences importantes selon le niveau de revenu. Concrètement, tous les patients n’ont pas accès aux mêmes ressources. Un patient diabétique suivi dans le secteur privé peut, par exemple, obtenir davantage de bandelettes réactives – indispensables pour contrôler quotidiennement sa glycémie – qu’un patient pris en charge dans le système public.
Un autre mécanisme par lequel la maîtrise des dépenses influe sur l’inégalité d’accès aux soins est la mise en place de participations financières des usagers. Initialement perçue comme un moyen de lutter contre les dépenses inutiles (le modèle du « client-payeur » étant censé rationaliser les choix de recours aux soins), cette mesure a exacerbé les inégalités en matière de santé et d’accès aux soins.
Une telle politique de participation financière des usagers accroît nécessairement le risque de traitement inégal, car la capacité à payer ces participations financières est inégalement répartie selon le niveau socioéconomique. Bien que notre étude ne se concentre pas spécifiquement sur la participation financière des usagers, elle vient s’ajouter aux preuves croissantes qui s’opposent à cette pratique dans le système de santé.
Nos résultats empiriques invitent à repenser les priorités en matière de politique de santé. Dans la plupart des pays de l’OCDE, où les niveaux d’efficience sont déjà élevés, les marges de progrès les plus importantes se situent désormais du côté de l’équité.
Concrètement, cela suppose :
de renforcer la couverture sanitaire universelle, sur le modèle d’une assurance maladie publique simplement accessible sur critère de résidence, comme c’est le cas en France ;
de réduire le fardeau du financement privé direct (notamment les montants qui restent à la charge des usagers de soins) dans les pays où il demeure élevé ;
de mettre en place des politiques actives de lutte contre les inégalités sociales de santé.
Ces orientations ne relèvent pas seulement d’un impératif éthique. Elles constituent aussi une stratégie pragmatique pour améliorer la performance globale des systèmes de santé. De ce point de vue, nos résultats véhiculent un message clair : réduire les inégalités de santé joue comme un levier de l’efficacité, que les systèmes de santé soient à dominante publique ou privée.
Ainsi, loin d’être antagonistes, l’équité et l’efficience peuvent se renforcer mutuellement, à condition de placer l’équité au cœur des politiques de santé.
Mohammad Abu-Zaineh est membre de AHEAD Network (Allied Health, Environment and Development Research Network.
Bruno Ventelou, Marwân-al-Qays Bousmah et Simon Combes ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur poste universitaire.
23.04.2026 à 16:11
Caroline Gans Combe, Associate professor Data, econometrics, ethics, OMNES Education

À mesure que des systèmes d’intelligence artificielle prennent en charge des décisions autrefois humaines, la question n’est plus seulement ce qu’ils peuvent faire, mais ce que nous cessons de faire nous-mêmes. À bas bruit, c’est notre capacité de jugement qui se transforme, avec des effets potentiels sur la démocratie.
En 1963, observant Adolf Eichmann lors de son procès à Jérusalem, Hannah Arendt formule l’une des intuitions les plus dérangeantes du XXe siècle : cet homme n’était pas un monstre. Il avait simplement cessé de penser. En déléguant son jugement moral à l’appareil bureaucratique, il était devenu capable de participer à un mal radical sans jamais le reconnaître comme tel. Arendt nomme ce phénomène la « banalité du mal » : la catastrophe morale n’exige pas une intention mauvaise – elle exige seulement l’érosion systématique de la capacité à penser par soi-même. Elle identifie une séquence précise : avant l’effondrement politique vient l’effondrement cognitif. Les régimes totalitaires conquièrent d’abord les esprits, en rendant la pensée indépendante structurellement superflue. Soixante ans plus tard, nous construisons quelque chose dont l’architecture philosophique lui aurait été immédiatement familière.
L’intelligence artificielle agentique désigne des systèmes capables de percevoir, planifier, décider et agir de manière autonome. Selon le cabinet de conseil Gartner, d’ici 2028, 33 % des logiciels d’entreprise intégreront des agents IA et 15 % des décisions quotidiennes de travail seront prises de façon autonome. Un autre cabinet de conseil, McKinsey souligne que ces architectures introduisent des risques que les cadres de gouvernance existants n’ont jamais été conçus pour gérer, précisément parce qu’elles adaptent leur comportement au contexte plutôt que d’obéir à une logique prédéterminée.
Ce n’est pas de l’automatisation classique : l’IA agentique reconfigure le jugement lui-même. Mais, il s’agit moins d’une disparition du jugement humain que d’un déplacement continu de son objet – sans que l’humain ne puisse toujours en percevoir l’existence. La question n’est donc pas celle de la délégation en soi, mais bien celle de la qualité et de l’irréversibilité de la reconfiguration en cours.
Les exemples les plus révélateurs sont politiques, et ils sont déjà parmi nous. En effet, l’approche d’Arendt distingue l’action (la capacité à initier quelque chose de véritablement nouveau par l’engagement avec d’autres dans la sphère publique) du simple comportement, prévisible et manipulable. La démocratie n’est pas un mécanisme de traitement des préférences : c’est un espace d’apparition où des individus distincts, capables de pensée indépendante, se réunissent pour créer du sens collectivement. Chaque décision absorbée dans un processus agentique automatisé, chaque moment de délibération remplacé par un résultat algorithmique, représente alors une érosion cumulative de cet espace.
En 2016, des algorithmes de ciblage comportemental – déployés lors des campagnes du Brexit et de l’élection Trump – ont sélectionné et amplifié des contenus émotionnels auprès d’électeurs ciblés. Ce n’était pas de la propagande classique : c’était la technique que décrivait Arendt – non pas persuader, mais submerger, créer une condition dans laquelle la distinction entre fait et fabrication s’effondre sous le volume des stimuli contradictoires. Des systèmes de notation algorithmique ont ensuite évalué la fiabilité citoyenne, prédit la récidive judiciaire (comme COMPAS aux États-Unis, dont les biais raciaux ont été documentés par le média indépendant ProPublica) ou orienté les attributions de logements sociaux aux Pays-Bas et au Royaume-Uni. Dans chacun de ces cas, une décision à forte charge éthique est absorbée dans un processus opaque, soustrait au débat public.
Au-delà de ces exemples spécifiques, ce qui se joue peut être considéré comme systémique : il ne s’agit plus d’orienter un contenu dans un espace de délibération préexistant, mais de transformer progressivement les conditions mêmes dans lesquelles le jugement s’exerce. Lorsque trois ou quatre grands modèles de langage médiatisent une part croissante des interactions informationnelles de milliards d’individus, le risque principal n’est pas qu’ils orientent des réponses – c’est qu’ils harmonisent silencieusement ce qui peut être formulé, reconnu comme question légitime, traité comme argument recevable. Interrogés sur des politiques de redistribution, les modèles dominants tendent à cadrer la réponse dans les termes de l’efficacité économique – non par censure, mais parce que leurs corpus surreprésentent massivement certaines traditions intellectuelles. D’autres registres (justice, dignité, solidarité intergénérationnelle) deviennent moins fluides, progressivement marginalisés sans que personne n’en ait décidé. Quand les mêmes modèles médiatisent des citoyens issus de traditions distinctes, une convergence cognitive s’installe, sans délibération démocratique. Or, c’est exactement ce que les régimes totalitaires visaient (et visent) en priorité, non les opinions, mais l’espace dans lequel des points de vue différents peuvent s’exprimer, se rencontrer et s’affronter.
Le danger le plus profond dépasse donc la substitution ponctuelle. En remplaçant de plus en plus systématiquement des décisions humaines, les systèmes IA transforment ce qu’une société reconnaît comme valeur au sens de ce qui mérite d’être considéré et/ou préservé – l’efficacité plutôt que l’équité, l’engagement plutôt que la vérité, la prédictibilité plutôt que la singularité. Ce processus – que je nomme déplacement axiologique – est silencieux, progressif, et opère aussi bien à travers les institutions qu’à travers les pratiques quotidiennes et les dynamiques de marché, y compris là où aucune institution ne l’orchestre. Lorsque des plates-formes algorithmiques déterminent quelles informations sont visibles et quels débats circulent, elles ne filtrent pas un espace public préexistant – elles le reconstituent selon leur propre logique d’optimisation. La pluralité que la démocratie présuppose est menacée par une convergence vers ce que le système détermine comme optimal.
Ce déplacement est peut-être préparé en amont. Des études longitudinales publiées dans JAMA Pediatrics ont observé des corrélations entre usage intensif des réseaux sociaux à l’adolescence et modifications des circuits neuronaux – moindre activation des régions associées au jugement raisonné, hypersensibilité aux rétroactions sociales. Ces résultats appellent à la prudence : ils ne permettent pas de porter des jugements globaux sur des générations entières. Ce qui paraît plus assuré, c’est ce que le philosophe de la culture Byung-Chul Han a mis en lumière : la saturation de l’attention par les flux numériques réduit les espaces de recul critique. L’IA agentique pourrait accentuer cette dynamique en lui donnant une forme institutionnelle. Reconfiguration de l’attention et délégation du jugement ne constituent peut-être pas deux problèmes séparés, mais deux dimensions d’une même transformation dont nous manquons encore du recul pour mesurer toutes les conséquences – et que la gouvernance de l’IA ne peut pas ignorer.
Arendt n’était pas technophobe. Son projet était constructif : préserver les conditions dans lesquelles la pluralité des points de vue, la spontanéité de l’action et la capacité de jugement singulier – notions au cœur de sa théorie politique – peuvent survivre. Cela exige des cadres de gouvernance intégrant des évaluations d’impact axiologique : analyses systématiques de la façon dont le déploiement agentique transforme non seulement l’efficacité opérationnelle, mais les fondements mêmes de la délibération démocratique. Cela exige de préserver des espaces où la décision est réellement construite par des acteurs capables de pensée indépendante – non comme consultations symboliques, mais comme éléments structurels du processus décisionnel. Cela exige enfin de repenser l’apprentissage du jugement dans un monde où l’IA est omniprésente.
La question « Une IA peut-elle faire cela ? » doit toujours être accompagnée d’une autre, arendtienne dans son exigence : Que nous arrive-t-il, politiquement, quand nous cessons de le faire nous-mêmes ? La vraie réponse n’est pas dans le refus de la délégation, mais dans la définition rigoureuse de ses frontières – quelles décisions ne sont pas délégables, ou sous quelle modalité la délégation peut rester compatible avec la vitalité démocratique.
Hannah Arendt a passé sa vie à comprendre comment des sociétés civilisées pouvaient produire les conditions de leur propre effondrement moral. Sa réponse était d’une simplicité dérangeante : non par un échec dramatique, mais par l’abdication silencieuse, cumulative, banale de la responsabilité de penser. Nous vivons peut-être les prémices d’un nouvel effondrement, mais nous pouvons nous en prémunir avant que les systèmes auxquels nous déléguons notre jugement ne finissent par façonner, à notre place, ce que nous sommes.
Caroline Gans Combe a reçu des financements de l'Union européenne dans le cadre des projets Deform et ProRes.