LePartisan.info À propos Podcasts Fil web Écologie Blogs REVUES Médias
Souscrire à ce flux
L’expertise universitaire, l’exigence journalistique

▸ Les 50 dernières parutions

03.05.2026 à 08:39

L’IA sait tout produire… mais pas encore juger : pourquoi nous devenons des opérateurs de l’abondance

Bruno Deffains, Professeur de Sciences Économique, Membre honoraire de l'Institut Universitaire de France, Université Paris-Panthéon-Assas

Le développement des IA ne va pas supprimer tous les postes de cols blancs, mais il va les changer. Les compétences à posséder vont évoluer. Comment s’adapter ?
Texte intégral (1967 mots)

Et si on ne posait pas la bonne question quand on s’inquiète de l’impact des intelligences artificielles sur l’emploi ? Au-delà des emplois potentiellement détruits ou créés, que restera-t-il, et que doit-il rester, à l’humain ? Loin de remplacer tous les cols blancs, les IA vont modifier le rôle dévolu à chacun, ce qui devrait mobiliser l’enseignement pour apprendre aux plus jeunes à devenir des opérateurs d’abondance.


Le 10 mars 2026, le PDG de Nvidia Jensen Huang publiait un essai déclarant que l’IA crée plus d’emplois qu’elle n’en détruit. Quelques jours plus tôt, les économistes d’Anthropic publiaient des données empiriques racontant une histoire bien plus nuancée. Entre ces deux lectures, une question demeure entière : dans un monde où la machine produit instantanément, abondamment, et souvent convenablement, qu’est-ce que l’humain doit impérativement conserver comme capacité propre ?

Il y a quelque chose de troublant dans le débat actuel sur l’intelligence artificielle et le travail. Ce n’est pas qu’il soit faux, c’est qu’il pose systématiquement la mauvaise question. On se demande si l’IA va détruire des emplois, si les cols blancs sont les nouvelles victimes du progrès technique, s’ils vont connaître à leur tour « une sorte de désindustrialisation ». Ce débat est légitime.

Mais il écarte une interrogation autrement plus profonde qui consiste à s’interroger sur ce que doit conserver l’humain comme capacité propre dans un monde où la machine produit instantanément, abondamment, et souvent convenablement ? Pour répondre à cette question, le concept d’opérateur de l’abondance apporte un éclairage à maints égards pertinent.


À lire aussi : L'IA générative ne détruira pas votre emploi mais elle va changer profondément votre métier


L’abondance n’est pas la valeur

Jensen Huang utilise une formule a priori séduisante selon laquelle l’IA génère des réponses en temps réel, contextualisées et d’une plausibilité souvent confondante. En quelques secondes, elle produit un projet de conclusions judiciaires, une synthèse bibliographique, une analyse de risques, un plan de cours. C’est techniquement exact. Mais cette exactitude masque une ambiguïté fondamentale : produire ne signifie pas valoir.

La vraie question n’est pas « Est-ce que ce contenu est bon ? », mais pour qui est-il bon ? Dans quel contexte ? Avec quelles conséquences si l’on se trompe ? Et à cette question, le modèle ne répond pas, parce qu’elle exige une forme de connaissance que le philosophe Michael Polanyi qualifiait de tacite dans ses travaux sur les fondements du savoir scientifique « We can know more than we can tell », y écrit-il), un savoir qui vit dans la mémoire des situations, dans l’expérience accumulée des erreurs, dans la lecture des rapports de force d’une organisation, dans la sensibilité aux attentes implicites d’une juridiction ou d’un comité. Ce savoir-là ne se met pas dans un prompt, parce qu’il n’est pas de l’ordre de ce qui peut être intégralement formulé, et qu’il résiste, par nature, à toute tentative de formalisation complète.

Miroir amplificateur

C’est ici que les données empiriques publiées en janvier 2026 par les économistes d’Anthropic fournissent un éclairage décisif. Parmi les millions d’interactions analysées avec Claude, 52 % relèvent de modes augmentatifs. Autrement dit, l’humain itère, ajuste, réoriente. Il ne délègue pas, il collabore. Et surtout, les auteurs constatent une corrélation quasi parfaite entre la sophistication de la question posée et la qualité de la réponse obtenue.

Le modèle est un miroir amplificateur, il ne produit de valeur cognitive que dans la mesure où celui qui l’interroge est capable de formuler ce qu’il cherche. L’abondance que génère l’IA n’est donc pas une ressource libre d’accès. Elle est conditionnée par la compétence de celui qui la sollicite. Ce n’est pas une loi technique, c’est une loi cognitive.

L’opérateur de l’abondance

Il conviendrait d’appeler « opérateur de l’abondance » la figure professionnelle que l’économie de l’IA requiert, et que nos systèmes de formation ne produisent pas encore. Ce n’est ni le programmeur de modèles ni l’utilisateur passif. C’est quelqu’un qui sait formuler un problème en termes exploitables par un modèle, évaluer la pertinence et la fiabilité d’un output, injecter le contexte que la machine ne peut pas avoir et assumer la responsabilité d’une décision fondée en partie sur des suggestions qu’il n’a pas lui-même générées.

Cette compétence n’est pas technique au sens étroit. Elle est profondément intellectuelle. Elle suppose d’avoir été formée à la pensée critique, à l’argumentation, à l’identification des biais. Elle suppose d’avoir fait l’expérience de se tromper et d’avoir appris à détecter pourquoi. En un mot, elle suppose d’avoir été exposé à la difficulté des tâches que l’on délègue désormais, avant de les déléguer.

Le risque silencieux de la délégation aveugle

C’est là que le rapport publié le 5 mars 2026 par les économistes d’Anthropic Maxim Massenkoff et Peter McCrory introduit une distinction cruciale, à savoir la différence entre l’exposition théorique à l’IA, ce que le modèle pourrait techniquement faire dans un métier, et l’exposition observée, ce qu’il fait effectivement. La première dépasse 90 % dans les professions juridiques, financières et managériales. La seconde est bien inférieure, pour des raisons légales, organisationnelles, institutionnelles. Mais l’écart se réduit.

Et le signe avant-coureur le plus inquiétant n’est pas le chômage. C’est le ralentissement du recrutement des jeunes diplômés (22-25 ans) dans les professions les plus exposées. Les entreprises n’embauchent plus autant de juniors pour des tâches que l’IA fait désormais plus vite et moins cher. Ce n’est pas que l’IA supprime des postes, elle contracte plutôt les flux d’entrée dans les professions qualifiées, privant une génération de ce que l’économiste Kenneth Arrow appelait le learning by doing, ce processus lent et irremplaçable par lequel on devient capable de superviser ce qu’on n’a pas encore tout à fait compris.

La déqualification cognitive, c’est précisément cela. Non pas perdre son emploi, mais perdre progressivement la capacité de superviser ce qu’on délègue. On délègue la rédaction sans avoir appris à rédiger. On valide des outputs sans avoir développé la compétence critique qui permettrait de détecter ce que l’IA fait mal, ses angles morts, sa tendance à produire du plausible, là où il faudrait du vrai. Cette « délégation aveugle » n’est pas une fatalité technologique. Elle est le produit d’une augmentation passive, une délégation sans réinvestissement dans des compétences de niveau supérieur.

Quand la boucle se ferme sans nous

Ce raisonnement prend encore plus de force avec l’IA agentique, cette nouvelle génération de systèmes qui n’attendent pas une validation humaine à chaque étape, mais agissent. Ils naviguent, rédigent, exécutent du code, orchestrent d’autres agents, prennent des décisions intermédiaires dans des chaînes d’action qui s’étalent sur des heures sans intervention humaine. Jensen Huang l’a annoncé au GTC 2026 en déclarant que dans dix ans, chaque employé humain travaillera aux côtés de cent agents IA. Le chiffre est peut-être exagéré mais la direction ne l’est pas.

Avec l’IA générative, la boucle revenait toujours à l’humain. Il évaluait un output et décidait. Avec l’IA agentique, cette boucle peut se fermer en interne. L’opérateur de l’abondance doit alors devenir ce qu’on pourrait appeler un « architecte d’objectifs » ; non plus « est-ce que ce texte est bon ? » mais « cet agent a-t-il bien compris ce que je voulais, et ses cinquante actions intermédiaires étaient-elles toutes légitimes ? »

France 24, 2026.

Or, les données Anthropic montrent que le taux de succès des modèles décroît significativement à mesure que la complexité de la tâche augmente, précisément là où les agents déploient le plus d’autonomie. La surveillance humaine est donc la plus nécessaire là où elle est la plus difficile à exercer. Et elle est impossible pour qui n’a jamais eu à faire ce qu’il supervise.

Urgence d’une politique de formation

La thèse de Jensen Huang n’est pas fausse, elle est incomplète. Oui, le déploiement de l’IA génère de l’emploi dans les secteurs de l’infrastructure physique. Mais, comme les réseaux électriques du début du XXe siècle, une infrastructure ne s’irrigue pas équitablement par la seule vertu du marché. Et surtout, elle ne dit rien des effets sur les trajectoires d’apprentissage des professions intellectuelles.

Ce que les données suggèrent avec force, c’est l’urgence d’une politique de formation aux compétences d’exploitation de l’IA, non pas apprendre à coder des modèles, mais apprendre à penser avec eux, à les interroger, à en critiquer les outputs, à maintenir vivante la compétence que l’on délègue. Former des opérateurs de l’abondance. Cette tâche revient en premier lieu aux institutions d’enseignement supérieur, et elle est urgente, parce que la contraction des flux d’entrée des jeunes dans les métiers exposés laisse peu de temps avant que l’apprentissage ne soit structurellement impossible.

Car ce que l’IA ne peut pas faire à notre place, c’est précisément décider que tel output vaut quelque chose, dans ce contexte, pour cette personne, avec ces enjeux. Ce jugement n’est pas une technique. C’est une forme de responsabilité et elle reste irréductiblement humaine.

The Conversation

Bruno Deffains ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

03.05.2026 à 08:39

Étudiants étrangers : des outils d’intelligence artificielle pour réduire la barrière de la langue ?

Vincent Berry, Professeur, Université de Montpellier

Chouki Tibermacine, Professeur des universités en sciences du logiciel, Université Bretagne Sud (UBS)

Chrysta Pelissier, Maîtresse de conférences en sciences du langage et sciences de l'Education, Université de Montpellier

Éric Anglaret, Professeur en physique des matériaux, directeur délégué aux relations internationales Polytech Montpellier, Université de Montpellier

Vanessa Vigano, Ingenieure pedagogique, Université de Montpellier

À l’université, la traduction automatique face au défi de la maîtrise de la langue française pour les étudiants étrangers.
Texte intégral (2016 mots)
La barrière linguistique complique l’assimilation des connaissances techniques des étudiants étrangers. Redmind Studio/Unsplash, CC BY

Dans l’enseignement supérieur, le parcours des étudiants étrangers reste marqué par un défi central : comprendre, suivre et participer dans une langue qu’ils ne maîtrisent pas pleinement. Les avancées récentes de l’intelligence artificielle en traduction et en interprétation ouvrent des perspectives, tout en soulevant des enjeux sensibles de protection des données. Une piste se dessine alors : développer des outils alternatifs, directement hébergés par les établissements eux-mêmes. Des chercheurs de l’Université de Montpellier ont développé un tel prototype.


L’enseignement supérieur français a attiré près de 450 000 étudiants étrangers en 2024-2025, plaçant la France au 7e rang mondial. Ils représentent près de 15 % des effectifs étudiants dans les universités françaises.

La mobilité étudiante est en constante augmentation. En Europe, il y a eu plus de mobilités organisées en dix ans qu’au cours des vingt-sept années précédentes, la demande en 2025 étant en hausse de 9 % par rapport à 2024. Cette accélération est corrélée à l’augmentation des accords bilatéraux entre pays et un élargissement d’Erasmus+, le programme support européen aux mobilités internationales.

Au niveau mondial, les pays les plus attractifs sont sans surprise les pays anglophones, notamment les États-Unis, le Royaume-Uni et l’Australie, l’anglais étant de mise dans les échanges internationaux. Mais pour ceux qui choisissent la France et le français, dans quelle aventure s’engagent-ils ?

Les difficultés rencontrées par les étudiants étrangers

Pour ces étudiants, la barrière linguistique complique l’assimilation des connaissances techniques, freine la participation active en classe et l’immersion dans la vie étudiante, et cela malgré les enseignements de français langue étrangère (FLE). La complexité de la langue française augmente ce défi, même pour les étudiants étrangers francophones peu exposés au français académique.

L’Union européenne est consciente de ce frein à la mobilité et encourage ses États à fournir un soutien universitaire et extra-universitaire.

Nous avons mené en 2024 et 2025 une enquête auprès d’une partie des 9 000 étudiants étrangers qu’accueille chaque année l’Université de Montpellier. Elle révèle des besoins d’aide clairs :

  • pendant les cours et les conférences, pour comprendre les enseignants à l’oral et avoir la transcription du contenu afin de mieux appréhender leur formation ;

  • après les cours, dans une visée de mémorisation, de révision et de vérification du contenu des cours.

Les récents progrès de l’intelligence artificielle (IA) permettent de répondre à une partie de ces besoins.

Une analyse comparative des solutions de traduction simultanée basées sur l’IA a été menée selon trois critères principaux : la capacité de reconnaissance automatique de la langue parlée (permettant une adaptation dynamique lorsque l’intervenant change de langue ou lorsqu’une question est posée dans une autre langue), la facilité d’usage (minimisant les contraintes d’installation et de configuration pour les étudiants et les enseignants), et la qualité de la traduction produite. Cette analyse fait émerger deux types de solutions : des outils commerciaux accessibles par le cloud et des outils open source pouvant être installés en local sur serveurs propres.

Les outils commerciaux : efficaces, mais chers et risqués en termes de propriété intellectuelle

Du côté des outils commerciaux, notre veille technologique indique que l’outil le plus adapté aux besoins identifiés est eventCat. Un tel outil fournit un service clés en main, engendrant peu de contraintes informatiques et audiovisuelles pour être déployé. Cet outil a été testé en 2024 puis 2025 lors d’une conférence médicale partagée entre deux universités. Les intervenants avaient des profils linguistiques variés : chercheurs disposant d’un haut niveau d’anglais, médecins habitués à s’exprimer en français et représentants de patients possédant une connaissance limitée de l’anglais. Le public était constitué d’étudiants français et néerlandais, ces derniers maîtrisant bien l’anglais mais ne comprenant pas le français.

L’outil a permis aux intervenants de s’exprimer dans leur langue de prédilection, tandis que les étudiants anglophones suivaient via une traduction simultanée sur un lien dédié. Les retours des intervenants ont été très positifs. Afficher les traductions sur un grand écran installé à côté des intervenants plutôt que sur les smartphones ou ordinateurs portables des étudiants a permis de réduire leur charge cognitive, ceux-ci devant déjà simultanément suivre le discours oral et lire la transcription. La qualité de la traduction s’est avérée globalement satisfaisante, les acronymes du domaine et les accents des intervenants posant toutefois des soucis. Ceci souligne la nécessité d’une adaptation contextuelle plus fine pour des contenus hautement spécialisés.

Les inconvénients d’une telle solution sont un coût annuel de plusieurs dizaines de milliers d’euros par formation et une incertitude concernant les données. Par exemple, à la date de rédaction de cet article, la politique RGPD de l’outil identifié est de ne pas stocker plus de sept jours les flux audios reçus et leurs transcriptions et de ne pas utiliser ces données pour entraîner ses modèles IA, ce qui exposerait ces données aux attaques par prompts malicieux.

Cependant, la société opérant ce service est localisée aux États-Unis, elle est donc soumise au Cloud Act, l’obligeant à communiquer les données qu’elle stocke en cas d’injonction d’une autorité administrative de son pays. Les préoccupations sur la protection des données sont revenues à plusieurs reprises dans nos échanges avec les enseignants et également avec les étudiants, lors de notre enquête. Rappelons que les enseignants et les enseignants-chercheurs de l’enseignement supérieur sont titulaires des droits d’auteur sur les cours qu’ils proposent, c’est donc leur propriété intellectuelle qui peut être exposée par un outil de transcription et traduction automatique.

Un prototype d’outil en open source pour protéger les données

Il est donc préférable que les équipes pédagogiques disposent de solutions alternatives hébergées au sein de leur établissement. Le logiciel open source est dans ce cadre la voie naturelle, malheureusement en 2025, aucune solution de ce type n’existait encore pour répondre aux besoins exprimés par les étudiants étrangers dans nos analyses.

Nous avons donc élaboré les bases d’un tel outil et proposé un premier prototype. Celui-ci effectue déjà en local la traduction d’un contenu textuel, par un modèle d’IA libre pouvant s’exécuter sur un serveur classique. En revanche, la transcription des flux audio repose encore sur des services IA proposés par plusieurs acteurs du cloud (les modèles les plus efficaces pour cette étape sont soit plus lourds soit tout simplement propriétaires), bien que n’étant pas liés à un fournisseur particulier. Ce prototype bénéficie de la technologie RAG (génération augmentée par récupération) pour s’adapter à un vocabulaire technique et a pu être utilisé dans des cours de 20 à 30 étudiants. Les étudiants indiquent un fort intérêt pour ce type d’outils qu’ils utilisent aussi pour des discussions de socialisation.

Toutefois, ils notent tous des difficultés dans des cours techniques en français faisant appel à de nombreux anglicismes. Ces défauts restent à corriger mais la prochaine étape majeure consiste à effectuer la transcription de l’audio en texte de façon locale, sans recourir à un service cloud. En l’état actuel des modèles, ceci nécessite l’usage de processeurs spécifiques (GPU), représentant un effort d’équipement de l’ordre de plusieurs milliers d’euros par site. C’est le coût à payer pour la préservation des données.

L’apprentissage de la langue du pays d’accueil constitue un objectif central des mobilités internationales. Les outils numériques évoqués ci-dessus facilitent cet apprentissage et la réussite académique des étudiants étrangers, mais ne se substituent pas pour autant aux enseignements de FLE. Les outils IA favorisent l’acquisition de savoirs disciplinaires et, dans une certaine mesure, l’acculturation des étudiants étrangers. Mais ils ne sont pas suffisants pour une intégration réussie. Sur ce plan, ce que le pays d’origine met en place pour préparer la mobilité reste prépondérant.

The Conversation

Vincent Berry a reçu un financement de l'Université Montpellier (CNUMF).

Chouki Tibermacine est membre de l'ACM (Association of Computing Machinery). Il a reçu plusieurs financements publiques pour ses travaux de recherche : ANR, DGA, Région Bretagne.

Chrysta Pelissier, Vanessa Vigano et Éric Anglaret ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur poste universitaire.

PDF

03.05.2026 à 08:38

Pourquoi la première rencontre entre Washington et Téhéran a échoué : comprendre la psychologie des négociations

Marwan Sinaceur, Professor of Organizational Behavior, ESSEC

Dans des négociations aussi complexes que celles conduites entre Washington et Téhéran, certains mécanismes comportementaux jouent un rôle décisif.
Texte intégral (2078 mots)

Les recherches en sciences comportementales permettent de mettre en évidence les erreurs commises par l’administration Trump lors de la première session de négociations avec l’Iran, tenue à Islamabad les 11 et 12 avril.


Les négociations entre les États-Unis et l’Iran piétinent. La deuxième rencontre de négociation prévue entre les belligérants n’a finalement pas eu lieu. Le président Trump vient d’annuler l’envoi d’une délégation au Pakistan, tandis que l’Iran semble poser des pré-conditions préalables à toute reprise des discussions. Dans ce contexte incertain, il semble utile de revenir à la première rencontre entre Washington et Téhéran, tenue les 11 et 12 avril 2026 au Pakistan, et de comprendre pourquoi elle a échoué.

Pour expliquer l’échec de cette première session de négociations, le vice-président américain J. D Vance, qui y avait pris part en personne, a affirmé que les États-Unis avaient proposé à l’Iran « leur meilleure et dernière offre » concernant la question du nucléaire. Cette offre ayant été rejetée, il avait mis fin aux pourparlers d’Islamabad et, avec l’ensemble de la délégation américaine, brusquement quitté la capitale pakistanaise après à peine un jour de négociations.

Cette déclaration sur la « meilleure et dernière offre » illustre une méconnaissance profonde de la dynamique et de la psychologie des négociations. Elle en serait risible, si les enjeux n’en étaient pas aussi importants pour la paix dans le monde et l’économie mondiale.

Faire une offre tôt est contre-productif pour régler un conflit

Mettre une offre sur la table dès le début des négociations est tout à fait contre-productif pour régler un conflit. La recherche empirique sur les négociations montre en effet que le timing des offres est crucial : faire une offre trop tôt réduit l’échange d’informations entre les négociateurs et accentue la dimension compétitive de la négociation. Il en résulte souvent une guerre de positions : les négociateurs se crispent et ne cherchent plus qu’à défendre leur position plutôt qu’à comprendre les motivations de la partie adverse. Au contraire, faire une offre tard dans la négociation permet à chacun de comprendre les intérêts, les besoins et les craintes (parfois inexprimées ouvertement) des parties en présence. Lorsque l’offre est faite tardivement, les négociateurs ont plus le loisir d’échanger des informations et d’explorer des solutions créatives avant de rentrer dans le marchandage compétitif. Or l’efficacité en négociation repose de manière cruciale sur la capacité à rechercher des informations sur la partie adverse et de lui poser des questions, plutôt que de simplement énoncer des demandes.

Même lorsque les deux parties sont disposées à faire des compromis, l’exploration des intérêts sous-jacents, la discussion des questions épineuses, la révélation des informations sensibles et l’élaboration de solutions mutuellement acceptables prennent du temps. De fait, la recherche a montré que discuter de plusieurs offres simultanées est plus efficace que proposer une offre unilatérale.

Contrairement à ce qu’a prétendu Vance, la première offre est rarement la meilleure si l’on souhaite réellement parvenir à un accord et résoudre un conflit. Les négociateurs sont en effet souvent influencés par des biais cognitifs dans la manière dont ils perçoivent la partie adverse, ce qui les conduit à commettre de nombreuses erreurs lorsqu’ils interprètent les informations dont ils disposent à son sujet ou tentent de comprendre ses intérêts et ses préférences. C’est d’autant plus le cas lorsque le conflit ne met pas seulement en jeu des intérêts pragmatiques, mais aussi des valeurs sacralisées. Dans ce cas, offrir des concessions symboliques (la reconnaissance symbolique de certaines prétentions de l’autre partie) est efficace pour amener l’autre à concéder quelque chose en retour. Dans ce cas précis, la présidence Trump semble par exemple nettement sous-estimer l’enjeu de fierté nationale et de reconnaissance symbolique que revêt pour l’Iran la question de l’enrichissement de l’uranium.

Tout est question de « timing »

En outre, mettre une offre sur la table au début de la négociation signifie faire une offre à un moment où l’autre partie n’est pas encore prête à faire des concessions. En effet, les gens sont plus enclins à faire des concessions à la fin qu’au début des négociations. Pour deux raisons.

Au départ, la confiance est absente. Elle met du temps à se construire et, dans les premières phrases, chaque partie tend à interpréter les comportements de l’autre avec méfiance. Ainsi, il n’est pas rare que les gens rejettent une offre qui vient de l’autre partie… simplement parce qu’elle provient de la partie adverse : ils l’évaluent alors en fonction de son origine plutôt que de ses mérites intrinsèques. Ce phénomène, caractéristique des négociations et nommé la « réaction de dévaluation » : nous jugeons que l’offre de l’autre partie doit être déterminée par ses intérêts, et nous percevons nos intérêts comme étant forcément antagonistes (perception de jeu à somme nulle).

D’autre part, le coût psychologique d’une sortie de la négociation évolue avec le temps. Au début, se retirer et aboutir à une impasse est relativement peu coûteux : l’investissement en temps et en effort reste limité. En revanche, en fin de négociation, une rupture devient bien plus difficile à accepter. C’est une application d’un biais bien connu, l’escalade de l’engagement (ou escalation of commitment) : plus on investit du temps dans une action, plus on a envie qu’elle réussisse. Et inversement.

De fait, les tactiques qui visent à faire céder l’autre sont plus efficaces à la fin qu’au début des négociations. Exprimer une menace ou se mettre en colère est plus efficace tard que tôt, car au début de la négociation, ces tactiques véhiculent une intention expressément négative, tandis qu’à la fin elles sont perçues comme étant plus acceptables — puisqu’à ce moment, la relation humaine est déjà construite.

Ces résultats de recherches empiriques corroborent les théories qui font de la négociation un jeu à plusieurs phases : discussions ouvertes d’abord ; marchandage à la fin. Commencer par des tactiques agressives ruine les chances de trouver des solutions coopératives. La capacité à rester cognitivement ouvert tout le long de l’interaction et à ne pas acter les choses trop tôt est déterminante. C’est pour cela que la patience est une qualité clé dans les négociations.

Analyser les signes d’amateurisme

Ces recherches empiriques sur la négociation sont, faut-il le préciser, publiées très majoritairement dans les revues académiques américaines de sciences comportementales. Elles sont bien connues aux États-Unis.

La proclamation de J. D. Vance sur la « meilleure et dernière offre » avancée d’entrée de jeu par Washington a donc dénoté un amateurisme certain. Et cela d’autant plus que les négociations entre les États-Unis et l’Iran sont d’une grande complexité et englobent de multiples variables : réouverture du détroit d’Ormuz, contrôle du programme nucléaire, armements balistiques, accès au nucléaire civil, levée des sanctions, garanties que la guerre ne reprenne pas, etc.

Vouloir parvenir à un accord sur des sujets aussi difficiles en aussi peu de temps révèle une inexpérience ahurissante des négociations. Les négociations qui ont abouti à l’accord sur le nucléaire iranien sous la présidence Obama avaient pris 20 mois ; celles du vice-président Vance ont pris 21 heures.

Les experts, comme Federica Mogherini qui fut en charge des négociations avec l’Iran pour la partie européenne, pointent d’ailleurs la méconnaissance ou l’incompréhension des aspects techniques de la négociation de la part de l’équipe américaine.

L’échec des négociations entre Américains et Iraniens lors de leur première rencontre au Pakistan n’a donc rien eu de surprenant. Il est complètement en ligne avec les recherches empiriques sur la psychologie des négociations. Soit dit en passant, cette même erreur explique l’échec des négociations de Camp David entre Israéliens et Palestiniens en 2000 — avec les conséquences funestes que l’on sait. Comme le rapporte Robert Malley, alors conseiller de Bill Clinton pour le Moyen-Orient, une offre avait été mise sur la table beaucoup trop tôt, à un moment où « ni les Israéliens ni les Palestiniens ne s’étaient préparés à complètement comprendre les peurs et les besoins de l’autre partie ».

Négocier, ce n’est pas imposer des conditions unilatérales à la partie adverse. Ce n’est pas non plus faire en sorte que l’autre accepte une reddition sans condition. Cette démarche peut fonctionner dans des négociations qui concernent une seule variable compétitive (le prix), ou lorsque l’on est en position de force, comme lorsqu’on est un riche propriétaire immobilier à New York. Mais elle s’avère inefficace dans des négociations qui concernent plusieurs variables et nécessitent un cheminement à tâtons vers des solutions mutuellement acceptables, ou lorsque le rapport de forces est incertain.

Pour paraphraser une phrase d’un autre président américain, Dwight Eisenhower : la négociation est « l’art de faire faire à quelqu’un quelque chose que vous voulez voir fait, parce qu’il a envie de le faire ».

À tous points de vue, ce qui s’est passé entre Américains et Iraniens lors de leur première rencontre au Pakistan ne ressemble pas à de la négociation.

The Conversation

Marwan Sinaceur a reçu des financements de ESSEC Research Center, Fondation ESSEC, Fondation INSEAD, Stanford University.

PDF

02.05.2026 à 09:58

Qu’est-ce qu’une « lingua franca » ? Brève histoire, des croisades à nos jours

Alexandra Aikhenvald, Professor and Australian Laureate Fellow, Jawun Research Institute, CQUniversity Australia

De la Méditerranée des croisades à l’anglais global d’aujourd’hui, l’histoire des lingua francas raconte comment les sociétés fabriquent des langues communes pour commercer, gouverner et coexister.
Texte intégral (1897 mots)
Face à l’expansion de l’anglais, la résilience des locuteurs et des cultures pourrait bien rebattre les cartes. Gokul Gurung/Unsplash, CC BY

Pourquoi certaines langues s’imposent-elles comme outils universels avant de décliner ? De l’Antiquité à l’ère numérique, les lingua francas suivent les routes du pouvoir et des échanges.


Lorsque les Croisés débarquent sur les rivages orientaux de la Méditerranée à la fin du XIe siècle, ils doivent communiquer entre eux, mais aussi avec les marchands et les populations locales.

Beaucoup parlent alors différentes langues romanes : l’italien (notamment celui des puissantes cités-États de Venise et de Gênes), le provençal, le français ou encore leur ancêtre commun, le latin.

La plupart des Occidentaux présents en Europe du Sud sont français, en particulier originaires de la zone comprise entre Marseille et Gênes, d’où partent navires et marchands vers le Moyen-Orient. Ces Occidentaux sont désignés collectivement par les Arabes et les Grecs sous le nom de « Francs ».

Autour de la quatrième croisade (1202–1204), voire un peu plus tôt, une langue composite émerge progressivement en Méditerranée orientale, avant de se diffuser vers l’ouest. Cette langue commune, utilisée par les « Francs » et par ceux qui commercent et combattent avec eux, est aussi appelée sabir, italien bâtard ou espagnol bâtard. Mais c’est sans doute sous le nom de lingua franca que vous la connaissez le mieux : littéralement, la « langue des Francs ».

Cette langue franque est un mélange d’italien, de français et d’espagnol simplifiés, enrichi de quelques apports arabes et turcs. Elle est utilisée sur les rivages méditerranéens du Moyen-Orient jusqu’à la fin du XIXe siècle, avant de tomber en désuétude.

Écrit en minuscules, lingua franca désigne aujourd’hui toute langue servant de moyen de communication entre des personnes qui n’en partagent pas d’autre.

Une tradition ancienne

Les lingua francas remontent à l’Antiquité. Le sanskrit a ainsi servi de langue véhiculaire dans une grande partie de l’Asie du Sud-Est et de l’Asie centrale au cours du premier millénaire de notre ère, notamment par le biais des échanges commerciaux et de la diffusion religieuse.

Autour de la Méditerranée, le grec joue ce rôle d’environ 300 avant J.-C. à 500 après J.-C. : il est utilisé dans le commerce, la littérature, l’enseignement et dans la propagation du christianisme primitif.

Entre le IIe et le IVe siècles, le latin standard supplante le grec comme lingua franca de l’Église catholique en expansion. Il s’impose alors comme langue paneuropéenne de la religion, de la culture et du savoir, et le demeure jusqu’au XIXe siècle.

Un pendentif en or portant une inscription en latin
Le latin devient la lingua franca européenne, comme l’illustre ce pendentif britannique du XIIe siècle. The Metropolitan Museum of Art

À partir du XVIIe siècle, l’arabe s’impose comme une _lingua franc_a dans l’ensemble du monde islamique, reliant des communautés d’Afrique et d’Asie.

Au même siècle, avec l’essor de la France comme puissance économique, le français remplace progressivement le latin dans de nombreux domaines et devient la première lingua franca « mondiale » en politique, diplomatie, commerce et éducation. Langue des cours royales, il est utilisé par les savants, les aristocrates, les marchands et les diplomates pour communiquer et écrire entre eux. Le français demeure la principale langue des relations internationales jusqu’à la fin de la Seconde Guerre mondiale.

Après les années 1940, en partie sous l’effet de l’influence croissante des États-Unis, l’anglais s’impose comme la principale lingua franca à l’échelle mondiale.

Fabriquer une nouvelle langue

Avec l’expansion coloniale des puissances impériales et de leurs langues — espagnol, anglais, français, portugais, allemand et néerlandais — à partir du XVe siècle environ, le terme lingua franca en vient à être utilisé comme un nom commun.

Tout au long de la colonisation européenne, des personnes issues de groupes linguistiques différents sont contraintes de travailler ensemble comme esclaves ou engagés sous contrat. Elles communiquent entre elles, ainsi qu’avec leurs maîtres, au moyen d’une langue simplifiée, utilisée pour des besoins limités : des ordres simples, des questions, des énoncés basiques mêlant les éléments dont chacun dispose. Ce type de moyen de communication improvisé est appelé pidgin (qui viendrait du mot anglais « business »).

Les pidgins peuvent servir de lingua franca. Lorsque leurs locuteurs commencent à se marier entre eux, un pidgin peut devenir la seule langue parlée par la génération suivante. Il se développe alors en une langue à part entière — un créole — utilisée dans tous les contextes.

Des créoles comme le tok pisin en Papouasie-Nouvelle-Guinée, le sranan au Suriname, le kristang en Malaisie ou encore le créole haïtien en Haïti servent aujourd’hui de lingua franca dans ces pays.

Une langue globale peut aussi être créée de toutes pièces.

La fin du XIXe siècle voit fleurir les projets de langues universelles. La plus célèbre est l’espéranto, « langue de l’espoir », créé par Ludwik Zamenhof en 1887 comme « langue internationale », c’est-à-dire une lingua franca générale. L’espéranto compte encore aujourd’hui quelques milliers de locuteurs natifs et bien davantage d’adeptes, mais son usage tend progressivement à reculer.

La « lingua franca » mondiale aujourd’hui

Les lingua francas apparaissent lorsqu’elles deviennent nécessaires, puis déclinent lorsqu’elles sont remplacées par d’autres. L’allemand a ainsi cessé d’en être une avec la perte des colonies après la Première Guerre mondiale. Le portugais reste une lingua franca au Brésil, et l’espagnol dans d’autres pays d’Amérique du Sud.

Quant au français, son empreinte mondiale perdure : à l'étranger, on envoie encore une lettre par avion ou poste restante.

Mais il y a un grand gagnant, loin devant les autres. L’anglais est désormais devenu la langue mondiale, s’étendant bien au-delà des locuteurs natifs et des anciennes colonies des puissances anglophones. Il est la langue de la diplomatie internationale, du monde académique et, surtout, des avancées technologiques, des réseaux sociaux et de l’intelligence artificielle.

La diffusion rapide de l’anglais menace-t-elle de faire disparaître les autres langues, qu’il s’agisse de langues minoritaires ou d’autres lingua francas, et plus largement la diversité linguistique à l’échelle mondiale ? La question reste ouverte. L’importance croissante du mandarin comme principale lingua franca en Chine, de l’arabe à travers l’Afrique et le Moyen-Orient, ainsi que la résilience des locuteurs à faire vivre leurs langues – et, avec elles, leurs cultures et leurs histoires – pourraient bien contenir l’hégémonie de l’anglais.

The Conversation

Alexandra Aikhenvald ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

02.05.2026 à 09:32

Dans les bas rapiécés de l’homme le plus riche des États-Unis, le travail oublié des femmes américaines

Emily J. Whitted, Ph.D. Candidate in Early American History, UMass Amherst

En étudiant les bas de soie de Stephen Girard, une historienne met au jour le rôle crucial — et largement invisibilisé — des femmes, libres ou esclaves, dans l’économie américaine du début du XIXe siècle.
Texte intégral (1170 mots)

Rapiécer, gérer, entretenir : dans le foyer de l’un des hommes les plus riches d’Amérique, des femmes ont contribué, sans reconnaissance, à une prospérité qui leur échappait.


À sa mort en 1831, Stephen Girard – marchand, banquier et philanthrope de Philadelphie – était l’homme le plus riche des États-Unis. Dans son testament, il légua à la ville de Philadelphie (Pennsylvanie, Nord-Est des États-Unis) un don exceptionnel d’environ 6 millions de dollars, soit près de 194 millions d’euros aujourd’hui.

Girard demanda notamment qu’une partie de cette somme soit utilisée pour fonder un internat destiné aux garçons blancs pauvres et orphelins. Aujourd’hui, cet établissement, qui accueille des élèves du primaire au lycée, est connu sous le nom de Girard College et admet des élèves issus de milieux défavorisés, sans distinction de race ni de genre. L’institution a hérité des biens matériels de Girard, parmi lesquels du mobilier, des papiers personnels et des vêtements – dont une paire de bas de soie abondamment rapiécés.

Leur conservation peut surprendre : pourquoi l’homme le plus riche des États-Unis portait-il des vêtements raccommodés ? En tant qu’historienne du textile, spécialisée dans le travail du raccommodage dans l’Amérique des débuts, j’ai étudié les points utilisés pour réparer les bas de Girard, ainsi que ses riches archives.

Croisées, ces sources historiques m’ont permis de mettre au jour de nouveaux éléments sur la valeur des textiles dans l’Amérique d’alors, mais aussi sur le rôle des femmes – notamment celles qui travaillaient dans la maison du riche marchand – dans l’essor économique du pays.

Ce que nous disent ces bas

Les textiles étaient utilisés au quotidien par la quasi-totalité des Américains de l’époque coloniale et des débuts de la République et constituaient alors bien souvent les biens les plus précieux que l’on pouvait posséder.

Malgré la mécanisation à grande échelle, ils coûtaient cher en raison du prix des matières premières et du travail qualifié nécessaire à la fabrication des étoffes ; ils étaient en outre fréquemment importés. À la fin du XVIIIe et au début du XIXe siècle, les États-Unis voyaient émerger une industrie textile nationale, mais de nombreux Américains continuaient d’importer des tissus depuis l’étranger, notamment de Grande-Bretagne, de France et d’Inde. Les factures du foyer de Girard montrent qu’il achetait régulièrement une grande partie de ses vêtements – y compris ses bas de soie – en France.

La forte valeur des textiles à cette époque explique que même les foyers les plus aisés jetaient rarement les vêtements abîmés. On les réparait plutôt, à l’aide d’aiguilles et de fil. Si certains hommes pratiquaient aussi le raccommodage, l’immense majorité de ces travaux était réalisée par des femmes.

Les raccommodeuses : Sally, Polly et Hannah

Au sein du foyer de Girard, au moins trois femmes se chargeaient de repriser ses bas de soie et ses autres vêtements.

Bien que Girard ait été marié, son épouse Mary fut internée pour troubles mentaux à l’hôpital de Pennsylvanie en 1790, et le couple n’eut pas d’enfants. En l’absence de Mary, Girard eut plusieurs maîtresses qui faisaient office de gouvernantes : Sally Bickham, une femme quaker que Girard décrit dans une lettre comme une « tayloress », c’est-à-dire couturière, et Polly Kenton, blanchisseuse. Dans le cadre de leur travail, elles géraient les affaires domestiques et les achats de Girard, assurant le bon fonctionnement de son quotidien.

Par ailleurs, une femme noire nommée Hannah Brown, originaire de Saint-Domingue, ancienne colonie française correspondant aujourd’hui à Haïti, fut réduite en esclavage au sein du foyer de Girard pendant plus de quarante ans. Et ce, alors même que la loi d’abolition progressive adoptée en Pennsylvanie en 1780 aurait dû lui garantir la liberté dans les six mois suivant son arrivée aux États-Unis. L’abolition progressive n'y fut appliquée que de manière inégale, permettant à des propriétaires d’esclaves comme Girard d’en contourner les effets. Le testament du marchand accorda finalement la liberté à Hannah Brown.

Toutes trois travaillaient au service de Girard : elles reprisaient ses bas, géraient les tâches quotidiennes du foyer et veillaient à l’entretien de la maison. Les trois techniques de raccommodage visibles sur ses bas – comme le reprisage à la suisse, le reprisage tissé ou encore le renforcement des talons – constituent autant de traces matérielles de leur travail, aux côtés des archives écrites telles que les factures domestiques, les lettres et les reçus.

Aux premiers temps des États-Unis, de nombreuses femmes, libres ou réduites en esclavage, accomplissaient un travail domestique non rémunéré. Pourtant, ce travail a été une force essentielle de la croissance économique nationale au début du XIXe siècle. Partout dans le pays, des hommes comme Girard ont encouragé et tiré profit de l’industrialisation et de l’expansion des activités commerciales ; mais c’est le travail domestique non rémunéré des femmes qui a rendu possibles leur participation et leurs profits.

Si les habitants de Philadelphie ne voient aujourd’hui leurs noms ni sur les grandes artères ni sur les bâtiments de la ville, les efforts conjugués de Sally, Polly et Hannah — dissimulés dans les chaussures de Girard et éclipsés par l’ampleur de son héritage historique à Philadelphie — ont été essentiels à sa réussite économique.

The Conversation

Emily J. Whitted a reçu des financements de The Library Company of Philadelphia.

PDF

02.05.2026 à 08:55

L’abandon d’une stratégie vieille de 250 ans… Ce que change la fin de l’obligation vaccinale dans l’armée américaine

Katrine L. Wallace, Assistant Professor of Epidemiology and Biostatistics, University of Illinois Chicago

Pendant près de 80 ans, la vaccination contre la grippe allait de soi dans l’armée américaine. Sa remise en cause récente ne repose pas tant sur des arguments médicaux que sur une évolution politique autour de la notion de « liberté médicale ».
Texte intégral (2116 mots)
L’armée opère généralement dans des conditions - caserne, navire, etc. - qui favorisent la propagation des virus respiratoires Bumble Dee/Shutterstock

De George Washington à la Seconde Guerre mondiale, la vaccination a été pensée comme un outil stratégique face aux maladies capables de décimer les troupes. Aujourd’hui, cette logique historique entre en tension avec la montée des revendications individuelles.


Pour la première fois depuis près de 80 ans, les militaires états-uniens ne seront plus tenus de recevoir le vaccin annuel contre la grippe. Le secrétaire à la Défense Pete Hegseth a annoncé ce changement le 22 avril 2026. Invoquant l’autonomie médicale et la liberté religieuse, il a qualifié cette obligation de « trop large et dénuée de rationalité », déclarant aux soldats que « votre corps, votre foi et vos convictions ne sont pas négociables ».

L’obligation vaccinale contre la grippe à laquelle Pete Hegseth a mis fin était en vigueur depuis 1945, avec une brève interruption en 1949. Elle s’inscrivait dans une tradition d’obligations vaccinales militaires presque aussi ancienne que les États-Unis eux-mêmes.

En tant qu’épidémiologiste spécialisée dans les maladies évitables par la vaccination, je trouve la fin de cette obligation moins marquante pour ses effets immédiats que pour ce qu’elle révèle. Pendant la majeure partie de l’histoire américaine, les commandants militaires partaient du principe que les maladies infectieuses pouvaient leur faire perdre une guerre, raison pour laquelle la vaccination relevait de la préparation opérationnelle plutôt que d’un choix individuel.

Une tradition qui remonte à George Washington

La première obligation vaccinale militaire américaine est antérieure à la Constitution. À l’hiver 1777, le général George Washington ordonne l’inoculation massive de l’armée continentale contre la variole.

Sa décision n’était pas idéologique – elle était stratégique. L’année précédente, une épidémie de variole avait ravagé les troupes américaines près de Québec, contribuant à l’effondrement de la campagne du Nord. John Adams écrivit à sa femme Abigail que la variole tuait dix soldats pour un seul tombé au combat.

L’inoculation en 1777 comportait elle-même des risques. La procédure, appelée variolisation, consistait à infecter volontairement un soldat avec une faible dose du virus de la variole afin de provoquer une immunité. George Washington a fait le pari qu’il valait mieux perdre quelques hommes à cause de l’inoculation que perdre une guerre face au virus. Des historiens ont attribué à cette décision le salut de l’armée continentale.

La pandémie de Covid-19 a reconfiguré les enjeux politiques autour des obligations vaccinales.

Ce schéma s’est maintenu pendant des siècles : lorsqu’une maladie infectieuse risquait de mettre plus de soldats hors de combat que les tirs ennemis, l’armée imposait des mesures de protection.

Les troupes américaines ont été vaccinées contre la variole de la guerre de 1812 jusqu’à la Seconde Guerre mondiale. Pendant la Première Guerre mondiale, l’armée a ajouté la vaccination contre la typhoïde. Lors de la Seconde Guerre mondiale, elle a élargi les obligations vaccinales pour inclure également le tétanos, le choléra, la diphtérie, la peste, la fièvre jaune et, en 1945, la grippe.

1945 : nouvelle guerre, nouveau vaccin

L’obligation vaccinale contre la grippe trouve son origine dans les expériences militaires lors de la pandémie de grippe de 1918. Ce printemps-là, une nouvelle souche de grippe s’est propagée dans des camps d’entraînement militaires surpeuplés avant de gagner l’Europe avec les troupes américaines. Environ 45 000 soldats américains sont morts de la grippe pendant la Première Guerre mondiale, presque autant que les quelque 53 000 tués au combat.

La pandémie de 1918 a fait la démonstration qu’un virus respiratoire pouvait paralyser une armée. Aussi, en 1941, alors que le pays se préparait à entrer dans un nouveau conflit mondial, l’armée américaine a-t-elle mis en place une commission sur la grippe qui s’est associée à l’université du Michigan pour développer le premier vaccin contre cette infection. Des essais cliniques menés sur des recrues ont montré qu’il réduisait de 85 % l’incidence de la maladie, et en 1945, l’armée a rendu la vaccination obligatoire. Environ 7 millions de militaires ont été vaccinés cette année-là.

L’obligation a été brièvement suspendue en 1949, lorsque les scientifiques ont compris que le vaccin devait être régulièrement mis à jour en raison de l’évolution du virus. Une fois les formulations adaptées de manière saisonnière, l’obligation a été rétablie au début des années 1950 et est restée en vigueur sans interruption jusqu’au changement de politique décidé par Pete Hegseth.

Hôpital d’urgence au camp Funston, au Kansas, en 1918, pendant l’épidémie de grippe
La pandémie de grippe de 1918 a tué presque autant de soldats américains que les combats pendant la Première Guerre mondiale. Otis Historical Archives, National Museum of Health and Medicine

Le Covid-19 a transformé la politique vaccinale

Pendant des décennies, les obligations vaccinales faisaient partie intégrante et peu contestée de la vie militaire. La pandémie de Covid-19 a changé la donne.

En août 2021, tous les militaires ont été sommés de se faire vacciner contre le Covid-19. Plus de 98 % des soldats en service actif ont obtempéré, mais cette obligation est devenue un point de crispation. Plus de 8 000 militaires ont été renvoyés de force pour avoir refusé le vaccin.

En 2023, le Congrès a adopté une loi obligeant Le Pentagone à annuler l’obligation vaccinale contre le Covid-19. Ce revirement a reconfiguré les enjeux politiques autour des obligations vaccinales dans l’armée. En janvier 2025, le président Donald Trump a ordonné la réintégration, avec indemnités rétroactives, des militaires renvoyés dans ce cadre.

En annonçant la fin de l’obligation vaccinale contre la grippe, Pete Hegseth s’est largement appuyé sur le vocabulaire de la « liberté médicale », issu des débats autour des vaccins contre le Covid-19, plutôt que sur de nouvelles données concernant la grippe ou l’efficacité du vaccin. Le mouvement pour la liberté médicale s’oppose à l’intervention de l’État dans ce que ses partisans considèrent comme des décisions de santé personnelles, y compris des recommandations de santé publique telles que les obligations vaccinales, le port du masque ou la distanciation sociale.

La justification vaccinale tient-elle toujours ?

Les critiques de l’obligation vaccinale contre la grippe dans l’armée avancent que la grippe constitue aujourd’hui une menace plus modérée qu’en 1918, que les militaires sont en meilleure santé que la population générale et que, pour un virus saisonnier, le choix individuel devrait primer sur la logique de santé publique.

L’épidémiologie raconte une autre histoire.

Même si l’intensité des saisons grippales varie, le virus mute de manière si imprévisible que des pandémies comme celles de 1918, 1957, 1968 et 2009 restent une possibilité récurrente. La grippe continue d’ailleurs de causer chaque année des hospitalisations et des décès par dizaines de milliers aux États-Unis. Les Centers for Disease Control and Prevention estiment que le vaccin contre la grippe a ainsi évité environ 180 000 hospitalisations et 12 000 décès lors de la saison 2024-2025.

L’armée opère précisément dans des conditions qui favorisent la propagation des virus respiratoires : centres d’entraînement, casernes, navires ou sous-marins où les individus vivent en promiscuité.

La logique qui a conduit George Washington en 1777 et le Surgeon General de l’armée en 1945 à imposer la vaccination n’a, au fond, guère changé. Un soldat malade ne peut ni être déployé, ni s’entraîner, et peut transmettre la maladie à toute une unité.

Ce qui a changé, en revanche, c’est le poids politique accordé au refus individuel et c’est cela, bien plus que la question de l’efficacité du vaccin, que reflète la fin de cette obligation

The Conversation

Katrine L. Wallace ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF
12 / 50
  GÉNÉRALISTES
Ballast
Fakir
Interstices
Issues
Korii
Lava
La revue des médias
Time [Fr]
Mouais
Multitudes
Positivr
Regards
Slate
Smolny
Socialter
UPMagazine
Le Zéphyr
 
  Idées ‧ Politique ‧ A à F
Accattone
À Contretemps
Alter-éditions
Contre-Attaque
Contretemps
CQFD
Comptoir (Le)
Déferlante (La)
Esprit
Frustration
 
  Idées ‧ Politique ‧ i à z
L'Intimiste
Jef Klak
Lignes de Crêtes
NonFiction
Nouveaux Cahiers du Socialisme
Période
 
  ARTS
L'Autre Quotidien
Villa Albertine
 
  THINK-TANKS
Fondation Copernic
Institut La Boétie
Institut Rousseau
 
  TECH
Dans les algorithmes
Framablog
Gigawatts.fr
Goodtech.info
Quadrature du Net
 
  INTERNATIONAL
Alencontre
Alterinfos
Gauche.Media
CETRI
ESSF
Inprecor
Guitinews
 
  MULTILINGUES
Kedistan
Quatrième Internationale
Viewpoint Magazine
+972 mag
 
  PODCASTS
Arrêt sur Images
Le Diplo
LSD
Thinkerview
🌓