LePartisan - 157 vues
MEDIAS REVUES BLOGS
URL du flux RSS

▸ les 50 dernières parutions

14.04.2026 à 16:35

IA : le piège d’un langage statistique qui ressemble au nôtre

Mazarine Pingeot, Professeure de philosophie, Sciences Po Bordeaux
L’intelligence artificielle générative (ChatGPT et consorts) produit du texte cohérent sans perception, sans corps, sans vécu et sans conscience. Telle est la nouveauté radicale qu’il s’agit de penser.
Texte intégral (2055 mots)

L’intelligence artificielle générative, telle que ChatGPT et consorts, produit du texte cohérent sans perception, sans corps, sans vécu et sans conscience. Telle est la nouveauté radicale qu’il s’agit de penser.


Lorsqu’on questionne ChatGPT, Claude ou autre « Chat » sur n’importe quel sujet, il répond comme s’il était un interlocuteur omniscient. Pourtant, ce langage est produit de façon statistique, en intégrant la multiplicité des contextes – ce qui lui permet de répondre de façon adéquate et à chaque fois différente, en fonction du contexte d’énonciation –, en agrégeant d’immenses masses de données (les large langage models ou LLM). Cette spécificité introduit une nouvelle dimension : si la machine parle comme l’humain, alors même que le langage était perçu par un certain nombre de philosophes, au premier rang desquels René Descartes, comme l’indice de la pensée, et donc de la reconnaissance chez l’autre de son « humanité », comment distinguer l’humain de la machine ?

Cette question, à la base du test de Turing, pourrait paraître rhétorique, pourtant, nombreuses sont les pratiques qui attestent de cette confusion, l’intelligence artificielle (IA) générative étant parfois utilisée comme assistant, comme ami, et pouvant faire éventuellement fonction de psychologue. Ne serait-ce que dans notre manière de lui poser des questions, nous nouons avec elle un dialogue et sommes donc victimes d’une projection anthropomorphique fort naturelle dès lors que l’autre – machine ou humain – nous répond. La façon dont nous nous adressons à notre « chat » en témoigne : nous lui parlons parfois avec politesse, en utilisant souvent la deuxième personne du singulier « Tu ».

Comment repenser alors le langage s’il n’est plus l’indice d’une pensée consciente ? Et comment distinguer le langage humain du langage de la machine ? Dans sa structure, sa syntaxe, sa cohérence, il est identique.

Pourtant, le fait que les textes produits par l’IA générative soient bientôt majoritairement issus non plus de textes écrits par des humains, mais d’autres textes générés par l’IA pose un premier problème de référentialité.

Une production statistique déconnectée de la vérité

On le sait depuis les travaux du linguiste Roman Jakobson, le langage a plusieurs fonctions (informer, entrer en contact, créer du lien, de la beauté, etc.). La fonction référentielle est celle qui lie le langage au réel et qui en fait le lieu de la vérité au sens d’une adéquation entre un énoncé et la réalité dont il parle. C’est là, la fameuse définition de Thomas d’Aquin (env. 1225-1274) « Veritas est adaequatio rei et intellectus » (« La vérité est l’adéquation de la chose et de l’intellect »). Ainsi, « seuls des énoncés peuvent être vrais ou faux. Les choses, quant à elles, même si, par un abus de langage, il arrive qu’on les qualifie de “vraies” ou de “fausses”, sont réelles ou irréelles, authentiques ou artificielles. Mais elles ne sauraient être “vraies"» », peut-on lire dans l’article de l’Encyclopédie Universalis sur la vérité au sens général.

Ainsi, l’énoncé « il fait beau » a du sens s’il fait beau, et il est censé donner une information sur le temps qu’il fait, à des fins multiples (organiser sa journée, choisir de prendre ou non son vélo, etc.). À quoi sert de dire « il fait beau » si ce n’est pour communiquer cette information, ou pour créer un lien avec un autre du seul fait que je m’adresse à lui (on parle alors de fonction phatique du langage.

Certes, l’écriture va médiatiser l’idée même de communication mais elle demeure le vecteur d’un savoir, d’une information, d’une relation entre celui qui lit, celui qui écrit, et ce sur quoi porte l’écrit.

Voici que le langage pourtant s’émancipe de ses fonctions référentielle et phatique.

La production du langage s’autonomise de la réalité

L’énoncé produit par l’intelligence artificielle générative ne fait plus signe vers une extériorité, et ce de façon structurelle, puisqu’elle fonctionne de façon statistique, en prenant en compte le contexte, à partir de bases de données numériques. La médiation risque d’être exponentielle, si les textes produits par l’IA finissent par remplacer ceux produits par l’humain. L’IA générative produit à partir d’elle-même et de façon algorithmique un énoncé qui n’a, par définition, aucune intention communicative. Il est le fruit d’un calcul.

Quel enseignement en tirer ? Que la structure même de la production du langage s’autonomise de la réalité : on ne peut pas en vouloir à la machine de ne pas lever les yeux au ciel pour confirmer qu’il fait beau.

Ainsi c’est la condition même de la vérité qui est évacuée. Dans « Vérité et politique », la philosophe Hannah Arendt distingue la « vérité de fait » et la « vérité de raison », renvoyant cette dernière à la vérité scientifique, et la première à « ce qui a eu lieu », autrement dit un réel minimal, condition du commun. Or, c’est cette vérité que les idéologies totalitaires ont remise en question, substituant à la réalité un système plus au moins cohérent d’idées ou de croyances. Mais les démocraties de masse ne sont pas en reste : pour Arendt, la publicité propose elle aussi un substitut au réel.

Aujourd’hui, l’idéologie n’est plus nécessaire pour substituer au rapport au monde un discours délié du monde. C’est la condition même d’énonciation qui rend caduque la catégorie de « vérité de fait » puisque l’intelligence artificielle générative, dans son fonctionnement même, ne se réfère pas au réel pour produire du langage, même si un lien au second degré demeure, puisque la production statistique de LLM part d’énoncés produits hors LLM. La déliaison est consommée entre produire du langage (qui est pourtant supposé être le lieu de la vérité), et le réel sur lequel porte le langage.

Ainsi la post-vérité dans laquelle nous vivons désormais est structurellement consolidée : il ne s’agit pas seulement d’une indifférence à la vérité, il s’agit d’une production de contenu délié, ou indépendant de la possibilité même du vrai ou du faux, même si un grand nombre de textes qui nourrissent les LLM proviennent encore des humains. L’idéologie n’est pas dans ce qui est dit, produit, écrit : elle est dans l’émancipation d’une production du langage par rapport au réel et à l’idée même de référentialité. L’intelligence artificielle générative n’a pas inventé la post-vérité, mais par son fonctionnement, elle en consolide la structure.

Un langage formaté en amont par des entreprises privées ?

À cela s’ajoute le fait que cette production est le monopole d’entreprises privées. Nous vivons dans un monde capitaliste, nul ne l’ignore, dont le principe est que les moyens de production sont concentrés entre les mains de quelques-uns. C’est ce que Marx appelait l’infrastructure, la superstructure désignant toutes les autres sphères – la politique, la culture. Or, aujourd’hui, l’infrastructure produit du langage. Et le langage est sous-jacent à toutes les superstructures : comme le dit le linguiste Klemperer, il est le moyen de propagande le plus public et le plus secret à la fois. Public, puisque nous ne pouvons nous passer du langage pour vivre en société ; secret, parce que nous ne nous rendons pas compte à quel point le langage est traversé par des normes qui nous façonnent plus que nous les façonnons et que nous véhiculons à notre tour en parlant.

« À chaque époque correspondent des techniques de reproduction bien déterminées » écrivait Walter Benjamin. La technique influe sur l’usage de la langue : au XIXᵉ siècle, la presse de masse transformait la manière d’écrire, entraînant un nouveau genre littéraire – le roman – que Benjamin dans le Raconteur oppose au récit, mais aussi la prolifération d’une presse à sensation, s’intéressant aux faits divers et proposant une « narration » attractive.

Le langage serait donc de plus en plus inféodé à ses moyens de production techniques. Certes, on peut considérer qu’il l’était déjà dans son usage public, mais c’est désormais le cas également des usages intimes, professionnels, amicaux, autrement dit de quasiment tous les usages, y compris lorsqu’on n’a nul besoin de la technologie pour communiquer : il nous arrive de correspondre par mail lorsqu’on partage le même bureau, d’assister à des réunions en visioconférence alors que quelques mètres nous séparent, de communiquer par Instagram assis côté à côte… Ce qui a des conséquences décisives notamment sur la politique, et plus spécifiquement sur la démocratie, dont le matériau premier est précisément le langage et les différents droits qui lui sont associés.

« Être politique, écrit Hannah Arendt, vivre dans une polis, cela signifiait que toutes choses se décidaient par la parole et la persuasion et non pas par la force ni la violence. » Elle ajoutait que c’est en apparaissant aux yeux de tous que la parole devenait politique. Il fallait donc un espace pour que celle-ci soit entendue, un espace « public » pour « une parole politique ».

Mais qu’est-ce qu’un espace public et qu’une parole politique, lorsque le langage s’émancipe dans sa production, à la fois du réel, et du sujet d’énonciation ? En étant productrice autonome de langage sans référentialité, l’IA générative accomplit techniquement le fantasme d’une énonciation sans sujet.

Que le langage ne soit plus ce qui distingue la machine de l’humain a ainsi des conséquences à la fois politiques et métaphysiques. Le rapport au réel est en train de se transformer au profit de médiations invisibles qui privatisent le langage : celui-ci ne permet plus de reconnaître dans le destinateur ou le destinataire un « autrui ». Pourtant, le langage n’a de sens qu’à être adressé à un autre être humain. Pour la machine, il est asémantique. Sauver le sens du langage, c’est sauver l’idée même de sujet. C’est à cette condition qu’il gardera ses vertus émancipatrices.


Mazarine M. Pingeot est l’autrice d’Inappropriable. Ce que l’IA fait à l’humain, (Flammarion, février 2026).

The Conversation

Mazarine Pingeot ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

14.04.2026 à 16:34

Le blocus américain du détroit d’Ormuz est-il légal ?

Donald Rothwell, Professor of International Law, Australian National University
Les pourparlers de paix ayant échoué, le président américain a déclaré que les États-Unis bloqueraient le détroit d’Ormuz, ce qui aura des conséquences désastreuses sur l’approvisionnement international en carburant.
Texte intégral (1187 mots)

La menace d’un blocus américain du détroit d’Ormuz fait craindre une reprise des hostilités. Un tel blocus, légal en temps de guerre, pourrait perturber fortement l’approvisionnement mondial en pétrole et accentuer les tensions diplomatiques, même si sa portée exacte reste incertaine. Cette stratégie constituerait un levier de pression économique majeur sur l’Iran, tout en remettant en question le principe fondamental de liberté de navigation mais pourrait aussi, à terme, déboucher sur une réouverture durable du détroit.


Les négociations de paix entre les États-Unis et l’Iran ayant échoué au Pakistan, le fragile cessez-le-feu est à nouveau au bord de l’effondrement. Donald Trump a de nouveau durci son discours et annoncé que la marine américaine allait bloquer le détroit d’Ormuz.

Le président a déclaré que les États-Unis intercepteraient les navires ayant payé un péage à l’Iran pour traverser le détroit, accusant Téhéran de procéder à un « racket » en imposant cette redevance.

Cependant, le New York Times rapporte que l’armée américaine prévoit de bloquer uniquement les ports et les zones côtières iraniens, tout en autorisant le passage des navires d’autres pays, ce qui semble constituer un assouplissement par rapport à la déclaration initiale du président.

Si un tel blocus venait à être mis en place, quelles en seraient les implications ?

En temps de guerre, le blocus est légal

À l’heure actuelle, la guerre entre les États-Unis, Israël et l’Iran se trouve dans une sorte d’impasse. Des pourparlers de paix ont été conduits – mais ont échoué – et les combats ont pour l’heure été interrompus. Cependant, la paix n’est pas non plus définitivement établie.

La question cruciale est donc de savoir si les États-Unis ou l’Iran se livrent à des agissements qui mettent en péril le cessez-le-feu – et le blocus par des navires de la marine américaine du détroit d’Ormuz, voie de communication économique vitale, aurait certainement un tel effet. D’un point de vue strictement juridique, si les États-Unis imposent un blocus, alors le cessez-le-feu n’a plus cours et les hostilités reprennent.

Depuis le début de la guerre, le 28 février, l’Iran interdit de facto la navigation dans le détroit. Le comportement de Téhéran peut se justifier par le fait qu’un conflit armé est en cours et que la sécurité de tous les navires transitant par le détroit est menacée. Certains navires ont traversé le détroit soit sous escorte iranienne, soit, selon certaines informations, après avoir versé une sorte de « péage » à l’Iran. Cette pratique doit être appréhendée dans le contexte d’un conflit armé international où les libertés normales de navigation sont suspendues.

Il est également important de distinguer les différents acteurs de ce scénario. En droit international, on parle de « belligérants » et de « neutres » dans le contexte d’un conflit armé. Il ne fait aucun doute que les États-Unis, Israël et l’Iran sont des belligérants dans ce cas précis. Cela signifie donc que les États-Unis, en tant que belligérant, peuvent légitimement imposer un blocus en vertu du droit international – plus précisément, du droit de la guerre maritime.

L’imposition de blocus maritimes comme méthode de guerre est une méthode très ancienne. L’exemple le plus récent remonte à décembre 2025, lorsque les États-Unis ont imposé un blocus aux pétroliers entrant et sortant du Venezuela, en plus d’imposer des sanctions à ce pays.

Compte tenu de l’importance cruciale du détroit d’Ormuz pour le transit du pétrole brut, lequel est indispensable pour l’approvisionnement en carburant de nombreux pays de la planète, un blocus limiterait encore davantage cet approvisionnement et provoquerait une nouvelle hausse des prix de l’essence.

Trump a également menacé la Chine de lui imposer des droits de douane de 50 % s’il s’avérait qu’elle aide l’Iran dans ce conflit.

Quelle issue ?

On ne sait pas encore exactement comment et sous quelle forme ce blocus sera mis en place, ni même s’il sera effectivement instauré.

La déclaration initiale de Trump selon laquelle l’armée américaine bloquerait l’ensemble du détroit et prendrait pour cible les navires ayant versé de l’argent à l’Iran pour être autorisés à passer est de nature à provoquer de nouvelles tensions diplomatiques avec les pays du monde entier. Le président a déclaré que d’autres pays, outre les États-Unis, participeraient au blocus, mais aucun État ne semble à ce stade pressé de contribuer à cette opération.

Si l’intention est de limiter le blocus aux ports iraniens, il s’agirait alors d’une forme très classique de blocus naval entre « belligérants ». Les navires qui ne proviennent pas de ports iraniens et qui, jusqu’à présent, se sont vu interdire de quitter le golfe Persique par le détroit pourraient alors, en théorie, commencer à traverser le détroit pour rejoindre l’océan Indien.

Si le blocus est mis en place, l’armée américaine aura fait étalage de ses immenses capacités, étant donné qu’une telle nécessitera le déploiement de très importants moyens navals. Et l’affirmation de Trump selon laquelle les États-Unis contrôlent la région aura été confirmée par les faits.

Il s’agit également d’une tactique de négociation redoutable, en raison des difficultés économiques que cette mesure infligera à l’Iran s’il se trouve dans l’incapacité de poursuivre ses exportations de pétrole. Cela ne fera qu’aggraver les souffrances déjà intenses du peuple iranien.

La liberté de navigation dans les détroits internationaux tels que celui d’Ormuz est l’un des principes fondamentaux du droit international sur lequel reposent le commerce international et l’économie mondiale. C’est un principe que les États-Unis ont toujours défendu avec fermeté. La menace d’un blocus américain de l’Iran et les opérations de déminage associées à ce projet pourraient constituer un petit pas vers la réouverture de cette voie maritime essentielle.

The Conversation

Donald Rothwell a reçu des financements de l’Australian Research Council.

14.04.2026 à 16:34

Le chiisme, facteur majeur de la résilience du régime iranien

Pierre Firode, Professeur agrégé de géographie, membre du laboratoire Médiations (Sorbonne Université), Sorbonne Université; Université de Versailles Saint-Quentin-en-Yvelines (UVSQ) – Université Paris-Saclay
La guerre en Iran révèle la force d’une idéologie chiite qui transforme les défaites militaires en victoires symboliques et renforce la résilience du régime face aux États-Unis.
Texte intégral (2023 mots)

Après avoir subi plus d’un mois de bombardements qui ont détruit une grande partie de ses capacités et tué plusieurs de ses leaders de premier plan, le régime iranien, loin de s’effondrer, a affiché une résilience inattendue. Celle-ci est enracinée dans une idéologie puissante : le chiisme voue un culte à ses martyrs tandis que le khomeinisme y ajoute un discours anti-impérialiste porteur auprès d’une partie non négligeable de la population mondiale, y compris dans les pays occidentaux.


À l’évidence, l’évolution de la guerre lancée par Donald Trump et Benyamin Nétanyahou en Iran, qui vient – temporairement ? – de s’interrompre à la suite de l’annonce d’un cessez-le-feu le 7 avril, après trente-huit jours de bombardements, n’a pas correspondu aux plans initiaux des états-majors israélien et états-unien. Alors que Wahsington et Tel-Aviv avaient parié sur un effondrement rapide du régime une fois éliminés plusieurs de ses principaux dirigeants, l’intensité de l’effort de guerre iranien et, surtout, sa capacité à durer dans le temps ont surpris.

De nombreux experts ont bien souligné à quel point les États-Unis n’avaient pas anticipé la résilience du Corps des gardiens de la révolution, dont le maillage très étroit et décentralisé s’étend sur l’ensemble du territoire iranien, si bien que les coups portés au sommet du régime n’ont pas semblé affecter sa capacité à lutter dans les 31 provinces qui composent la République islamique d’Iran. De plus, les observateurs ont abondamment mis en avant la maîtrise par Téhéran d’un nouvel art de la guerre asymétrique qui s’est décliné à l’échelle mondiale, l’Iran ayant pris en otage l’économie mondiale en exploitant au maximum sa capacité de nuisance sur le détroit d’Ormuz et en imposant à ses voisins une stratégie du chaos face à laquelle l’administration américaine est apparue démunie.

Toutefois, ces analyses mettent peut-être de côté l’un des aspects les plus évidents de cette résilience du régime iranien, qui tient à son idéologie religieuse, le chiisme duodécimain, et à son extension politique depuis 1979, le khomeinisme.

En effet, par son culte des martyrs, par sa vision eschatologique de l’histoire et par son aspiration révolutionnaire à libérer le Moyen-Orient, voire le monde entier, de l’impérialisme hégémonique des États-Unis, l’idéologie du régime iranien fournit un dogme à la fois parfaitement adapté à la nature asymétrique de la guerre actuelle et capable de rallier à lui une partie non négligeable de la population mondiale, malgré l’incroyable barbarie dont font preuve ses dirigeants.

Le chiisme, une doctrine née d’un combat asymétrique

Parce qu’il repose sur la mémoire des martyrs, le chiisme se nourrit de la guerre asymétrique. Le combat asymétrique du fort au faible élève le martyr au rang de personnage saint et de héros, dont le souvenir garantit la pérennité du chiisme à travers les générations.

À cet égard, la naissance même du chiisme est riche d’enseignements puisque ce courant de l’islam, qui regroupe aujourd’hui environ 20 % des musulmans du monde, apparaît avec le martyre des partisans d’Ali et de ses descendants (« les gens de la Maison de Mahomet », les ahl-al-bayt en arabe) appelés imams. L’événement que les chiites, toutes branches confondues hormis les zaydites, considèrent comme fondateur est le meurtre par les premiers califes omeyyades d’Hussein, fils d’Ali et successeur légitime de Mahomet. Or, dans la tradition chiite, en plus d’être mort en martyr sur ordre des usurpateurs omeyyades, Hussein périt au terme d’un véritable combat asymétrique. La bataille de Kerbala en 680 où il trouve la mort constitue en effet un combat du fort au faible où Hussein, accompagné par quelques dizaines de fidèles, se fait massacrer par une armée de plusieurs milliers de combattants aux ordres du calife omeyyade Yazid.

« Sunnites et chiites : la grande discorde » avec Laurence Louër, Pierre-Jean Luizard, Agnès Levallois, Iremmo, 2017.

La disproportion du rapport de force entre l’armée de Yazid et la poignée de fidèles d’Hussein rend le sacrifice de ce dernier d’autant plus mémorable. Dans cette optique, plus le combat est disproportionné, plus il est asymétrique, plus il est digne d’être commémoré et donc susceptible de résister à l’oubli. La nature asymétrique et donc injuste du martyre d’Hussein légitime la soif de vengeance que les chiites perpétuent au travers des siècles.

Le « syndrome de Kerbala » moteur de la guerre actuelle

De ce point de vue, le syndrome de Kerbala transforme le chiisme en une véritable doctrine asymétrique : le martyre d’Hussein est certes une défaite militaire sur le temps court pour les partisans d’Ali, mais il constitue une victoire sur le temps long puisqu’il constitue un événement mémorable dont les musulmans garderont la mémoire.

À la défaite militaire, les chiites opposent la victoire mémorielle et idéologique sur le temps long, exactement comme le font les stratèges de la guerre asymétrique. En cela, le chiisme est bel et bien une doctrine de combat asymétrique comme le montre son utilisation par la République islamique d’Iran dans sa guerre médiatique dirigée contre les États-Unis et Israël.

Dans une vidéo publiée sur le compte Facebook francophone du défunt Ali Khamenei intitulée « Le martyre est le début… Le martyre de l’imam Khamenei n’est pas la fin, tout comme le martyre de l’imam Hussein ne le fut pas », datée du 6 mars 2026, le régime iranien dresse un parallèle entre le martyre d’Hussein face à Yazid et celui de Khamenei face à Trump.

Conformément à la tradition chiite, la mort de Khamenei suit le modèle du martyr d’Hussein : elle constitue un modèle de résistance à « l’oppression » et nourrit une soif de vengeance dont l’humanité gardera le souvenir, ce qui contribuera à la victoire finale du régime iranien et de la « parole divine ».

La guerre contre l’« oppression universelle » comme moteur du conflit

Dès lors, la martyrologie chiite permet le développement d’un narratif où le martyre de Khamenei comme celui d’Hussein renvoie à la vocation universelle du chiisme à lutter contre l’oppression. Grâce à son martyre, Khamenei devient une figure qui dépasse le cadre strict de la communauté chiite pour devenir le symbole de la lutte contre l’oppression des États-Unis sur le monde.

La vidéo précédemment mentionnée est à cet égard révélatrice : la figure de Khamenei y est présentée comme l’étendard de « ceux qui luttent pour la liberté » et contre « l’impérialisme ». Ce discours à la jonction de la martyrologie chiite et du rejet de la tutelle impérialiste de l’Occident sur le monde musulman, emprunté aux thèses des Frères musulmans, résume assez bien le khomeinisme, qui tente de faire du chiisme iranien une doctrine révolutionnaire décoloniale.

En publiant des vidéos développant ce discours, la République islamique entend fédérer autour d’elle tous ceux qui luttent contre l’hégémonie américaine dans le monde et conférer à sa propagande une dimension universelle destinée à séduire des populations extérieures au monde chiite, y compris occidentales.

Le régime iranien sait que l’issue de la guerre se joue plus dans la bataille de l’opinion que sur le terrain militaire. Les dernières vidéos publiées par le régime montrent à quel point le régime investit les réseaux sociaux en utilisant des codes visuels et une rhétorique clairement à destination des opinions occidentales. Dans une vidéo devenue virale, le régime utilise l’univers des Lego pour représenter Trump et Nétanyahou, assis en compagnie du diable autour des dossiers Epstein.

La vidéo établit alors un lien direct entre le déclenchement de la guerre et les dossiers Epstein, suggérant que Trump a attaqué l’Iran pour détourner l’attention de l’opinion publique du scandale, prisonnier du chantage effectué par un Nétanyahou diabolique. En associant le diable, Israël et l’affaire Epstein, le régime utilise les codes universels de l’antisémitisme et espère mobiliser la partie de la sphère MAGA opposée à Israël qui peut, elle aussi, flirter avec l’antisémitisme. Le régime iranien a parfaitement conscience que l’affaire Epstein divise l’opinion MAGA et qu’elle a réveillé la frange antisémite du mouvement, qui pourrait se mobiliser contre la guerre en jugeant que, dans celle-ci, Washington se montre inféodé aux intérêts israéliens.

Trump, allié malgré lui du khomeinisme

Ainsi, la résilience du régime iranien ne se résume pas à sa capacité de nuisance, mais tient aussi à son idéologie. La martyrologie chiite fait de la guerre asymétrique une source de légitimité et, par la mémoire des martyrs comme celui d’Hussein ou de Khamenei, transforme des défaites militaires sur le court terme, comme celle que subit actuellement l’Iran du point de vue de ses capacités conventionnelles, en de véritables victoires idéologiques sur le temps long.

D’autant que le khomeinisme, en tant qu’idéologie révolutionnaire tournée contre « l’oppression » et le sionisme, peut séduire une partie des opinions occidentales, principalement la franche antisémite du mouvement MAGA et ceux qui, à l’autre extrémité du paysage politique, se réclament de mouvements décoloniaux anti-impérialistes.

De ce point de vue, la propagande du régime iranien se trouve paradoxalement renforcée par les dérives du trumpisme, qui, en substituant partout la force brutale au droit, donne un surcroît de visibilité à la propagande anti-impérialiste du régime des mollahs.

The Conversation

Pierre Firode ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

14.04.2026 à 16:33

De la dépendance à la refondation : l’aide internationale à l’heure du basculement

Pierre Micheletti, Responsable du diplôme «Santé -- Solidarité -- Précarité» à la Faculté de médecine de Grenoble, Université Grenoble Alpes (UGA)
Les organisations internationales dépendent du soutien financier de nombreux États, dont les États-Unis, pour venir en aide aux plus démunis. Mais depuis le retour de Trump, l’aide humanitaire est déstabilisée.
Texte intégral (1531 mots)

Depuis la réélection de Donald Trump, plus de 200 millions de personnes dans le monde se trouvent en situation de vulnérabilité. Les États-Unis étaient jusqu’alors les principaux contributeurs financiers d’organisations internationales. Mais, dès son retour à la Maison-Blanche, le président a opéré un retrait financier massif, laissant de nombreuses ONG, agences humanitaires des Nations unies ou encore la Croix-Rouge en grande difficulté.

Dans son ouvrage Action humanitaire : le crépuscule des dieux ?, qui vient de paraître aux éditions Un monde nouveau, Pierre Micheletti, membre du Conseil d’administration de SOS Méditerranée et président d’honneur d’Action contre la faim, analyse les mécanismes qui ont conduit à cette situation et propose une nouvelle organisation de l’aide humanitaire.


L’interruption brusque des financements octroyés par le gouvernement des États-Unis d’Amérique aux acteurs humanitaires sidère l’ensemble des organisations effectrices de cette forme de solidarité internationale. Le mouvement international de la Croix-Rouge, les organisations onusiennes, les organisations non gouvernementales internationales (ONGI) calculent déjà comment les restrictions annoncées vont impacter leurs actions sur le terrain. Avec les conséquences sociales que tous les dirigeants ont en tête.

Il s’est aussitôt engagé un sauve-qui-peut entre ces trois grandes familles d’acteurs humanitaires pour protéger leurs programmes et les personnes qu’elles soutiennent, en même temps que l’avenir de leurs employés dans les sièges des différentes organisations comme dans les pays où elles interviennent.

Ce séisme est la conséquence extrême d’un système de financement qui concentrait sur quelques pays occidentaux le versement de la quasi-totalité des sommes engagées chaque année. Les États-Unis constituant, avant leur retrait, et devant l’Union européenne, le premier financeur mondial de l’aide d’urgence. Le désengagement du premier contributeur est pourtant survenu sur un modèle économique de l’aide humanitaire dont on constatait les imperfections et les faiblesses depuis plusieurs années. Le « Sommet de Paris pour un nouveau pacte financier mondial » avait ainsi été l’occasion d’une prise de parole conjointe des dirigeants de différentes familles d’acteurs humanitaires, pour pointer les incontournables évolutions nécessaires. Une étape supplémentaire a été franchie en 2025 qui constitue un point de rupture.

Dénoncer les conséquences humaines de l’effondrement financier du modèle qui prévalait jusqu’à début 2025, analyser les mécanismes qui se cumulent de longue date et ont rendu possibles les désastreuses conséquences à venir, et imaginer comment résister et refonder un dispositif d’aide internationale d’urgence, pointent d’emblée un « inconscient collectif » qu’il convient de remettre en cause : l’Occident ne peut ni revendiquer ni assumer le monopole de la compassion à l’égard des malheurs du monde.

La capacité financière pour alimenter la solidarité internationale, comme les stratégies et acteurs pouvant apporter un soutien vital à des populations confrontées à des crises majeures, ne peuvent relever du mandat d’une partie réduite de l’humanité dans un monde aujourd’hui globalisé.

Le concept d’Occident – qui fait débat – est parfois l’objet de manipulations de ceux qui veulent réaffirmer la primauté du fait culturel sur toute autre considération, pour décrire les espaces composites qui structurent la société internationale mondiale. Le terme « Occident » est utilisé dans le présent ouvrage non pas comme une construction identitaire, mais comme une aire géographique évolutive, fruit d’une coopération politique, économique, juridique et militaire de différents pays, dans les suites de la Deuxième Guerre mondiale.

Dans le cas des États-Unis, cette distinction est d’autant plus cruciale que l’abandon de l’aide humanitaire s’accompagne précisément, de la part des nouveaux dirigeants de ce pays, d’un discours qui réaffirme (entre autres) la dimension d’une « culture » partagée comme nécessaire carburant de la solidarité. Ce dont témoigne l’émergence du concept de « diplomatie chrétienne » dans l’administration du président Trump. Pour éviter tout débat ou polémique le nécessaire « décentrement » évoqué par l’historienne et politiste Sophie Bessis fait, dans les pages à suivre une référence au pas de côté, désormais impératif, pour répondre aux urgences humanitaires. Un décentrement par rapport au groupe restreint des 20 gouvernements donateurs primordiaux qui composaient jusqu’ici le club restreint des financeurs.

Le parti-pris développé, et qui sert pour une large part aux analyses et propositions qui en découlent, est que le modèle économique met en chiffres la réalité tangible des logiques politiques que l’on peut attribuer au mode de financement. Ses pays sources, ses modalités de répartition et de mise en œuvre, les choix d’attribution par les donateurs, sont porteurs de sens et d’intérêts géopolitiques de la part des financeurs.

L’effondrement des budgets de début 2025, via le retrait des États-Unis comme premier financeur de l’aide humanitaire mondiale, constitue l’une des composantes (minoritaire en volume) d’un dispositif plus large d’aide publique au développement (APD) également impacté par le retrait des États-Unis via la disparition de son agence de développement, l’US Aid (United States Agency for International Development).

La dynamique ayant présidé à l’émergence du concept d’APD obéit à des logiques historiques dont la connaissance est indispensable à la compréhension du modèle dominant de la solidarité internationale. Dominant au sens non d’une dictature imposée, mais de l’imprégnation par les logiques qui ont présidé à la construction de cette aire que constitue les pays occidentaux depuis 1945.

La structuration du multilatéralisme propre à l’action humanitaire vient de se fracturer. Depuis la fin de la deuxième guerre mondiale, on a assisté à l’évolution d’un ordre international en mutation permanente, sans que cela ne débouche sur de significatives évolutions du modèle économique de la solidarité internationale. Les années 2020 ont donné lieu à des moments de rupture dont le séisme financier de début 2025 constitue le dernier symptôme en date, esquissant les contours d’une dépression aux multiples facettes.

C’est dans l’analyse des facteurs de causalité de la crise financière, avec les conséquences désastreuses de la situation actuelle pour les populations abandonnées à leur sort, que l’on peut dégager des pistes pour rebondir et relancer un système que l’on peut espérer améliorer.

Un système mieux protégé des enjeux de rivalités politiques qui structurent et pénalisent le mode de solidarité internationale qui prévalait jusqu’au désengagement de son mentor historique.

Il s’agit à la fois de résoudre l’équation financière, mais aussi d’imaginer et de mettre en place la gouvernance d’un modèle pérenne à inventer. Autrement dit, de rebattre les cartes des rivalités politiques et des rapports de force qui réémergent entre pays, pour réaffirmer une volonté partagée d’agir de concert, face aux urgences humanitaires majeures d’aujourd’hui et de demain.

C’est ainsi l’émergence d’une nouvelle forme du multilatéralisme, y compris des sociétés civiles, qui se pose. Un multilatéralisme qui devra tenir compte du large refus d’un schéma de solidarité internationale calqué sur les objectifs et modalités de l’entraide mutuelle mise en place, par une partie des vainqueurs, après la victoire sur le nazisme.

Il s’agit, chemin faisant, de prendre acte de l’évolution du concept de « frontières » dont s’affranchissent des phénomènes mondiaux tels que les dégradations environnementales ou l’émergence de nouvelles pathologies infectieuses. De réaffirmer, comme ciment du vivre-ensemble, l’impérative commune volonté de protéger de ce qu’il est désormais convenu d’appeler les « biens publics mondiaux », dont la paix. Dans cette nouvelle conception des relations internationales, la solidarité ne relève pas d’une compassion basée sur une asymétrie de moyens, mais sur la conscience d’un destin partagé de la communauté humaine.

The Conversation

Pierre Micheletti ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

14.04.2026 à 16:32

Pollution après l’incendie de Notre-Dame de Paris : peut-on se baigner dans la Seine sans danger ?

Olivier Evrard, Directeur de recherche, Commissariat à l’énergie atomique et aux énergies alternatives (CEA); Université Paris-Saclay
Anthony Foucher, Chercheur CEA au Laboratoire des Sciences du Climat et de l’Environnement, Commissariat à l’énergie atomique et aux énergies alternatives (CEA)
Rémi Bizeul, Ingénieur de recherche - chargé de projet (Projet OBSWATERS, PEPR OneWater), Université Claude Bernard Lyon 1
Sophie Ayrault, Directrice de recherche, Commissariat à l’énergie atomique et aux énergies alternatives (CEA)
Thomas Thiebault, Docteur en géochimie de l'environnement, École pratique des hautes études (EPHE)
Yangjunjie Xu-Yang, Post-doctorant CEA au Laboratoire des sciences du climat et de l’environnement (LSCE - OVSQ), Commissariat à l’énergie atomique et aux énergies alternatives (CEA)
L’incendie de Notre-Dame a-t-il pollué la Seine au plomb ? Les analyses sont rassurantes, mais montrent la nécessité d’un suivi élargi de la qualité de l’eau de baignade.
Texte intégral (2208 mots)

L’incendie de Notre-Dame de Paris en 2019 a-t-il durablement pollué la Seine au plomb ? Grâce à l’étude fine des sédiments et de leur signature isotopique, nous avons pu retracer l’origine du plomb retrouvé dans les sédiments du fleuve. Les résultats sont globalement rassurants, mais, en 2024, l’élargissement du panel d’analyse à d’autres substances (médicaments, drogues, pesticides…) plaide pour un suivi plus exhaustif de la qualité des eaux de baignade, au-delà des seules bactéries indicatrices de contamination fécale, qui sont aujourd’hui le seul critère encadré par la réglementation européenne.


L’incendie de la cathédrale Notre-Dame de Paris, le 15 avril 2019, a ravivé les inquiétudes concernant la contamination au plomb dans la ville et son fleuve. Or, pour pouvoir mettre en évidence une pollution associée au plomb émis lors de l’incendie, il faut établir sa « signature » isotopique, c’est-à-dire le rapport entre la concentration des différents isotopes de cet élément.

On peut ensuite la comparer à celles d’autres sources potentielles de plomb dans la ville. Celles-ci ne manquent pas, tant les sources de plomb sont omniprésentes dans le Paris haussmannien (tuyaux, toitures, fontaines, peintures, etc.), auxquelles il faut ajouter les additifs au plomb des essences (dont la commercialisation est interdite depuis 2000).

Dans le cadre du chantier de restauration de Notre-Dame porté par le ministère de la culture et le CNRS, l’analyse de poussières prélevées sur le banc de l’orgue situé au premier étage de la cathédrale incendiée a permis de caractériser la signature du plomb émis par l’incendie. Cela a permis de prouver qu’elle est bien différente de celles du Paris haussmannien, des additifs de l’essence plombée et de la signature du plomb présent naturellement dans les sols du bassin de la Seine.

Mais il restait à suivre dans le temps les effets de cette contamination au plomb dans la capitale. C’est ce que nous avons fait à travers l’étude des sédiments déposés sur les quais de la Seine à Paris.

Ce que les crues de la Seine révèlent de la pollution au plomb

Les sédiments ont été prélevés à plusieurs occasions :

  • lors de la crue exceptionnelle de juin 2016, avant l’incendie ;

  • après des crues hivernales plus classiques survenues après l’incendie, en 2020 et en 2021 ;

  • puis, en 2024, juste avant les Jeux olympiques, au moment où la Seine a été ouverte à la baignade.

La signature isotopique de la contamination au plomb des sédiments permet de connaître leur provenance. O. Evrard et coll., 2026

Les sédiments de la crue majeure de 2016 provenaient surtout des sols de l’amont du bassin parisien et ne présentaient donc pas de contamination très importante en plomb et en autres métaux.

Au contraire, en 2020, après l’incendie de 2019, les niveaux de plomb les plus élevés ont été mesurés au sein des dépôts prélevés autour de l’île de la Cité, où se trouve la cathédrale. Leur signature isotopique était également particulièrement proche de celle de l’incendie, comme le montre le schéma ci-dessus.

Par contre, lors des crues suivantes, en 2021 puis en 2024, les niveaux de plomb ont baissé. Leur signature s’est alors éloignée de celle de l’incendie pour se rapprocher de la signature du Paris haussmannien. Selon ces résultats, la reconstruction de la cathédrale n’aurait pas entraîné de contamination au plomb supplémentaire.

Le seul site présentant une contamination importante en plomb en 2021 et qui ne correspondait pas à la signature de Notre-Dame était celui des dépôts prélevés à proximité de la tour Eiffel.

De fait, des travaux de peinture y étaient en cours pour refaire une beauté à la dame de fer en vue des Jeux olympiques. Cette rénovation pourrait être en cause dans l’augmentation des niveaux de cuivre, de zinc et de plomb mesurés à proximité.


À lire aussi : Notre-Dame de Paris : une reconstruction réussie, une restauration malmenée et l’environnement oublié ?


Un panel d’analyse élargi en 2024

Nos recherches, menées dans le cadre du programme PIREN Seine, nous ont conduits à renouveler l’analyse sédimentaire au cours du temps.

Lors de la crue de mars 2024, et en prévision des Jeux olympiques de Paris 2024, en plus du plomb et des métaux, le panel de substances analysées a été élargi. Il intégrait également des molécules pharmaceutiques (par exemple, le tramadol, le paracétamol ou le diclofénac), des molécules courantes telles que la caféine (susceptible d’affecter les écosystèmes) ainsi que des drogues (par exemple, la cocaïne et la kétamine) et des pesticides.

En effet, même si la qualité de la Seine s’améliore continuellement depuis les années 1970 et que la directive européenne qui encadre la gestion de la qualité des eaux de baignade n’impose que l’analyse des bactéries indicatrices de contamination fécale, nos résultats confirment que la Seine reste le réceptacle de l’ensemble des substances qui sont utilisées dans le bassin parisien.

C’est notamment le cas lorsque des orages surviennent. Ils génèrent un ruissellement intense sur les surfaces urbaines et une partie des eaux usées et pluviales peuvent être rejetées dans le fleuve sans traitement. Et cela, en dépit des importants travaux réalisés ces dernières années – notamment pour l’aménagement d’un gigantesque bassin à Austerlitz.

Bassin d’Austerlitz : la cathédrale souterraine.

Un herbicide interdit retrouvé dans les sédiments

Les dépôts de sédiments étudiés en 2024 ont ainsi révélé des tendances contrastées : les concentrations en drogues, en produits pharmaceutiques et en plomb qui augmentent de l’amont vers l’aval, tandis que les concentrations en pesticides agricoles diminuent, au contraire, selon le même transect (ou coupe urbaine, ndlr).

En ce qui concerne les métaux, les concentrations dites « sans effet prévisible » pour les organismes aquatiques, soit les concentrations maximales pour lesquelles aucun effet indésirable n’est attendu pour l’environnement (aussi appelées PNEC, Predicted No Effect Concentration) ont été dépassées en 2024 pour le plomb à proximité de deux des sites de baignade actuels (le bras Marie au centre de Paris et le bras Grenelle, au sud-ouest). Mais l’incendie de Notre-Dame de Paris n’est pas en cause : on retrouve la signature isotopique du plomb urbain du Paris haussmannien.

Parmi les pesticides analysés en 2024, enfin, les concentrations les plus élevées ont été trouvées pour deux herbicides, à savoir la pendiméthaline et le diflufénican, les valeurs mesurées dépassant également souvent les PNEC. En outre, au moins une substance interdite depuis longtemps, à savoir l’atrazine, interdite en 2003 en France, a été détectée dans plusieurs échantillons pour lesquels la PNEC a également été dépassée.


À lire aussi : Derrière la contamination des eaux de la Seine, un problème global de gestion des matières fécales


Quelles implications sanitaires pour la baignade ?

Même si la présence de ces composés dans les sédiments ne reflète pas directement leurs concentrations dissoutes dans l’eau – et n’implique donc pas nécessairement de risque direct pour la santé humaine, les sédiments constituent une matrice utile pour caractériser le « profil » des sources potentielles de contamination susceptibles d’affecter les sites de baignade, comme le demande explicitement la directive européenne.

À la suite de ces résultats, nos recherches menées dans le cadre du programme PIREN Seine montrent qu’il serait important d’analyser plus fréquemment d’autres paramètres de qualité de l’eau, tels que le plomb, les pesticides, les médicaments et les virus dans les sédiments de la Seine.

Une telle vue d’ensemble permettrait d’améliorer l’information du public en lien avec les activités de baignade pendant les périodes à haut risque. En effet, le site Web associé aux lieux de baignade dans la Seine à Paris indique seulement si ces sites sont ouverts ou fermés à la baignade.

Cette vue d’ensemble permettrait aussi d’identifier les mesures complémentaires qui pourraient être prises pour améliorer davantage la qualité de la Seine, en identifiant les sources persistantes de polluants qui aboutissent dans le fleuve.

The Conversation

Olivier Evrard a reçu des financements du PIREN-Seine (https://www.piren-seine.fr/).

Anthony Foucher a reçu des financements du PIREN- (https://www.piren-seine.fr/).

Rémi Bizeul a reçu des financements du PIREN-Seine (https://www.piren-seine.fr/) et du programme OneWater - Eau Bien Commun (https://www.onewater.fr/fr).

Sophie Ayrault a reçu des financements de ANR-22-CE01-0016 ANTIMONY et PIREN-SEINE.

Thomas Thiebault a reçu des financements de du PIREN-Seine.

Notre recherche est financée par le projet PIREN-Seine

14.04.2026 à 16:31

Enquête mémorielle : les « Stolpersteine », un projet citoyen pour transmettre aux lycéens l’histoire de la Shoah

Anke Bédoucha, Chercheuse associée, enseignante agrégée d'allemand, Université de Rouen Normandie
Comment enseigner la Shoah aux élèves et leur transmettre le désir d’agir contre l’oubli ? L’enquête historique invite les élèves à croiser savoir et expérience pour contribuer à une mémoire vivante.
Texte intégral (1874 mots)

Comment enseigner la Shoah et transmettre aux jeunes générations le désir d’agir contre l’oubli ? Avec la littérature et le travail sur des corpus de témoignages, l’enquête historique sur les traces de personnes disparues invite les élèves à croiser savoir et expérience, leur permettant de nouer un autre lien avec l’histoire, selon le principe de la pédagogie de la résonance chère au philosophe Hartmut Rosa.


Lorsque l’on aborde les événements de la Seconde Guerre mondiale en classe, particulièrement la Shoah, la lecture de la littérature des survivants ou des survivantes, comme l’incontournable texte de Primo Levi, Si c’est un homme, déclenche chez les élèves le désir d’agir contre l’oubli.

De nombreux enseignants et des institutions comme le mémorial de la Shoah de Paris conçoivent des ateliers où l’on étudie par exemple des passages de la BD Maus d’Art Spiegelman, retraçant la vie de ses parents en tant que Juifs polonais pendant la persécution et la déportation des Juifs en centre de mise à mort, ou des textes de descendants de la troisième génération comme Daniel Mendelsohn, les Disparus, qui relatent l’enquête historiographique familiale.


À lire aussi : Parler de la Shoah aux lycéens et contribuer à leur formation éthique


Il s’agit d’aborder en classe une persécution spécifique, menant à l’assassinat de personnes pour « ce qu’elles sont » et qui touche particulièrement les adolescents en construction d’identité. Lorsque les élèves nouent des liens avec un élément particulier d’un récit, cet enseignement peut commencer comme une sorte d’autoformation. Son contenu est nécessairement historique, spécifique, fondé sur la recherche scientifique, mais il est également émotionnel,particulièrement affectif par l’importance que les jeunes lui accordent.

Le récit construit un sentiment de reconnaissance de l’autre qui résonne avec soi-même. L’objectif ne consiste pas seulement à susciter une identification compassionnelle avec les victimes, qui rendrait les élèves vulnérables et incapables d’élaborer une pensée à partir de ces connaissances, au contraire, il s’agit de les rendre capables de traduire ces catastrophes humaines en un élément important dans leur monde. En s’interrogeant et en enquêtant sur ce que le récit signifie pour eux aujourd’hui, celui-ci résonne avec leur vie.

En tant qu’enseignante d’allemand au lycée et chercheuse associée en philosophie, j’interroge les implications méthodologiques et éthiques de cette démarche dont un concept clé mérite d’être évoqué : le concept de résonance du philosophe contemporain Hartmut Rosa, qui permet de définir et de comprendre l’expérience des élèves.

Hartmut Rosa réfléchit au phénomène de l’accélération qui caractérise notre époque et ne nous permet paradoxalement pas de disposer de plus de temps, temps pourtant nécessaire pour entrer en relation avec le monde, les autres et les objets. Ces relations se situent, selon le modèle de Rosa, sur des axes de résonances et ouvrent un espace commun.

L’expérience d’un hommage vivant

Le projet présenté ici a commencé par la lecture d’extraits de récits de survivants, de leurs enfants et petits-enfants. Plusieurs groupes d’élèves ont successivement mené l’enquête dans leur ville et dans les archives départementales puis organisé une cérémonie de commémoration. Ils ont été inspirés par le travail de l’artiste allemand Gunter Demnig, qui a concrétisé le concept de mémorial décentralisé à initiative citoyenne des Stolpersteine, posés devant le dernier domicile librement choisi des personnes déportées en 1992 à Cologne. La cérémonie a été organisée en avril 2024. Depuis, les élèves entretiennent ces pavés, en se rendant sur les lieux à des dates symboliques, comme le 27 janvier, jour de la libération du camp d’Auschwitz, où la plupart des personnes juives déportées de France ont été assassinées.


À lire aussi : Stolpersteine à la mémoire des victimes du nazisme : les enjeux d’un mémorial de proximité


Gunter Deming a posé plus de 100 000 Stolpersteine permettant ainsi de réunir symboliquement des familles dispersées et assassinées lors de la persécution des juifs en Europe. Leurs pas semblent résonner de nouveau dans ce dernier lieu librement choisi où ils ont vécu une vie de famille et de citoyen. Quand nous nous penchons sur ces pavés, en lisant les noms des personnes inscrits : « Ici habitait », nous faisons l’expérience d’un hommage vivant et nous comprenons pourquoi l’artiste refuse d’y voir des pierres tombales.

Ainsi, les lycéens ont pu réunir des éléments biographiques du couple Aszendorf, retracer leur trajet depuis Lviv, une ville polonaise à l’époque. Isaac, fromager venu en France en 1930, s’est marié avec Bronislawa lors d’une visite à Lviv en 1936, et on accomplit des démarches pour qu’elle puisse enfin le rejoindre en 1939. Elle a travaillé en tant que couturière. Progressivement, les élèves ont investi l’enquête et noué une relation avec le couple. Retracer leur vie est devenu important aux yeux de tous, l’écrire et la raconter également. Ce processus s’inscrit dans la logique de l’enquête, selon le philosophe de l’éducation John Dewey.

Dewey souligne le lien intime et nécessaire entre expérience et éducation, la démarche de la pose des pavés correspond à tous les critères d’un processus qui engendre un savoir vivant. Cette expérience « féconde », « créatrice » s’inscrit dans un « continuum expérimental » : les rencontres avec les personnes déportées constituent une mémoire vivante qui fait partie de leur monde. En résonnant, celle-ci se propage à d’autres expériences à venir. Deux ans après la pose, il est remarquable que les effets de ce projet perdurent et s’amplifient. On peut tenter de le comprendre grâce au concept de résonance de Rosa.

Se vivre comme un citoyen responsable de son action

Hartmut Rosa distingue deux rapports possibles au monde : soit le monde devient indisponible et l’axe reste muet, fermé, soit je me situe sur un axe de résonance, le monde s’amplifie et il s’ensuit une transformation réciproque.

Le projet des Stolpersteine commence devant un écran d’ordinateur : le Mémorial de la déportation des Juifs de France permet de rechercher les personnes déportées dans la ville où se trouve le lycée. Avec raison, Hartmut Rosa critique l’accès unique au monde par un écran d’ordinateur. Il est indispensable de multiplier les canaux d’accès par une visite aux archives départementales pour toucher les dossiers de la police des étrangers, les photos d’identité qui surgissent parmi des formulaires et ensuite se rendre à l’adresse du dernier domicile des Aszendorf, qui est également le lieu de leur arrestation en juillet 1942.

Un pavé est posé à fleur de revêtement du trottoir sur la voie publique par Gunter Demnig, invité par les élèves, aidé par la maire. Pendant que la cérémonie se déroulait, que certains élèves lisaient leurs discours, l’artiste travaillait avec sa truelle pour les insérer dans le trou préparé en avance. Chaque Stolperstein comporte la même inscription : « Ici habitait, né·e, arrêté·e, interné·e, assassiné·e… » Le trottoir correspond justement à ce trait horizontal, qui rappelle le concept d’Hartmut Rosa : « L’axe de résonance horizontal de la famille, de l’amitié et de la politique. »

« Les Stolpersteine » (Karambolage – Arte, 2025).

L’ancrage dans le sol du pavé (96x96x100 mm) ouvre un axe vertical de résonance qui fonde les dimensions fondamentales de l’amour et du sens. L’inscription dans une dimension affective permet de se vivre comme acteur responsable de son action et de produire des souvenirs, des textes, des discours et/ou des œuvres plastiques, iconographiques ou sonores à partir d’images personnelles. Lors de la cérémonie de pose, les lycéens vivent non seulement la réhabilitation des disparus dans la communauté, mais aussi leur propre capacité à toucher autrui. Hartmut Rose évoque une forme de co-présence où l’histoire se vit par une résonance diachronique en lien entre les générations.

Reste l’axe diagonal, c’est celui du monde des objets, mais aussi celui des institutions, des fondations utiles d’une société. Il traverse l’espace cubique du pavé de part et d’autre. L’institution scolaire, les archives départementales et la municipalité font partie de cet espace. Les mains et les choses se mettent en rapport pour concrètement poser le pavé, en sollicitant l’autorisation de l’installer sur la voie publique, en publiant une note biographique sur le site Web des Stolpersteine.

Pour conclure, soulignons que Hartmut Rosa insiste par ailleurs sur une forme de résonance narrative qui fait écho à l’approche littéraire proposée dans les ateliers au lycée en expliquant la spécificité narrative de chaque extrait. Citons-le :

« En lisant, les êtres humains et les choses changent de détermination. Je plonge dans une relation au monde entièrement différente […]. Je peux les sentir, les entendre et les humer […] et cela modifie, comme par magie, ma relation à moi-même, mon estime de moi. »

The Conversation

Anke Bédoucha ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

14.04.2026 à 16:30

Marina Abramović, Li Binyuan et Paula Garcia… Quand les performances artistiques apprennent à observer le fonctionnement des organisations

Yanina Rashkova, Assistant Professor of Organizational Behavior at EDHEC, EDHEC Business School
Même s’ils semblent opposés, le monde des performances artistiques et celui des managers ont tout à gagner à dialoguer. Pour ces derniers, c’est un moyen de réfléchir à leurs pratiques.
Texte intégral (1571 mots)

Quoi de commun entre un séminaire de cadres dirigeants et une performance artistique ? Vous êtes vraisemblablement tenté de répondre d’un définif : « Rien ! » Et pourtant, si les buts n’ont évidemment rien à voir, le monde des performances offre d’intéressants enseignements pour les praticiens du management. Illustration avec les happenings signés Marina Abramović, Li Binyuan et Paula Garcia.


L’art contemporain, en particulier les performances artistiques, est souvent perçu comme ambigu et inaccessible. Prenons l’exemple de cette femme silencieuse, assise à une table dans un musée, sans rien faire, invitant des inconnus à s’asseoir en face d’elle. Quelle signification revêt cette action pour le grand public ? Faut-il la vivre, la penser ou la ressentir ?

En quoi une telle action peut-elle contenir aussi une leçon pour les managers ? Que peut apprendre d’un tel acte, quelqu’un chargé de diriger une équipe et/ou une organisation complexe ?

L’art de la performance ne concerne pas seulement l’expression per se, mais aussi la perception. Il rend visible l’invisible. Et en ce sens, il peut offrir aux managers quelque chose de profondément pratique et utile pour eux : de nouvelles façons de voir.

Dans mes recherches, j’explore comment le travail de l’artiste de renommée internationale Marina Abramović, ainsi que celui des artistes associés à son institut, peut inspirer les managers à repenser la manière dont ils observent, interagissent avec et remodèlent leurs organisations.


À lire aussi : L’art contemporain, un langage et une méthode pour penser un futur improbable


L’attention est source de transformation

En 2010, au Museum of Modern Art de New York, Marina Abramović est restée assise en silence dans l’atrium du musée pendant trois mois. Huit heures par jour. Immobile. En face d’elle se trouvait une chaise vide, et les visiteurs étaient invités à s’asseoir aussi longtemps qu’ils le souhaitaient. Elle ne parlait pas, ne bougeait pas. Elle restait simplement pleinement présente. Les visiteurs ont réagi de manière inattendue. Beaucoup ont pleuré, certains ont souri, d’autres ont tremblé. Dans le silence, des émotions longtemps enfouies (par exemple, le chagrin, la vulnérabilité, le désir, le soulagement) ont refait surface.

Cette performance met en lumière une idée cruciale : l’attention est source de transformation. Lorsqu’une personne se sent véritablement vue, ce qui est caché devient souvent visible. Pour les managers et dirigeants, cette possibilité ouvre des pistes très intéressantes et pertinentes.

Comment rendre visible l’invisible ?

Dans les organisations, les individus cachent souvent non seulement leurs inquiétudes et leurs frustrations, mais aussi leurs idées. Les réunions sont précipitées et les conversations sont décousues. Les managers écoutent d’une oreille distraite tout en consultant leurs smartphones ou en préparant leur prochaine réponse.

Le travail d’Abramović suggère une alternative radicale : offrir une présence sans partage. Créer des espaces où les employés ne sont ni interrompus, ni jugés, ni pressés. Lorsque les managers sont pleinement attentifs, sans agenda, sans être en train de réaliser d’autres tâches, ils commencent à remarquer ce que les systèmes de reporting standard ratent : les tensions subtiles, les courants émotionnels sous-jacents et, surtout, les idées plus ou moins grandes.

Cette présence que l’on peut nommer totale (ou en pleine conscience) peut devenir une pratique analytique. Elle permet alors aux managers et dirigeants de détecter des problèmes latents avant qu’ils ne s’aggravent ou de soutenir les premiers signes de grandes innovations. Ils peuvent aussi voir plus, et plus loin.

Démonter pour comprendre

Dans Breakdown, Li Binyuan grimpe sur un pilier de quatre mètres de haut qui ressemble à un monument. Une fois au sommet, il commence à marteler la structure même qui se trouve sous ses pieds. Morceau par morceau, il démantèle la base qui le soutient. La structure se révèle à travers sa désintégration. En détruisant le pilier par le haut, Li Binyuan en dévoile la construction : ses couches et sa logique interne. Ce qui rend cette performance si puissante, c’est qu’elle illustre le fait que pour comprendre quelque chose, il faut le démonter.

Pour les managers et les dirigeants, c’est une leçon percutante. Les organisations apparaissent souvent comme des entités solides et monolithiques : « la culture », « la stratégie », « la structure ». Mais ces abstractions sont constituées d’éléments plus petits et interconnectés, tels que les routines, les incitations, les normes informelles, les relations de pouvoir et les habitudes quotidiennes. Tant que ces éléments – et d’autres – restent intacts et incontestés, l’organisation peut sembler impénétrable.

Pour vraiment comprendre comment fonctionne une organisation, les managers doivent la démonter – conceptuellement, et parfois concrètement. Cela ne signifie pas une destruction au sens littéral. Cela signifie isoler et examiner ses éléments constitutifs pour mieux la cerner.

Se transformer pour révéler les liens

Dans Noise Body, Paula Garcia commence par se présenter le corps dénudé et visible tel qu’il est. Elle fixe ensuite de puissants aimants sur elle-même. Un à un, des collaborateurs ajoutent des fragments de métal industriel (boulons, éclats, ferraille) jusqu’à ce que son corps soit presque entièrement recouvert de débris mécaniques. À mesure que le métal s’accumule, nous commençons à percevoir des relations jusque-là invisibles : la force magnétique qui lie les éléments entre eux. L’acte de transformation rend visible la structure des liens.

Pour les managers, cette performance comporte une autre leçon. Parfois, on ne comprend les liens entre les éléments de l’organisation que lorsque l’on modifie délibérément leur disposition. Les organisations sont des réseaux de composants interconnectés : rôles, technologies, incitations, flux de communication, espaces physiques.

Ce qui sous-tend la hiérarchie

Pourtant, ces liens restent souvent cachés. Nous voyons des départements ou des services, pas des dépendances. Par exemple, passer de primes individuelles à des récompenses à l’échelle d’une équipe révèle souvent à quel point les tâches sont, en réalité, étroitement interdépendantes. Les employés qui percevaient auparavant leur travail comme autonome se rendent soudain compte dans quelle mesure ils dépendent de la contribution des autres. Cette refonte fait apparaître le réseau qui sous-tend la hiérarchie.

Fondation Beyeler, 2015.

Le travail artistique de Garcia suggère que la compréhension ne vient pas toujours de l’observation d’un système stable. Parfois, nous devons modifier la configuration ou réorganiser les éléments pour mieux voir la façon dont ils s’attirent, se repoussent ou se contraignent mutuellement.

Le management, un art de l’observation

Après tout, l’art de la performance n’est pas si abstrait ni si ambigu, et peut même s’avérer utile aux managers d’organisations contemporaines en leur apprenant à mieux percevoir leur environnement organisationnel.

Le travail de Marina Abramović nous enseigne que lorsque les managers ralentissent le rythme et accordent toute leur attention, des éléments cachés apparaissent. Celui de Li Binyuan démontre que pour comprendre une structure, il faut être prêt à la démonter. Enfin, les performances de Paula Garcia montrent que lorsque l’on réorganise les éléments d’une structure, les liens qui les unissent deviennent visibles.

Si l’art de la performance ne fournit pas de techniques de gestion toutes faites, il met en avant des conseils pratiques pour aider les managers à affiner leur capacité d’observation. Et dans les organisations complexes, cette capacité à voir plus clair pourrait bien constituer l’avantage stratégique par excellence.

The Conversation

Yanina Rashkova ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

14.04.2026 à 16:30

L’opéra et le ballet, dépassés ?

Guillaume Plaisance, Maître de conférences en sciences de gestion spécialiste de la gouvernance et du management non-lucratif, Université de Bordeaux; IAE Bordeaux - Université de Bordeaux
Les propos de Timothée Chalamet sur l’opéra et le ballet relancent le débat sur la place de ces arts aujourd’hui, entre héritage culturel et pratiques contemporaines.
Texte intégral (1681 mots)

En affirmant, lors d’une interview, que « plus personne n’en a rien à faire » de l’opéra et du ballet, l’acteur Timothée Chalamet a suscité de vives réactions. Ses propos réactivent une opposition classique entre formes culturelles dites légitimes et pratiques culturelles populaires.

L’opéra est, en effet, pour beaucoup, la quintessence de la culture bourgeoise. Est-il pour autant dépassé ?


En déclarant que l’opéra et le ballet sont des arts dépassés, Timothée Chalamet a provoqué une levée de boucliers dans le monde de la culture. Beaucoup de maisons d’opéras, de danseurs et même de chanteurs y sont allés de leur commentaire humoristique ou plus amer, se mobilisant sur les réseaux sociaux pour démontrer combien ces arts sont d’une pleine actualité… À raison ?

Un public qui se diversifie peu à peu et répond toujours présent

En premier lieu, du point de vue du public, la fréquentation des maisons d’opéra tend à connaître une grande stabilité : les taux de remplissage des salles sont en moyenne de 84 % pour les œuvres de danse et de 77 % pour les opéras. Néanmoins, tel que le rappelle la Cour des comptes, lorsque les œuvres jouées jouissent d’une plus grande notoriété, les taux de remplissage peuvent atteindre 92, voire 99 % (et l’exemple retenu par la Cour des comptes est celui de Pelléas et Mélisande, qui reste un opéra très classique). Ce sont en moyenne deux millions de spectateurs par an qui se rendent dans des maisons d’opéra en France. La danse et le ballet comme l’opéra continuent donc bien à attirer le public.


À lire aussi : Ringarde, la musique classique ?


Contrairement au stéréotype, en France, le prix des places ne constitue pas plus une barrière à l’entrée que dans certains autres domaines du spectacle vivant : le prix moyen d’un opéra est de 40,90 € et celui des spectacles chorégraphiques est de 17,50 €. A titre de comparaison, le prix moyen d’une place de concert est de 43 €.

Bien sûr, les prix atteignent parfois plus de 300 € pour les meilleures places d’opéra (autant que pour certaines stars au Stade de France… ou pour Céline Dion !), mais les maisons d’opéra se sont efforcées de diversifier leurs tarifs et, par extension, leurs publics, notamment les plus jeunes. Ainsi, malgré une moyenne d’âge autour de 51,5 ans, un spectateur sur trois a moins de 46 ans et 19 % a moins de 30 ans.

Il faut aussi noter toute une stratégie de diversification qui leur permet de diffuser leurs œuvres au cinéma, en streaming, de proposer des œuvres enregistrées sur Apple Music Classical, qui affirme être « le plus grand catalogue de musique classique au monde avec plus de 5 millions de morceaux »… En somme, quitter les murs de la maison d’opéra pour tenter de toucher le plus grand nombre. Ces efforts semblent payer : « depuis 2006, près de 30 millions de billets vendus pour les diffusions en salles » des opéras du Metropolitan Opera de New York, tandis que l’Opéra de Paris a dépassé la barre des 100 000 billets vendus.

Un rapport à la culture qui interroge

Affirmer que « personne n’en a plus rien à faire » de ces deux arts revient aussi à considérer que jouer et faire vivre des œuvres datant de siècles passés présente peu d’intérêt pour les contemporains. Il s’agit d’un rapport à la culture linéaire, qui hiérarchise le présent par rapport au passé. Ce dernier ne constituerait plus des fondements sur lesquels construire l’avenir mais plutôt un temps duquel s’affranchir.

La philosophe Hannah Arendt, dans la Crise de la culture (1961), proposait l’idée opposée. Loisir et culture sont distincts : le premier renvoie à une forme de consommation de produits conçus pour satisfaire un public sans effort qui ne cherche qu’une distraction. La culture, elle, exige un rapport actif à l’œuvre, une réflexion et un jugement. Or ce glissement de la seconde vers le premier réveillait une inquiétude chez Arendt, appelée la culture de masse : les œuvres culturelles seraient vidées de tout message, de portée critique ou mémorielle, pour ne devenir que des loisirs à des fins de divertissement.

Ainsi, si l’on prolonge cette analyse, ce n’est pas l’opéra qui serait « dépassé », mais plutôt que les sociétés contemporaines allouent de moins en moins de temps et d’attention aux activités qui requièrent un effort. Il est vrai que l’accès à un opéra ou à un ballet présuppose un effort, voire un apprentissage de la tradition, dirait Arendt.

Critiquer le ballet et l’opéra renvoie donc à notre rapport à la durée, à l’effort et à la transmission des clés de compréhension d’un art.

C’est souvent du fait de cette transmission et parce qu’elle est facilitée au sein des catégories socioprofessionnelles dites supérieures que l’opéra ou le ballet ont été renvoyés aux formes culturelles dites légitimes, opposées à la culture plus populaire.

Les propos de Chalamet, avatar de films plutôt populaires, pourrait donc s’interpréter comme une revanche de cette culture sur les cultures « légitimes »… mais la sociologie contemporaine critique cette vision duale, notamment parce qu’elle étudie la culture « par le haut » et que les cultures hybrides sont de plus en plus fréquentes, le dernier album de la chanteuse pop espagnole Rosalia étant un exemple parmi tant d’autres.

Des œuvres qui éclairent le présent

Enfin, cette attaque contre les opéras ou les ballets serait renier le caractère intemporel de beaucoup de messages portés par ces arts. Certains tiennent des propos ou mettent en scène des actions ou des personnages qui, au XXIe siècle, interrogent. Des metteurs en scène proposent des relectures d’œuvres (sans modifier le livret ou la musique) afin de transmettre un message particulièrement contemporain. Le ballet Giselle par Akram Khan est ainsi revisité sous l’angle des inégalités et des immigrations.

Les choix de programmation des maisons d’opéra peuvent également être particulièrement dans l’air du temps : prenons l’exemple de la création sur le féminicide de Carmen par Alexandra Lacroix et Diana Soh, Carmen Case, un opéra contemporain jugeant José, son assassin ; du futur opéra Perle noire proposé à l’Opéra de Paris en hommage à Joséphine Baker, ou encore des opéras de Philip Glass qui, par la musique, ouvrent la porte de l’histoire (le pharaon Akhenaton ou Gandhi avec Satyagraha).

Les arts qui ont traversé les siècles peuvent apprendre à penser autrement, au-delà de l’immédiateté, d’une forme de surconsommation culturelle et de scrolling : l’art vivant est une forme de slow culture qui pousse à l’introspection et à la contemplation. Ce sont des qualités qui seront indispensables pour penser les défis de demain.

Surtout, et sans que ces dernières lignes prétendent épuiser la question, qui, dans une société, doit et peut définir ce qui est dépassé ? Un acteur de la culture peut-il, en soi, déterminer si les autres sont toujours d’actualité ? De cette maladresse, nous pourrons tirer un riche débat de fond.

The Conversation

Guillaume Plaisance ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

14.04.2026 à 12:05

Qu’est-ce que l’aphasie, cause du rapatriement d’urgence des astronautes de l’ISS ?

Didier Courbet, Professeur et Chercheur en Sciences de la Communication & Psychologie de la santé, Aix-Marseille Université (AMU)
Outre le cinéma, Jean-Paul Belmondo, Sharon Stone et Bruce Willis ont un autre point commun : tous trois ont été frappés d’aphasie. Une perte de la parole qui touche aussi des centaines de milliers de Français.
Texte intégral (2389 mots)
Mike Fincke, astronaute de la Nasa et ingénieur de vol de l’Expédition 73, à bord de l’International Space Station (ISS), la Station spatiale internationale, en août 2025. NASA, CC BY-NC-SA

L’aphasie, une subite perte de la parole, ne se retrouve sous le feu des projecteurs que lorsqu’elle touche des personnalités médiatiques. Pourtant, ce trouble, qui entraîne non seulement de grandes difficultés de communication, mais aussi une grande détresse psychique, affecte des centaines de milliers de personnes en France.


En janvier dernier a eu lieu la première « évacuation médicale » de l’histoire de la Nasa. Quatre astronautes de la Station spatiale internationale (ISS) ont été ramenés sur Terre en urgence. Ce n’est toutefois que le 27 mars que l’agence spatiale états-unienne a donné plus de détails sur l’incident à l’origine de ce rapatriement exceptionnel.

Le public a alors appris que, le 7 janvier dernier, un membre de l’équipage, l’astronaute Mike Fincke, a expérimenté un épisode d’aphasie. Cet ancien colonel de l’US Air Force âgé de 59 ans s’est subitement retrouvé incapable de parler, alors qu’il était en train de prendre son repas.

En France, on estime que plus de 300 000 personnes souffrent d’aphasie. Pourtant, cette affection reste peu connue du grand public. Rien d’étonnant à cela, puisque ce sujet fait rarement la une des médias, sauf lorsqu’une célébrité en est victime, comme ce fut le cas pour Jean-Paul Belmondo et Sharon Stone au début des années 2000, ou Bruce Willis en 2022. Voici ce qu’il faut savoir de ce trouble.

Quand le langage se perd

L’aphasie est une déficience acquise du langage. Elle résulte le plus souvent d’un accident vasculaire cérébral (AVC), mais peut également survenir à la suite d’un traumatisme crânien, d’une tumeur cérébrale, d’une infection ou d’une maladie neurodégénérative.

Ce trouble se manifeste par des difficultés d’expression ou de compréhension du langage oral ou écrit. Mike Fincke, l’astronaute de l’ISS, a rapidement retrouvé ses capacités à parler. Malheureusement, ce n’est pas le cas de la majeure partie des personnes aphasiques, lesquelles vivent en permanence avec cette affection.

L’aphasie est reconnue par l’Organisation mondiale de la santé (OMS) comme un « handicap de communication ». Elle entraîne en effet des limitations importantes en matière de communication, qui conduisent également à des restrictions durables de participation sociale, familiale, professionnelle et même citoyenne.

Des capacités cognitives préservées

Globalement, chez les personnes aphasiques, les pensées, les sentiments, « l’intelligence » et les capacités cognitives utilisées dans la vie quotidienne ne sont pas altérées. De nombreux travaux ont montré que les processus cognitifs fondamentaux peuvent demeurer préservés malgré des atteintes sévères du langage.

Les personnes aphasiques savent ce qu’elles veulent dire, formulent des intentions de communication claires et conservent leur capacité à comprendre le monde et à prendre des décisions. Elles sont capables d’évaluation, de jugement, de discernement, de décision et gardent de manière générale leurs aptitudes à effectuer des choix fondés sur des préférences, à planifier des actions, à élaborer des solutions pour des situations problématiques du quotidien.

Ces patients rencontrent cependant des difficultés parfois majeures pour exprimer leurs pensées et interagir avec autrui. Ce problème constitue une source de frustration et de souffrance intenses et persistantes non seulement pour elles, mais également pour leur entourage.

Un point important à garder à l’esprit est que les conséquences de l’aphasie vont au-delà de problèmes pratiques de communication. Les personnes qui en souffrent développent souvent des troubles psychologiques majeurs. Si l’on considère l’ensemble des maladies et des handicaps, l’aphasie est celle qui est liée aux souffrances psychologiques et sociales les plus fortes, davantage encore que les handicaps lourds, comme la tétraplégie, ou des maladies fortement angoissantes, comme le cancer.

En témoigne le taux important de suicides, de troubles dépressifs et anxieux ainsi que de stress délétère chez les personnes qui souffrent d’aphasie. En outre, leurs aidants, souvent démunis, se retrouvent eux-mêmes fréquemment en forte détresse psychologique.

Une détresse sévère et insuffisamment prise en charge

Dans les mois qui suivent un AVC, quasiment toutes les personnes aphasiques souffrent d’une détresse psychologique élevée. Celle-ci résulte d’un fort sentiment de solitude et d’une faible satisfaction sociale. Par ailleurs, les trois quarts d’entre elles présentent des symptômes de dépression.

Cette situation ne s’améliore guère avec le temps. En effet, un an après l’AVC, plus de 60 % des patients sont encore concernés. Sur la durée, environ une personne sur deux continue de présenter des symptômes dépressifs. Et deux ans après l’AVC, une personne aphasique sur trois souffre d’une dépression avérée.

Par ailleurs, environ 44 % des personnes aphasiques développent d’importants symptômes anxieux et beaucoup sont en plus soumis à un fort stress chronique associé à une détresse émotionnelle. Plus inquiétant encore, le risque de souffrance psychologique reste élevé très longtemps et persiste toujours dix-huit ans après l’accident vasculaire.

Ce handicap de communication contraint de nombreux individus à développer des stratégies d’évitement : limiter les contacts téléphoniques, abandonner des loisirs impliquant des échanges verbaux ou des discussions avec les autres, comme des repas entre amis. La participation sociale diminue dans un grand nombre de cas. Les relations avec les amis se raréfient, limitant alors les contacts à la famille proche, à la condition que celle-ci ne les délaisse pas à son tour… L’individu est souvent isolé socialement, parfois marginalisé.

Il ressent dès lors une « solitude existentielle » liée à la difficulté à participer pleinement aux échanges de la vie quotidienne. L’identité individuelle et sociale, tout comme l’image de soi, s’altèrent également. Il est difficile pour la personne aphasique de parler d’elle, de ses idées, de se confier, de s’affirmer, de se défendre, c’est-à-dire de développer ces comportements essentiels à l’équilibre mental et au lien social.

La difficulté à parler peut en outre dégrader le sentiment d’autonomie, de compétence et l’estime de soi. Ce mouvement est alimenté par de fréquentes expériences sociales déclenchant des malentendus et des dévalorisations, possibles sources d’anxiété sociale. De plus, certains des rôles sociaux antérieurs à l’aphasie (professionnels, associatifs, etc.) sont souvent profondément modifiés ou abandonnés, ce qui prive la personne de fonctions socialement valorisées et de repères identitaires majeurs.

Des erreurs de jugement aux conséquences considérables

Largement méconnu du grand public et de certains professionnels de santé insuffisamment formés, ce handicap invisible est mal compris socialement, ce qui conduit fréquemment à des interprétations erronées.

Nombreux sont les expériences vécues et témoignages rapportés par les cadres de la Fédération nationale des aphasiques de France, révélant des situations aussi choquantes qu’intolérables au regard des droits humains. C’est, par exemple, le cas de cet homme aphasique qui s’est retrouvé placé en cellule de dégrisement par des représentants des forces de l’ordre qui pensaient, à tort, qu’il était ivre.

Aberrante aussi, la situation de cette femme aphasique qui, à la suite d’une expertise judiciaire, a été jugée comme n’étant plus en possession de ses capacités intellectuelles. Le psychologue, désigné « expert judiciaire », ne connaissait pas l’aphasie… Après s’être entretenu avec elle, il a estimé, de manière erronée, qu’il était impossible qu’elle ait pu prendre elle-même des décisions concernant ses achats et ses dépenses, ce qui a conduit à accuser son aidant familial d’avoir agi à sa place. Les proches de cette femme ainsi que les médecins qui la suivaient ont alors dû rapidement se mobiliser pour faire innocenter son aidant, injustement accusé.

Ces situations révèlent combien la confusion entre troubles du langage et altération des capacités intellectuelles peut conduire à des jugements erronés, avec des conséquences parfois graves, au point de dénier les droits humains fondamentaux. La méconnaissance de l’aphasie contribue non seulement à la mise à l’écart des personnes qui en sont victimes, mais aussi à leur « infantilisation », voire au développement d’attitudes agressives à leur égard.

Ce déficit de sensibilisation renforce leur stigmatisation sociale, leur isolement relationnel, et donc leur mal-être. Les problèmes psychologiques et sociaux liés à l’aphasie sont aujourd’hui largement documentés, et les recherches dépeignent un tableau particulièrement alarmant.

Quelles solutions ?

Malgré l’ampleur de ces difficultés et la souffrance ressentie, l’accès aux soins psychologiques demeure fortement restreint. Les psychothérapies classiquement pratiquées par les psychologues et les psychiatres reposent essentiellement sur le langage verbal, ce qui les rend peu accessibles aux personnes aphasiques. Leur souffrance est donc rarement prise en compte.

C’est d’autant plus problématique que les politiques publiques ignorent l’aphasie, en dépit de son coût économique considérable, estimé pour la France à plus d’un milliard d’euros annuels, en intégrant les dépenses de soins, les pertes de productivité et l’aide informelle apportée par les proches aidants.

Heureusement, des recherches scientifiques récentes montrent que des solutions existent pour venir en aide aux personnes aphasiques. Par exemple, il existe des psychothérapies non centrées sur le langage dont l’efficacité est scientifiquement documentée. Cependant, ces dernières ne sont pas connues en France, car les personnels soignants sont insuffisamment formés aux troubles du langage en général, et à ce handicap de la communication en particulier.

Dès lors, des personnes aphasiques et leurs aidants ont pris eux-mêmes les choses en main, via le tissu associatif, dans une logique « d’empowerment collectif ».

Ainsi, la Fédération nationale des aphasiques de France (FNAF), qui se mobilise depuis des années pour améliorer la reconnaissance, la visibilité et l’accompagnement des personnes aphasiques dans notre pays, s’apprête à lancer bénévolement un plan de grande ampleur pour contribuer à agir pour la santé mentale et le bien-être des personnes aphasiques, en proposant des formations gratuites aux psychiatres, aux psychologues et aux orthophonistes de l’Hexagone.

Au niveau international, l’Association internationale aphasie (AIA) cherche à mettre en place une journée internationale de l’aphasie. La FNAF a également demandé qu’une telle journée soit reconnue par l’État en France et, plus particulièrement, par le ministère de la santé, qui est chargé des personnes en situation de handicap.

Pour prendre en charge un problème d’aphasie, la Nasa n’a pas hésité à rapatrier ses astronautes depuis l’espace. Reste maintenant aux pouvoirs publics français à montrer qu’ils ont eux aussi « les pieds sur terre », en soutenant a minima les actions associatives visant à mieux faire connaître l’aphasie et à améliorer l’accompagnement des personnes qui en sont victimes.

The Conversation

Didier Courbet est membre du conseil d’administration et du conseil scientifique de la Fédération Nationale des Aphasiques de France (FNAF).

13.04.2026 à 16:58

Delivery platform workers: a survey lifts the lid on extreme hardship

Marwân-al-Qays Bousmah, Chargé de Recherche, Ined (Institut national d'études démographiques)
Annabel Desgrées du Loû, Directrice de recherche, Institut de recherche pour le développement (IRD)
Anne Gosselin, Chargée de recherche en démographie de la santé, Ined (Institut national d'études démographiques)
Flore Gubert, Directrice de recherche, Institut de recherche pour le développement (IRD); Université Paris Dauphine – PSL
Kevin Poperl, Ingénieur d'étude, économie et statistiques, Institut de recherche pour le développement (IRD)
An unprecedented occupational health study on takeaway delivery workers in France reveals shocking working conditions amid Europe-wide debate on their entitlement to standard employee rights.
Texte intégral (2209 mots)

The familiar silhouette of bike and scooter delivery workers has become part of Paris’ urban landscape. For many city dwellers who rely on them to deliver meals to their door, these precarious workers remain largely “invisible” in surveys and public statistics.

Yet, the availability of quality data about online platforms’ delivery drivers is a major issue. Legally, the transposition into French law of the European Directive (EU) 2024/2831 on the legal framework around platform work (which aims to provide better protection to delivery couriers), expected before December 2 2026, makes it essential to have a better understanding of this population in order to shed light on regulatory choices.

Where occupational health is concerned, an expert appraisal by Anses (March 2025) exposes an alarming situation, and underlines the lack of available data for understanding the health status of these gig workers and implementing appropriate public policies.

It is in this context that France’s Santé-Course project was launched. Led by an interdisciplinary research team from the Institut de recherche pour le développement (IRD) and the Institut national d’études démographiques (INED), associations working with delivery people (Association de mobilisation et d’accompagnement des livreurs, AMAL; Collectif pour l’insertion et l’émancipation des livreurs, Ciel; Maison des livreurs de Bordeaux; Maison des couriers de Paris; Médecins du monde) and a peer group made up of couriers or former couriers, this project focused on documenting working conditions as well as delivery workers’ physical and mental health, based on a survey conducted among more than 1,000 of them in Paris and Bordeaux.

The study also examines exposure to occupational risks, police checks and cases of discrimination. Hereafter, we turn attention to the profiles of these workers and their working conditions, but the full results are available here.

What does platform work consist of ?

The rise of digital work platforms in France dates back about fifteen years and results from the conjunction of two series of factors: the adoption of new legal norms (notably the Novelli law of 2008 establishing self-employment status), on the one hand, and the generalisation of information and communication technologies as well as the democratisation of their use, on the other. The first point has gradually made the labour market more flexible and paved the way for massive employment of self-employed workers who are taken on by these platforms, while the second one has provided the latter with the conditions for their large-scale deployment.


À lire aussi : Requalifier ou réguler ? Les controverses du dialogue social des travailleurs des plates-formes


In the food delivery sector, digital platforms play a role as intermediaries between restaurant owners and customers, and between restaurateurs and deliverers. Their operations are based on matching algorithms, pricing, and disconnection that allow them to manage a vast network statutorily independent workforce, without having to resort to traditional company management methods.

Delivery drivers’ self-employed status places them outside the occupational health and safety regulatory framework that is applicable to employees. Their situation is similar to a return to task-based work, understood as project-based contractual work between clients and those who carry out the work.

As a result, social security contributions, which grant workers social protection and the legal obligations related to protecting workers, are transferred from the client to the self-employed worker. This puts delivery contractors in a highly precarious situation and makes them economically dependent on the platforms, which control access to deliveries and the terms of their remuneration.

A population that tends to be off the survey radar

Investigating platform delivery workers involves several methodological obstacles, the main one being admin-related: none of the company directories listing businesses located in France (Sirene, Sirus or Sine), usually used as sampling frames to draw samples from annual business surveys, allows reliable and exhaustive identification of platform deliverers. This makes it, therefore, difficult to know precisely their total number and their geographical distribution in France, thus making any approach by traditional sampling impossible.

Another problem is posed by the phenomenon of account leasing, which allows delivery drivers to carry out their activities under a third party’s account. This phenomenon also undermines the use of data from the platforms themselves, which lacks transparency (see the Anses March 2025 report).

As a result, only a direct canvassing protocol carried out in public places or community spaces is able to produce reliable data. This is how the Santé-Course project team managed : to meet delivery people at their pick-up destinations in Paris and Bordeaux.

The two French cities were selected because a significant part of these workers are concentrated there and they are home to partner associations of the Santé-Course project. In order to fully represent the diversity of situations experienced by delivery workers and, thus, obtain results that best reflect the reality of the entire population studied, an initial mapping survey of meeting points and the number of delivery people visiting them at different times of the day was carried out, which then served as a basis for the deployment of survey interviewers.

The survey was conducted during the first half of 2025, among delivery drivers over 18 years old, who had made at least one delivery via a digital platform in the month before the survey and were able to give informed consent. A total of 519 and 485 delivery people were interviewed in Paris and Bordeaux, respectively.

Nearly 1 in 2 delivery people spent an entire day without eating in the last twelve months

The results paint a remarkably homogeneous socio-demographic picture on several dimensions. The delivery workers are almost exclusively men (98.9%), immigrants (97.8%) and relatively young – their median age is 30 years old.

Their level of education, by contrast, is heterogeneous : while one quarter did not go beyond primary level education, nearly one in five went on to higher education, with significant differences between Paris (28.3%) and Bordeaux (9.6%).

Most of them recently arrived in France (median since 2020) and are mainly from West Africa and South Asia in Paris, from West Africa and North Africa in Bordeaux. Their administrative status is extremely fragile : nearly two thirds of them do not hold a residence permit.

This administrative hardship is coupled with material deprivation. The majority of the workers do not have a place to call their own : in Paris flat shares and lodging with people they know are the dominant trend, while communal supported housing and collective accommodation are more common in Bordeaux.

Even more worrying, nearly 18 % report living in unstable housing conditions (emergency accommodation, squats or welfare hotels). Food insecurity is just as significant : nearly one in two delivery people in Paris (48%) and more than one in three in Bordeaux (36.7%) report having spent at least a full day without eating, due to lack of money, over the past twelve months.

Nearly 73.5 % work under a third-party account

Those who were surveyed have been in business for some time: three quarters had never worked for a delivery platform before 2021, and more than one third of Parisian delivery workers started in 2024 or 2025.

Two platforms, Uber Eats and Deliveroo, largely dominate the market, but the simultaneous use of delivery services with several apps (or “multi-apping”) remains a very small minority, affecting less than 2% of them.

Economic dependence on this work is massive: 91% declare that delivery constitutes the bulk of their income, and about 95% do not engage in any other paid activity or are completing training alongside. Dependence on delivery work also appears to be largely constraine: nine out of ten deliverymen without a residence permit say they would cease or drastically reduce this type of work if they regularised their undocumented status.

Finally, the phenomenon of account rentals is massive: three quarters of delivery people work under the account of a third person, with a proportion reaching 81% in Paris. This phenomenon, which stems from the administrative precariousness of delivery people, many of whom are undocumented, considerably clouds the statistics produced by the platforms and highlights the need for surveys conducted directly with workers on the ground.

On average, 63-hour working weeks at a gross hourly rate of 5.83 euros

The delivery workers get an average gross monthly wage of 1,480 euros, or 880 euros after tax once all work-related charges are deducted. (including equipment and fuel expenses, insurance costs, taxes and, for three quarters of them, the rental cost of an account, which averages 528 euros per month and absorbs more than a third of gross income on its own).

The average gross hourly rate is a meagre 5.83 euros. This is well under France’s minimum wage (11.88 euros at the time of the survey) for significant volumes of work : on average 63 hours per week, six to seven days a week, ten months a year, with even more hours for those who rent an account. At this rate, they clock up 497 miles per month – such mileage is likely to be underestimated due to the omission of certain routes in the platform data.

This overview paints a picture of the “working poor”, a population forced to work extremely hard to earn an income after tax that remains well below the poverty line (set at 1,288 euros net per month for a single person).

The studies that will be conducted by our team over the coming months aim to shed light on the extent to which this situation affects the health of delivery workers.

More than half of the delivery drivers surveyed have already had at least one accident as a result of their work, and 44.8% of them believe that their health status has deteriorated compared to when they started working in the delivery industry.


This project received financing from l’Agence nationale de la recherche, l’Institut Convergences Migrations, la Ville de Paris, l’Inserm and l’Institut Paris Public Health at l’Université Paris Cité.


A weekly e-mail in English featuring expertise from scholars and researchers. It provides an introduction to the diversity of research coming out of the continent and considers some of the key issues facing European countries. Get the newsletter!


The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.

13.04.2026 à 16:46

When war comes for Iran’s cultural heritage

Parsa Ghasemi, Archaeologist, Postdoctoral research fellow at Paris 1 Panthéon-Sorbonne, and research member at ARSCAN Nanterre, Université Paris 1 Panthéon-Sorbonne
An archaeologist examines the cultural obliteration Iran has incurred as a result of strikes in the US-Israel-Iran conflict. How can such damage be compensated and which global organisations can the country turn to?
Texte intégral (2148 mots)

131 sites and museums have suffered damage or been destroyed during the US and Israeli war against Iran between February 28 and April 8. Amid uncertainty over what will happen next as peace talks failed during the two-week conditional ceasefire, it is an opportune time to take stock of the state of Iranian cultural heritage.

With its vast territory and strategic position in West Asia, Iran has long been one of the principal centres of human activity and cultural development.

As one of the world’s oldest centres of civilisation, Iran has preserved an exceptionally rich archaeological and historical landscape shaped over several millennia. This heritage reflects a long sequence of cultural traditions, from the Palaeolithic (prehistoric) times through the Elamite kingdom (2700 BCE and 539 BCE), the Median dynasty (c. 700 to 550 BCE), the Achaemenid (559 to 330 BCE), the Parthian (247 BCE to 224 CE) and Sasanian (224 to 651 CE) empires and into the Islamic periods.

This continuity is visible in the country’s archaeological sites, historic cities, monuments, and museum collections. It is estimated that Iran contains several hundred thousand archaeological sites, although only a small proportion have been formally registered on the national heritage list since the beginnings of state heritage protection in the early twentieth century.

The international significance of this heritage is underscored by the inscription of 29 Iranian properties on the UNESCO World Heritage List, comprising 27 cultural and two natural sites. Last month, the UN cultural agency weighed in, voicing concern over the protection of Iran’s national treasures and sites of “cultural significance”, such as the Qajar-era Golestan Palace, following airstrikes. In a recent statement, the International Council on Monuments and Sites (ICOMOS) condemned any destruction – whether intentional or incidental – of cultural and natural heritage, deploring the “serious implications for cultural continuity” and the “risk of irreversible loss”, more broadly across the region as a result of the conflict.

What’s the damage?

An emerging official inventory of cultural damage recorded by the Ministry of Cultural Heritage, Tourism and Handicrafts of Iran shows that more than 131 archaeological sites, museums, and historical monuments (Figure 1.) in Iran have been damaged across 17 provinces and 26 cities.

The highest concentration of damage has been recorded in Tehran, where 61 sites were affected. It should be noted, however, that these figures are based on city-level assessment and do not include archaeological sites situated outside urban areas. In addition, historic urban fabrics are listed separately. The inventory recorded up to March 29 reveals a grave and highly uneven impact on Iran’s heritage, with destruction concentrated in some of the country’s most important historic and monument-rich cities.

The 1954 Hague Convention states that damage to any nation’s cultural property is a loss to the heritage of all humanity, which is why it requires international protection. Protecting cultural heritage is also tied to protecting human rights, including cultural rights, identity, memory, and human dignity.

As a result, intentional attacks on cultural heritage during armed conflict are not only morally unacceptable they could also violate international law and constitute war crimes, as confirmed by the International Criminal Court in the Al Mahdi case. This protection is further strengthened by UN Security Council Resolution 2347 of 2017, which emphasises the importance of safeguarding cultural heritage in conflict situations.

Tehran and Isfahan: the worst hit

What emerges from the inventory is not a scattered pattern of isolated incidents. It is a concentrated “geography of damage”, falling most heavily on provinces that hold some of Iran’s richest cultural assets, above all Tehran and Isfahan.

These are not marginal places in the historical map of Iran. They are among the country’s principal repositories of architectural memory, museum collections, 15th to 19th-century royal compounds, religious monuments, and civic heritage.

The most significantly damaged monuments in Tehran include Golestan Palace, Tehran’s Historic Arg, the Historic Grand Bazaar of Tehran, Marble Palace, the Historic Shahrbani Building, the Former Senate Building, Sepahsalar Mosque, and the Farahabad Palace Museum.

In Isfahan Province, damage has been reported at the Naqsh-e Jahan Square complex, the Chehel Sotoun Palace, the Abbasi Friday Mosque, etc.

The provincial distribution is among the most revealing aspects of the inventory. Tehran alone accounts for 61 counted sites, representing 46.6 percent of the total. Isfahan follows with 23 sites, or 17.6 percent. Together, these two provinces contain 84 damaged entries, equivalent to 64.1 percent of the inventory. When Khuzestan and Kurdistan are added, the top four provinces account for 108 sites, or 82.4 percent of all counted entries.

This means the damage pattern is not spatially even. It is clustered in provinces, where museums, palace complexes, historic neighbourhoods, old institutions or schools, and monumental architecture are densely concentrated.

The hypothesis of a strategically targeted assault

The typological profile of the damaged heritage is equally telling. The largest single group consists of historical houses, mansions, and residences totalling 33 entries. These are followed by civic and institutional buildings, such as schools, with 16 entries, and famous historical mosques, with 12.

The inventory also identifies historical forts, mills, and baths (hammam). The report additionally records 10 palaces or royal complex entries dating back to the 15th-19th centuries CE, indicating that the damage reaches deeply into architectural forms associated with old districts of the war-affected cities.

The document states that 50 museum units refer to museum components embedded within larger complexes, palace compounds, and multi-part heritage sites.

The cultural loss is therefore both architectural and institutional, affecting not only structures but also the curatorial and interpretive frameworks housed within them. According to Science, cultural institutions are taking measures to protect its moveable heritage, including boxing up museum items for safekeeping and installing the Blue Shield logo designed to indicate protected heritage on more than 100 cultural monuments.

The source also names 7 historic urban fabrics separately, suggesting that the true scope of impact extends beyond single monuments to wider urban heritage zones across Tehran, Isfahan, Sanandaj, Kermanshah, Qom, Khansar, and Tabriz. Old parts of the cities function as “layered cultural organisms”.

When an urban fabric is damaged, what is threatened is not only a set of buildings, but a continuity of streets, spatial memory, social practice, and architectural identity and art. Some of these fabrics were used for several hundred years and are a testimony of old traditions, artefact production, and Persian culture and identity.

If future surveys and analyses of Iranian sites are carried out, we will see that many sites outside the urban centres have been damaged. This damage has not been limited to buildings and museums, but has also affected archives of ancient manuscripts held in collections and places of worship such as mosques, churches and synagogues.

The bombing of the Cultural Heritage Office in Khorramabad city makes the deliberate nature of this destruction even clearer. These intentional acts of destruction are not limited to cultural heritage, but also extend to essential infrastructure, such as the unfinished Bridge in Karaj, the Pasteur Institute, and universities such as Shahid-Beheshti, Sharif and Elm-o Sanat (Science and technology).

What is dangerous here, as we see, is a portrait of cultural loss at multiple scales, from individual structures to complex heritage environments.

The chronological range of the damaged sites is striking. It extends from Kuh-e Khawaja in Sistan, one of south-eastern Iran’s most important archaeological sites, with remains dating to the Parthian, Sasanian, and early Islamic periods, to Siraf in Bushehr, the famous late antiquity and early medieval port city on the Persian Gulf, and to the tomb of Baba Taher in Hamedan, the celebrated 11th-century Persian poet.

The damage was not confined to historical monuments alone, but also reached the modern building of the Iranian Cultural Heritage office.

The targeting of cultural heritage in Iran, the historical memory and enduring identity of one of the world’s longest-lasting civilisations and an irreplaceable part of the heritage of humanity, was not incidental but systematic. Such acts must be condemned in the strongest possible terms.

They represent an assault not only on monuments, museums, and archaeological sites, but also on the cultural legacy, historical consciousness, and collective memory of humanity itself.

The right to remedy and the law on war reparations

Under international law, the law of reparations for war damage stipulates that a State responsible for an internationally wrongful act must make full reparation for any damage, whether material or moral.

This destruction must never be repeated. Urgent and immediate measures are now required to ensure the protection, documentation, stabilisation, and restoration of Iran’s damaged heritage.

These efforts must be undertaken without delay and supported at international level through coordinated action by cultural institutions, professional bodies, and relevant global organisations.


A weekly e-mail in English featuring expertise from scholars and researchers. It provides an introduction to the diversity of research coming out of the continent and considers some of the key issues facing European countries. Get the newsletter!


The Conversation

Parsa Ghasemi ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

13.04.2026 à 16:45

Comprendre les « modèles de fondation », ces nouvelles infrastructures numériques à la base de nombreuses applications d’IA

Sabrine Mallek, Professeure Associée en Transformation Digitale, ICN Business School
La polyvalence des modèles de fondation les transforme en une nouvelle « infrastructure » numérique, au même titre que le cloud ou Internet. Au lieu de reconstruire un modèle d’IA spécifique à chaque projet, on peut se brancher directement sur des briques généralistes existantes.
Texte intégral (2606 mots)

La polyvalence des modèles de fondation les transforme en une nouvelle « infrastructure » numérique, au même titre que le cloud ou Internet. Au lieu de reconstruire un modèle d’IA spécifique à chaque projet, on peut se brancher directement sur des briques généralistes existantes. C’est un des secrets qui permet de développer des applications si sophistiquées et qui restent accessibles aux non-spécialistes.


Les systèmes d’apprentissage automatique ne se limitent plus à des outils conçus pour une seule tâche, comme la traduction ou la recommandation de produits. Une transformation majeure tient à l’émergence des foundation models, ou modèles de fondation : de très grands modèles entraînés sur des volumes massifs de données pour acquérir des connaissances générales, réutilisables dans de nombreux contextes.

Dans les organisations, ils agissent comme un accélérateur potentiel de transformation, mais leurs effets sur le terrain obligent, pour l’instant, à nuancer les promesses spectaculaires. Comment fonctionnent-ils ? Comment sont-ils régulés et quels sont les obstacles à une adoption qui porte ses fruits ?

Comment fonctionnent les modèles de fondation ?

Les modèles de fondation reposent sur un principe simple : apprendre des structures générales à partir de très grandes quantités de données hétérogènes – textes, images, codes, sons, vidéos, bases de données ouvertes et contenus sous licence, ou une combinaison de ces types de données.

L’objectif de l’entraînement initial est de permettre au modèle d’identifier des régularités statistiques dans les données et de construire des représentations générales du langage, des images ou d’autres formes d’information. Sur le plan technique, ces systèmes utilisent le plus souvent des architectures de réseaux de neurones profonds. Durant la phase d’entraînement, le modèle apprend à prédire une partie manquante de l’information, par exemple le mot suivant dans une phrase ou une portion d’image, en ajustant progressivement des milliards de paramètres. Ce processus d’apprentissage, appelé pré-entraînement, nécessite des ressources de calcul considérables et constitue la base du caractère « généraliste » de ces modèles.


À lire aussi : Aux sources de l’IA : le prix Nobel de physique attribué aux pionniers des réseaux de neurones artificiels et de l’apprentissage machine


Une fois pré-entraîné, le modèle de fondation peut être adapté à des usages spécifiques, allant de l’analyse de sentiment ou la réponse à des questions jusqu’à des tâches plus techniques, comme l’assistance au diagnostic médical.

Cette adaptation peut se faire grâce à un ajustement supplémentaire appelé fine-tuning, par exemple en nourrissant un modèle généraliste d’imagerie médicale avec des radiographies spécifiques à une maladie permettant à l’outil d’apprendre à prédire l’évolution d’une pathologie précise.

Elle peut aussi passer par l’apprentissage avec retour humain (reinforcement learning with human feedback), qui consiste à faire évaluer plusieurs réponses par des humains pour inciter le modèle à privilégier des formulations claires et sécurisées plutôt que de simples suites de mots statistiques.

Enfin, cette adaptation peut s’opérer simplement par prompting, en guidant le modèle par des instructions textuelles du type : « Résume ce document en trois points. »

C’est cette capacité à être réutilisés dans de nombreux contextes qui explique pourquoi ces systèmes sont qualifiés de « modèles de fondation » : ils servent de base technologique à une large gamme d’applications. Par exemple, GPT-4 ou GPT-5 servent déjà de socle opérationnel à de nombreuses applications, à l’image de ChatGPT, tout en conservant un potentiel d’extension encore largement ouvert.

infographie décrivant l’entraînement puis la spécialisation de modèles issus de modèles de fondation
Les modèles de fondation servent de base technologique à une large gamme d’applications. Cette infographie décrit l’entraînement puis les applications spécifiques issues de modèles de fondation. Sabrine Mallek, Fourni par l'auteur

Comprendre l’écosystème : comment modèles de fondation, LLM et IA générative s’articulent-ils ?

Concrètement, les modèles de fondation ne sont pas une application en soi, mais une infrastructure de base. Ils marquent une évolution récente de l’intelligence artificielle (IA), rendue possible par la combinaison de trois facteurs : l’explosion des données, les progrès des capacités de calcul et l’apparition de nouvelles architectures d’apprentissage.

Un tournant majeur intervient en 2017 avec l’architecture des transformers. Cette innovation permet de mieux capter les relations dans les données (notamment le langage), et devient la base de modèles comme BERT ou GPT. Lorsqu’un modèle de fondation (une expression née officiellement en 2021) est spécialisé dans le traitement du langage, on parle alors de grand modèle de langage (LLM). Et c’est sur cette base que se développent aujourd’hui les usages les plus visibles : ceux de l’IA générative, capable de produire du texte, des images, des vidéos, du son ou du code – qui est devenue grand public et commercialement viable avec le lancement de ChatGPT, fin 2022, marquant le passage de l’infrastructure à l’usage de masse.

Le rapport entre ces modèles de fondation et l’IA générative peut être comparé à celui d’un « moteur » par rapport à sa « fonction ». Le modèle de fondation est ce moteur puissant, pré-entraîné sur des données colossales et conçu pour être adaptable à une multitude de tâches. L’IA générative, quant à elle, est la fonction d’application finale : c’est la capacité de ce moteur à produire un contenu inédit.

Concrètement, si l’on prend un modèle de fondation comme GPT-4 (le moteur), on peut l’utiliser pour analyser des milliers d’avis clients (une tâche purement analytique). Mais lorsqu’on lui demande de rédiger un e-mail, on active alors sa fonction d’IA générative. De la même manière, dans le domaine visuel, un modèle de fondation entraîné sur des millions d’images peut servir de moteur aussi bien pour détecter une anomalie sur une radiographie médicale (classification) que pour dessiner un paysage imaginaire à partir d’une simple phrase (IA générative).

Imbrication entre infrastructure technique, spécialisation linguistique (LLM) et fonction de génération. La génération est une fonction parmi d’autres (c’est une application pratique des modèles de fondation lorsqu’on leur demande de générer du contenu). Sabrine Mallek, Fourni par l'auteur

Promesses d’efficience et réalités de terrain

Cette polyvalence signifie que les modèles de fondation tendent à devenir une nouvelle « infrastructure » numérique, au même titre que le cloud ou Internet : au lieu de reconstruire un modèle d’IA spécifique propre à chaque projet, les acteurs économiques se branchent directement sur ces briques généralistes existantes.

Dans les organisations, ils agissent comme un accélérateur potentiel de transformation, mais leurs effets sur le terrain obligent à nuancer les promesses de gains de productivité spectaculaires. Beaucoup d’entreprises peinent encore à dégager un retour sur investissement évident pour l’automatisation administrative, constatant souvent que les modèles de fondation ne réduisent pas la charge de travail, mais l’intensifie : les employés doivent désormais consacrer davantage d’énergie à vérifier et à corriger les résultats.

Par ailleurs, l’assistance aux experts (aide au code, à la décision) se heurte à une « frontière technologique en dents de scie » : face à une tâche donnée, le modèle peut exceller, mais s’avérer contre-productif s’il est utilisé aveuglément en dehors de sa zone de compétence.

Néanmoins, ces modèles permettent de créer de nouveaux services comme la personnalisation de la relation client à grande échelle. Mais pour libérer ce potentiel, la simple mutualisation technologique ne suffit pas. Il faut impérativement repenser l’organisation du travail en formant les employés pour leur donner l’autonomie nécessaire face à la machine.

Les débats européens sur la régulation

En Europe, les enjeux se sont cristallisés dans les discussions autour de l’AI Act, qui introduit une catégorie spécifique pour les « systèmes d’IA à usage général », dont les modèles de fondation sont l’exemple emblématique. L’idée est de ne plus réguler uniquement les cas d’usage finaux, mais aussi ces briques génériques qui irriguent tout l’écosystème.

La Commission nationale de l’informatique et des libertés (Cnil) s’est également saisie de ces enjeux à travers un plan d’action consacré à l’intelligence artificielle, visant à accompagner l’innovation tout en garantissant la protection des droits fondamentaux. Elle met notamment l’accent sur la protection des données utilisées pour entraîner les modèles, la transparence des systèmes ainsi que le développement d’IA respectueuses de la vie privée.

Dans ce contexte, l’entraînement de ces modèles soulève aussi des défis importants au regard du règlement général sur la protection des données (RGPD), notamment concernant l’origine des données utilisées, la possibilité pour les individus d’exercer leurs droits sur leurs données et la capacité technique des systèmes à supprimer ou de ne plus exploiter certaines informations après leur intégration dans l’apprentissage. Pour les entreprises, cela signifie que ces technologies doivent être intégrées dans des démarches structurées de conformité, de documentation et de gestion des risques.

La question devient donc : dans quelles conditions utiliser les modèles de fondation ? Cela implique une gouvernance claire entre fournisseurs, intégrateurs et utilisateurs, des exigences de transparence et de documentation, l’anticipation des impacts sur l’emploi à travers la formation et la reconversion ainsi qu’une articulation avec les politiques de responsabilité sociétale des entreprises (RSE), afin d’évaluer leurs effets sociaux, organisationnels et environnementaux.

The Conversation

Sabrine Mallek ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

13.04.2026 à 16:44

La grossesse modifie le cerveau – et nous commençons tout juste à comprendre comment et pourquoi

Birgit Derntl, Full Professor, Women's Mental Health and Brain Function, University of Tübingen
Ann-Christin S. Kimmig, Postdoc Researcher, Women’s Mental Health and Brain Function group, University of Tübingen
Franziska Weinmar, PhD Candidate, Women's Mental Health & Brain Function, University of Tübingen
La grossesse modifie le cerveau plus profondément que ce que les scientifiques imaginaient jusqu’à présent. Des données récentes permettent de décrypter les processus à l’œuvre.
Texte intégral (2033 mots)
Des données récentes démontrent que la grossesse remodèle le cerveau de manière spécifique et profonde pour le préparer à une tâche exigeante : s’occuper d’un nourrisson. Rawpixel/Shutterstock

La grossesse modifie le cerveau plus profondément que ce que les scientifiques imaginaient jusqu’à présent. Des données majeures issues de plusieurs études récentes permettent de décrypter les processus à l’œuvre au niveau de différentes aires cérébrales quand la femme est enceinte, mais aussi après l’accouchement.


Chaque année, des millions de femmes vivent une grossesse, mais la science commence seulement à s’intéresser à ses effets sur le cerveau – l’organe qui subit sans doute la transformation la plus remarquable. Au cours de la dernière décennie, un petit groupe de scientifiques en Espagne et aux Pays-Bas a cartographié ces changements avec un niveau de détail sans précédent.

Les chercheurs ont réalisé cinq scanners cérébraux sur 127 femmes qui devenaient mères pour la première fois : une fois avant la conception, deux fois pendant la grossesse, et de nouveau une fois un mois et six mois après l’accouchement. Il s’agit de la plus grande étude de ce type jamais réalisée.

Les études d’imagerie cérébrale qui suivent les mêmes personnes tout au long de la grossesse – avec des examens effectués avant la conception et après la naissance – sont extrêmement difficiles à mener. Les chercheurs doivent identifier les femmes qui envisagent de concevoir, commencer les examens avant le début de la grossesse, puis les suivre tout au long de ces mois marqués par des bouleversements physiologiques.

Une étude phare publiée en 2017 dans Nature Neuroscience a démontré pour la première fois que la grossesse modifie la structure du cerveau, mais elle incluait 25 femmes qui devenaient mères pour la première fois. La nouvelle étude porte sur plus de cinq fois ce nombre. C’est un bond en avant considérable.

Les résultats obtenus à partir des examens cérébraux de ces 127 femmes étaient cohérents et frappants. La matière grise – la partie du cerveau riche en cellules nerveuses – a diminué de près de 5 % dans plusieurs régions impliquées dans les émotions, l’empathie et la perception sociale au cours de la grossesse, en atteignant son niveau le plus bas au cours des dernières semaines précédant la naissance.

« J’aime utiliser la métaphore de la taille d’un arbre, a récemment déclaré à la BBC la professeure Susana Carmona, coautrice principale de l’étude. Certaines branches sont coupées pour permettre à l’arbre de pousser plus efficacement. »

Après l’accouchement, le volume a commencé à se reconstituer, atteignant environ 3,4 % six mois après la naissance. Cette évolution a été observée sur la quasi-totalité de la surface du cerveau et a concerné toutes les femmes participant à l’étude, sans exception.

Il est important de noter que cette tendance ne s’est pas manifestée chez les femmes qui sont devenues mères au cours de la période étudiée sans avoir elles-mêmes vécu une grossesse – par exemple, les partenaires de même sexe qui élevaient ensemble un nouveau-né mais qui n’avaient pas porté l’enfant. Cela suggère que les changements cérébraux observés sont dus à la biologie de la grossesse elle-même, plutôt qu’à la simple anticipation du fait de devenir parent.

Les chercheurs ont également mesuré les taux d’hormones et ont constaté que deux formes d’œstrogènes suivaient de près les modifications cérébrales. Leur taux augmentait à mesure que le volume de matière grise diminuait, puis déclinait fortement après la naissance, au moment de l’expulsion du placenta.

Ce lien entre les hormones et la structure cérébrale fait le lien entre des décennies de recherches menées sur des souris, chez qui il a été décrit depuis longtemps que l’augmentation des taux d’hormones pendant la grossesse modifie le fonctionnement du cerveau maternel et déclenche des comportements protecteurs.

Le volume de matière grise se reconstitue-t-il un jour complètement ?

Dans leur étude la plus récente, les chercheurs ont constaté qu’à six mois, la régénération de la matière grise se poursuivait. Une étude antérieure menée par le même groupe de recherche, au cours de laquelle des mères ont été suivies pendant six ans après leur accouchement, a révélé que les modifications cérébrales restaient détectables et permettaient toujours de prédire la proximité des relations entre les mères et leurs enfants.

Cette étude a permis d’identifier correctement, sur la seule base d’examens d’imagerie cérébrale, les femmes qui avaient été enceintes, avec une précision de plus de 90 %, même six ans après l’accouchement. Loin d’être un bouleversement temporaire, la grossesse semble laisser une empreinte durable.

Une étude néerlandaise publiée en 2026 a approfondi ces résultats en portant son attention sur des femmes au cours d’une deuxième grossesse. Les modifications cérébrales se sont reproduites, mais selon un schéma différent.

Les régions du cerveau qui avaient subi les transformations les plus marquantes lors d’une première grossesse – celles impliquées dans la conscience de soi et la perception des émotions d’autrui – n’ont présenté que des changements relativement modestes lors de la deuxième grossesse, comme si la transformation initiale avait déjà eu lieu. En revanche, les zones impliquées dans l’attention et la réactivité au monde extérieur ont été plus fortement affectées, ce qui reflète peut-être les exigences supplémentaires liées à la prise en charge d’un premier enfant pendant la grossesse.

Scans de cerveaux humains
Au bout de six mois, la régénération de la matière grise s’est poursuivie. Elif Bayraktar/Shutterstock

Ce qui ressort le plus clairement de l’ensemble de ces recherches est le fait que les régions qui connaissent les transformations les plus importantes sont les régions impliquées dans la compréhension des autres : l’interprétation des intentions, l’empathie et la reconnaissance des signaux. Une étude d’imagerie publiée dans Nature Neuroscience en 2024 a examiné une femme à 26 reprises, depuis avant la conception jusqu’à deux ans après l’accouchement, ce qui a permis de fournir une cartographie sans précédent des changements qui se produisent dans un cerveau tout au long de la grossesse – une ressource désormais librement accessible à d’autres chercheurs.

Comparaison avec le cerveau des adolescents

La comparaison avec le cerveau des adolescents est le fil conducteur de tous ces travaux. Quand les chercheurs ont directement comparé les modifications cérébrales liées à la grossesse avec celles qui se produisent durant l’adolescence – une autre étape de la vie caractérisée par une poussée d’hormones sexuelles et un profond changement comportemental –, les schémas du changement se sont révélés presque identiques. Ont été observés le même amincissement du cortex, le même aplatissement des sillons à la surface du cerveau, le même taux de variation du volume cérébral chaque mois.

Si l’adolescence remodèle le cerveau pour le préparer à la vie sociale adulte, les données disponibles aujourd’hui disponibles suggèrent que la grossesse le remodèle à nouveau – de manière plus spécifique, plus profonde – pour le préparer à une tâche encore plus exigeante : s’occuper d’un nourrisson.

Il reste à comprendre ce que ces changements impliquent au niveau des cellules et des circuits, comment ils s’inscrivent dans le contexte de près d’une femme sur cinq qui souffre de dépression au moment de l’accouchement, et si les écarts par rapport au schéma habituel rendent les femmes plus vulnérables ou plus résilientes. Les outils permettant de commencer à répondre à ces questions existent désormais. Pour la première fois, nous disposons d’une carte.

The Conversation

Birgit Derntl a reçu des financements de la Fondation allemande pour la recherche (DFG, École doctorale internationale IRTG 2804), de la Fondation Hans et Ria Messer ainsi que de l'Union européenne (réseau doctoral MSCA MenoBrain).

Ann-Christin S. Kimmig a reçu des financements de la Fondation allemande pour la recherche (DFG, École doctorale internationale IRTG 2804) et de l’Office allemand d’échanges universitaires (DAAD).

Franziska Weinmar a reçu des financements de la Fondation allemande pour la recherche (DFG) dans le cadre du groupe international de formation à la recherche « La santé mentale des femmes tout au long de la période de procréation » (DFG, IRTG2804) ainsi que de la Fondation Hans et Ria Messer.

13.04.2026 à 16:44

Intelligence artificielle : quels sont les apports concrets de la régulation européenne ?

Chloé Dornbierer, Docteure en droit et Professeure à Kedge Business School, Kedge Business School
En matière d’IA, quels sont les apports de la régulation européenne et ses limites ? Protège-t-elle les citoyens ? Risque-t-elle de freiner l’innovation et de détourner les acteurs économiques du marché européen ?
Texte intégral (2350 mots)

L’intelligence artificielle s’impose désormais au cœur de décisions qui engagent directement la vie, la santé et les droits des citoyens européens. Dans des entreprises, des administrations, des hôpitaux ou sur des plateformes numériques, des algorithmes trient, évaluent, recommandent et parfois décident. Face à cette automatisation croissante, une question centrale se pose : la réponse de l’Union européenne pour encadrer l’intelligence artificielle est-elle à la hauteur des risques qu’elle prétend prévenir ?


Imaginons qu’une entreprise décide d’utiliser une intelligence artificielle (IA) pour automatiser son processus de recrutement. L’algorithme, conçu pour analyser des milliers de CV, est entraîné sur les données RH de l’entreprise des dix dernières années. Or, les profils recrutés durant cette période sont majoritairement masculins. L’algorithme déduit alors de ces données que les candidats masculins sont préférables et exclut de fait les profils féminins.

Ce scénario n’est pas fictif : il s’inspire directement du cas d’Amazon, dont l’outil de recrutement par IA a dû être abandonné après la révélation de ces biais eu égard aux risques juridiques qu’ils engendraient. Cet exemple illustre précisément les risques que le législateur entend prévenir : erreurs algorithmiques, atteintes aux droits fondamentaux, captation et fuite de données, dépendance technologique.

En réponse, l’Union européenne a bâti depuis plusieurs années un arsenal juridique ambitieux, allant du Règlement général sur la protection des données (RGPD) au Règlement sur l’intelligence artificielle (RIA). Ces textes doivent relever un défi de taille : concilier innovation et protection, réguler les acteurs internationaux sans les éloigner du marché européen, et garantir les droits fondamentaux sans censure – le tout face à des technologies transversales, opaques et en constante évolution. Cet ensemble de règles constitue-t-il une réponse satisfaisante ?

Pas de régulation de l’IA, sans régulation des données

La régulation de l’intelligence artificielle ne saurait être envisagée indépendamment d’une politique structurée de la donnée. La donnée constitue en effet le carburant indispensable au développement et au perfectionnement des systèmes d’intelligence artificielle. En cela, la quantité de données compte tout autant que leur qualité.

C’est pourquoi, le législateur européen a d’abord cherché à réguler la donnée avant de réguler l’IA : d’une part avec le RGPD dont la finalité est de protéger les données à caractère personnel (les informations concernant une personne physique identifiée ou identifiable, comme un numéro de téléphone ou une adresse postale).

D’autre part avec une série de textes portant sur la régulation des données non personnelles (les informations ne se rapportant à aucune personne identifiable, comme une statistique ou un nombre d’accidents sur une autoroute visée). Ceux-ci comprennent le DSA, le DMA, le DGA, le Data Act et visent notamment à limiter la domination des géants du numérique et organiser le partage et l’accès de certaines données entre plateformes, entreprises, administrations publiques et utilisateurs, condition indispensable au développement de l’IA.

Ces textes relatifs aux données ont été le préalable à l’élaboration de la première réglementation générale au monde sur l’intelligence artificielle : le RIA.

Quelles sont les obligations imposées aux entreprises par le RIA ?

Contrairement aux États-Unis, qui privilégient une approche dérégulée, et à la Chine, qui encadre principalement certains usages ciblés, l’Union européenne a fait le choix d’un cadre juridique général et contraignant, s’appliquant à l’ensemble des secteurs et des systèmes d’intelligence artificielle, afin de poser les bases d’un véritable droit commun de l’IA au sein du marché européen depuis son entrée en vigueur le 1er août 2024.

Son objectif est d’encadrer

« le développement, la mise sur le marché et l’utilisation de systèmes d’intelligence artificielle, qui peuvent poser des risques pour la santé, la sécurité ou les droits fondamentaux ».

Pour atteindre cet objectif, le RIA commence par définir précisément le champ des technologies qu’il entend encadrer. Il distingue : les systèmes d’intelligence artificielle, qui correspondent aux applications concrètes utilisées par les utilisateurs (ex : un outil de tri de candidatures, ChatGPT) et les modèles d’intelligence artificielle à usage général, qui constituent le socle technologique sur lequel reposent ces applications, comme GPT-4 pour ChatGPT.

Pour assurer un équilibre entre protection des personnes et innovation, le RIA classe les systèmes d’intelligence artificielle en quatre niveaux de risque :

  • le risque inacceptable (ex : système de notation sociale des citoyens, présentant un risque d’une atteinte grave aux droits fondamentaux) impliquant l’interdiction du système d’IA.

  • le risque élevé (ex : une IA utilisée pour évaluer des salariés, présentant un risque d’atteinte au droit du travail et à la vie privée) imposant des obligations comme celle de réaliser des audits ou celle d’entraîner le système sur des données qualitatives et exemptes de biais.

  • le risque limité (ex : assistant conversationnel d’un service client, présentant le risque d’une collecte de données sans consentement éclairé) obligeant notamment les opérateurs à informer les utilisateurs de l’usage de l’IA.

  • le risque minimal (ex : IA intégrée dans un jeu vidéo) dont ne découle aucune obligation spécifique.

Pour chaque niveau de risque, des obligations spécifiques et proportionnées sont donc édictées en fonction de leurs effets potentiels sur les droits fondamentaux, la sécurité et la santé des personnes. Ces obligations s’imposent à différents opérateurs selon le moment où ils interviennent dans la chaîne de valeur de l’IA : fournisseur, mandataire, importateur, distributeur…

Par exemple, un système d’IA utilisé pour l’analyse d’images médicales, qualifié de système à risque élevé, est soumis à des obligations spécifiques qui varient selon l’opérateur concerné : le fournisseur doit concevoir le système en conformité avec les exigences de sécurité et de gestion des risques comme s’assurer qu’il ne peut pas y avoir de faux positif ou de faux négatif dans le diagnostic mais également que le système ne présente pas de biais du fait d’une sous-représentation de certains groupes ethniques ou de genre, l’importateur et le distributeur doivent vérifier que cette conformité a été respectée, et l’hôpital qui déploie le système doit s’assurer qu’il est utilisé correctement et sous supervision humaine.

Concernant les modèles d’IA à usage général (ex : GPT-4, algorithme sur lequel repose ChatGPT), le législateur européen a édicté différentes règles selon qu’ils présentent ou non un risque systémique.

L’article 3 § 65 du RIA définissant le risque systémique comme :

« un risque spécifique aux capacités à fort impact des modèles d’IA à usage général, ayant une incidence significative sur le marché de l’Union en raison de leur portée ou d’effets négatifs réels ou raisonnablement prévisibles sur la santé publique, la sûreté, la sécurité publique, les droits fondamentaux ou la société dans son ensemble, pouvant être propagé à grande échelle tout au long de la chaîne de valeur ».

Ce risque est évalué selon la puissance de calcul du modèle. Les modèles d’IA à usage général qui présentent un risque systémique doivent notamment signaler les incidents graves (des biais, des faux positifs, une cyberattaque), prendre d’importantes mesures de cybersécurité ou encore tester le modèle et atténuer les risques systémiques identifiés (grâce à des audits, des mesures de protection contre les piratages ou encore des mesures de détection de biais). Plusieurs autorités ont été désignées pour contrôler la bonne application du règlement, c’est le cas notamment du comité européen de l’intelligence artificielle au niveau européen, et de la CNIL au niveau national.

Les limites du RIA

Le RIA a suscité des critiques des experts du droit et du monde professionnel à propos de sa mise en œuvre. Ainsi, 46 dirigeants d’entreprise ont dénoncé, dans une lettre ouverte destinée à la présidente de la Commission européenne, « des règlementations européennes peu claires, qui se chevauchent et deviennent de plus en plus complexes ». La technicité du RIA conjuguée à la complexité des algorithmes compliquent l’application du texte, en particulier pour les obligations de transparence – incompatibles avec l’opacité des algorithmes – et pour l’identification des responsabilités, les entreprises peinant à déterminer quelles obligations leur incombent selon leur position dans la chaîne de valeur et le niveau de risque du système.

En découle alors une autre problématique, le risque de freiner les acteurs français et européens, comme Orasio, H Company ou DeepL, qui tentent de concurrencer les géants américains de l’intelligence artificielle qui ont davantage de moyens (juridiques, technologiques, financiers) pour mettre en œuvre les obligations du RIA.

À cet égard, il convient de relever que le législateur européen a finalement renoncé, le 11 février 2025, à adopter une législation spécifique relative à la responsabilité civile des acteurs de l’intelligence artificielle, dont la finalité était d’harmoniser les règles de responsabilité civile pour les dommages causés par l’IA, afin de protéger les victimes et d’unifier le cadre juridique au sein de l’UE. Cet abandon est intervenu suite à une opposition de certains États membres, notamment la France, mais aussi des critiques formulées par le lobbying de grandes entreprises technologiques qui dénonçaient un risque de surrégulation et une insécurité juridique susceptible de freiner l’innovation. En l’absence d’un tel cadre spécifique, ce sont donc les règles de droit positif de responsabilité civile qui demeurent applicables aux dommages causés par les systèmes d’intelligence artificielle.

Les enjeux de la régulation

En combinant protection des données, encadrement des usages et obligations pesant sur les acteurs les plus puissants, l’Union européenne a posé les bases d’un véritable droit commun de l’IA unique au monde.

Cependant, cette réponse n’est satisfaisante qu’à une condition : que son application ne transforme pas la régulation en barrière à l’entrée pour les acteurs européens tels que Mistral AI, NEURA Robotics ou Dust. En effet, le risque est de renforcer la domination des géants américains et chinois plutôt que de la combattre. D’autant que cette domination ne se limite pas au plan économique : elle s’exerce également sur le plan politique. Un rapport de Corporate Europe Observatory et LobbyControl, deux ONG spécialisées dans la surveillance du lobbying, montre ainsi que les Big Tech auraient une influence significative sur la rédaction des Codes de bonnes pratiques prévus par le RIA notamment en parvenant à affaiblir certaines obligations.

La véritable réussite de la régulation européenne ne se mesurera donc pas seulement à la protection des citoyens, mais à sa capacité à faire émerger une intelligence artificielle européenne, à la fois éthique, compétitive et souveraine.

The Conversation

Chloé Dornbierer ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

13.04.2026 à 16:43

Fierté wendat : l’estime de soi comme moteur d’émancipation autochtone

Thierry Viale, Professeur associé en management, ESSCA School of Management
Yves Gendron, Professeur titulaire, Université Laval
Au Canada, les Wendats, peuple autochtone des Premières Nations du Québec, cherche à faire de l’estime de soi un levier d’émancipation.
Texte intégral (2440 mots)

Depuis des siècles, les communautés autochtones à travers le monde subissent marginalisation, spoliation de leurs terres, assimilation forcée et exclusion politique. Pourtant, au Canada, la nation Wendat transforme ces obstacles en force, faisant de l’estime de soi un levier d’émancipation.


Comment une communauté autochtone transforme-t-elle l’estime de soi en moteur d’émancipation ? À Wendake, en périphérie de la ville de Québec, les Wendats prouvent qu’il est possible de concilier réussite économique et résurgence culturelle. Malgré une histoire marquée par la colonisation et la perte de repères identitaires, les Wendats ont su développer des stratégies originales pour panser les plaies du passé, restaurer leur identité et renforcer leur autonomie.

Leur parcours illustre une lutte pacifique pour affirmer une identité forte qui contraste avec la fragilité endémique de bien des Premières Nations au Canada. Ce parcours montre comment, à partir de l’estime de soi, le développement économique peut devenir un levier pour restaurer la fierté collective et repenser les rapports entre culture ancestrale et modernité.

Contexte historique et enjeux identitaires

Les Wendats reçurent de la part des Français le surnom de « Hurons » vers 1609, au moment de la colonisation du Saint-Laurent par Samuel de Champlain. Ce nom fait référence à leur coiffure traditionnelle, censée rappeler la hure d’un sanglier. Le roman le Dernier des Mohicans de James Fenimore Cooper (1826), adapté par la suite à de multiples reprises au cinéma, a bien sûr contribué à leur renommée. Mais loin des histoires romancées, la réalité est plus tragique. Après avoir aidé les premiers colons français dans leurs luttes face aux Anglais, ils ont progressivement perdu leurs terres et leurs droits, notamment sous le régime britannique avec l’Indian Act de 1876, qui a imposé des restrictions sévères à la propriété et à la gouvernance autochtones.

Groupe de Wendats de Wendake à Spencer Wood, Québec, 1880. Jules-Ernest Livernois/Wikipedia

À cela s’ajoutent les politiques d’assimilation, qui ont tenté d’effacer les langues et les pratiques culturelles des peuples autochtones. Ces traumatismes ont fragilisé de nombreuses Premières Nations, entraînant honte de soi, chômage, suicides, dépendances et isolement. Mais la communauté Wendat s’illustre par une étonnante résilience. En dépit des vicissitudes, elle a préservé une forte estime de soi en s’appuyant sur des traditions transmises de génération en génération.

Une étude de terrain au cœur de Wendake

Notre étude intitulée « “Taking Wendake Beyond Wendake:” Economic Development and Legal Tenacity in the Wendat Community » repose sur une observation participante menée de 2012 à 2019 au sein de la communauté Wendat, qui rassemble environ 2 200 habitants sur le territoire de Wendake. Cette étude combine ethnographie, entretiens semi-directifs, analyse de données socio-démographiques et historiques. Les résultats montrent que les Wendats n’ont jamais renoncé à leurs marqueurs culturels en s’adaptant au capitalisme. Au contraire, leurs savoir-faire pluriséculaires en matière d’organisation politique et d’échanges économiques ont été réinvestis dans l’économie de marché contemporaine, elle-même transformée en un levier d’affirmation et de reconnaissance identitaire.

Cette stratégie peut être analysée à la lumière des trois sphères définies par la théorie de la reconnaissance d’Axel Honneth (1992) :

  • la reconnaissance affective nourrit l’estime de soi, la fierté culturelle et la transmission des savoirs traditionnels ;

  • la reconnaissance juridique résulte de la lutte pour la reconnaissance des traités, des droits territoriaux et, plus largement, de la reconnaissance politique des peuples autochtones ;

  • la reconnaissance sociale se traduit par la capacité à prendre part à l’activité économique d’une société donnée, notamment à travers une meilleure intégration au sein de la société québécoise environnante, y compris en créant des emplois profitant aux non-Autochtones.

L’économie comme « outil » de reconnaissance

À rebours de l’idée qui associe la réussite économique à une perte d’identité ou à une soumission culturelle, les Wendats démontrent qu’elle peut constituer un vecteur de résurgence culturelle. La communauté a ainsi choisi de soutenir des projets porteurs de sens, tels que la création de l’hôtel-musée des Premières Nations, consacré à la préservation et à la valorisation des civilisations autochtones, plutôt que la construction d’un casino pourtant plus lucratif.

Le musée des Premières Nations à Wendake. T. Viale, Fourni par l'auteur

Avec une remarquable subtilité, les Wendats ont également fait preuve d’innovation en 1992 en fondant la Société de crédit autochtone (SOCCA), un dispositif bancaire alors unique au Canada. Cette initiative leur a permis de contourner les contraintes juridiques et financières résultant de l’Indian Act de 1876. Ces choix témoignent de la volonté des Wendats de libérer leurs forces économiques pour s’affranchir de la dépendance des financements du gouvernement fédéral sans sacrifier la dimension culturelle.

Agence de la banque royale canadienne à Wendake. T. Viale, Fourni par l'auteur

Résilience et affirmation culturelle

La réussite des Wendats ne doit rien au hasard. Elle repose avant tout sur l’estime de soi, nourrie par des valeurs et des pratiques profondément enracinées dans leur histoire.

Chez eux, un travail collectif important est mené pour reconnaître et partager ces sources de fierté, là où d’autres communautés peuvent encore percevoir leur singularité culturelle comme un anachronisme voire un stigmate. Ainsi, le programme d’apprentissage de la langue Wendat, conçu pour en éviter la disparition, illustre cette volonté de revitalisation culturelle.

Par ailleurs, le Centre de développement de la formation et de la main-d’œuvre huron-wendat (CDFM) a pour mandat explicite de « veiller à la sauvegarde et à la mise en valeur de la culture ainsi qu’à l’affirmation identitaire ». Les ateliers de savoir‑faire enseignent des techniques traditionnelles comme la fabrication de paniers de frêne, la broderie au poil d’orignal ou la fabrication de mocassins, ce qui actualise des pratiques anciennes. Loin de toute soumission aux diktats de l’histoire, cette dynamique représente une lutte pacifique pour la reconnaissance.

Leur approche invite à dépasser la vision manichéenne qui réduit souvent les peuples autochtones à deux positions antagoniques : d’un côté, une réconciliation parfois teintée de rapports néocoloniaux ; de l’autre, une rupture totale avec l’État au nom de l’autodétermination. Les Wendats esquissent en quelque sorte une voie intermédiaire : une émancipation à la fois discrète et déterminée, fondée sur l’art d’allier tradition et modernité au service de la résurgence culturelle et de la souveraineté pas à pas reconquise.

L’enjeu de la reconnaissance

Ce cas met en lumière un enjeu fondamental : le droit des peuples autochtones à reprendre la maîtrise de leur destin. Depuis l’Europe, on perçoit souvent « les Amériques » comme de « jeunes nations », une vision qui suppose que leur histoire commence avec l’arrivée des colons. Or, les recherches archéologiques et génétiques révèlent une présence humaine bien plus ancienne – entre 15 000 et 20 000 ans – précédant largement les vagues de peuplement venues d’Europe. On comprend alors le profond désarroi ressenti par les Premières Nations lorsqu’on réalise que, sur leur propre terre, elles ne sont plus tout à fait chez elles.

Alors que les discussions autour de la réconciliation entre les descendants des colons et les peuples autochtones s’intensifient au Canada, le cas particulier de la communauté Wendat offre des perspectives. Il démontre qu’il est possible d’allier développement et enracinement culturel au service de l’émancipation – une démarche qui consiste, en définitive, à reprendre la maîtrise de son destin, de son mode de vie, de son territoire et de sa culture.

Ce modèle pourrait inspirer d’autres communautés autochtones au Canada, voire au-delà, notamment celles que l’histoire a laissées dans une profonde souffrance. Toute nation autochtone porte en elle des marqueurs culturels parfois refoulés et enfouis. Il s’agit dès lors de remonter le fil de l’histoire longue – celle d’avant le « premier contact » avec les colons – et d’en exhumer les sources de fierté au service de leur résurgence culturelle. Il existe d’ailleurs, à Wendake même, une instance de représentation de Premières Nations du Québec qui pourrait promouvoir cette approche : l’Assemblée des Premières Nations du Québec et du Labrador.

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.

13.04.2026 à 16:43

La révolution soudanaise sept ans après : mise à mal, mais non vaincue

Robert Kluijver, Visiting researcher at Leiden University’s Institute of Political Science, Leiden University
Retour sur la longue histoire de la résistance civile au Soudan et sur la manière dont les réseaux communautaires et les mouvements de jeunesse jettent les bases d’un retour à l’ordre pacifique dans un pays marqué par une profonde fragmentation politique.
Texte intégral (2638 mots)

Sept ans après le renversement du régime d’Omar el-Béchir, le Soudan traverse l’une des pires crises humanitaires de ces dernières années. Alors que le pays est déchiré entre deux factions – les Forces armées soudanaises (FAS) et les Forces de soutien rapide (FSR) –, les comités de résistance, à l’origine de la chute d’el-Béchir en 2019, tentent de maintenir une vie civile.


En 2019, un soulèvement populaire au Soudan a mis fin à trente ans de dictature militaire islamiste sous Omar el-Béchir. Les manifestants ont renversé le régime et imposé un retour au pouvoir civil. Alors qu’un accord politique était négocié à l’échelle nationale, les communautés locales tentaient de s’administrer elles-mêmes. Mais les forces armées ont repris le pouvoir, avant de plonger le pays dans la guerre, provoquant l’une des pires crises humanitaires de ces dernières années.

Que reste-t-il aujourd’hui de l’élan révolutionnaire ? Et quelles sont les perspectives d’un retour au pouvoir civil ?

Malgré la poursuite des combats dans le pays, les civils soudanais rentrent aujourd’hui chez eux, fuyant les conditions désastreuses des camps de déplacés ou refoulés par les pays voisins, qui leur sont hostiles. En Égypte, par exemple, les autorités expulsent les réfugiés soudanais, qu’ils soient en règle ou non.

Randa Hamid, entrepreneuse et militante pour l’émancipation des femmes, décrit ce que vivent ces rapatriés au quotidien : arrivés à Port-Soudan – seul aéroport international encore en activité dans le pays –, ils prennent la route jusqu’à Khartoum – ville désormais déserte et réduite à un champ de ruines –, puis découvrent leur domicile et leur lieu de travail pillés, et se retrouvent face à des responsables locaux bien plus intéressés par leur enrichissement personnel que par la reconstruction de la ville. Malgré ce sombre tableau, la situation est désormais plus sûre qu’elle ne l’a été ces dernières années.

Depuis que les Forces armées soudanaises (FAS) ont reconquis Khartoum en mars 2025, une certaine stabilité s’est installée dans des régions du pays. Les FAS contrôlent désormais le centre, le nord et l’est du pays. Les Forces de soutien rapide (FSR) tiennent l’ouest. Le Sud reste disputé.

Sur le plan politique, le principal allié des FAS sont les Frères musulmans, dont les réseaux fournissent à l’armée des forces combattantes et un réseau administratif. Les postes civils sont confiés à des figures de l’ancien régime. L’oligarchie corrompue, à l’origine même de la révolution, reprend ainsi le pouvoir sans rencontrer de résistance.

En décembre dernier, les célébrations de l’anniversaire du soulèvement ont été suivies de l’arrestation de leurs organisateurs — tandis que les militants pro-démocratie sont par ailleurs activement traqués par les Forces armées soudanaises.

Les perspectives de paix restent sombres. Les FAS visent une victoire militaire totale sur les FSR plutôt qu’un accord négocié, ce qui laisse présager de nombreux mois, voire des années, de conflit. Si un accord venait malgré tout à être conclu, il déboucherait probablement sur une partition du Soudan. Mais compte tenu de la nature fragmentée des deux factions et des combats qui se poursuivent dans des régions comme le Kordofan du Sud et le Nil bleu, même ce scénario demeure incertain.

De la résistance à l’intervention d’urgence

Les comités de résistance (CR) qui ont mené la révolution étaient à l’origine des groupes de solidarité de quartier, constitués au fil des années précédentes.

Les politiques néolibérales imposées par le FMI sous le régime d’Omar el-Béchir avaient conduit l’État à se désengager de ses fonctions sociales, obligeant les communautés à s’organiser entre elles. Aux côtés des syndicats et des organisations professionnelles, les comités de résistance ont organisé des sit-in de masse qui ont finalement renversé le régime.

Les comités de résistance ont cependant refusé d’intégrer la coalition civilo-militaire de transition — les Forces de la liberté et du changement – qui a brièvement gouverné sous la direction de l’ancien fonctionnaire de l’ONU Abdullah Hamdok. Leurs craintes d’être cooptés se sont avérées fondées lorsque l’armée a perpétré un coup d’État en octobre 2021.

Au contraire, les comités ont conservé leur fonctionnement horizontal et participatif, rédigé une charte nationale et sont devenus des pépinières de créativité culturelle, d’entrepreneuriat chez les jeunes et de vie publique. Rétrospectivement, la révolution soudanaise apparaît comme l’un des premiers exemples de la mobilisation de la génération Z que l’on observe aujourd’hui à l’échelle mondiale. Elle s’est distinguée par la pleine participation des femmes et l’absence d’un racisme historiquement ancré dans la vie publique soudanaise.

En avril 2023, lorsque les combats ont éclaté entre les FAS et les FSR à Khartoum, les comités de résistance sont devenus la cible des deux factions. Leurs membres ont fui à l’étranger dès que possible, afin de poursuivre leur action en faveur des civils. Ceux qui sont restés se sont consacrés à la mise en œuvre de « salles d’intervention d’urgence » (ERR) – des espaces virtuels, généralement des groupes de messagerie, permettant aux communautés de partager des informations, leurs besoins et leurs ressources.

Jasour Abu Algasim, engagé dans le mouvement révolutionnaire depuis ses débuts, a participé à la création d’une ERR à Khartoum. Il note que l’effondrement de l’État a paradoxalement offert aux comités de résistance un rôle public central : avec la guerre, leur mission est passée de la construction de la société à la lutte pour la survie.

Mohamed Younis, directeur au Soudan du Center for Civilians in Conflict, souligne que des initiatives de solidarité dépourvues de tout agenda politique – les cuisines collectives, les brigades de bénévoles réparant les infrastructures, les évacuations communautaires – ont émergé dans presque toutes les zones touchées par le conflit.

Alors que les agences internationales étaient confrontées à des obstacles sécuritaires et logistiques, ces groupes de solidarité locaux sont devenus le principal filet de survie collectif. L’attention internationale s’est toutefois concentrée sur les ERR, qui ont été nominées à deux reprises pour le prix Nobel de la paix.

Le dilemme de l’aide

Frustrés par la difficulté à joindre les plus démunis, les donateurs ont commencé à exiger que les ONG acheminent les fonds directement par l’intermédiaire des ERR, les considérant comme les forces les plus authentiquement démocratiques sur le terrain. Si la logique est séduisante, Younis en identifie les effets pervers.

Les exigences de redevabilité des donateurs – documentation des bénéficiaires, données biographiques, capacités administratives spécifiques – mobilisent les ressources mêmes dont les ERR ont besoin. Ces dossiers exposent par ailleurs les bénévoles et les communautés à un certain risque s’ils tombent entre des mains ennemies. Le rôle de l’ERR passe ainsi d’acteur communautaire autonome à prestataire de services pour les donateurs étrangers, généralement via des chaînes d’ONG internationales et locales qui ajoutent chacune leurs propres exigences et mobilisent une part du budget.

Il ne reste alors aucune place pour une contribution stratégique locale. Les communautés sont reléguées au statut de « bénéficiaires » de programmes conçus ailleurs. Les mécanismes de contrôle verticaux imposés par les bailleurs de fonds et les ONG partenaires faussent le processus décisionnel horizontal qui caractérise les instances autonomes. La responsabilité interne envers les bénévoles et les membres de la communauté est remplacée par une responsabilité externe envers les bailleurs de fonds. Enfin, cette chaîne de commandement fait que les centres de coordination sont perçus – par les factions combattantes et, potentiellement, par les populations locales – comme des instruments au service d’agendas politiques étrangers.

Il en résulte, note Younis, une taxonomie perverse des « bonnes » et « mauvaises » ERR, qui se distinguent les unes des autres non pas par la qualité de leur service aux communautés, mais par leur conformité aux critères des bailleurs. Pendant ce temps, le vaste paysage des activités de solidarité locales en dehors du label ERR reste méconnu. La « décolonisation de l’aide » est ainsi devenue une priorité pour la société civile soudanaise. Pourtant, la tendance à un contrôle croissant des bailleurs de fonds sur des flux d’aide en baisse risque de s’intensifier plutôt que de s’atténuer.

Facteurs externes

Tout comme les printemps arabes, huit ans plus tôt, la révolution soudanaise a alarmé les régimes autocratiques de la région. Contenir la contagion démocratique reste une priorité pour l’Égypte, l’Arabie saoudite, les Émirats arabes unis et d’autres puissances régionales plus éloignées. Ces derniers soutiennent également le régime autoritaire afin de faciliter le contrôle des richesses minérales du Soudan – en particulier l’or – et ses riches terres agricoles.

Le soutien occidental à la démocratisation s’est quant à lui affaibli. Les organismes multilatéraux tels que l’Union africaine, l’ONU et l’UE, incapables d’entrer en contact avec les forces civiles à l’intérieur du Soudan, s’appuient sur des politiciens en exil et des dirigeants de la société civile. La coalition actuelle des forces civiles en exil, Sumoud (« fermeté »), succède à son prédécesseur Tagadum, qui s’est divisé autour de la question d’un gouvernement en exil.

Sarra Majdoub, membre du Groupe d’experts des Nations unies sur le Soudan, a été témoin de plusieurs initiatives de paix civiles successives. Elle note que les dirigeants en exil peinent à renouer avec les civils à l’intérieur du pays : les autorités leur sont hostiles, les communications défaillantes et les populations souvent dispersées.

Les communautés de la diaspora, en revanche, se mobilisent facilement en ligne et finissent par incarner l’ensemble de la « société civile soudanaise ». Mais dans quelle mesure sont-elles représentatives, et peuvent-elles réellement influencer les événements sur le terrain ?

Gouvernance civile contre gouvernance verticale

L’avenir du Soudan sera déterminé par l’affrontement entre deux forces colossales. D’un côté, le bloc militaro-foncier – soutenu par les puissances régionales – qui détient le monopole de la violence et dirige le pays sans interruption (ou presque) depuis l’indépendance en 1956. De l’autre, une population majoritairement jeune qui a entrevu – le temps d’une révolution – à la possibilité d’un autre Soudan.

Hadia Hasaballah, professeure d’université à Omdurman qui a participé à la première vague du soulèvement, dirige aujourd’hui la section féminine de Sumoud. Plutôt que de s’appuyer sur les formations politiques existantes, elle appelle à la reconnaissance du mouvement de masse mené par la jeunesse au Soudan, qui incarne les valeurs de la révolution : liberté, paix et justice. Elle est convaincue que le retour à un régime islamiste – qui se manifeste sous les FAS avec notamment la récente condamnation à mort de deux femmes par lapidation en février 2026 – n’est plus acceptable pour les femmes, les jeunes et les minorités soudanaises. Ayant goûté aux libertés de la période révolutionnaire, ils ne les abandonneront pas sans résistance.

La crise soudanaise reflète une tension plus large dans la politique démocratique entre les modèles représentatifs et participatifs. Les comités de résistance et les cellules d’urgence incarnent une politique participative émergente qui est activement réprimée par des acteurs ayant intérêt à un contrôle vertical.

Pourtant, les militants et analystes soudanais, sur lesquels s’appuie cet article s’accordent sur un point : le mouvement de fond qui unit les jeunes de tous horizons autour de la liberté, de la paix et de la justice constitue un socle remarquable et durable pour un véritable régime civil. La façon dont ils parviendront à arracher le pouvoir à l’armée reste, pour l’heure, difficile à imaginer – mais ils y parviendront, tôt ou tard.

The Conversation

Robert Kluijver ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

13.04.2026 à 16:42

Remplacer la viande : toutes les alternatives se valent-elles ?

Tom Bry-Chevalier, Doctorant en économie de l'environnement, Université de Lorraine
C’est une réalité qui fait désormais consensus : pour la santé humaine comme pour celle des écosystèmes, nous mangeons collectivement trop de viande. Mais quelles alternatives faut-il plébisciter ?
Texte intégral (2945 mots)
De haut en bas : dés de Quorn (mycoprotéines), viande cultivée, viande végétale, élevage d’insectes. Patrick.Anja/GFI/LikeMeat , CC BY

C’est une réalité qui fait désormais consensus : pour la santé humaine comme pour celle des écosystèmes, nous mangeons collectivement trop de viande. Mais à l’heure où les alternatives pour remplacer celle-ci se multiplient, quelles sont celles à plébisciter ? Une étude inédite nous aiguille.


En décembre 2025, le tribunal de commerce d’Évry (Essonne) prononçait la liquidation judiciaire d’Ynsect, la start-up française spécialisée dans la production de protéines à base d’insectes. Présentée comme un fleuron de la French Tech, inaugurée en 2021 en présence de trois ministres, l’entreprise avait mobilisé plus de 600 millions d’euros d’investissements, dont environ 148 millions d’argent public, selon le ministère de l’économie. Bilan cinq ans plus tard : une usine fantôme, 200 emplois supprimés, et une interrogation légitime sur l’utilisation des fonds publics dans le secteur de la transition alimentaire.

Quelle filière soutenir pour rendre notre alimentation plus durable ? La question se pose avec urgence quand on ausculte la situation actuelle : l’élevage occupe 77 % des terres agricoles mondiales tout en ne fournissant que 18 % des calories]. La production alimentaire génère 35 % des émissions de gaz à effet de serre (GES) mondiales, dont plus de la moitié provient des produits d’origine animale. Les coûts cachés, sanitaires et environnementaux (maladies liées à l’alimentation, émissions de gaz à effet de serre, pollution des sols et de l’eau, etc.) de ce modèle étaient estimés à 14 000 milliards de dollars (soit un peu moins de 12 milliards d’euros) en 2018. Avec une consommation de viande qui continue d’augmenter au niveau mondial et un végétarisme qui reste pour l’instant marginal, l’investissement vers des protéines alternatives apparaît donc comme nécessaire.

Mais les ressources (financières, politiques, industrielles, etc.) sont limitées, et le temps pour agir sur le climat aussi. Chaque euro investi dans une filière peu prometteuse est un euro qui ne sert pas à développer une alternative plus efficace, et autant d’émissions qui auraient pu être évitées. Dans une étude récemment parue dans NPJ Science of Food (groupe Nature), nous avons donc comparé pour la première fois quatre grandes catégories de protéines alternatives :

  • les viandes végétales produites à base de soja, pois ou blé transformés pour imiter le goût et la texture de la viande ;

  • les protéines unicellulaires, issues de la fermentation de microorganismes (levures, champignons, bactéries ou algues) dans des cuves, comme les mycoprotéines commercialisées sous la marque Quorn depuis quarante ans ;

  • la viande cultivée, produite à partir de cellules animales que l’on fait proliférer dans un bioréacteur contenant un milieu nutritif (acides aminés, glucose, vitamines, facteurs de croissance) ;

  • les insectes, consommés entiers ou transformés en farine pour être incorporés dans divers produits alimentaires.

Nous avons évalué toutes ces sources de protéines alternatives dans quatre dimensions : impact environnemental, capacité de production à grande échelle, acceptabilité par les consommateurs et bien-être animal. L’objectif : identifier où concentrer les efforts.

Les viandes végétales en tête sur l’environnement

Le constat le plus solide de notre analyse concerne l’impact environnemental. Les viandes végétales à base de soja, pois ou blé affichent un impact environ 50 % inférieur à celui de la viande conventionnelle. L’avantage est particulièrement net face au bœuf : les substituts végétaux émettent jusqu’à 10 fois moins de GES et nécessitent jusqu’à 30 fois moins de terres. Ce dernier point est crucial : les terres libérées par un recul de l’élevage pourraient être restaurées en écosystèmes capables de stocker du carbone et de protéger la biodiversité.

Les protéines unicellulaires, notamment les mycoprotéines produites en cultivant des champignons microscopiques dans des cuves de fermentation, et les approches power-to-food, qui transforment le CO₂ en protéines grâce à des microorganismes, possèdent elles aussi des atouts. Leur empreinte au sol est particulièrement faible, et leur bilan carbone peut être excellent, à condition de disposer d’une électricité largement décarbonée.

La viande cultivée partage cette dépendance à l’énergie, mais à une tout autre échelle : elle consomme en moyenne 5,5 fois plus d’énergie que la viande conventionnelle. En conséquence, un avantage climatique par rapport au poulet ou au porc est possible mais suppose un mix énergétique largement décarboné.

Quant aux insectes, les évaluations récentes sont moins encourageantes que les premières études : en intégrant les contraintes réelles (chauffage en climat tempéré, limites réglementaires sur les substrats), leurs émissions ne sont pas nécessairement inférieures à celles du poulet. Surtout, seuls 7 % des produits à base d’insectes lancés sur le marché sont des substituts de viande, l’immense majorité sont des pâtes, barres protéinées ou biscuits, qui ne remplacent pas de la viande mais des aliments dont l’impact est déjà faible. Le bénéfice environnemental réel s’en trouve donc fortement relativisé.

Produire à grande échelle : un fossé entre les alternatives

Mais créer un produit vertueux ne suffit pas. Encore faut-il pouvoir le produire à un coût et à un volume suffisants pour peser face à la viande conventionnelle.

Les viandes végétales sont ici les mieux placées. Elles représentent déjà un marché mondial de 6,4 milliards de dollars (plus de 5,4 milliards d’euros, environ 1 % du marché de la viande) et s’appuient sur des infrastructures agroalimentaires existantes. Leur principal frein reste le prix, en moyenne 82 % plus élevé que la viande, mais cet écart se réduit progressivement.

Les protéines unicellulaires occupent une position intermédiaire. Les mycoprotéines, commercialisées depuis 1985 en Grande-Bretagne sous la marque Quorn, démontrent la viabilité du modèle, mais à des prix encore supérieurs à ceux de la viande. Les approches power-to-food, encore au stade pilote, pourraient à terme devenir compétitives si le coût des énergies renouvelables continue de baisser, bien que de très nombreuses incertitudes demeurent.

La viande produite par culture cellulaire, elle, se heurte à des obstacles d’une tout autre ampleur. Malgré des progrès récents, une étude empirique a atteint un coût d’environ 14 dollars (environ 12 euros) par kilogramme pour un produit hybride (moitié cellules animales, moitié végétal), les coûts de production restent très élevés et les besoins en infrastructures vertigineux : pour couvrir à peine 0,4 % du marché mondial de la viande, il faudrait une capacité de bioréacteurs 22 fois supérieure à celle de toute l’industrie pharmaceutique mondiale.

Pour les insectes, le constat économique est tout aussi sévère. L’alimentation humaine est considérée comme peu prometteuse par le secteur lui-même, ce qui explique qu’elle ne représente qu’environ 5 % des investissements de la filière. Sur le plan des coûts, la promesse initiale de nourrir les insectes avec des déchets bon marché se heurte à un ensemble de contraintes réglementaires, logistiques et sanitaires qui rendent la plupart de ces substrats inutilisables, imposant le recours à des aliments plus onéreux. À cela s’ajoute le chauffage nécessaire sous les latitudes tempérées, qui alourdit considérablement la facture énergétique.

Les consommateurs ont aussi leur mot à dire

Mais la meilleure alternative sur le papier ne pèsera rien sans l’adhésion des consommateurs. Les viandes végétales sont là encore les mieux acceptées : par exemple, selon une enquête britannique, 60 % des personnes se disaient prêtes à les essayer, contre 34 % pour la viande cultivée et 26 % pour les insectes.

Les protéines unicellulaires restent peu connues du grand public, ce qui limite les données disponibles. Les rares études suggèrent une acceptabilité intermédiaire, inférieure à celle des viandes végétales mais supérieure à celle de la viande cultivée et des insectes.

La viande cultivée se heurte à un obstacle psychologique puissant : le dégoût et le sentiment qu’il s’agit d’un produit « contre nature ». L’acceptabilité varie fortement selon les régions : les consommateurs asiatiques se montrent nettement plus ouverts que les Européens et, même au sein de l’Europe, les écarts sont marqués, avec par exemple un tiers de Français prêts à en consommer contre près de deux tiers de Polonais. L’âge et le genre jouent aussi un rôle : les jeunes hommes y sont par exemple plus favorables.

Les insectes font face à la résistance la plus forte. La littérature rapporte un taux d’acceptation généralement inférieur à 30 % dans les pays occidentaux. Fait intéressant, ce rejet tient davantage à des barrières psychologiques qu’au goût ; les personnes ayant goûté des insectes les évaluant souvent plus favorablement.

Cependant, il convient de noter que l’acceptabilité de toutes les protéines alternatives évolue avec la familiarité et l’exposition répétée, ce qui suggère que les études actuelles sous-estiment peut-être leur potentiel à long terme.

L’élevage d’insectes est-il compatible avec le bien-être animal ?

Enfin, notre étude intègre une dimension souvent absente de ces débats : le bien-être animal. Les viandes végétales et les protéines unicellulaires n’impliquent aucun animal.

La viande cultivée n’en nécessite qu’un très petit nombre, essentiellement pour les prélèvements cellulaires initiaux. La question du sérum fœtal bovin, un sous-produit de l’abattage de vaches gestantes qui constitue depuis les années 1950 le standard de la culture de cellules eucaryotes en biologie, illustre bien cette trajectoire. La viande cultivée s’est logiquement appuyée sur ce savoir-faire existant à ses débuts, mais tend aujourd’hui à s’en affranchir : son coût élevé et sa variabilité en font un obstacle industriel que la quasi-totalité des entreprises du secteur cherchent activement à éliminer.

Les insectes, en revanche, posent un problème éthique singulier : il faut environ 9 000 vers de farine pour produire un seul kilogramme de protéines, et les travaux récents sur la sentience – c’est-à-dire la capacité à avoir des expériences subjectives, notamment ressentir la douleur ou le stress – des insectes suggèrent qu’ils pourraient être capables de souffrir. Face à cette incertitude, plusieurs chercheurs préconisent d’appliquer un principe de précaution.

Hiérarchiser le soutien aux protéines alternatives

Notre comparaison aboutit à une hiérarchie claire. Les viandes végétales arrivent en tête : bénéfices environnementaux robustes, filière industrielle déjà en place, meilleure acceptabilité. Les protéines unicellulaires offrent un potentiel complémentaire, notamment grâce à leur très faible empreinte au sol. La viande cultivée pourrait trouver sa place si elle parvient à conquérir des consommateurs que les autres alternatives n’atteignent pas, mais les obstacles techniques et économiques restent considérables. Les insectes, enfin, cumulent les fragilités : verrous économiques, faible acceptabilité et questions éthiques non résolues.

Que suggèrent ces résultats pour l’action publique ? Plusieurs pistes paraissent cohérentes : concentrer les financements sur les alternatives les plus matures, en investissant dans l’amélioration de leur goût et de leur prix ; favoriser leur diffusion en les intégrant à la restauration collective (cantines, hôpitaux, administrations) ; et contribuer à rééquilibrer la concurrence en intégrant progressivement les coûts environnementaux de l’élevage intensif dans le prix de la viande. L’affaire Ynsect montre ce qu’il en coûte de miser gros sans se poser les bonnes questions. La recherche permet aujourd’hui de mieux les poser.

The Conversation

Tom Bry-Chevalier est directeur scientifique de l'Observatoire National de l'Elevage d'Insectes (ONEI).

13.04.2026 à 16:42

La scolarité des enfants suivis par la protection de l’enfance : un problème majeur qui ne doit pas occulter les réussites

Benjamin Denecheau, Professeur des universités, Université Paris-Est Créteil Val de Marne (UPEC)
Les enfants passés par la protection de l’enfance sont plus souvent confrontés à des difficultés scolaires. Il est important de le reconnaître sans verser dans un discours stigmatisant.
Texte intégral (1903 mots)

Les enfants passés par l’aide sociale à l’enfance sont plus souvent confrontés à des difficultés scolaires. Il est important de le reconnaître sans verser dans un discours stigmatisant qui contribuerait à entretenir un cercle vicieux. La recherche est une alliée précieuse pour identifier des leviers de réussite.


Le 12 février 2026, une circulaire du ministère de l’éducation nationale est parue au Bulletin officiel pour « favoriser la réussite et l’ambition scolaires des enfants protégés ». Ces derniers sont des enfants dont la situation a été identifiée comme étant en risque ou en danger et auprès desquels l’État intervient, par la voix de services décentralisés, l’aide sociale à l’enfance (ASE), dans un but de protection, qu’ils restent dans leur milieu de vie habituel ou qu’ils soient accueillis dans d’autres structures. Ils étaient 384 900 mineurs et jeunes de moins de 21 ans dans ce cas au 31 décembre 2023.

S’il peut sembler aller de soi, cet objectif vient lever un paradoxe jusque-là invisible : la scolarité de ces enfants n’était pas affichée clairement comme un objectif de l’État, alors même qu’ils sont placés sous sa protection.

Pourquoi souligner cette ambition ? Que savons-nous de la scolarité de ces enfants ? Quel est l’état de la recherche sur cette question ? Nous verrons que des difficultés fortes sont maintenant bien documentées, mais qu’elles ne sont pas systématiques, et qu’il est nécessaire d’être vigilant sur la façon d’en parler au risque d’alimenter ce problème.

Des difficultés scolaires plus fréquentes, mais non systématiques

Les recherches en France convergent maintenant depuis plus d’une dizaine d’années pour identifier des difficultés scolaires plus fréquentes pour ces enfants. Plus de la moitié d’entre eux est en retard d’au moins une classe par rapport aux autres enfants du même âge (plus de 1 sur 10 le sont d’au moins deux classes). Ils sont dix fois plus souvent orientés en scolarités adaptées, comme les sections d’enseignement général et professionnel adapté (Segpa), connaissent plus fréquemment des moments de déscolarisation.

Ces éléments sont des indicateurs de difficultés rencontrées : le redoublement ou ces orientations sont envisagés lorsque les résultats sont bas. Mais ce sont aussi des éléments fragilisant la suite de la scolarité. Le redoublement, par exemple, a des effets préjudiciables pour les élèves qui le vivent : sans résoudre les difficultés scolaires, il ajoute un stigmate fort et réduit l’estime que les élèves ont d’eux-mêmes.

Les orientations vers des dispositifs spécialisés rendent difficile le retour dans un cursus ordinaire. Les temps de déscolarisation marquent aussi durablement les scolarités.

De plus, les orientations scolaires sont plus contraintes pour ces enfants : ils sont près de 8 sur 10 à être orientés en filières professionnelles dans le second cycle, contre 3 pour 10 pour l’ensemble de la population. Ces orientations sont d’abord envisagées par défaut, peu les choisissent en premier lieu. À 17 ans, seulement 13 % préparent un baccalauréat général (contre 51 % pour l’ensemble de la population).

Les sorties du système éducatif sont plus rapides, et débouchant plus souvent sur des situations précaires : 31 % des jeunes de 18 à 22 ans sortant de l’ASE se déclarent inactifs ou au chômage et 42 % suivent des études (contre respectivement 21 % et 50 % pour les jeunes de milieux populaires).

Ce que l’on sait des causes de ces difficultés

La littérature permet maintenant d’identifier une part importante des causes de ces difficultés. On peut citer les difficultés rencontrées par ces enfants avant l’intervention et liées aux raisons qui la justifient. Les travaux d’Isabelle Frechon confirment la fréquence élevée de violences vécues pour les enfants ayant eu l’expérience d’un placement : 31 % déclarent avoir subi des violences sexuelles, 35 % des violences physiques, 12,5 % des violences psychologiques et 11 % des négligences lourdes au cours de leur enfance et/ou adolescence. D’intensité et de durée différentes, ces violences génèrent des traumatismes, des préoccupations, du stress qui gênent les apprentissages.

Par ailleurs, bien qu’aucun milieu social ne soit épargné par les maltraitances, ces enfants sont plus souvent issus des milieux populaires et particulièrement des strates les plus précaires. Ils font donc partie des populations mises en difficulté par un système éducatif très inégalitaire, et ils cumulent les situations de précarité qui renforcent les difficultés scolaires.

Par ailleurs, l’intervention des services de protection de l’enfance a des effets ambivalents sur les scolarités. Elles peuvent les soutenir en partie, mais contribuent également aux difficultés, notamment en générant des ruptures multiples (des changements d’adultes référents, d’établissements scolaires, d’environnements de vie, un éloignement des amis).

Du fait d’un ensemble complexe de raisons, les enfants passant par la protection de l’enfance sont souvent destinataires d’attentes faibles au sujet de leur scolarité et de leur projection d’études et d’emploi. Par le corps enseignant, tout d’abord, du fait de représentations tenaces, associant la protection de l’enfance à des difficultés nécessairement scolaires, mais également par les travailleurs sociaux. Ces faibles attentes de part et d’autre contribuent à des orientations plus fréquentes vers l’enseignement spécialisé, vers des scolarités par défaut et favorisent des périodes de non-scolarisation.

De fortes incertitudes sur l’avenir qui contraignent l’orientation

Pour ces enfants, l’avenir est fortement incertain. La limite des 18 ans annonce une fin de prise en charge institutionnelle pour la plupart, et jusqu’aux 21 ans pour les plus soutenus. Ils disposent de moins de ressources (familiales, institutionnelles, sociales) pour envisager une poursuite d’études ou pour assurer la recherche et l’obtention d’un emploi. Ces difficultés sont connues des jeunes et des membres du champ professionnel. Ils les anticipent et vont viser des orientations au moindre risque, vers des filières courtes, pour viser une indépendance plus sûre, plus rapidement, limitant les projections d’avenir qui suivent peu leurs propres envies.

Sur ces éléments, les filles sont davantage mises en difficulté, à la différence du reste de la population. Les orientations vers les voies professionnelles plus fréquentes contraignent davantage leur parcours scolaire et n’assurent pas la sécurité prévue. À la sortie de la prise en charge, elles sont plus affectées par les conditions d’accès à l’emploi que les garçons, elles sont davantage au chômage ou inactives.

Le constat des difficultés plus fortes est bien établi par la recherche et il démontre que le droit à l’éducation n’est pas pleinement atteint pour ces enfants. Le rappel de ces tendances peut toutefois avoir un effet délétère pour eux en augmentant la forte stigmatisation qui peut peser négativement sur les capacités qu’on leur attribue, et les ambitions qu’on leur porte. En effet, ce sont bien des attentes élevées et la considération que la scolarité est importante qui soutiennent les parcours de réussite scolaire.

Des réussites scolaires peu visibles

À l’occasion de mes recherches de thèse doctorale, soutenue en 2013, j’identifiais qu’en Angleterre la publication régulière des données comparées sur la scolarité, entre les enfants protégés et le reste de la population, et l’injonction à soutenir leur réussite, sans attribuer des moyens suffisants, stigmatisaient cette population et avaient des effets négatifs sur les professionnels. Ces derniers rendaient compte d’une résignation face aux difficultés.

Il y a ainsi une vigilance à avoir sur la façon dont on mentionne publiquement le problème de la scolarité des enfants protégés. Il est nécessaire d’étudier les conditions de ces difficultés et d’identifier les leviers pour les réduire, mais sans faire peser sur ces enfants un stigmate négatif. Il est important de trouver un juste équilibre pour souligner le versant positif du problème, à savoir soutenir la réussite et avoir des attentes élevées envers ces enfants, sans invisibiliser le constat sur les difficultés élevées et le diagnostic de leurs causes.

Si cette question était jusque-là un sujet de préoccupation affichée des professionnels de la protection de l’enfance et des institutions locales ou territoriales (associations ou départements), la circulaire ministérielle constitue le signal de sa reconnaissance comme problème public. La circulaire implique pleinement l’éducation nationale dans ces préoccupations et la responsabilité d’agir pour soutenir ces enfants. D’ailleurs, depuis les années 2010, les recherches, en France comme à l’international, fournissent un ensemble de connaissances maintenant bien établies qui renseignent autant sur les freins existants que sur les leviers disponibles pour accompagner la réussite des enfants protégés.

The Conversation

Benjamin Denecheau ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

13.04.2026 à 16:41

Trois récits de vie pour comprendre le mal-être dans la fonction publique

Aude Deville, Professeur des Universités, Université Côte d’Azur
Franck Brillet, Inspecteur général de l'éducation, du sport et de la recherche - directeur de l'Inspé de l'académie de Nice
Marc Valax, Professeur des Universités (GRH, Gestion du changement IA, Management international), Université Côte d’Azur
Face à des injonctions contradictoires des responsabilités floues et un manque de reconnaissance, certains agents de la fonction publique souffrent de mal-être.
Texte intégral (1818 mots)
« J’aimais mon métier d’enseignante, mais là, je n’avais plus le sens. Mon médecin m’a dit, “C’est un burn out” », témoigne une enseignante interviewée. FrameStockFootage/Shutterstock

Face à l’austérité budgétaire, certains agents de la fonction publique font face à des injonctions contradictoires – moins de moyens, mais une meilleure qualité de service –, des responsabilités floues et un manque de reconnaissance qui affectent leur bien-être. Pour comprendre ces enjeux complexes, une étude donne la parole à trois agents de la fonction publique d’État.


Une directrice d’école en burn out faute d’aide. Un cadre hospitalier en charge des décisions, sans pouvoir réel. Un fonctionnaire dont les compétences restent ignorées. Ces situations ne sont pas des cas isolés. Elles suggèrent une transformation silencieuse du management dans la fonction publique.

La fonction publique présente des défis managériaux spécifiques, documentés depuis plusieurs décennies. Ces défis oscillent entre sens du devoir, convictions et valeurs partagées, et contraintes telles que l’austérité budgétaire.

À partir de récits de vie d’agents publics, notre étude révèle des situations où les responsabilités augmentent, alors que les moyens et les marges de décision diminuent. Cette évolution contribue à affaiblir l’engagement des fonctionnaires et contractuels. Notre approche narrative permet d’appréhender les enjeux contemporains de la gouvernance publique d’État à partir de l’expérience vécue de professionnels.

Injonctions contradictoires

L’équilibre entre contrôle de l’activité des agents de la fonction publique et liberté décisionnelle nécessaire à toute prise de décision reste un sujet de débat. Depuis plus de vingt-cinq ans, le chercheur Christopher Hood questionne la mise en œuvre du New Public Management, tandis que Geert Bouckaert invite à repenser la notion de performance et ses critères dans le secteur public. Dans ce contexte, les fonctionnaires se retrouvent face à des injonctions contradictoires : préserver une qualité de service envers les concitoyens avec des moyens limités et des obligations de résultat.

Le New Public Management trouve sa transposition en France à travers des programmes d’actions interministériels lancés en 2007 et 2012. La Révision générale des politiques publiques (RGPP) a été notamment consacrée à la réorganisation des structures de l’administration publique. La modernisation de l’action publique (MAP) à l’amélioration de la qualité des services publics ou la simplification et de réorganisation administrative.

Notre analyse met en lumière les formes concrètes du désenchantement des ressources humaines dans la fonction publique et la dégradation de la qualité du management liées à ces évolutions, notamment à travers deux cadres théoriques :

  • La justice organisationnelle qui analyse les appréciations des salariés du caractère juste du traitement dont ils font l’objet au sein de la structure qui les emploie ;

  • Les conflits de rôles qui naissent quand les périmètres d’activités ne sont pas suffisamment bien définis ou l’existence d’une répartition déséquilibrée de la charge de travail entre agents de la fonction publique.

Manque de reconnaissance (premier récit de vie)

Appel aux consultants extérieurs

« Ce qui me désole au sein du ministère, c’est l’indifférence manifeste envers les CV des fonctionnaires. Il est vrai que nous avons été embauchés selon certaines conditions de niveau et de compétences, mais après plus de quatre ans comme moi au sein des services, les agents ont eu l’occasion d’acquérir de nouvelles compétences. Plutôt que de faire appel à des consultants externes pour leurs compétences, on pourrait exploiter les compétences internes qui sont réellement abondantes et variées. »

Tâches routinières

« Avant de rejoindre la fonction publique, j’ai occupé plusieurs postes dans divers cabinets d’expertise comptable, où j’ai géré de manière autonome la comptabilité d’entreprises reconnues. J’ai choisi la fonction publique pour satisfaire mon père qui valorise la stabilité et la sécurité qu’elle offre. Cependant, mon rôle actuel à la direction générale se limite à des tâches routinières et subalternes. Ce manque de reconnaissance de mon niveau de compétence et d’expérience me désole. »

Qui est responsable ? (second récit de vie)

« Je suis en position de responsabilité, en tant que cadre depuis cinq années. J’ai la charge de la gestion des soignants au sein d’une organisation hospitalière multi-sites. Il y a des difficultés pour accompagner tous nos patients, accueillis sur un site et quelquefois opérés sur un autre site. Il faut alors trouver des places pour l’hospitalisation. »

« Nous expliquons que c’est au chef de service de déterminer qui sera le premier patient de la journée et l’heure à laquelle il sera hospitalisé. À notre niveau, nous sommes des représentants administratifs. Nous devons répondre à des sujets qui sont pour eux administratifs, mais qui en réalité sont organisationnels. C’est compliqué : qui est responsable ? »

Gérer seule une situation difficile (troisième récit de vie)

Problématique en dehors des clous

« Je suis directrice dans une petite école et institutrice dans une classe de CE2. J’ai vingt-cinq ans d’expérience et on peut dire que je fais partie des piliers de l’école. Jusqu’à cette situation, j’étais passionnée et ce métier a toujours été une véritable vocation. »


À lire aussi : Quand le cynisme mine l’engagement dans la fonction publique…


« Depuis la petite section, nous accueillons un enfant avec des troubles importants – sans connaître l’origine de ses troubles, car sa maman n’a jamais voulu fournir de bilan médical à l’école. Il a pu bénéficier d’un accompagnant d’élève en situation de handicap durant 5 ans, mais plus aujourd’hui. C’est donc un peu moi qui joue ce rôle, mais en plus je dois m’occuper des autres élèves de ma classe. »

Pas de soutien de l’académie

« La situation était tenable tant qu’il bénéficiait de cette personne dédiée. Il a toujours eu tendance à frapper les autres et je pense qu’une bonne partie des enfants de l’école y ont eu droit. Cette année, les problématiques se sont amplifiées. Il y a eu de nombreuses plaintes des parents. On m’a même dit : “Mais que faites-vous madame, vous ne surveillez pas ?” “Convoquez la mère !” »

« Je me suis donc retournée vers l’académie et l’inspecteur, en demandant conseils et aides. Il m’a été répondu qu’il ne faudrait surtout pas céder aux plaintes quotidiennes des parents. Je n’ai pas reçu d’aide ou de moyens supplémentaires. Je pleurais tous les jours. J’aimais mon métier d’enseignante, mais là, je n’avais plus le sens. Mon médecin m’a dit, “C’est un burn out”. »

Hypocrisie organisationnelle

L’ensemble de ces récits permet de proposer plusieurs perspectives d’analyse à la lumière de l’hypocrisie organisationnelle – discours et actes contradictoires. Par exemple, le troisième invite à se demander si cette hypocrisie ne sert pas à protéger l’organisation, ici l’éducation nationale.

Une autre perspective est celle du leadership. Les trois récits suggèrent que :

  • Les agents publics sont contraints d’endosser des responsabilités pour gérer des situations complexes, sans recevoir de reconnaissance lorsqu’ils réussissent à trouver des solutions. L’écart entre les missions confiées et les moyens disponibles devient difficilement supportable ;

  • Ils ne disposent parfois pas du pouvoir décisionnel nécessaire pour résoudre les problèmes auxquels ils sont confrontés ;

  • Ils restent souvent prisonniers d’un statut ou d’une organisation hiérarchique rigide, qui freinent l’évolution de leurs missions, malgré l’acquisition d’expérience ou de nouvelles compétences. Cette situation génère à terme démotivation ou démission, qu’elle soit silencieuse ou effective.

Ces récits illustrent une forme de « management du risque » de la part des niveaux hiérarchiques supérieurs, qui consiste à laisser les collaborateurs affronter seuls certaines situations, tout en revendiquant la maîtrise de la décision et de l’action. Ces extraits mettent en lumière l’importance cruciale de la reconnaissance et de la valorisation du travail, tant au sein de la fonction publique qu’au service de l’usager ou du citoyen. En filigrane se dessine la nécessité d’un leadership éclairé et bienveillant, capable de soutenir et guider ses équipes.

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.

13.04.2026 à 16:41

Les coûts économiques de la guerre vont bien au-delà des destructions matérielles

Mathieu Couttenier, Professeur d'économie, ENS de Lyon
Si les destructions et les morts sont l’impact le plus visible de la guerre, il en est de nombreux autres invisibles. La guerre renforce et crée aussi de nouvelles inégalités.
Texte intégral (1710 mots)

Les effets les plus importants des conflits sont souvent les moins visibles : ils détruisent les parcours de vie, affectent la santé, plombent les économies, exacerbent les inégalités de genre, accélèrent les déplacements forcés… La guerre génère aussi des gagnants, intentionnels ou involontaires.

Cet article est publié en partenariat avec Mermoz, la revue du Cercle des économistes dont le numéro 10 est consacré aux « Violences : la société à vif ».


La guerre détruit des infrastructures, désorganise les économies, brise des trajectoires individuelles et recompose parfois les rentes. En mesurer le coût suppose de tenir ensemble ces différentes dimensions. Loin d’être un simple exercice comptable, cette quantification est indispensable pour identifier les populations les plus vulnérables et orienter les politiques de reconstruction.

Les coûts les plus visibles sont matériels. Les conflits contemporains détruisent massivement les infrastructures et désorganisent en profondeur les capacités productives. Dans le cas de l’Ukraine, les premières estimations situaient les pertes totales entre 500 milliards et 1 000 milliards de dollars (de 427,9 milliards à 855,8 milliards d’euros) dès 2022. Fin 2024, la Kyiv School of Economics chiffrait la reconstruction des seules infrastructures physiques à des dizaines de milliards de dollars : 60 milliards pour les logements, 38,5 milliards pour les routes, 14,6 milliards pour le secteur énergétique, 14,8 milliards pour l’agriculture. Ces chiffres ne rendent compte que des pertes tangibles ; ils laissent dans l’ombre la désorganisation plus profonde des tissus productif et social.

À l’échelle macroéconomique, les effets sont tout aussi sévères. Le génocide rwandais de 1994 s’est accompagné d’une chute de 40 % du PIB par habitant et d’un effondrement des investissements directs étrangers. À Gaza, le PIB réel a reculé de plus de 80 % au premier semestre 2024, tandis que la part de la population en situation de pauvreté multidimensionnelle est passée de 63,7 % avant la guerre à 97,9 % en 2024.


À lire aussi : Économie de guerre : de quoi parle-t-on ?


Les enfants, premières victimes

Les coûts les plus importants sont souvent les moins visibles. La guerre perturbe les parcours de vie, détruit les actifs des ménages et fragilise durablement les mécanismes économiques de base. Les enfants en sont les premières victimes. En 2023, 473 millions d’enfants vivaient dans des zones de conflit, et plus de 30 000 violations graves de leurs droits ont été recensées.

La littérature économique montre que ces expositions précoces ont des effets durables sur le capital humain : au Pérou, une exposition à la violence avant l’âge scolaire réduit en moyenne la scolarité de 0,31 année à l’âge adulte ; au Rwanda, les enfants exposés au génocide accusent un retard d’environ 0,5 année de scolarité primaire.

Les conséquences sanitaires sont, elles aussi, profondes. Au Nigeria, les femmes exposées à la guerre civile entre 1967 et 1970 présentent, à l’âge adulte, une taille inférieure de 0,75 à 4,5 centimètres selon l’âge d’exposition, signe d’un environnement nutritionnel et sanitaire gravement détérioré (Akresh et coll., 2012).

Par ailleurs, le simple risque de violence, même en l’absence d’exposition directe, affecte les comportements et les conditions de vie. En Côte d’Ivoire et en Ouganda, une augmentation d’un écart-type du risque de violence entre la conception et la première année de vie accroît la mortalité infantile de 0,8 à 1 point de pourcentage. Les coûts du conflit ne se limitent donc pas aux seuls lieux où la violence se réalise.

Des liens sociaux désagrégés

Les effets sur les structures sociales sont plus ambivalents. De nombreux travaux documentent une baisse durable de la confiance et un renforcement des replis identitaires après les conflits, y compris longtemps après la fin des hostilités. D’autres mettent en évidence, dans certains contextes, des dynamiques inverses : montée de l’engagement civique et politique, comportements plus prosociaux, participation accrue à la vie collective. La guerre ne produit donc pas des effets sociaux uniformes. Si elle peut désagréger les liens, elle peut aussi, dans certains contextes, renforcer des formes d’engagement ou de coopération.

Les conflits exacerbent aussi les inégalités de genre. Près de 80 % des personnes déplacées sont des femmes (Banque mondiale, 2011), exposées à des risques sanitaires accrus et à des formes de violence spécifiques. Les violences sexuelles, documentées dans de nombreux contextes, ne sont pas seulement des effets collatéraux du conflit. Des travaux récents montrent qu’elles peuvent répondre à des logiques de contrôle territorial et d’extorsion économique, notamment dans les zones riches en ressources naturelles.

L’immigration des élites

Les déplacements forcés constituent une autre dimension majeure et souvent sous-estimée des coûts. Un conflit de faible intensité génère en moyenne 500 000 déplacés, un conflit meurtrier jusqu’à 1,2 million. Ces migrations ne sont pas aléatoires : les individus les plus éduqués et les mieux dotés économiquement sont souvent les plus mobiles. Cette sélection entraîne une perte durable de capital humain dans les zones d’origine, fragilisant la reconstruction et pouvant alimenter, à moyen terme, de nouvelles tensions.

Les entreprises subissent elles aussi des coûts importants, directs et indirects. La violence perturbe l’offre de travail, désorganise les chaînes d’approvisionnement et accroît l’incertitude sur les décisions d’investissement. Au Kenya, les violences postélectorales de 2008 ont provoqué une chute de plus de 50 % des exportations de fleurs.

Dans les territoires palestiniens occupés, les distorsions liées à l’accès aux intrants importés expliquent environ 70 % de la baisse de valeur ajoutée des entreprises exposées. Mais ces effets ne restent pas confinés aux zones de violence : dans le cas indien, environ trois quarts du coût économique total d’un conflit transitent par les chaînes de valeur, affectant des entreprises situées dans des régions pourtant épargnées. Ne comptabiliser que les firmes directement exposées conduit donc à sous-estimer massivement l’impact global.

France 24, 2023.

Des rentes redistribuées

Enfin, la guerre génère aussi des gagnants, et la distinction entre gagnants intentionnels et gagnants involontaires est ici essentielle. Les premiers cherchent activement à tirer profit du conflit : l’industrie de l’armement, dont le chiffre d’affaires cumulé atteignait 631,9 milliards de dollars (540,8 milliards d’euros) en 2023 en est l’exemple le plus évident. Certaines entreprises vont plus loin encore, en nouant des arrangements avec des groupes armés pour maintenir leur activité ; le cas Lafarge en Syrie en est l’illustration la plus emblématique.

Les seconds profitent du conflit par un concours de circonstances : la disparition ou l’affaiblissement de concurrents exposés à la violence redistribue mécaniquement des parts de marché en leur faveur, sans qu’ils l’aient recherché. Dans les deux cas, ces dynamiques rappellent que la guerre ne produit pas uniquement des destructions : elle redistribue aussi des rentes et des positions, ce qui contribue parfois à en prolonger la durée.

Au total, les coûts de la guerre s’étendent bien au-delà des destructions immédiates. Ils s’inscrivent dans les corps, les trajectoires scolaires, les structures familiales, les réseaux productifs et les équilibres sociaux, souvent pour des décennies. Les chiffrer rigoureusement ne revient pas à réduire la guerre à une équation ; c’est une condition pour hiérarchiser les urgences, cibler la reconstruction et limiter la reproduction de la violence.


Cet article est publié en partenariat avec Mermoz, la revue du Cercle des économistes dont le numéro 10 a pour objet « Violences : la société à vif ». Vous pourrez y lire d’autres contributions.

Le titre et les intertitres sont de la rédaction de The Conversation France.

The Conversation

Mathieu Couttenier ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

13.04.2026 à 16:41

Quel avenir pour les animaux sur les plateaux de cinéma ?

Cynthia Chris, Professor of Media Studies, City University of New York
Même si les images de synthèse qui reproduisent des animaux ont un rendu de plus en plus bluffant, on observe un retour du recours à de vrais animaux sur les plateaux.
Texte intégral (2341 mots)
Dans *l’Odyssée de Pi*, Ang Lee a eu recours à un vrai tigre du Bengale, mais aussi aux images de synthèse. Allociné

Depuis ses débuts, le cinéma a utilisé les animaux comme des acteurs à part entière. Mais leur présence sur les plateaux se fait moindre avec l’essor des images de synthèse, tandis que les associations de défense des animaux œuvrent pour en finir avec des pratiques parfois maltraitantes.


L’histoire des acteurs non humains est longue et riche en anecdotes, de Luke, le chien de la star du cinéma muet Roscoe (alias Fatty) Arbuckle, aux colleys qui ont incarné Lassie au cinéma et à la télévision. L’ours Bart a accumulé plus de 20 apparitions au cinéma et à la télévision dans les années 1980 et 1990, tandis que d’innombrables chevaux ont contribué aux séries historiques qui inondent aujourd’hui les plateformes de streaming.

Mais les affaires ne vont plus aussi bien qu’avant pour les dresseurs qui se spécialisent dans la location d’animaux de toutes sortes aux productions cinématographiques et télévisuelles.


À lire aussi : Décoloniser notre rapport aux animaux pour inventer un nouveau rapport au monde


Selon The Hollywood Reporter, la tendance est présente depuis au moins vingt-cinq ans, et elle est due à un mélange d’activisme en faveur des droits des animaux et de progrès technologiques, ce que j’ai observé moi-même dans mes recherches sur les animaux à l’écran.

Moins de rôles à se partager

L’adoption par Hollywood des images de synthèse a joué un rôle immense dans la « mise au chômage » de ces animaux « acteurs ». Depuis que Jurassic Park (1993) a osé mêler des dinosaures en computer-generated imagery (CGI) à des acteurs humains, de plus en plus d’animaux numériques sont apparus aux côtés des humains.

Mais d’autres facteurs ont accéléré cette tendance. La pandémie de Covid-19, les grèves des acteurs et scénaristes hollywoodiens de 2023 et une récente baisse du nombre de nouvelles séries télévisées ont entraîné une diminution du nombre de productions et de rôles disponibles, qu’ils soient destinés à des humains ou à des animaux.

Mais, même avant ces événements récents, des voix s’élevaient pour demander à Hollywood de réduire radicalement sa dépendance vis-à-vis des animaux de cinéma.

En 2012, The Hollywood Reporter – le même magazine spécialisé qui a récemment déploré une baisse des locations d’animaux – a publié un reportage répertoriant des incidents au cours desquels des animaux sont morts, ont été blessés ou ont été exposés à de graves dangers sur les plateaux. Ces productions ont néanmoins continué à arborer le célèbre crédit « No Animals Were Harmed » (« Aucun animal n’a été maltraité durant ce tournage ») décerné par l’American Humane Association, quand bien même les animaux avaient été maltraités. L’American Humane Association a affirmé que ces incidents étaient tragiques, mais sans conclure qu’ils résultaient d’une négligence.

En 2016, l’association Pour une éthique dans le traitement des animaux (PETA) a publié les résultats d’enquêtes menées sous couverture documentant des conditions de vie inférieures aux normes et des problèmes médicaux non traités chez Birds & Animals Unlimited, qui gère des centres de dressage d’animaux pour le cinéma et la télévision. En 2024, l’organisation a détaillé les cas de négligence envers les animaux confiés aux soins d’Atlanta Film Animals. Les deux sociétés ont nié ces allégations.

Il existe bien sûr de nombreuses façons de réduire au minimum, voire d’éviter complètement, l’utilisation d’animaux réels au cinéma et à la télévision.

La Planète des singes : Les Origines et ses suites ont utilisé la capture de mouvement, c’est-à-dire des humains reproduisant les mouvements de personnages qui ont ensuite été transformés par images de synthèse en chimpanzés, gorilles, bonobos et orangs-outans.

Pour la production d’Ang Lee de 2012, l’Odyssée de Pi, les artistes en effets visuels ont créé des milliers d’animaux virtuels (cependant, un tigre du Bengale en chair et en os a également été sollicité et a failli se noyer, ndlr), tandis que le réalisateur Darren Aronofsky a opté pour des animaux entièrement numériques, complétés par quelques accessoires réels, dans Noé, en 2014.

À contre-courant des tendances high-tech, le film d’horreur Primate (2025) a fait un retour aux sources sans recourir à de vrais animaux, en faisant appel à un artiste vêtu d’un costume et de prothèses pour incarner un chimpanzé enragé et meurtrier.

Le film d’horreur de 2025 Primate n’utilise ni images de synthèse ni animal, mais fait appel à un humain déguisé pour incarner le singe fou.

Les images de synthèse peuvent-elles désensibiliser les spectateurs à la violence envers les animaux ?

Il existe sans aucun doute des dresseurs qui se soucient profondément de leurs protégés et respectent les meilleures pratiques en matière d’élevage. Mais il va de soi que moins il y a d’animaux en captivité, mieux c’est, et les récentes avancées en matière d’IA ont rendu les effets visuels et les images de synthèse encore plus réalistes et plus faciles à modéliser.

Cependant, le fait de remplacer des animaux en chair et en os par des créatures faites de pixels semble avoir ouvert la voie à des abus sans limites. Prenons l’exemple de la violence brutale dans les remakes de la Planète des singes, qui incluent des combats au corps à corps, le marquage au fer rouge et une scène de crucifixion.

Autrefois, le fait que les animaux présents sur le plateau soient réels freinait parfois les pulsions les plus sauvages des cinéastes ; la violence était suggérée ou se déroulait hors champ dans des films familiaux comme Jody et le faon (1946) et Fidèle Vagabond (1957).

Parallèlement, des astuces de caméra et des accessoires ont été utilisés pour créer des scènes de cruauté envers les animaux dans de nombreux films, d’American Psycho (2000) à John Wick (2014).

Bien que les effets des médias violents sur les spectateurs soient notoirement difficiles à étudier, certaines données suggèrent que certains publics peuvent devenir insensibles aux conséquences réelles de contenus malsains et violents. On comprend aisément comment cette désensibilisation pourrait s’étendre au visionnage de scènes de cruauté envers les animaux à l’écran.

Les spectateurs peuvent encore flairer le virtuel

Une approche hybride de la représentation des animaux à l’écran semble s’être imposée, utilisant ce qu’un chercheur a appelé – en référence aux chiens à l’écran – des « performances canines composites ».

L’équipe à l’origine de la version 2025 de Superman, par exemple, a cherché à créer un chien réaliste, jusque dans les moindres poils ébouriffés. Mais il fallait qu’il défie la gravité et d’autres lois de la physique. Ils ont donc intégré juste assez d’animaux réels en préproduction pour animer une créature principalement en images de synthèse, le chien du réalisateur James Gunn servant de « modèle », ou de « référence » au super-chien Krypto.

Cette technique rappelle les méthodes des animateurs de Disney qui, face au défi de créer les personnages de Bambi (1942), se sont retrouvés dans une impasse. Ils ont donc étudié l’anatomie animale, photographié des cerfs dans la nature et dessiné des animaux amenés au studio afin de mieux capturer leurs mouvements sur le papier.

Mais lorsqu’il s’agit de films en prises de vues réelles ancrés dans la vie quotidienne, les animaux réels ont encore leur place sur le plateau. D’une part, il est généralement moins coûteux de faire appel à de vrais animaux. De plus, la plupart des animaux virtuels à l’écran ne sont tout simplement pas assez réalistes pour permettre la suspension totale de l’incrédulité qui fait la magie du cinéma.

C’est pourquoi, dans l’adaptation de 2025 des Mémoires d’Helen MacDonald, H Is for Hawk, les cinéastes auraient utilisé cinq vautours pour incarner Mabel, l’oiseau adopté par Helen (Claire Foy). C’est pourquoi le film Marty Supreme, nominé aux Oscars, mettait en scène toute une ménagerie d’animaux vivants, notamment un cheval, un chameau, un tatou, un chien, un lapin et même un lion de mer jouant au ping-pong. Oui, l’otarie de la scène était réelle, mais la balle ne l’était pas.

L’avenir des dresseurs et de leurs protégés semble dépendre de la qualité des effets visuels. Pour certains défenseurs des animaux – sans parler des animaux eux-mêmes, qui n’ont pas leur mot à dire sur leur travail –, ce jour n’arrivera jamais assez tôt.

Les cinéphiles et les défenseurs des animaux, quant à eux, pourraient espérer un juste milieu : un avenir dans lequel seuls les animaux traités de manière éthique continueraient à apparaître à l’écran.

The Conversation

Cynthia Chris ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

13.04.2026 à 16:38

What fish redistribution in the Mediterranean is telling us about species’ climate resilience

Marina Sanz-Martín, Postdoctoral researcher, Instituto Español de Oceanografía (IEO - CSIC)
The Mediterranean is one of the world’s most vulnerable ecosystems. A scientific study on shifting distribution dynamics examines how its fish species contend with sea warming.
Texte intégral (1726 mots)
In the last two decades, as a result of climate-driven sea warming, almost half of commercially relevant fish in the Mediterranean have been deserting their original habitats in their quest for higher latitudes, depths and cooler waters. KinoMasterskaya / Shutterstock, CC BY

Over the past twenty years, nearly half of commercially important Mediterranean fish species have shifted their distribution due to climate change, causing marine species to move away from their historical locations. These significant changes in fish habits are expected to have a major impact on biodiversity, ecosystems and fishing opportunities.

On a global scale, species have been observed shifting towards higher latitudes and depths, in search of cooler conditions.

However, at regional scales, the picture is far more complex. Our recent study demonstrates that in the Mediterranean Sea, as a result of climate change, warm water-favouring thermophilic species that prefer moderately warm temperatures, such as the starry skate Raja asterias, are changing their distribution towards the south and west, while cool water-favouring boreal species, such as the black-bellied angler Lophius budegassa, are only changing their distribution in depth.

The broader picture of this ecological process is known as meridionalization through which native warm-water species expand and cold-water species decline.

Temperature-associated habitat selection: the Mediterranean predicament

The Mediterranean is one of the most vulnerable ecosystems in the world due to multiple and cumulative human pressures, including a high level of climate risk that will increase in the future. These combined impacts are already driving major ecological changes in marine species.

The Mediterranean is also a semi-enclosed basin, connected to the global ocean only through the Strait of Gibraltar, which limits the options available to species attempting to track suitable environmental conditions.

However, even if these Mediterranean species move north, they cannot go very far: they soon encounter geographical continental constraints, such as the French continental zone, in the Gulf of Lions.

An alternative to moving northwards is to move towards deeper waters in search of cooler temperatures, when their physiological limits allow it. However, at the regional scale, the picture is far more complex, with very different dominant patterns emerging.

In our recent scientific study conducted along the eastern Spanish Mediterranean coast, from Murcia to northern Catalonia:

“ We found that almost half of the commercially valuable Mediterranean species have changed their distribution over the last two decades: 42 out of the 102 species analysed showed significant distributional shifts.”

Although these changes vary among species, they are dominated by southward and south-westward movements along the Iberian Peninsula, particularly towards the Gulf of Alicante.

Depth-related changes were also diverse, but were mainly characterised by shifts towards shallower waters.

Why are fish moving ‘swimming against’ global patterns, southwards and toward shallower waters?

These species shifts can be explained by local climate velocity, a measure that describes both the speed and direction of ocean warming.

Climate velocity tracks the rate of change in sea surface temperature, indicating the direction and speed species should move to conserve the initial or preferred temperature conditions of their habitat. As such, if species displacements correlate with climate velocity, species are more likely to remain within suitable climatic conditions.

Our results show that the largest distributional shifts are strongly associated with areas experiencing the fastest warming. As a result, many species have shifted the centre of distribution of their populations towards the south-west.

Among these species are the four-spot megrim (Lepidorhombus boscii, the picarel (Spicara smaris and the starry ray Raja asterias, which given their preference for moderately warm-water temperature, have moved south-westwards, shifting in the same direction as the velocity climate change. However, in addition to the horizontal displacement, they have also moved toward shallower waters:

“Contrary to our expectations, species were predominantly shifting towards shallower waters, more coastal areas because depth naturally decreases in this region as species move south.”

These findings highlight the regional-scale impacts of climate change on commercially important marine species. There is an urgent need to implement climate-smart fisheries management measures, as adaptation to climate change is no longer a future challenge, but a present-day necessity.

Climate-smart solutions involve management measures that focus on implementing regional and local strategies such as identifying marine climate refugia, which attract species and provide an environment in which fish stocks can thrive in spite of climate change, and that prioritises their protection and conservation.

Improving the adaptative responses of the small-scale fishing sector is also a key climate-smart solution. This can only happen if fishers and local communities play a significant role in the decision-making processes, and if scientists, fisheries and policymakers work together to adopt much needed climate-adaptive practices.

This article was co-written with the help of the following authors: Hidalgo, M., Puerta, P., García Molinos, J., Zamanillo, M., Brito-Morales, I., González-Irusta, J. M., Esteban, A., Punzón, A., García-Rodríguez, E., Vivas, M., & López-López, L.

Created in 2007 to help accelerate and share scientific knowledge on key societal issues, the Axa Research Fund – now part of the Axa Foundation for Human Progress – has supported over 750 projects around the world on key environmental, health & socioeconomic risks. To learn more, visit the website of the AXA Research Fund or follow @ AXAResearchFund on LinkedIn.


A weekly e-mail in English featuring expertise from scholars and researchers. It provides an introduction to the diversity of research coming out of the continent and considers some of the key issues facing European countries. Get the newsletter!


The Conversation

Marina Sanz-Martín (MSM) and co-authors acknowledge the crew and staff of the Spanish Institute of Oceanography (CN-IEO, CSIC) for collecting and providing long-term survey data for the MEDITS program and facilitating a unique record of ffish distribution and abundance. This research was performed as part of the VADAPES project, funded with the support of the Biodiversity Foundation of the Spanish Ministry for the Ecological Transition and the Demographic Challenge; the CLISSARTES project (AXA-007), funded by AXA Research Fund; and the COCOCHA project (PID2019-110282RA-I00) funded by the Spanish Ministry of Economy and Competitiveness, Feder funds and the Spanish Research Agency. MSM acknowledges funding from the Government of the Balearic Islands through a Vicenç Mut postdoctoral grant. The authors acknowledge the development and maintenance of online repositories and databases such as COPERNICUS, EMODNET, AQUAMAPS, OBIS, Bio-Oracle, FishBase, and SEALIFEBASE, and their fundamental role in advancing knowledge in marine and fisheries science.

13.04.2026 à 11:40

Attention, les activités des entreprises pourraient devenir inassurables

Fiammetta Cascioli Karivalis, Professeur, Directrice du Msc Business Transformation for Sustainability, Kedge Business School
Sara Ratti, Chercheuse en mesure, gestion et reporting de durabilité, International Institute for Management Development (IMD)
Stéphane Ouvrard, Professeur associé en Finance/Comptabilité, Kedge Business School
Les assureurs voient leur rôle évoluer. La question n’est plus seulement « combien cela coûtera ? », mais aussi « comment éviter que certaines activités deviennent tout simplement inassurables ? ».
Texte intégral (1721 mots)
La majorité des dirigeants d’entreprises ne considèrent pas encore l’adaptation au changement climatique comme un enjeu majeur. CrizzyStudio/Shutterstock

Dans un contexte d’accélération du risque climatique, les assureurs voient leur rôle évoluer auprès des entreprises. La question n’est plus seulement « combien cela coûtera ? », mais aussi « comment éviter que certaines activités deviennent tout simplement inassurables ? » Zoom sur les petites et moyennes entreprises, cœur du tissu économique français.


Longtemps amortisseuse, l’assurance est aujourd’hui sous tension face à des sinistres plus fréquents et coûteux. Rien que pour les tempêtes Nils et Pedro, en février 2026, ainsi que les inondations dans l’ouest et le sud-ouest de la France, France Assureurs et la Caisse centrale de réassurance estiment le coût des dommages à 1,2 milliard d’euros.

Le changement climatique n’est plus seulement une question environnementale. Les risques financiers liés au climat deviennent matériels pour l’économie française, européenne et mondiale. Ainsi, 80 % des entreprises ont subi des perturbations opérationnelles, des fermetures temporaires (70 %) et une hausse de plus de 150 % des coûts d’assurance.

Si les compagnies d’assurance ne couvrent plus certains territoires ou certains secteurs, les coûts se déplaceront vers les entreprises avec un risque de fragilisation du crédit et de stabilité financière.

Un monde à + 4 °C, inassurable

En 2015, Henri de Castries, alors dirigeant d’AXA, avertissait : « Un monde à + 2 °C pourrait être assurable, mais un monde à + 4 °C ne le serait certainement pas. » Dans la cartographie prospective 2026 de France Assureurs, le risque d’inassurabilité s’impose comme la préoccupation centrale de long terme, au côté du risque climatique et des enjeux liés à l’intelligence artificielle.

En effet, les phénomènes climatiques extrêmes gagnent en fréquence et intensité et tendent à devenir une nouvelle norme. Dans certains territoires, ces chocs poussent déjà des assureurs à se retirer – la Californie en a donné un aperçu avec les incendies qui ont ravagé l’État : pas moins de 100 000 Californiens ont perdu leur couverture entre 2019 et 2024.

En France, la Direction générale des entreprises (DGE) estime que « deux millions d’établissements seraient fortement exposés à une augmentation du risque de tempête ». Elle souligne que les tempêtes et les inondations touchent directement les actifs, tandis que les vagues de chaleur dégradent la productivité du travail.

Pour les entreprises, on distingue les risques physiques, aigus liés à des événements extrêmes, et chroniques, liés à des évolutions de long terme. Ces risques finissent par se traduire en risques financiers pour les entreprises – sur les actifs, les chaînes de valeur, les conditions de travail et, in fine, leur productivité.

Seuls 12 % des entreprises ont défini une stratégie d’adaptation

Selon l’Insee, la France comptait en 2021 159 000 petites et moyennes entreprises (PME) marchandes, non agricoles et non financières (hors microentreprises), représentant 4,3 millions de salariés. À l’échelle européenne, elles sont 23 millions, soit environ deux tiers des emplois.

Une gestion préventive des risques climatiques devient une nécessité, même si elle reste encore peu répandue – à l’exception de certains secteurs particulièrement exposés, comme l’agriculture. Dans ce secteur, le coût de l’adaptation est élevé (plus d’une dizaine de milliards d’euros d’investissements d’ici à 2050), mais demeure inférieur au coût de l’inaction.


À lire aussi : À la fin, qui prendra en charge le coût des assurances ?


Selon une enquête réalisée en 2024 par Bpifrance, « 68 % des dirigeants ne considèrent pas l’adaptation au changement climatique comme un enjeu majeur », seuls 12 % ont défini une stratégie d’adaptation et 57 % estiment que leur entreprise est aujourd’hui faiblement exposée aux aléas climatiques.

Trop peu d’entreprises disposent aujourd’hui de véritables plans de résilience, alors même que la résilience devrait devenir un « critère de décision stratégique ». Ce décalage tient à la nature même du risque : tant que l’impact financier n’est pas tangible – sur les actifs, l’activité ou la trésorerie –, il est difficile, pour un dirigeant, d’en mesurer l’ampleur et d’engager des mesures d’adaptation.

Les PME en première ligne

Les PME disposent rarement des mêmes marges de manœuvre que les grands groupes : moins de trésorerie pour absorber un choc, moins d’équipes vouées à la gestion des risques, et moins de poids pour négocier des conditions de couverture. Leur exposition est souvent très concrète, avec des dommages sur leurs bâtiments et leurs machines, des arrêts de production, des tensions logistiques et des effets domino chez les fournisseurs ou les clients.

Elles peuvent se retrouver insuffisamment couvertes – voire pas couvertes du tout – contre certains événements, tels que les inondations, les glissements de terrain, les submersions, les canicules. En 2025, 74 % des très petites entreprises (TPE) et des PME disposent d’une couverture inadaptée, soit environ 3,3 millions d’entreprises concernées.


À lire aussi : DAF et risques climatiques : pourquoi l’inaction devient le principal risque financier des entreprises


Parce que beaucoup de PME ne sont pas directement soumises aux obligations de reporting en durabilité comme la Directive relative à la publication d’informations en matière de durabilité (CSRD), le risque est de repousser la question. Pourtant, mesurer quelques informations clés – exposition, vulnérabilités, plans d’action – aide à piloter l’adaptation et à dialoguer avec les partenaires financiers, les assureurs et les grands donneurs d’ordre.

Assurance paramétrique

L’étude de Bpifrance rappelle que les dirigeants de PME et d’entreprises de taille intermédiaire (ETI) ont besoin d’être accompagnés. Dans ce contexte, les parties prenantes externes (banques, assureurs, grands donneurs d’ordre) intensifient leurs attentes, ce qui ouvre la voie à de nouveaux outils de conformité et à des évolutions stratégiques.

Pour un assureur, le risque renvoie à un événement dommageable, de survenance incertaine, qui devra être indemnisé. La Caisse centrale de réassurance (CCR) estime que « la hausse de la sinistralité du seul fait du climat serait comprise entre 27 % et 62 % en moyenne à horizon 2050 ». Certaines zones, plus exposées, connaissent déjà des difficultés d’accès à l’assurance.

Parmi les réponses possibles, l’assurance paramétrique – qui déclenche un paiement en fonction de paramètres météorologiques – constitue un levier intéressant de résilience climatique.

Le nouveau rôle des assureurs

C’est ici que l’assurance peut jouer un rôle décisif. Au-delà de l’indemnisation, elle peut contribuer à réduire les dommages en amont et à maintenir l’assurabilité du tissu économique. Trois pistes, déjà à l’œuvre dans certains marchés, méritent attention :

  • Inciter à la résilience : ajuster primes et franchises, offrir des bonus ou de meilleures conditions lorsque des mesures de prévention sont mises en place ;

  • Partager données et expertise : fournir cartographies, retours d’expérience et indicateurs pour aider les PME à comprendre leur exposition et agir ;

  • Proposer des services de prévention : diagnostics, recommandations opérationnelles et accompagnement vers des solutions adaptées, y compris l’assurance paramétrique.

L’efficacité de l’ensemble des solutions assurantielles face aux aléas climatiques suppose en effet une sensibilisation accrue des entreprises et… du public.

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.

13.04.2026 à 11:40

Entrepreneuriat : quand la science balaie les idées reçues sur les start-up, les savoir-être…

Christophe Schmitt, Professeur des Universités en entrepreneuriat, IAE Metz School of Management – Université de Lorraine
Beaucoup d’idées reçues circulent sur l’entrepreneuriat, notamment portées par l’imaginaire des start-up californiennes. Les travaux académiques les remettent en cause profondément.
Texte intégral (1517 mots)

Incubateurs, subventions, formations à la créativité… les dispositifs de soutien à l’entrepreneuriat se multiplient en France. Ces solutions sont-elles vraiment efficaces ? Et si les « bonnes idées » pour stimuler l’entrepreneuriat freinaient en réalité l’innovation qu’elles prétendent pourtant encourager.


L’injonction à entreprendre n’a jamais été aussi forte. Pour dynamiser l’économie et transformer les territoires, la réponse des pouvoirs publics et des acteurs économiques semble invariablement être la même : « Plus d’accompagnement, plus d’incitations, plus de passion. » Pourtant, cette approche intuitive, souvent guidée par de bonnes intentions, se heurte parfois violemment à la réalité du terrain.

Dans l’imaginaire collectif comme dans les discours politiques, l’entrepreneuriat est souvent paré de vertus magiques. Il suffirait de libérer les énergies, de financer l’audace et de multiplier les structures d’accueil pour que l’innovation fleurisse. Mais les politiques publiques, tout comme les stratégies d’accompagnement, gagnent à être évaluées à l’aune de la recherche scientifique. C’est précisément la mission que s’est assignée le réseau R2E.

Alliance scientifique entre l’Université de Lorraine, l’Université de Strasbourg, l’Université de Reims Champagne-Ardenne, Neoma Business School et YSchools, ce collectif fédère plus de 230 chercheurs de différentes disciplines (gestion, économie, sciences politiques), avec l’objectif de faire émerger un « entrepreneuriat par la preuve » (evidence-based entrepreneurship). Par ricochet, il s’agit aussi de mettre en lumière des phénomènes contre-intuitifs qui remettent en question bien des certitudes.


À lire aussi : Y a-t-il une part d’inconscient dans l’entrepreneuriat ?


Trop de soutien tue le soutien ?

L’une des premières pierres d’achoppement identifiées par les travaux récents concerne l’architecture même de l’écosystème entrepreneurial. Pour stimuler l’entrepreneuriat et la création d’entreprises, les dispositifs se sont multipliés, sans réflexion sur l’efficacité globale de ces multiples dispositifs, allant des incubateurs aux accélérateurs et autres guichets uniques, subventions régionales, aides nationales…

Or, l’analyse de terrain révèle un effet pervers de cette générosité publique, provoquant un effet « millefeuille ». La sédimentation des dispositifs crée un environnement illisible. Au lieu de se sentir soutenus, les porteurs de projet se retrouvent aux prises avec une complexité administrative chronophage. Le temps passé à décrypter les critères d’éligibilité ou à naviguer entre des injonctions parfois contradictoires est du temps soustrait au développement du produit ou à la recherche de partenaires ou de clients.

La recherche montre ainsi que, au-delà d’un certain seuil, l’abondance de soutiens désorganisés devient un frein. Il convient de sortir de la logique administrative (remplir des dossiers de subvention), pour favoriser le développement de l’activité de l’entrepreneur. En effet, les différentes structures d’accompagnement doivent rendre des comptes à leurs financeurs créant un effet de justification en cascade. La recommandation qui émerge en est claire : l’efficacité des politiques publiques ne réside pas dans le volume des aides, mais dans leur coordination et leur simplicité. Dit autrement : « Trop de soutien tue le soutien. »

L’illusion des « soft skills »

Les études récentes s’attachent également à déconstruire le portrait-robot de l’entrepreneur idéal, souvent romancé par les médias. On nous présente la figure de l’entrepreneur visionnaire, mû par une passion dévorante et des soft skills relationnels hors normes. On imagine volontiers que c’est l’envie de « changer le monde » (purpose-driven action) qui constitue le moteur principal, notamment chez les jeunes générations.

Pourtant, les données racontent une histoire plus pragmatique. Si la passion est une étincelle, elle ne suffit pas à alimenter le moteur sur la durée. Les travaux empiriques soulignent que l’intention entrepreneuriale se transforme en action concrète principalement grâce à la maîtrise de compétences techniques et financières. Comprendre un business plan, anticiper des besoins de trésorerie ou évaluer un seuil de rentabilité sont des facteurs bien plus déterminants pour « passer le cap » que la seule audace créative.

Pourquoi ? Parce que la compétence financière réduit l’incertitude. Elle transforme une peur irrationnelle de l’échec en un risque calculé et gérable. En survalorisant le discours fondé sur les inspirations au détriment des hard skills de gestion, les formations risquent de passer à côté de l’essentiel. De même, les motivations des jeunes entrepreneurs restent, dans la réalité, fortement ancrées dans des logiques économiques et personnelles, bien loin de l’image d’Épinal d’une génération purement altruiste et naturellement talentueuse.

Se lancer plutôt que se (sur)informer

Ce besoin de compétences tangibles se heurte à un autre phénomène contemporain, le « paradoxe de l’abondance informationnelle ». À l’ère du numérique, les jeunes entrepreneurs ont accès à une quantité illimitée de données : benchmarks, études de marché en ligne, retours d’expérience sur les réseaux sociaux…

L’intuition voudrait que plus on est informé, meilleure sera la décision. Cela ne reflète pas vraiment la réalité du terrain, puisque de l’abondance à la surcharge il n’y a qu’un pas et que cette surcharge tend à paralyser l’action. Les jeunes entrepreneurs surinvestissent la phase de recherche, cherchant la réponse parfaite ou la réassurance absolue dans les données, retardant la confrontation au terrain.

Là où l’entrepreneuriat exige de l’expérimentation et de l’agilité, l’infobésité crée de l’inertie. Apprendre à filtrer et à limiter l’information devient dès lors une compétence critique à enseigner.

La reprise d’entreprise, une voie à creuser

Enfin, l’approche scientifique permet de réévaluer des modèles souvent jugés moins « sexy » que la start-up technologique, comme la reprise d’entreprise. Souvent perçue comme risquée ou réservée à des profils seniors, la reprise souffre d’un déficit d’image.

BPI France, 2023.

Pourtant, les crises successives ont agi comme des révélateurs. Les entrepreneurs ayant vécu une reprise d’entreprise démontrent une résilience supérieure en période de turbulences. Avoir dû s’adapter à une structure existante, comprendre sa culture et la transformer sans la briser constituent tous trois un apprentissage inestimable. La crise ne fait souvent que renforcer ces mécanismes d’adaptation.

Le danger de l’isolement

De plus, l’idée que la reprise est intrinsèquement risquée est contestée par les faits. Ce n’est pas l’opération qui est dangereuse, c’est l’isolement du repreneur. Les dirigeants en sont d’ailleurs pleinement conscients. Selon le sondage ELABE (2023) « Les dirigeants et la cession-transmission d’entreprise », 91 % d’entre eux estiment qu’il est important d’être accompagné par des tiers dans ce type de démarche. La reprise encadrée présente ainsi des taux de pérennité remarquables.

Il y a là un gisement de croissance et de sauvegarde de l’emploi que les politiques territoriales gagneraient à prioriser, plutôt que de tout miser sur la création ex nihilo.

Éclairer les décideurs, ce n’est pas seulement valider leurs choix, c’est parfois, et cela est salutaire, challenger les idées reçues pour éviter le gaspillage de ressources publiques. Pour transformer nos territoires, l’entrepreneuriat ne doit plus être seulement une incantation, mais une science de l’action, lucide et ancrée dans les réalités complexes de la société.


Ce texte a été rédigé avec Élisa Mathieu, ingénieur d’études, membre de R2E.

The Conversation

Christophe Schmitt est membre de R2E (Recherche et Expertise en Entrepreneuriat). Il a reçu des financements de l’Union Européenne dans le cadre du Programme opérationnel FEDER et de la Région Grand Est.

13.04.2026 à 11:40

L’histoire de notre petite enfance peut avoir un impact concret dans nos relations au travail

Ludivine Adla, Maître de conférences en sciences de gestion et du management, Grenoble IAE, Grenoble IAE Graduate School of Management; Université Grenoble Alpes (UGA)
Anxieux, sécurisant ou évitant, ces styles de relation peuvent se réactiver au travail. Comment comprendre cette psychologie de l’attachement pour accompagner la santé mentale en entreprise ?
Texte intégral (1295 mots)
Trois grandes tendances d’attachement sont observées en milieu professionnel : sécure, anxieux ou évitant. Wbmuk/Shutterstock

En entreprise, tous les salariés ont des réactions différentes. Sécure, anxieux ou évitant, ces styles de relation, remontant à la petite enfance, peuvent se réactiver au travail. Comment mieux comprendre cette psychologie de l’attachement pour accompagner la santé mentale en entreprise (et prévenir les burn out) ?


La détresse psychologique en entreprise ne résulte pas seulement d’une surcharge de travail ou d’un manque de ressources. Elle se construit dans les interactions quotidiennes. Un feed-back peut être vécu comme une remise en cause. Un silence peut être interprété comme un rejet.

Le Baromètre 2026 de la santé mentale au travail indique que 22 % des salariés français se déclarent en mauvaise santé mentale, contre 26 % en 2025. Cette amélioration reste fragile. Près de six millions de personnes vivent encore une détresse psychologique durable, associée à une baisse de l’engagement et à une dégradation de la coopération au travail.

Face à ces constats, les entreprises ont multiplié les dispositifs de prévention. Par exemple, elles déploient des cellules d’écoute, des formations aux risques psychosociaux et des plateformes d’accompagnement. Ces outils sont nécessaires, mais ils interviennent souvent lorsque les difficultés sont déjà installées. Ils permettent d’identifier des symptômes individuels sans toujours agir sur les mécanismes qui les produisent.

La santé mentale au travail dépend en grande partie de la manière dont les individus interprètent et régulent leurs émotions. La psychologie de l’attachement, initialement développée par le psychanalyste John Bowlby en 1958, permet d’éclairer ces mécanismes. Cette théorie postule que tout individu a besoin d’une relation d’attachement avec au moins une personne qui prend soin de lui, un caregiver, notamment dans la petite enfance. Cette relation est censée procurer un sentiment de sécurité. Elle conduit à la construction de modèles internes qui orientent la perception de soi, des autres et des situations sociales.

Nos travaux menés dans le cadre du projet de l’Agence nationale de la recherche ATTACHED montrent que ces modèles ne disparaissent pas à l’âge adulte. Ils se réactivent dans les situations professionnelles, en particulier lorsque les individus sont confrontés à de l’incertitude ou à des tensions, comme nous l’avons étudié avec Ange Abalé en 2025.

Sécurisant, anxieux ou évitant

La littérature distingue trois grandes tendances d’attachement, également observées dans nos recherches en milieu professionnel.

  • Un style sécure favorise la confiance en soi et en autrui. Le désaccord peut alors être discuté sans être vécu comme une menace identitaire. Cette posture facilite des échanges ouverts et soutient la coopération.

  • Un style anxieux se traduit par une hypersensibilité aux signaux sociaux. Une remarque peut rapidement être perçue comme une critique. Cette hypervigilance favorise la rumination et le stress.

  • Un style évitant conduit à minimiser l’importance des émotions et de la dépendance mutuelle. Face à la tension, la stratégie consiste souvent à se distancier ou à rationaliser, ce qui peut freiner l’expression des difficultés et retarder leur résolution.


À lire aussi : La prévention, la clé pour protéger la santé mentale au travail


Ces tendances ne constituent pas des profils figés : elles varient selon les contextes organisationnels. Leur intérêt réside dans leur capacité à rendre visibles ces mécanismes implicites qui influencent la manière dont les contraintes du travail sont vécues.

Régulation émotionnelle au travail

Identifier ces mécanismes ouvre des leviers d’action. Lorsqu’un salarié comprend que son agitation face à un feed-back s’inscrit dans un mode d’interprétation particulier, il peut ajuster sa réponse. Lorsqu’un manager identifie sa tendance à se distancier dans le désaccord, il peut apprendre à maintenir le lien sans éviter la discussion. La prévention ne se limite ainsi plus à une logique corrective. Elle devient un travail sur la qualité des interactions.

Certaines entreprises cherchent à intégrer cette dimension relationnelle dans leurs dispositifs de prévention. C’est le cas d’ENGIE qui a mis en place un réseau de « capteurs terrain ». Leur rôle consiste à repérer des signaux faibles, comme une fatigue inhabituelle, un retrait relationnel ou des variations d’humeur, puis à engager un échange avec le salarié concerné.

Ces acteurs de proximité n’ont pas vocation à traiter directement les situations identifiées. Leur fonction est d’écouter, de créer un premier espace de dialogue et d’orienter vers les ressources appropriées (médecine du travail, ressources humaines, accompagnement psychologique), avec l’accord du salarié. Cette approche repose sur une logique de détection précoce et de responsabilisation collective, en s’appuyant sur les interactions quotidiennes de travail.

Transformer les relations au travail

La détresse psychologique ne se comprend pas uniquement à l’échelle individuelle. Elle se construit dans des situations de travail concrètes, au croisement des contraintes, des interactions et des modes d’organisation.

Transformer les relations au travail suppose alors de déplacer le regard. Il ne s’agit plus seulement d’accompagner des individus en difficulté, mais d’agir sur ce qui structure leurs échanges au quotidien : la manière de coopérer, de donner du feed-back ou de gérer les désaccords.

Cette évolution se manifeste aussi à l’échelle nationale. Par exemple, la Charte d’engagement pour la santé mentale au travail, lancée en 2025, a déjà été signée par plus de 170 entreprises. Elle mobilise notamment plusieurs leviers : former les managers et développer le dialogue social sur la santé psychologique au travail, améliorer en continu la qualité de vie et des conditions de travail (QVCT). Elle invite ainsi à intégrer les conditions relationnelles.

Les expériences de notre petite enfance façonnent encore nos relations au travail. Les comprendre permet de nourrir des échanges plus fluides, une coopération plus solide et une meilleure gestion du stress.

The Conversation

Ludivine Adla a reçu des financements de l'Agence nationale de la recherche.

13.04.2026 à 11:40

Entre paillettes et éthique : l’influence responsable est-elle un mirage ?

Charlène Carreteiro, Doctorante en sciences de gestion, Université d’Orléans
Aussi critiqués que consultés, les influenceurs sont devenus des acteurs majeurs du marketing. La question d’une influence sensible est d’autant plus essentielle.
Texte intégral (1807 mots)

Entre modèles inspirants et panneaux publicitaires ambulants, les influenceurs suscitent autant d’admiration que de rejet. Malgré son essor fulgurant et son attrait pour les marques, le marketing d’influence et les dérives éthiques qui y sont associées interrogent. Dans ce contexte, l’émergence d’une influence responsable est-elle possible ?


L’intensification récente des conflits armés au Moyen-Orient a vu Dubaï devenir le théâtre de scènes d’agitation : traversées de missiles, incendies, détonations… De quoi faire naître la peur chez les habitants de la ville parmi lesquels des influenceurs expatriés. Ces stars des réseaux sociaux, qui jusqu’ici vantaient les mérites de Dubaï qu’ils considéraient comme un havre de paix, ont, dans les premières heures du conflit, exprimé leur peur et sollicité l’aide de la France et des services de l’État, avant d’adopter une attitude plus discrète, rigueur de la loi locale oblige.

Mais sur la toile, ces prises de parole ont suscité une vague de moqueries. Cette mésestime s’est muée en indignation lorsque certains, pressés de regagner la France, n’ont pas hésité à abandonner sur place leurs animaux de compagnie, pourtant mis en scène quotidiennement comme des accessoires de leur « lifestyle ». Ces comportements, dans un contexte tragique, viennent cristalliser une défiance générale déjà latente nourrie par les nombreuses dérives éthiques qui ont entaché le marketing d’influence ces dernières années.


À lire aussi : Pourquoi il fallait encadrer davantage la publicité faite par les influenceurs


Des dérives commerciales

Les influenceurs sont des relais entre le public et les marques grâce à diverses pratiques telles que le placement de produit souvent accompagné du partage des fameux « codes promo ». De ces pratiques a émergé une remise en cause de l’ensemble du secteur. Les influenceurs ont largement été critiqués pour leur manque de transparence et d’authenticité, pour le doute que certains laissent planer quant au caractère commercial des contenus qu’ils diffusent.

Outre la forme, c’est également le fond de leurs contenus qui suscite des interrogations. Dropshipping (traduit par « livraison directe », il s’agit d’un modèle de distribution consistant à vendre en ligne des produits sans avoir à les stocker ou à les expédier soi-même), promotion de produits inefficaces voire dangereux, de contrefaçon, de formations douteuses, d’arnaques financières, de chirurgie esthétique, telles sont les accusations dont ont fait (et font parfois encore) l’objet certains influenceurs donnant naissance au terme « influvoleur » popularisé par le rappeur Booba.

De façon plus générale, le modèle de l’influence commerciale génère d’importants risques de manipulation et d’exploitation des vulnérabilités des consommateurs, en particulier des jeunes.

Une structuration progressive

Face à l’ampleur des dérives, les instances de régulation ont réagi en particulier avec l’entrée en vigueur de la loi n°2023-451 du 9 juin 2023. Il s’est agi d’établir des définitions légales, d’interdire la promotion de certains produits et d’accroître les contrôles. L’Autorité de régulation professionnelle de la publicité (ARPP) occupe également un rôle clé dans la responsabilisation des acteurs de l’influence grâce à sa formation pour l’obtention du Certificat de l’influence commerciale responsable ou bien encore à l’Observatoire de l’influence responsable.

Bien que les pratiques abusives soient davantage sanctionnées et que le nombre de dérives semble diminuer, l’image des influenceurs reste entachée. Et c’est notamment la présence de nombreux influenceurs français à Dubaï qui cristallise les critiques. La ville est devenue un véritable hub pour ces personnalités parfois fortunées, notamment en raison de ses conditions fiscales avantageuses.

Pour le grand public, ce choix est difficile à accepter : des influenceurs qui s’adressent à des communautés résidant en France choisissent de s’installer à l’étranger pour des raisons fiscales. Dans ce contexte, après avoir publié un tweet moqueur, le youtubeur Tibo InShape a déclaré :

« Aujourd’hui le but, c’est de dénoncer l’hypocrisie des influenceurs qui sont à Dubaï, qui fuient les impôts, qui fuient, pour certains, la justice française. Je ne parle pas de tous les influenceurs, mais je parle de ceux qu’on appelle “influvoleurs” qui arnaquent les Français. »

Certains ironisent alors en rappelant aux influenceurs qu’un retour en France pourrait être synonyme de contrôle fiscal immédiat et diffusent des images représentant des gardes-frontières à l’aéroport tenant un panneau sur lequel il est inscrit « À tous les influenceurs et autres exilés fiscaux à Dubaï, l’administration fiscale vous souhaite un bon retour en France ».

Des enjeux éthiques

Le phénomène du marketing d’influence s’inscrit ainsi dans un paysage complexe et évolutif marqué par la nécessité d’en appréhender les enjeux éthiques. C’est notamment ce que nous avons étudié dans notre article « Vers une influence responsable ? Perception des produits à forte charge éthique et vulnérabilité des cibles », dans lequel nous avons introduit la notion de « responsabilité sociale de l’influenceur » (RSI). Cette responsabilité est notamment liée aux choix relatifs aux produits promus à travers les contenus diffusés, la prise en compte de la vulnérabilité des cibles ainsi que l’exigence de transparence quant à la nature commerciale des contenus et des partenariats établis avec les marques.

Malgré une amélioration progressive des pratiques, la situation actuelle montre qu’il y a encore du chemin à parcourir avant de parvenir à rendre l’influence commerciale véritablement responsable. Le rapport parlementaire, déposé en janvier 2026 par Arthur Delaporte et Stéphane Vojetta, souligne notamment la nécessité de continuer de tenter d’améliorer l’encadrement du secteur afin de protéger au mieux les consommateurs.

Cette dynamique de responsabilisation ne repose pas uniquement sur l’action des pouvoirs publics : plusieurs collectifs se forment pour encourager à l’amélioration des pratiques d’influence. C’est notamment le cas de Paye ton Influence. Piloté par Amélie Deloche (@amelie.dlch), ce collectif s’est donné pour mission de dénoncer les pratiques incompatibles avec les limites planétaires et en appelant à une transformation profonde du secteur.

Changer de l’intérieur

Certains influenceurs tentent également de faire évoluer le secteur de l’intérieur. C’est par exemple le cas de Charlotte Lemay (@chamellow), mannequin et influenceuse qui prône une influence à la fois consciente et écoresponsable. Elle est présidente de l’association à but non lucratif Aware Collective qui a pour but de sensibiliser les influenceurs aux pratiques écoresponsables et est co-autrice de l’ouvrage Influenceur·se engagé·e.

De façon générale, de plus en plus d’influenceurs (tels que @girl_go_green, @iznowgood ou @mylittlewayoflife) semblent vouloir s’inscrire dans cet objectif de responsabilisation du secteur, que ce soit en militant pour des causes sociales et environnementales ou en tentant d’adopter des pratiques animées par l’éthique, la transparence et l’authenticité. Cela peut se traduire par la proposition d’alternatives aux marques de fast-fashion, la promotion de marques locales et engagées ou bien encore l’incitation à consommer moins.

In fine, si le monde de l’influence tente de sortir de son « Far West » pour devenir une industrie plus responsable, le chantier reste immense. La plupart des rapatriés que nous évoquions au début de cet article reprendront dès qu’ils en auront l’occasion le chemin du mirage doré de Dubaï et de ses promesses fiscales au détriment de la solidarité et du respect du vivant. La véritable influence responsable ne se décrète pas dans un texte de loi, elle se prouve chaque jour par des actes qui se passent de filtres.

The Conversation

Charlène Carreteiro ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

12.04.2026 à 17:07

Comment éduquer à la transition écologique en dépassant la culpabilisation ?

Insaf Khelladi, Full Professor en Marketing, Excelia
Catherine Lejealle, Enseignant-chercheur en marketing digital, Responsable de l'axe de recherche Création de matériaux et cas pédagogiques, ISC Paris Business School
Coralie Damay, Directrice des Programmes - HDR
Rémi Beulque, Enseignant chercheur, TBS Education
Saeedeh Rezaee Vessal, Associate Professor In Marketing, Pôle Léonard de Vinci
Derrière la transition écologique, une question persiste : pourquoi on sait mais on n’agit pas ? Il faut d’abord réussir à dépasser des émotions, comme la peur et le sentiment de culpabilité.
Texte intégral (1617 mots)

Nos difficultés à passer à l’action en matière de transition écologique ne seraient pas tant liées à des biais cognitifs qu’à des freins émotionnels. Des émotions, telles que la peur ou la culpabilité, sont stériles, mais elles peuvent laisser la place à l’espoir de faire changer les choses. Tout du moins, à certaines conditions.


Nous n’avons jamais autant parlé de climat, de biodiversité et de transition écologique. Dans les universités, les écoles et les formations professionnelles, les contenus se multiplient. Les chiffres sont là, les diagnostics sont connus, l’urgence est largement documentée. Et pourtant, une question persiste : pourquoi savons-nous autant sans agir davantage ?

Ce décalage entre connaissances et action est aujourd’hui bien identifié. Il est souvent présenté comme un problème d’information, de volonté individuelle ou de contraintes matérielles. Mais les résultats récents de notre recherche suggèrent une autre lecture : le principal frein à l’action écologique ne serait pas cognitif mais émotionnel.


À lire aussi : La faute de nos biais cognitifs, vraiment ? Comment cette notion fabrique l’inaction écologique


Quand l’éducation à l’écologie fatigue

Dans de nombreux dispositifs éducatifs actuels, la transition écologique est abordée à travers des messages alarmants : effondrement des écosystèmes, extinction des espèces, urgence climatique. Ces discours sont scientifiquement fondés, mais leurs effets psychologiques sont rarement interrogés.

Chez les étudiants comme chez les apprenants adultes, ces messages suscitent fréquemment de la culpabilité, de la peur, voire un sentiment d’impuissance. L’individu se sent responsable d’un problème qui le dépasse. Ces émotions traduisent moins un manque de sensibilité qu’une forte conscience morale des enjeux environnementaux.

Mais lorsqu’elles s’accumulent sans accompagnement, elles peuvent devenir paralysantes. À terme, cette surcharge émotionnelle peut conduire non pas à l’engagement, mais au retrait :

« À quoi bon agir, si tout est déjà perdu ? »

Ce phénomène est aujourd’hui largement discuté sous le terme d’écoanxiété. Pourtant, il reste peu intégré dans la conception des programmes éducatifs. L’éducation à la durabilité continue souvent de miser sur l’accumulation de connaissances, en supposant que la prise de conscience suffira à déclencher le changement.


À lire aussi : L’éco-anxiété : une réponse saine face à la crise climatique


L’émotion comme point de bascule

Notre recherche menée auprès d’étudiants ayant participé à un programme intensif de formation à la durabilité met en lumière un mécanisme clé : ce ne sont pas les connaissances en elles-mêmes qui déclenchent l’action, mais la manière dont les émotions associées à ces connaissances évoluent dans le temps.

Au début du programme, la majorité des participants exprimaient une forme de lassitude ou de résistance. Les enjeux environnementaux leur semblaient omniprésents, mais abstraits, culpabilisants, voire décourageants. Certains parlaient de « bruit de fond », d’autres d’un sentiment de fatalité.

Puis, progressivement, quelque chose a changé. Non pas parce que les messages étaient devenus moins sérieux, mais parce qu’ils étaient plus incarnés, misant davantage sur les volets relationnel et participatif. Les émotions négatives ne s’effacent pas, elles évoluent. La peur et la culpabilité peuvent progressivement céder la place à la curiosité, puis à une forme d’espoir, avant de se traduire par un sentiment d’utilité personnelle.

Des travaux récents en psychologie montrent que cet espoir, lorsqu’il est étroitement associé à des actions concrètes et collectives, favorise un engagement plus soutenu face au changement climatique. Cette perspective invite ainsi à dépasser une conception réductrice des émotions, souvent envisagées uniquement comme des freins à l’action.


À lire aussi : Comment mobiliser les émotions pour inciter à agir en faveur du climat ?


Les limites de la pédagogie du choc

Ce basculement émotionnel constitue un tournant décisif. Lorsque les apprenants cessent de se percevoir uniquement comme des responsables coupables et commencent à se voir comme des acteurs capables d’agir, même à leur échelle, le passage à l’action devient possible. Ce sentiment de capacité d’agir – largement étudié sous le concept d’auto-efficacité – joue un rôle central dans la mise en mouvement et la persistance de l’engagement.

Nos résultats invitent à interroger en profondeur la manière dont nous enseignons la transition écologique. Pendant longtemps, la pédagogie environnementale a reposé sur une logique de choc : montrer l’ampleur des dégâts pour provoquer une prise de conscience. Or, cette stratégie atteint aujourd’hui ses limites.

La répétition de messages anxiogènes peut engendrer de la saturation informationnelle, une forme de déni défensif ou encore un désengagement émotionnel.

À l’inverse, les dispositifs éducatifs qui favorisent l’expérimentation, la coopération et la co-construction produisent des effets très différents. Dans l’étude, les moments les plus transformateurs ne sont pas les conférences magistrales, mais les ateliers collaboratifs, les projets concrets et les échanges avec des acteurs engagés.

Ces formats permettent aux apprenants de vivre la transition écologique non plus comme une menace abstraite, mais un espace d’action collective, où l’engagement est partagé et socialement reconnu.

Un sentiment d’utilité sociale

Un résultat particulièrement marquant de notre recherche concerne le rôle des émotions dites « positives », comme l’espoir, la fierté ou le sentiment de contribution. Contrairement à une idée répandue, ces émotions ne minimisent pas la gravité des enjeux. Elles permettent au contraire de rendre l’action psychologiquement soutenable dans la durée.

L’engagement devient plus stable et plus durable quand :

  • les apprenants constatent que leurs actions, même modestes, ont du sens ;

  • ils se sentent reconnus dans leur capacité à agir ;

  • ils participent à la conception de solutions concrètes.

Cet engagement s’inscrit alors dans des dynamiques collectives qui renforcent le sentiment d’utilité sociale.

Dans ces conditions, les comportements écologiques cessent d’être perçus comme des contraintes imposées de l’extérieur. Ils s’intègrent progressivement aux routines quotidiennes et peuvent même être transmis à l’entourage.

Une transition écologiquement et psychologiquement soutenable

Ces constats ont des implications majeures pour l’éducation, la formation et les politiques publiques.

Informer ne suffit pas. Les dispositifs éducatifs doivent être conçus comme de véritables parcours émotionnels, et non comme de simples transferts de connaissances.

Il est essentiel de diversifier les formats pédagogiques : hackathons, living labs, projets collectifs, simulations, mises en situation réelle. Ces formats favorisent l’appropriation et renforcent le sentiment de capacité d’agir.

Enfin, la transition écologique ne peut être enseignée uniquement par des discours institutionnels. Les apprenants accordent une grande importance à la crédibilité et à la sincérité des intervenants : entrepreneurs engagés, enseignants impliqués, pairs mobilisés. La confiance joue ici un rôle central.

Face à l’urgence environnementale, la tentation est forte d’intensifier les messages alarmants. Mais si l’objectif est une mutation durable des comportements, il est temps de changer de paradigme.

La transition écologique ne se gagnera pas par la culpabilité seule. Elle nécessite une éducation capable de transformer l’angoisse en engagement et la peur en capacité d’agir, et ne se résume pas à transmettre des savoirs. Elle implique d’accompagner une trajectoire émotionnelle, de l’inquiétude à l’appropriation, sans laquelle aucune transition ne peut réellement s’ancrer dans les pratiques.

The Conversation

Rien à déclarer

Catherine Lejealle, Insaf Khelladi, Rémi Beulque et Saeedeh Rezaee Vessal ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur poste universitaire.

12.04.2026 à 16:59

Pourquoi la souffrance psychique des jeunes n’est pas une affaire individuelle

Cyril Tarquinio, Professeur de psychologie clinique, Université de Lorraine
Symptômes anxiodépressifs, idées suicidaires… la souffrance psychique de nombreux jeunes s’explique surtout par des déterminants sociaux et des mutations, comme les réseaux sociaux.
Texte intégral (2049 mots)

Symptômes anxiodépressifs, idées suicidaires… les données scientifiques s’accumulent pour confirmer que les causes de la souffrance psychique qui affecte de nombreux jeunes sont à rechercher davantage du côté de déterminants sociaux et de mutations qui bouleversent notre époque – à commencer par les réseaux sociaux auxquels les adolescent·es sont particulièrement vulnérables – que des facteurs individuels.


Anxiété massive, épisodes dépressifs précoces, crises de panique, sentiment d’irréalité, fatigue chronique, idées suicidaires… la détresse psychique d’une partie croissante de la jeunesse n’est plus un phénomène marginal. Au niveau mondial, elle s’impose aujourd’hui comme un fait social majeur, documenté par la clinique comme par l’épidémiologie.

Pourtant, les réponses apportées continuent de cibler prioritairement les individus, comme si le problème relevait avant tout d’une fragilité personnelle. Cette lecture est non seulement insuffisante : elle est erronée.

Dans Génération à vif, je défends une thèse simple mais dérangeante : le malaise psychique des jeunes est un indicateur sensible des transformations systémiques de nos sociétés. Il ne dit pas tant quelque chose de leur faiblesse que de l’environnement dans lequel ils grandissent, se construisent et tentent de se projeter.

Des indicateurs qui ne trompent plus

Les données sont désormais convergentes. En France, selon Santé publique France, 9,5 % des adolescents de 17 ans présentent des symptômes anxiodépressifs sévères, contre 4,5 % en 2017. Près d’un jeune sur cinq rapporte des pensées suicidaires au cours de l’année écoulée, avec une vulnérabilité particulièrement marquée chez les jeunes femmes.

Selon l’Organisation mondiale de la santé (OMS), un adolescent sur sept âgé de 10 à 19 ans présente un trouble mental, et le suicide constitue la troisième cause de décès chez les 15-29 ans. Ces données ne peuvent être réduites à un simple effet de dépistage ni à une supposée « fragilisation générationnelle ». Elles signalent l’ampleur réelle du fardeau psychique qui affecte aujourd’hui les jeunes.

L’erreur classique : psychologiser ce qui est structurel

Face à ces constats, le réflexe dominant consiste à invoquer la vulnérabilité individuelle, le déficit de compétences émotionnelles ou l’hypersensibilité. Or la recherche en santé mentale montre depuis longtemps que les troubles anxieux et dépressifs sont étroitement liés aux déterminants sociaux : précarité économique, instabilité des parcours, insécurité professionnelle, isolement relationnel, pression normative et inégalités d’accès aux ressources.

Plusieurs travaux internationaux soulignent que l’augmentation des troubles internalisés chez les adolescents et les jeunes adultes est indissociable de la montée de l’incertitude structurelle et de l’accélération sociale. Autrement dit, ce n’est pas la jeunesse qui a changé seule ; c’est le monde qui lui est proposé. Continuer à pathologiser les individus sans interroger ce cadre revient à déplacer le problème, non à le résoudre.

Grandir dans un monde instable

L’adolescence et l’entrée dans l’âge adulte ont toujours été des périodes de remaniement identitaire. Ce qui est plus nouveau, en revanche, c’est le contexte dans lequel ces transitions s’opèrent. Les jeunes d’aujourd’hui se construisent dans des sociétés où les repères qui balisaient autrefois plus nettement l’accès à la vie adulte se sont affaiblis. La fin des études ne débouche plus automatiquement sur un emploi stable, l’insertion professionnelle est plus souvent marquée par les contrats temporaires, les allers-retours entre formation, emploi et chômage se multiplient, et l’accès à l’autonomie résidentielle devient plus difficile.

À l’échelle européenne, la discontinuité des trajectoires juvéniles n’a rien d’une abstraction. 31,1 % des salariés de 15 à 29 ans occupaient un emploi temporaire dans l’Union européenne, tandis que 11,0 % des jeunes de cette tranche d’âge n’étaient ni en emploi, ni en études, ni en formation. Autrement dit, une part importante de l’entrée dans l’âge adulte se joue désormais soit dans l’instabilité, soit dans l’interruption, ce qui dit bien combien les seuils biographiques autrefois plus lisibles sont devenus plus fragiles et plus incertains.

Dans ce contexte, la difficulté à se projeter dans un avenir lisible ne relève pas d’un manque individuel de maturité. Elle traduit aussi une transformation objective des conditions d’existence. Quand le travail est plus précaire, le logement plus difficile d’accès, et l’avenir socialement moins prévisible, il devient plus compliqué de relier le présent à un futur désirable.

Or, on ne se construit pas psychiquement de la même manière quand l’avenir ressemble à une promesse que lorsqu’il ressemble à une énigme.

Réseaux sociaux et comparaison permanente

À cette instabilité structurelle s’ajoute une transformation profonde du rapport à soi et aux autres liée aux usages numériques. Les effets des réseaux sociaux dépendent moins du temps passé en ligne que de ce qui s’y joue réellement : se comparer, se montrer, se mettre en scène, attendre des signes d’approbation, subir des interactions hostiles ou, parfois, trouver du soutien et de l’authenticité. En ce sens, les réseaux sociaux ne constituent pas une cause simple et univoque ; ils forment plutôt un nouvel environnement relationnel et identitaire, capable d’amplifier certaines vulnérabilités propres à l’adolescence.

Or, lorsque cet environnement organise la vie sociale autour de la visibilité, de la comparaison et de la validation externe, il peut peser lourdement sur l’image de soi. La littérature scientifique met ainsi en évidence des liens entre usages intensifs ou problématiques des réseaux sociaux, diminution de l’estime de soi, insatisfaction corporelle, symptômes anxieux et manifestations dépressives, avec une vulnérabilité particulièrement marquée chez les adolescentes.


À lire aussi : Santé mentale des adolescents : les réseaux sociaux amplifient les troubles observés hors ligne, en particulier chez les filles


Sur le plan psychique, cette dynamique peut favoriser la construction d’un « faux self », au sens winnicottien. Une identité de présentation, progressivement façonnée pour répondre aux attentes perçues, capter l’approbation et éviter la disqualification, parfois au prix d’un éloignement croissant d’avec l’expérience subjective authentique. Lorsque la valeur de soi se trouve ainsi suspendue au regard d’autrui, l’ajustement au monde ne se fait plus à partir d’un sentiment interne de continuité, mais à partir d’une surface à maintenir. Il peut alors se creuser un écart entre ce que le sujet vit, ce qu’il ressent et ce qu’il donne à voir. Cet écart ouvre un espace de tension psychique majeur, pouvant aller, chez certains sujets plus vulnérables, jusqu’à des expériences de dépersonnalisation, de désancrage de soi ou de fonctionnement dissociatif.

La souffrance qui en résulte n’est pas un défaut individuel, elle est le produit d’un environnement qui rend l’authenticité coûteuse et la vulnérabilité risquée.

Quand le malaise s’inscrit dans les corps

Un autre aspect souvent sous-estimé concerne la dimension corporelle de cette détresse. Fatigue chronique, troubles du sommeil, douleurs diffuses, dérégulations émotionnelles sont fréquents chez les jeunes en souffrance psychique. Les avancées en psychoneuro-immunologie montrent que le stress chronique, lorsqu’il est durable et imprévisible, active les systèmes neurobiologiques de l’alerte et favorise des états inflammatoires associés à la dépression et à l’anxiété.

Cette inflammation n’est pas un simple bruit de fond biologique : elle interfère avec les circuits de l’humeur, de la motivation, de la vigilance et de la régulation émotionnelle. Elle contribue ainsi à faire de la détresse psychique une expérience à la fois psychologique et somatique, où l’anxiété, l’abattement ou l’hyperréactivité coexistent avec la fatigue, les troubles du sommeil, les douleurs diffuses et le sentiment d’un corps devenu lui-même difficile à habiter.

Chez les adolescents et les jeunes adultes, dont les systèmes cérébraux sont encore en maturation, cette exposition prolongée à l’insécurité et à la pression sociale peut avoir des effets durables, en particulier sur les circuits de l’alerte, de l’humeur, du sommeil et de la régulation émotionnelle. Là encore, il ne s’agit pas de « somatisation », mais d’une inscription biologique du social. Les corps parlent lorsque les environnements ne permettent plus de symboliser autrement.

Des réponses encore trop étroites

Face à cette situation, l’augmentation de l’offre de soins psychologiques est nécessaire, mais insuffisante. En renvoyant prioritairement les jeunes vers des prises en charge individuelles, on entretient l’idée implicite que le problème leur appartient. Or l’OMS insiste sur le fait que les politiques efficaces en matière de santé mentale des jeunes doivent articuler prévention, réduction des inégalités, politiques éducatives, conditions de travail et cohésion sociale.

Autrement dit, soigner sans transformer les contextes revient à réparer sans cesse les mêmes fissures. La santé mentale des jeunes ne peut être pensée indépendamment des choix collectifs en matière d’éducation, d’emploi, de protection sociale et d’organisation du temps de vie.

Ce que la souffrance des jeunes nous oblige à regarder

La souffrance psychique des jeunes est un symptôme collectif. Elle révèle un monde qui exige autonomie, performance et adaptabilité, tout en offrant de moins en moins de stabilité, de sécurité symbolique et de récits communs. Elle interroge notre rapport au temps, à la réussite, à l’échec et à la vulnérabilité.

Plutôt que de s’inquiéter d’une jeunesse prétendument fragile, il serait plus juste de s’interroger sur la fragilité de nos structures sociales. Écouter ce que le malaise des jeunes dit de nos choix collectifs n’est pas un exercice de compassion, c’est une nécessité politique et sociale. Parce que ce qui se joue ici n’est pas seulement une crise générationnelle, mais la capacité de nos sociétés à offrir un avenir psychiquement habitable.

The Conversation

Cyril Tarquinio ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

12.04.2026 à 16:59

Extension du plaider-coupable : une procédure pénale plus efficace ?

Vincent Sizaire, Maître de conférence associé, membre du centre de droit pénal et de criminologie, Université Paris Nanterre
La réforme de la procédure pénale prétend réduire les délais d’attente des tribunaux. Mais le plaider-coupable inquiète avocats et magistrats qui dénoncent un risque de justice expéditive.
Texte intégral (1778 mots)

La réforme de la procédure pénale voulue par le garde des Sceaux Gérald Darmanin est examinée à partir du 13 avril au Sénat. De nombreux avocats et magistrats s’opposent à l’extension du plaider-coupable et dénoncent une justice expéditive, alors que le ministre prétend désengorger les tribunaux.


Alors que l’idéologie sécuritaire qui structure le débat public en matière de politique criminelle garantit ordinairement une relative indifférence à l’adoption des lois les plus répressives, le projet de réforme de la procédure de jugement des crimes porté par le gouvernement rencontre, avant même son examen par le Parlement, une large opposition au sein des milieux judiciaires. Portée par la très large majorité des avocats et par certaines organisations syndicales de magistrats, la fronde se focalise en particulier sur l’extension aux crimes de la procédure de comparution sur reconnaissance préalable de culpabilité (CRPC) introduite en 2004 – malgré, déjà, une très forte opposition.

Une procédure qui, fondée sur l’aveu de culpabilité de la personne poursuivie, substitue une simple audience d’homologation à une audience durant laquelle l’ensemble des éléments du dossier sont discutés contradictoirement par l’ensemble des parties. Le juge est alors appelé à valider – ou non – l’accord formalisé entre le ministère public et l’accusé s’agissant de la peine qui sera exécutée.

Certes, il est prévu que la CRPC criminelle ne puisse être mise en œuvre sans l’accord express de l’accusé et de la partie civile. Mais l’expérience enseigne que l’asymétrie structurelle qui caractérise les relations entre l’accusation et la personne poursuivie induit un consentement à la culpabilité et à la peine proposée le plus souvent biaisé, donné par méconnaissance de ses droits ou, pire encore, par peur d’une issue plus défavorable encore en cas de refus. L’institution de ce plaider-coupable en matière criminelle s’accompagne en outre de mesures visant à restreindre la possibilité pour les parties de soulever des irrégularités de procédure et à empêcher autant que possible la remise en liberté des personnes placées en détention provisoire en cas de négligence dans le traitement de leurs demandes. L’ensemble dessine ainsi une orientation législative limitant de façon plus ou moins explicite les garanties du procès équitable aujourd’hui consacrées par la Constitution et par l’article 6 de la Convention européenne de sauvegarde des droits de l’homme et des libertés fondamentales.

Simplifier le fonctionnement de la justice ?

Le gouvernement justifie son projet de réforme par des considérations se voulant l’expression du bon sens, une volonté de simplification qui ne serait dictée que par des préoccupations concrètes : soulignant la longueur des « délais d’audiencement criminel, [c’est-à-dire le temps séparant l’acte d’accusation de la comparution de la personne devant la juridiction] », le projet de loi aurait pour seul motif « d’accélérer le temps judiciaire », de « moderniser » les audiences, de réduire les délais de jugement des affaires. L’analyse du texte et, plus encore, de ses non-dits. À l’image de la très large majorité des textes de lois qui, depuis plus de vingt ans, se donnent très officiellement pour objectif de « simplifier » le fonctionnement de la justice pénale, ce nouveau projet trahit surtout une opposition de principe à un encadrement suffisant de l’action des autorités répressives.

Plusieurs éléments démontrent ainsi que ce texte obéit moins à une logique pragmatique qu’à des considérations idéologiques. On le constate, en premier lieu, avec le biais consistant à présenter la réforme comme procédant d’une nécessité pratique indiscutable quand, en réalité, bien d’autres possibilités s’offrent aux pouvoirs publics pour réduire les délais de jugement des affaires criminelles. La première de ces possibilités est, bien sûr, l’augmentation des moyens dévolus aux juridictions pour traiter les affaires dont elles sont saisies. Or, s’il a augmenté ces dernières années, le budget de la justice française demeure sensiblement en deçà des standards européens : le dernier rapport de la Commission européenne pour l’évaluation des systèmes judiciaires relève ainsi que « seul 0,20 % du PIB annuel de la France lui est consacré en 2022, alors que la médiane européenne s’établit à 0,28 % du PIB et que nos voisins néerlandais, allemand et italien y consacrent respectivement 0,26 %, 0,30 % et 0,31 %. Par ailleurs, le nombre de magistrats professionnels, particulièrement au ministère public, se situe très en deçà de la médiane européenne ».

Même à budget constant, il est tout à faire possible de réduire significativement les délais de jugement en menant une large entreprise de dépénalisation des infractions les moins graves, non pour les laisser sans réponse mais, au contraire, pour leur substituer une réponse plus adaptée (sociale ou médicale) et concentrer ainsi l’action des autorités répressives sur les infractions les plus graves. L’exemple de la dépénalisation de la consommation de stupéfiants chez nombre de nos voisins démontre ainsi de substantiels gains d’efficacité, alors que la répression du simple usage de drogue constitue aujourd’hui un contentieux de masse accaparant les services de police et les juridictions pénales.

Complexification des dispositions relatives à la détention provisoire

L’intention simplificatrice du projet apparaît tout aussi trompeuse lorsqu’on la met en rapport avec l’effet réel du projet sur l’ordre juridique, se traduisant par la complication significative des règles applicables. Ainsi en est-il, en particulier, des dispositions du projet relatives à la détention provisoire. Aujourd’hui, la loi prévoit que si les juridictions ne statuent pas sur la demande de mise en liberté qui leur est soumise dans les délais requis, la personne est automatiquement libérée. Pour éviter coûte que coûte une telle issue, le gouvernement propose désormais que, faute de décision à l’expiration des délais, un ultime débat contradictoire soit organisé dans les cinq jours afin de statuer sur la demande – la personne étant libérée si ce débat n’a pas lieu. Il veut également permettre au procureur général de saisir en catastrophe le président de la Cour d’appel d’une demande de maintien en prison lorsque l’audience permettant d’ordonner la prolongation de la détention provisoire n’a pu être tenue dans les formes et conditions prévues par la loi. Ces propositions ne constituent pas simplement une remise en cause frontale du principe constitutionnel de garantie des droits, qui suppose notamment que les personnes puissent faire effectivement sanctionner la méconnaissance, par les autorités, des règles encadrant leur action. En ajoutant de nouveaux délais et de nouvelles procédures à un ensemble déjà passablement complexe, ces propositions sont aussi de nature à compliquer singulièrement la tâche des juridictions, à mille lieues de la simplification annoncée.

Une culture de l’aveu qui rappelle la justice d’Ancien Régime

L’absence de pragmatisme du projet se mesure enfin dans certaines des représentations mobilisées au soutien de la réforme proposée et qui relèvent plus de la pétition de principe que du constat empirique. En plaçant la reconnaissance des faits au cœur du processus répressif, l’extension du plaider-coupable aux crimes renouvelle directement la culture de l’aveu propre à la justice pénale d’Ancien Régime, dont la fonction était moins de faire la lumière sur la commission d’une infraction que d’œuvrer à l’expiation voire à l’exorcisation d’un accusé nécessairement coupable. L’exposé des motifs du projet de loi trahit ainsi à plusieurs reprises une opposition de principe à l’idée même de présomption d’innocence, qui constitue pourtant une règle de valeur constitutionnelle : qu’on se propose de « faire juger les criminels » plus rapidement ou d’éviter la « remise en liberté de délinquants dangereux » en attente de jugement, on n’envisage tout simplement pas que le procès puisse avoir d’autre issue que leur condamnation.

Comme la plupart des textes visant, directement ou indirectement, à amoindrir l’encadrement du pouvoir répressif et les droits de la défense, cette nouvelle réforme s’inscrit ainsi dans la lignée de la vieille tradition autoritaire qui, depuis le début du XIXᵉ siècle, s’oppose à la mise en œuvre pérenne et conséquence du modèle pénal républicain proclamé en 1789. Un modèle qui commande des réformes humanistes et pragmatiques, loin de la fuite en avant répressive qui tient aujourd’hui lieu de seule boussole au législateur.

The Conversation

Vincent Sizaire est magistrat.

12.04.2026 à 16:58

Dix ans après la loi contre la prostitution, enquête sur les conditions de vie des travailleuses sexuelles

Hélène Le Bail, Chargée de recherche au CNRS et affiliée à l'Institut Convergences Migrations, Sciences Po
Céline Belledent, sociologue associée au Centre Max Weber, Université Jean Monnet, Saint-Étienne
Dix ans après la loi de 2016, enquête sur la prostitution en France : précarité, violences, stigmatisation et revendications des travailleuses sexuelles.
Texte intégral (2731 mots)

Dix ans après la loi « visant à renforcer la lutte contre le système prostitutionnel et à accompagner les personnes prostituées », les conditions de vie des personnes vendant des services sexuels ont-elles changé ? Comment celles-ci perçoivent-elles les lois qui encadrent la prostitution ? Comment voudraient-elles que ces lois évoluent ?


Au cours des trois années ayant suivi la mise en application de la loi du 13 avril 2016, plusieurs évaluations ont été menées avec des constats convergeant.

Tout d’abord, la pénalisation des clients avait entraîné une précarisation des conditions de vie (perte de revenus, augmentation des symptômes dépressifs, des pratiques risquées et du temps de travail) et un déplacement de l’activité en ligne ou vers des espaces moins visibles. Ensuite, si le délit de racolage était abrogé au niveau national, les personnes se prostituant continuaient d’être directement pénalisées par des arrêtés locaux. La loi avait en outre instauré pour elles un parcours de sortie de prostitution, mais il était mis en place de manière discriminante (inégalité de la mise en application d’un département à l’autre, discours jugeant voire essentialisant au sein des commissions). Enfin, la loi contribuait peu à la lutte contre l’exploitation.

Depuis, aucune évaluation ne permet de parler d’un recul du nombre de personnes engagées dans le travail sexuel. Le chiffre qui circule le plus est celui de 30 000 à 40 000 personnes en « situation de prostitution », une évaluation reprise des rapports de l’Office central pour la répression de la traite des êtres humains (OCRTEH) et qui est peu fiable.

Notre recherche, co-construite et co-menée avec des personnes vendant des services sexuels, vise à rendre compte de la diversité de leurs situations, de leurs origines (françaises, européennes ou immigrées d’Afrique, d’Amérique latine et de Chine) et de leurs conditions d’exercice (dans la rue, à domicile, via des annonces en ligne ou dans le cadre d’un parcours de sortie de la prostitution). Elle met également en lumière leurs revendications.

Qu’est-ce qui préoccupe les travailleuses sexuelles ?

Dans les ateliers collectifs que nous avons menés en 2025 dans cinq villes de France, les travailleuses sexuelles évoquent beaucoup leurs conditions de précarité et la prévalence des violences (les quelques 80 participantes et les personnes concernées en général étant avant tout des femmes cis et trans, nous utiliserons le féminin dans cet article).

La précarité matérielle reste une des raisons du choix contraint du travail sexuel. Cette précarité est décuplée pour les personnes migrantes qui, du fait de la non-régularité ou de la précarité du séjour, ont un accès limité au marché du travail. La loi de 2016 a mis en place un parcours de sortie de la prostitution qui prévoit un titre de séjour de six mois, renouvelable jusqu’à deux ans et une modeste allocation. Mêmes celles qui en ont bénéficié soulignent que la précarité du titre de séjour permet difficilement d’entamer une formation diplômante et d’évoluer vers une situation professionnelle moins précaire.

Pour les personnes migrantes au statut de résidence précaire, face au peu de choix d’emploi, le travail sexuel est pour certaines vécu comme le moins exploitant. Il offre la possibilité d’une flexibilité des horaires, d’un gain d’autonomie et de revenus plus élevés que dans d’autres emplois peu ou pas qualifiés. Pour des personnes non migrantes bénéficiaires d’allocations sociales ou de handicap, la vente occasionnelle de services sexuels permet de compléter des revenus très bas. Les femmes trans évoquent, pour leur part, les obstacles dans la recherche d’emploi du fait de la transphobie.

Au-delà de ces contraintes matérielles, les participantes à l’enquête témoignent d’une exposition aux violences importante et expriment leur angoisse de prendre des risques immenses : attaques physiques, viols, meurtres. Nous avons récolté les témoignages déjà bien documentés de femmes d’Afrique subsaharienne enrôlées dans des réseaux de traite, mais aussi ceux de personnes non migrantes forcées de vendre des services sexuels. Les violences se déclinent au-delà des agressions physiques et de l’exploitation. Sont évoqués les vols ciblés, le harcèlement policier, les insultes et humiliations, les pratiques non désirées :

« La police ne va pas chercher les gens qui font des problèmes. Ils vont venir voir les prostituées et leur poser des questions. “Donne-moi tes papiers.” Les mauvaises personnes dans la rue, la police ne va pas se concentrer sur ces gens. C’est comme ça. »
Joy, Nigériane (N. B. L’ensemble des témoignages est anonymisé).

Un constat positif ressort toutefois, celui d’un système de santé publique accessible et d’un tissu associatif qui accompagne bien les travailleuses sexuelles. En particulier pour les femmes les moins jeunes, la santé est au cœur des préoccupations. Les participantes rappellent que leur santé mentale est mise à mal par la violence, la précarité et la stigmatisation. Elles évoquent à la fois des enjeux de santé globale et des enjeux de besoins particuliers – traitement préventif de préexposition au VIH (PrEP) et traitement post-exposition (TPE) – qui demandent des formations du corps médical.

Les difficultés liées à la stigmatisation

Les discussions ont également pointé du doigt le problème de la stigmatisation du travail sexuel. Cette stigmatisation est tellement forte, parfois doublée de racisme ou de transphobie, qu’elle conduit les personnes à rester distantes des institutions publiques et à avoir le sentiment d’occuper une place sociale très dévalorisée.

« Tout le monde nous méprise. Je vais vous dire, honnêtement, nous n’y pouvons rien. Nous nous méprisons même un peu nous-mêmes, en réalité. Je ne mens pas. C’est comme ça. Nous ne gagnons pas beaucoup d’argent et nous n’avons aucune compétence. »
Lili, Chinoise.

Dans plusieurs ateliers est revenue la proposition d’organiser des formations contre la stigmatisation des travailleuses sexuelles. Elles pourraient être dispensées auprès des jeunes dans le cadre de l’éducation à la vie affective et sexuelle, auprès de professionnels des services médicaux ou sociaux, ou encore auprès des personnes travaillant à l’accueil dans les services publics.

Travailleuse du sexe sur son ordinateur
Le mépris social vécu par les personnes vendant des services sexuels abîme leur santé mentale et complique leur accès au droit. Deniz Demirci/Unsplash, CC BY

Parmi les discriminations liées à leur stigmatisation et les lois spécifiques sur la prostitution, les participantes insistent sur le rapport à la police et l’accès à la justice. Elles se sentent souvent moins bien protégées par la police – qui ne les prend pas au sérieux ou ne se déplace pas – et, plus encore, elles relatent des situations de harcèlement de leur part. Alors même que la loi de 2016 a abrogé le délit de racolage passif, des arrêtés locaux « anti-prostitution » existent toujours et renforcent le risque de harcèlement policier (amendes répétées pour stationnement, mises en fourrière de véhicules dans lesquels elles travaillent, etc.).

En outre, les participantes souhaiteraient bien évidemment une meilleure lutte contre l’exploitation, en particulier celle des personnes mineures, mais beaucoup n’osent pas s’engager dans des démarches judiciaires par sentiment d’illégitimité, de peur que cela se retourne contre elles ou encore par défaitisme au regard de la longueur des procédures.

Une volonté de dépénalisation… pour accéder au droit du travail

Pour réduire ces stigmatisations, les personnes considèrent qu’une solution politique réside dans l’accès aux droits et, en particulier, au droit du travail. Certes, pour certaines, la demande principale est d’avoir un titre de séjour de longue durée pour obtenir un « meilleur boulot ». Mais pour la plupart, migrantes ou non, qui souhaitent poursuivre le travail sexuel, la demande est celle d’une reconnaissance à part entière du travail sexuel.

« Je pense que nous devrions faire une réunion ou quelque chose pour que notre travail soit légalisé. Et comme ça, il n’y aurait pas autant de difficultés pour nous. Et ainsi, la police et les services de santé nous prendraient en compte, ce qui serait comme dénouer un nœud pour nous. Même si nous devions payer, au moins nous serions totalement légales. Je pense que cela permettrait presque de surmonter toutes les difficultés liées au danger de travailler dans le parc : les cris, les mauvais traitements, les coups, le froid, le rejet par la police. »
Ana, femme trans d’Amérique latine.

Cette demande est intrinsèquement liée au souci de réduire la précarité, les violences et la stigmatisation. Elles demandent que plusieurs statuts soient possibles et adaptés à leur manière de travailler : seules ou à plusieurs, chez elles ou à l’extérieur, régulièrement ou occasionnellement.

Les participantes à l’enquête rappellent que beaucoup d’entre elles s’acquittent d’impôts, et qu’il serait donc normal qu’elles accèdent au droit commun et aux droits sociaux. Comme les autres travailleuses, elles voudraient pouvoir bénéficier d’une retraite, souscrire une assurance professionnelle ou encore accéder à un compte bancaire.

Moins d’isolement, plus de collectif

Les travailleuses souhaiteraient également la fin des lois de pénalisation, car ces dernières tendent à les isoler et à empêcher les formes de coopération qui sont source de sécurité et de pouvoir d’agir. Les témoignages et propositions ont souligné l’importance des réseaux de solidarité et la manière dont la communauté de travailleuses sexuelles peut constituer une ressource.

La stigmatisation du travail sexuel pousse à l’isolement. Dans la sphère privée, les personnes tendent à se cacher et hésitent à commencer ou à maintenir une relation amoureuse ou de couple, à vivre en famille. Dans la sphère du travail, beaucoup de personnes aimeraient pouvoir coopérer avec des partenaires et dénoncent de manière récurrente la définition large du proxénétisme en France qui permet de poursuivre pénalement l’aide et l’entraide et empêche d’avoir des espaces partagés et plus sécurisants.

Les participantes décrivent pourtant leurs stratégies pour éviter l’isolement et se protéger les unes les autres.

« Le truc je trouve le plus important, c’est d’avoir un lieu pour les personnes qui font ça et je trouve qu’il y aurait moins de danger que d’être chacun dans son coin ou d’être dehors. Si les personnes qui ont envie de faire ça, elles ont un lieu, il y aura moins de proxénètes, etc. »
Marie, Française.

Évidemment, elles ne sont pas naïves quant au fait que l’exploitation peut aussi venir de la communauté, mais l’organisation légale est précisément une solution pour lutter contre des formes d’organisation souterraine qui dévient facilement vers les violences.

Enfin, au cours des discussions, beaucoup de participantes ont souligné l’importance et la qualité du tissu associatif français. Le rôle des associations (communautaires ou d’accompagnement social) n’est pas seulement de faciliter les démarches et les contacts, mais aussi de créer un espace de confiance. En ce sens, les approches communautaires sont particulièrement appréciées, que ce soit par la présence de salariées paires ou par la création d’associations par les personnes concernées elles-mêmes. Sans que cela ne soit dit directement, les témoignages récoltés au sujet des associations soulignent l’importance du financement non seulement de l’aide à la sortie de la prostitution, mais aussi des actions de prévention en santé et de lutte contre les violences dans un positionnement non jugeant. Enfin, les participantes appellent à la multiplication d’espaces d’entraide et d’échanges communautaires et solidaires.

Vu le relatif échec de la dernière législation sur la prostitution, il serait souhaitable que les politiques prennent mieux en compte la diversité des conditions d’exercice du travail sexuel et des statuts des personnes qui l’exercent, mais aussi les problématiques d’exploitation, de précarité, de violences et les revendications de droit du travail.


Cet article a été co-écrit avec Cybèle Lespérance et Violet·te Sky, militantes associatives, association Tullia.

The Conversation

Hélène Le Bail a reçu des financements de l'ANR. Le Projet DPTS2026 a été mené en coopération avec les associations Médecins du Monde, Fédération parapluie rouge et Tullia

Belledent Céline a reçu des financements de de l'ANR. Le Projet DPTS2026 a été mené en coopération avec les associations Médecins du Monde, Fédération parapluie rouge et Tullia

12.04.2026 à 10:19

L’histoire étonnante du silphium, une plante présumée aphrodisiaque que les Romains aimaient tellement qu’elle finit par disparaître

Thomas J. Derrick, Gale Research Fellow in Ancient Glass and Material Culture, Macquarie University
Contraceptif, remède, condiment : le silphium était l’une des ressources les plus précieuses de l’Antiquité — jusqu’à son extinction mystérieuse.
Texte intégral (1904 mots)
Réputé aphrodisiaque, le silphium semble avoir connu un grand succès auprès des élites romaines. Ici « Les Romains de la décadence », tableau de Thomas Couture (1847). Musée d'Orsay/Wikicommon, FAL

Une plante mythique, au cœur de l’économie antique et réputée contrôler la fécondité, a fasciné Grecs et Romains avant de disparaître sans laisser de trace.


Jules César en aurait conservé une réserve dans le trésor romain. D’après Pline l’Ancien, l’empereur Néron en possédait la dernière tige connue. Certains auteurs ont également avancé que la fréquence des relations extraconjugales parmi les élites romaines aurait entraîné une demande telle de ce végétal qu'elle aurait provoqué sa disparition totale. Mais de quoi parle-t-on ?

Du silphium : une plante aujourd’hui disparue qui poussait autrefois à l’état sauvage dans l’actuelle Libye. Utilisée comme contraceptif et abortif, mais aussi comme remède, condiment, parfum et même pour améliorer l’élevage, ses propriétés exceptionnelles en faisaient l’une des marchandises les plus précieuses de l’Antiquité gréco-romaine.

Puis, un jour, elle disparut.

Une résine puissante

Le silphium est souvent décrit aujourd’hui comme un aphrodisiaque, bien qu’aucune source antique ne le confirme. Certaines de ses plus anciennes représentations montrent une gousse en forme de cœur, ce qui pourrait être à l’origine de cette association.

Les images figurant sur des pièces de monnaie et des figurines ont conduit les botanistes modernes à se demander si le silphium était apparenté aux grands fenouils sauvages (du genre Ferula). On sait en revanche qu'il n’est pas apparenté aux plantes du genre Silphium, comme la silphie laciniée ou la silphie perfoliée, en Amérique du Nord.

Du silphium sur une pièce antique.
Le silphium est fréquemment représenté sur les pièces antiques. ACANS inv. 01M189 (Marr-Proud gift). Crédit : Australian Centre for Ancient Numismatic Studies.

Les représentations du silphium aux côtés de gazelles (une autre richesse emblématique de la Libye) suggèrent que ses tiges atteignaient généralement environ 30 cm de hauteur.

On extrayait une résine des tiges et des racines de la plante, ensuite conservée dans de la farine, ce qui permettait son transport depuis la Libye vers des contrées plus lointaines.

Les Romains appelaient cette résine laser ou laserpicium. Le meilleur laserpicium était extrait de la racine, mais une version de moindre qualité pouvait aussi provenir de la tige.

Avant les Romains, les Grecs utilisaient eux aussi le silphium ; il était si important dans certaines économies régionales qu’il figurait fréquemment sur des pièces de monnaie.

Les Grecs ne semblaient pas récolter eux-mêmes le silphium ; ils le recevaient en tribut de tribus libyennes, qui vivaient à son contact et en maîtrisaient la récolte et la préparation.

Les Grecs de ces régions ont capitalisé sur ces savoirs autochtones et les ont exploités, en créant et en alimentant un marché pour le silphium. Ce schéma d’appropriation et de valorisation des connaissances locales des peuples autochtones demeure une caractéristique de l’économie mondialisée contemporaine.

Un « alicament »

Le silphium revient souvent dans les traités médicaux antiques, où il est le plus souvent administré par l'alimentation. La distinction moderne entre aliment et médicament n’avait alors rien d’évident : on incorporait des remèdes à des préparations très simples, comme des bouillies de lentilles.

Dans la médecine gréco-romaine, le silphium passait pour un aliment « venteux », censé lever les blocages à l’origine des maladies. Ces aliments étaient aussi réputés agir sur la reproduction, en empêchant la conception ou en provoquant une fausse couche, selon le moment où ils étaient consommés.

Dans son traité de gynécologie en quatre volumes, rédigé aux Ier et IIe siècles, Soranos d’Éphèse explique que des herbes et épices au goût prononcé – dont le silphium – pouvaient être mélangées à du vin ou à des aliments simples pour servir de contraceptifs oraux. Il précise toutefois que ces préparations provoquaient souvent des troubles digestifs.

Il propose aussi des méthodes préventives sous forme de suppositoires : enduire le col de l’utérus de substances comme de l’huile d’olive vieillie, du miel, de la résine, du baume, du plomb blanc, de l’huile de myrte, de l’alun humidifié, de la résine de galbanum (une plante proche du silphium utilisée en parfumerie), ou encore y placer un petit tampon de laine fine. Il ne s’agit pas à proprement parler de médicaments, mais de substances dont les propriétés – antibactériennes, spermicides ou simplement mécaniques – pouvaient réduire les chances de conception.

Chercher dans des textes écrits par des hommes des traces de la médecine des femmes a évidemment ses limites. Il est très probable que les savoirs sur la grossesse, la contraception et les abortifs circulaient surtout entre femmes, et qu’une grande partie n’a jamais été consignée dans les traités médicaux antiques qui nous sont parvenus. Nous n’avons d’ailleurs aucune preuve de l’efficacité du silphium comme contraceptif ou abortif — tout simplement parce qu’il n’en reste plus à tester.

Une énigme persistante

Le silphium résistait à toute tentative de culture, ce qui en faisait une ressource limitée. Sa valeur financière – et le contrôle exercé par l’État – semble avoir suscité des tensions locales : à l’époque romaine, des récits évoquent des actes de sabotage et des paysans menant leur bétail pour le faire paître sur les plants.

Des changements climatiques et la désertification du littoral nord-africain pourraient avoir conduit à son extinction. Si les Romains considéraient déjà le silphium comme disparu au Ier siècle de notre ère, il aurait en réalité pu continuer à être utilisé localement jusqu’au Ve siècle.

Plusieurs tentatives ont été menées pour retrouver d’éventuels vestiges du silphium dans le monde actuel, mais les chercheurs ne parviennent pas à s’accorder sur une plante survivante unique. Le silphium pourrait avoir été un hybride se reproduisant de manière asexuée, ce qui le rendait à la fois difficile à cultiver et particulièrement vulnérable.

En 2021, une nouvelle espèce de grand fenouil (Ferula drudeana) a été identifiée autour d’anciens sites de peuplement grecs en Anatolie (l’actuelle Turquie).

Elle ressemble beaucoup aux représentations antiques du silphium ; il est possible que des graines venues de Libye aient atteint la Turquie et survécu jusqu’à aujourd’hui. Mais tant que l’on ne disposera pas de graines de silphium antique clairement identifiées dans des contextes archéologiques bien datés, cette hypothèse restera impossible à vérifier.

De nombreuses espèces de grands fenouils sont présentes autour du bassin méditerranéen, mais la diffusion d’informations erronées sur leurs prétendues propriétés aphrodisiaques – notamment pour traiter les troubles de l’érection – suscite aujourd’hui encore des inquiétudes croissantes liées à leur surexploitation.

The Conversation

Thomas J. Derrick ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

11.04.2026 à 17:03

Le soft power chinois illustré par les caricatures de « China Daily » : une esquisse de nouvel ordre mondial

Stéphane Aymard, Ingénieur de Recherche, La Rochelle Université
Chaque jour, le journal anglophone « China Daily » publie des caricatures avec un objectif précis : placer la Chine au centre d’un nouvel ordre mondial.
Texte intégral (2327 mots)
Caricature moquant les affirmations des États-Unis selon lesquelles l’économie chinoise serait sur le point de s’effondrer, publiée le 21 mai 2025. Luo Jie/China Daily

À travers ses caricatures, le très officiel média de langue anglaise China Daily s’adresse aux étrangers résidant en Chine. Son objectif : véhiculer une image positive du pays. Entre valorisation d’une Chine bienveillante et critique des puissances occidentales, ces dessins visent à contribuer à la diffusion du soft power de Pékin.


Fondé en 1981, China Daily a le plus grand tirage (900 000 exemplaires, dont 600 000 à l’étranger) de tous les journaux de langue anglaise en Chine. Il appartient au Département de la propagande du Comité central du Parti communiste chinois (CPD) qui lui communique la liste des sujets à traiter et de ceux qu’il ne faut pas aborder. Ce média qui, outre l’édition papier, est intégralement consultable en ligne, constitue un instrument non négligeable de la diplomatie publique chinoise. Il cible principalement les diplomates, les expatriés et les touristes, mais aussi toutes les personnes habitant ailleurs dans le monde et portant un intérêt à la Chine. Par son intermédiaire, la Chine s’adresse en anglais à l’ensemble de la planète. Le contenu des articles est assez consensuel et peu polémique, excepté les caricatures (« cartoons ») qui sont publiées tous les jours.

Cette communication se situe à la frontière du soft power. Selon le politologue américain Joseph S. Nye, « père » de ce concept, le soft power, à la différence de la propagande, se caractérise par la diffusion d’informations présentées comme étant impartiales et destinées à forger à l’étranger une image positive du pays dont il émane. La vision du monde diffusée par China Daily par l’entremise de ces caricatures, reliée à l’actualité, avec des éléments factuels difficiles à contredire, relève donc avant tout du soft power (une politique lancée en Chine en 2007 par le président Hu Jintao à la veille des Jeux olympiques de Pékin).

La plupart des dessins de China Daily se rattachent à un narratif récurrent : l’image positive de la Chine et l’image négative des États-Unis, à travers des thèmes comme la protection de l’environnement (qui serait l’apanage de Pékin), le commerce international (menacé par les États-Unis et promu par la Chine) et les valeurs éthiques. La consultation de l’ensemble des caricatures sur les années écoulées met en évidence les contours d’un nouvel ordre mondial où les États-Unis, dépassés, ne sont plus au centre du paysage, et sont remplacés par une Chine bienveillante et constructive.

La sélection qui suit donne un aperçu d’une année entière, de février 2025 à février 2026 (environ 300 cartoons), analysée et interprétée.

Une image de la Chine bienveillante et attractive

La Chine est présentée comme humaine, heureuse, souriante, attractive et œuvrant pour la paix et un progrès partagé et maîtrisé. Les personnages sont souvent aussi bien de type asiatique que de type occidental, ce qui vise à montrer que la Chine s’adresse au monde entier.

Parmi les sujets abordés : la sécurité en Chine (comparée aux États-Unis), les technologies chinoises innovantes (DeepSeek), les destinations touristiques de rêve et la gastronomie chinoise. Les « carrousels » ci-dessous vous permettent de visualiser certains de ces dessins en les faisant défiler.

L’idée est de montrer que la Chine est accueillante et appréciée. Les succès culturels – cinéma, mode – sont particulièrement mis en avant.

Enfin, l’image de la Chine est également promue à travers son ouverture au monde et son caractère pacifiste.

Une image sombre des États-Unis… et de leurs alliés

À l’inverse, le grand rival américain est systématiquement dépeint de façon très négative. On pourrait parler d’anti-américanisme primaire. Tous les défauts y passent : dette, pillage des ressources naturelles des autres peuples, unilatéralisme…

Les États-Unis sont décrits comme un pays brutal et féroce et sont souvent représentés comme des vautours ou des barbares.

Une série spéciale leur a même été consacrée. Des dizaines de caricatures montrent les « dilemmes » ou contradictions de la société états-unienne.

L’Europe n’est pas épargnée. Moquée, elle est souvent présentée comme faible et la grande perdante de la période actuelle.

Le Japon figure également en bonne place, comme une véritable « tête de Turc ». Son actualité y est souvent traitée avec moquerie ou ironie.

Une Chine garante d’un commerce international équilibré

Le commerce international occupe une place importante dans ces dessins. La Chine y est présentée comme un leader bienveillant, vantant les bienfaits du libre-échange et les dangers du protectionnisme.

Pékin vole ainsi au secours de l’économie mondiale menacée.

Une Chine championne de la protection de l’environnement

La protection de l’environnement est un sujet défendu universellement et la Chine s’en est emparée. Les caricatures sont sur ce sujet moins agressives et moins personnalisées, présentant seulement la planète en danger (changement climatique, déchets).

L’autre facette est la mise en avant de solutions écologiques avec des dessins dans lesquels, paradoxalement, la Chine ne tire pas forcément la couverture à elle. Ces dessins, comme les précédents, pourraient paraître dans n’importe quel journal occidental.

Une Chine qui défend les valeurs éthiques

Dans le même registre, China Daily aborde des sujets faisant référence aux valeurs éthiques ou morales. Le quotidien présente ainsi les sujets sensibles du moment, indiquant que la Chine est soucieuse des conséquences de leur développement : intelligence artificielle, cryptomonnaies, usage des smartphones.

Mais il aborde aussi des sujets plus ciblés sur les dérives attribuées au monde occidental : guerres, drogues, menace nucléaire…

Enfin, de façon plus positive, il évoque les questions de la natalité, de la famille, de la place des femmes dans la société, de l’aide ou encore des bienfaits de la robotique…

Le nouvel ordre mondial vu de Pékin

Les dessins se partagent ainsi en plusieurs objectifs :

  • vanter l’image de la Chine (paix, progrès, bonheur),

  • critiquer les pays concurrents ou peu appréciés, notamment à travers leurs déboires,

  • et montrer une préoccupation pour des valeurs universelles (famille, éthique, environnement, libre-échange) qui résonnent au-delà des frontières.

Ils esquissent un ordre mondial où la Chine serait au centre. Cette programmation choisie des cartoons avec un arrière-plan politique est très audacieuse. Certains, comme S.M-L Heng, la qualifient de politique de communication proactive, voire agressive.

L’objectif essentiel est d’améliorer l’image du pays à l’étranger, mais aussi d’influencer la perception des diasporas chinoises et de contrer l’information diffusée par certains médias occidentaux, par exemple sur la protection de l’environnement. Reste à savoir si cette communication porte ses fruits…

The Conversation

Stéphane Aymard ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

11.04.2026 à 07:42

Le zajal, duel poétique de la tradition arabe, fait une entrée fracassante sur TikTok

Marlé Hammond, Reader in Arabic Popular Literature and Culture, SOAS, University of London
Nada Elzeer, Senior Lecturer in Arabic, SOAS, University of London
Une tradition de performance poétique en langue arabe vieille de huit siècles fait un retour gagnant sur les réseaux sociaux.
Texte intégral (1651 mots)

Né dans l’Espagne musulmane du XIIᵉ siècle, le zajal, une sorte de duel poétique, n’a rien à envier aux battles de rap contemporaines. Un genre qui fait un retour gagnant sur les réseaux sociaux et trouve une nouvelle jeunesse dans le monde arabe.


« Je suis le roi des anges, du début à la fin des temps. Arrani, tu vas bientôt hurler et verser des larmes à n’en plus finir »,

chante Akram Qawar en arabe tout en gesticulant à l’adresse de son adversaire. Muhammad al-Arrani lui répond :

« Qu’est-ce que tu marmonnes ? Personne ne comprend tes vers, es-tu venu juste pour te ridiculiser ? »

Et dans la légende d’une vidéo, où il danse au son d’un échange similaire à celui qui précède, un fan demande :

« Qui a des oncles qui font des battles de rap ici ? »

Si vous avez vu ces vidéos montrant principalement des hommes d’âge mûr s’envoyant des piques poétiques en arabe, vous les avez peut-être vous aussi comparées à des battles de rap modernes. Il s’agit en réalité d’un genre de poésie chantée vieux de plusieurs siècles, appelé zajal.

Au sens large, le zajal désigne la poésie composée dans l’un des nombreux dialectes arabes vernaculaires. Plus précisément, il s’agit d’une forme de performance poétique musicale, impliquant souvent des duels verbaux, particulièrement populaire au Liban, en Palestine, en Syrie et en Jordanie.

Le zajal remonte à l’Espagne musulmane du XIIᵉ siècle, où il est apparu comme une alternative à la tradition poétique arabe classique. Les poèmes zajal se distinguaient de cette tradition non seulement par la langue – on utilisait alors le dialecte andalou de l’arabe – mais aussi par la forme. Ces poèmes présentaient des schémas de rimes complexes, contrairement à la rime unique qui caractérisait la haute poésie de l’époque. De plus, ils étaient composés pour être chantés.

Parmi les premiers virtuoses du zajal, il y eut Ibn Quzman (1078-1160), un cordouan qui voyageait de cour en cour à la recherche de faveurs grâce à ses chants de louange, de vin et d’amour, qui comportaient souvent une touche rebelle. Dans un de ses poèmes, par exemple, il célèbre la fin du ramadan comme un retour salutaire aux comportements illicites :

« Hourra, ivrognes, au nom du Prophète, bande de fêtards !
C’est le moment où le mois de jeûne prend fin ! »

Depuis l’Espagne, le zajal s’est rapidement répandu en Afrique du Nord et au Moyen-Orient. Selon un article du spécialiste de la langue arabe Adnan Haydar, il existe une théorie selon laquelle, dans le cas particulier du Liban, la poésie zajal trouve ses racines dans l’Église maronite. Il s’agit d’une Église du Liban qui fait partie de l’Église catholique romaine, mais qui possède une tradition liturgique antiochienne/syrienne occidentale distincte.

On pense qu’à la fin du XIIIᵉ siècle, les pères de l’Église maronite ont commencé à traduire des hymnes syriaques dans le dialecte arabe local. Ces hymnes zajal ont été consignés dans des manuscrits du XVᵉ siècle jusqu’à la fin du XVIIᵉ siècle, époque à laquelle le zajal est devenu partie intégrante de la culture populaire libanaise.

Rachid Nakhlé (1873-1939) fut un célèbre défenseur et compositeur de zajal de l’époque moderne. Surnommé « le Prince du zajal », sa poésie vernaculaire aurait influencé les poètes romantiques et symbolistes du Liban.

Selon Haydar le zajal se pratique essentiellement au cours des rassemblements villageois – des mariages aux fêtes de saints en passant par des réceptions dans des maisons privées. Les meilleurs interprètes de zajal se réunissaient parfois pour des concours où chacun tentait de surpasser l’autre dans l’art de l’improvisation verbale. À son apogée, au milieu du XXᵉ siècle, les interprètes de zajal formaient des groupes et s’affrontaient lors de compétitions entre deux groupes rivaux, parfois devant des dizaines de milliers de spectateurs.

Ces joutes verbales consistent à se vanter de ses capacités et à rabaisser ses rivaux et adversaires. Les images martiales y sont courantes, mais c’est avant tout la suprématie poétique que recherchent les interprètes de zajal.

Haydar raconte un célèbre échange entre les poètes de zajal Jiryis Bustani et Tali Hamdan qui a eu lieu lors d’un concert dans un monastère à Beit Meri, au Liban, en 1971. Dans la première strophe, Bustani compare ses prouesses poétiques à un massacre, menaçant de faire voler les têtes en éclats et affirmant que la « bataille de Beit Miri » restera dans l’histoire. Dans la deuxième strophe, Hamdan se moque des menaces de Bustani en disant « Je t’étranglerai et ferai de toi un simple écho (sada) », avant d’affirmer qu’il battra Bustani dans chaque bataille, celle de Beit Miri ne faisant pas exception.

Bustani revient dans la troisième strophe, reprenant le mot « écho » de Hamdan, en affirmant que les annales de l’histoire mentionneront les « échos de mes boulets de canon ». Une stratégie courante consiste en effet à répéter les mots et les phrases au cœur des railleries de l’adversaire et à les reformuler pour en faire le cœur de son intervention.

Un extrait d’un concert de 1968 souligne à quel point les jeux de mots guident les interprètes. Le poète de zajal Zein Sheib entame l’échange en chantant les louanges du soldat à l’esprit libre. Il parle de piété, sur terre et dans les airs, et d’une caille qui s’envole, tandis qu’il affronte les vagues d’une mer tumultueuse. Ce qui donne de la cohérence à ses paroles, ce n’est pas tant le sens que le son. Il rime sans cesse sur la lettre « r », roulée et doublée, en utilisant des mots tels que « farr » (s’échapper) et « jarr » (traîner). Il fait étalage de sa capacité à placer ces mots dans des phrases grammaticalement correctes, bien qu’un peu frivoles. Vient ensuite Edouard Harb. Il fait de même avec la lettre m, poursuivant sur le thème de la mer.

Puis Tali Hamdan chante les épées et rime intensément sur la lettre « l ». Zaghloul el Damour (alias Joseph al-Hashem) conclut le tout de manière décisive en rimant sur la lettre « d ». D’abord, il se vante, affirmant que bien que son cheval soit tombé, il a réussi à faire battre en retraite son rival, puis il raille chacun de ses trois concurrents : Zein s’est énervé, à la fois sérieusement et pour plaisanter ; Harb produit de la poésie de second ordre, et Hamdan a une haute opinion de lui-même mais n’est pas plus grand qu’une table sans pieds. Les insultes sont lancées avec légèreté, et toutes les personnes présentes – artistes comme spectateurs – se délectent de leur esprit.

Le zajal a connu un déclin pendant la guerre civile libanaise (1975 à 1990), mais a connu un renouveau au cours des décennies suivantes. Par exemple, dans les années 2010, les concours de zajal de l’émission télévisée Owf ont attiré des participants de toute la région. Parallèlement, des extraits de spectacles de zajal libanais des années 1960 et 1970 sont repris dans des remixes et des mashups sur YouTube, TikTok et Instagram. Les artistes palestiniens s’inscrivent dans une tradition similaire, qui est également en vogue.

Ainsi, si un ami partage une vidéo de ces oncles « s’affrontant en battle rap », vous pouvez lui expliquer ce qu’ils font réellement, à savoir s’inscrire dans la tradition poétique légendaire du zajal.

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.

11.04.2026 à 07:41

Clause MFN américaine ? Et si c’était un choc salutaire pour refonder le médicament en France…

Frédéric Bizard, Professeur de macroéconomie, spécialiste des questions de protection sociale et de santé, ESCP Business School
En obligeant les entreprises européennes à augmenter le prix des médicaments innovants, Donald Trump pourrait les aider involontairement à dynamiser l’industrie. Notamment en France.
Texte intégral (1597 mots)

Le président des États-Unis Donald Trump veut obliger les Européens à augmenter le prix des médicaments innovants. Derrière ce qui ressemble à une enième mesure protectionniste se trouve une mesure pour rééquilibrer des échanges asymétriques. Cela pourrait être l’occasion pour l’industrie pharmaceutique française de retrouver de la puissance.


Le 12 mai 2025, l’administration Trump signait un décret instaurant la clause de « Most-Favored-Nation » (dite clause MFN) pour la fixation des prix des médicaments aux États-Unis. Son principe est simple et brutal : les médicaments innovants commercialisés aux États-Unis auront le prix le plus bas pratiqué dans les pays de l’OCDE (pays dont le PIB par habitant atteint au moins 60 % de celui des États-Unis). La France, l’Allemagne, l’Italie et le Royaume-Uni correspondent notamment à cette définition.

Dans ce contexte, pour conserver leur capacité d’investissement dans le recherche-développement (R&D), les prix européens de ces médicaments innovants devront augmenter dans l’Union européenne (UE). D’où la pression de Donald Trump sur les pays membres.

Si la tentation d’y voir une gesticulation protectionniste trumpienne de plus est grande, ce serait probablement une erreur stratégique. Car ce signal américain agit aussi comme un révélateur des fragilités structurelles des laboratoires pharmaceutiques européens.

Pour la France, cette décision pourrait constituer une occasion historique de refonder son modèle pharmaceutique autour de ce qui fait sa force : un système de santé universel et solidaire capable de redevenir un pôle d’attraction mondial pour l’innovation thérapeutique.

Une offensive durable, pas un accident trumpien

Penser que cette offensive disparaîtra avec le mandat de Donald Trump serait une erreur. L’histoire récente invite plutôt à la prudence. Avant lui, Bill Clinton puis Barack Obama ont déjà tenté de réduire l’écart de prix des médicaments entre les deux rives de l’Atlantique. Ce qui change aujourd’hui, c’est la méthode mobilisée. Elle est directe, coercitive, dénuée d’ambiguïté diplomatique.


À lire aussi : Médicaments innovants : la France face à la guerre des prix lancée par Trump


Après la publication du décret MFN, 17 laboratoires ont reçu une lettre présidentielle leur imposant un alignement des prix américains sur le niveau plancher, dans un délai de 180 jours, sous peine de sanctions. En décembre 2025, neuf accords étaient annoncés, prévoyant une réduction de prix significative pour des médicaments traitant le diabète et plusieurs autres pathologies chroniques.

Avec 16 laboratoires partenaires

En février 2026, la plateforme TrumpRx était lancée avec 16 laboratoires partenaires, proposant une quarantaine de médicaments à prix fortement réduit ; certains avec des baisses allant jusqu’à 85 %. Les tarifs douaniers restent le principal levier utilisé : les médicaments de marque importés aux États-Unis sont taxés à hauteur de 100 %, sauf en cas de production locale. L’Union européenne bénéficie, pour l’instant, d’un taux réduit à 15 % depuis août 2025.

Les prix des médicaments aux États-Unis atteignent en moyenne 278 % des prix moyens de l’OCDE. Ce ratio grimpe à 422 % pour les médicaments sous brevet, mais chute à 67 % pour les génériques.

Ce paradoxe apparent reflète en réalité la cohérence d’un modèle : les innovations thérapeutiques représentent 86 % du marché pharmaceutique américain en valeur, tandis que les génériques, ultracompétitifs, pèsent 91 % en volume.

Deux excès, deux impasses

Le prix des innovations est peu régulé, fixé par la négociation entre laboratoires, assureurs privés et intermédiaires (notamment les Pharmacy Benefit Managers – des intermédiaires dans la chaîne du médicament, financés par les laboratoires (remises) et les assureurs (frais administratifs)). Cela laisse une grande latitude tarifaire aux industriels en situation de quasi-monopole. La loi du marché bénéfice à l’offre. Pour les génériques, marché par nature concurrentiel, la loi du marché bénéficie plutôt à la demande avec des prix bas.

Au fond, Donald Trump met en lumière une réalité dérangeante : la R&D pharmaceutique mondiale est largement financée par les patients états-uniens, tandis que les Européens bénéficient de prix régulés. Ce modèle américain est économiquement puissant mais socialement intenable dans un cadre universel. L’Europe, en voulant trop encadrer, a sous-valorisé l’innovation. Les États-Unis, en laissant le marché maître du jeu, ont exclu des millions de patients de l’accès aux soins.

En France, une excellence scientifique largement sous-exploitée

Malgré son excellence académique et la qualité de ses ressources en R&D, la France est en troisième position dans les essais cliniques et en dixième position pour les publications scientifiques au sein d’une Europe, loin derrière les États-Unis et l’Asie. La France et l’UE sont en voie de dépendance accrue vis-à-vis des deux autres continents en ce qui concerne l’innovation thérapeutique.

La France possède les prix parmi les plus bas d’Europe aussi bien pour les médicaments sous brevet que pour les génériques, et la fiscalité la plus élevée sur le secteur pharmaceutique. Les patients français ont accès à seulement 60 % des médicaments innovants, contre 90 % en Allemagne. Cela signifie que 40 % des médicaments innovants (sur le marché depuis 2020) ne sont pas accessibles en France.

La France perd un peu plus chaque année de sa compétitivité pour les essais cliniques et le lancement de produits. La souveraineté pharmaceutique française devient illusoire dans ce contexte, sans réformes.

Refonder notre modèle pharmaceutique

La France possède tous les atouts pour inverser cette trajectoire à condition de refonder son modèle pharmaceutique. D’abord, la création d’un statut du médicament innovant permettrait de différencier les innovations des médicaments courants. Un financement des produits innovants par des fonds consacrés à l’innovation thérapeutique, des délais accélérés d’accès au marché et une valorisation assumée, tout en conservant le principe du remboursement universel, sont des leviers accessibles et rapides pour que la France redevienne un pôle d’attraction des innovations thérapeutiques.

France Culture, 2025.

Ensuite, libérer le marché des génériques et des biosimilaires. La régulation actuelle surencadre un marché qui gagnerait à fonctionner davantage par la concurrence. Élargir ce marché, réduire les freins administratifs à l’entrée et permettre une véritable compétition par les prix libérerait des ressources considérables, réallouables vers le financement des innovations.

Prendre en compte l’impact sur les territoires

L’impact économique à cinq ans d’un laboratoire sur les territoires – emplois, R&D locale, production – devrait peser dans la régulation de ses produits, selon des règles claires et prévisibles. Cela transformerait la France en partenaire stratégique et attractif, plutôt qu’en simple marché captif.

Forte de cette réforme, la France pourrait porter une vision réformatrice à l’échelle européenne. L’Union européenne doit devenir une puissance mondiale d’évaluation de la valeur thérapeutique, d’investissement massif en R&D – comme le préconise le rapport Draghi – et de négociation collective face aux laboratoires.

L’offensive trumpienne sur les prix des médicaments n’est pas une menace à subir. C’est un électrochoc. Une occasion pour repenser en profondeur notre modèle pharmaceutique, en assumant que l’accès universel aux soins et l’attractivité pour l’innovation ne sont pas des objectifs contradictoires, ils sont les deux piliers d’une même souveraineté sanitaire.

The Conversation

Frédéric Bizard ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

11.04.2026 à 07:41

Pourquoi continuer d’apprendre certaines choses par cœur ?

Frédéric Bernard, Maître de conférences en neuropsychologie, Université de Strasbourg
À une époque où le savoir est à portée de clic, pourquoi demander aux enfants d’apprendre encore certains cours et certaines notions par cœur ?
Texte intégral (1380 mots)

À une époque où le savoir est à portée de clic, pourquoi demander aux enfants d’apprendre encore certains cours et certaines notions par cœur ? En quoi est-ce formateur ? Dans quelle mesure cela peut-il encore les aider à appréhender le monde qui les entoure ?


Avec les intelligences artificielles génératives, il est désormais possible d’obtenir en quelques secondes une réponse argumentée à presque n’importe quelle question. Cette accessibilité inédite du savoir conduit certains à considérer que l’« intelligence » elle-même serait désormais disponible à la demande, au point de rendre les études superflues. Dans ce contexte, pourquoi continuer à apprendre certaines choses par cœur ?

Mémoire et technologies : un questionnement ancien

La question n’est pas nouvelle. Dans le Phèdre, Platon rapporte le mythe de Theuth, dieu inventeur de l’écriture, qui promet au roi égyptien Thamous d’améliorer la mémoire des hommes. Celui-ci lui répond au contraire que l’écriture risque de produire l’oubli, en donnant l’illusion du savoir sans en assurer la possession réelle. À chaque grande transformation technique – de l’écriture à l’imprimerie, jusqu’aux technologies numériques – la même inquiétude resurgit : allons-nous perdre la mémoire en déléguant nos connaissances à des supports extérieurs ?

Mais ces transformations ne se résument pas à une perte. Elles modifient en profondeur notre manière de penser, en nous permettant d’étendre et de redistribuer nos capacités cognitives dans notre environnement. Comme l’ont montré des auteurs tels que André Leroi-Gourhan ou Bernard Stiegler, les techniques ne se contentent pas de prolonger l’action humaine : elles participent à la constitution même de nos capacités cognitives.

Livres, ordinateurs, moteurs de recherche ou intelligences artificielles ne sont pas de simples outils : ils participent à des formes de cognition distribuée, que Katherine Hayles a décrites comme des « assemblages cognitifs ».

Dès lors, la question n’est peut-être plus de savoir s’il faut encore apprendre par cœur, mais plutôt : quelles connaissances doivent rester en nous pour que la compréhension reste possible dans un monde où l’information est partout accessible ? Cette question concerne directement les élèves, les étudiants et leurs enseignants, confrontés à la place croissante des outils numériques dans les apprentissages.

Apprendre « par cœur » ne désigne pas ici une simple répétition mécanique, mais l’intégration de connaissances suffisamment stabilisées pour être mobilisées dans la compréhension.

Qu’est-il encore nécessaire d’apprendre ?

On pourrait penser que l’accès généralisé à l’information rend inutile l’apprentissage par cœur. Pourquoi mémoriser ce que l’on peut retrouver en quelques secondes ? Cette idée repose pourtant sur une confusion : disposer d’une information ne signifie pas la comprendre. Comme l’ont montré les travaux de Naomi Baron sur la lecture et les environnements numériques, l’accès facilité aux contenus ne garantit ni leur appropriation ni leur intégration dans un cadre de connaissances structuré.


À lire aussi : Déléguer la lecture à l’IA : quels savoirs et plaisirs sacrifions-nous ?


Pour interpréter une information, il faut déjà disposer de repères, de concepts, de connaissances préalables. Ces connaissances permettent de construire une représentation cohérente de ce que l’on lit ou entend, en reliant les informations entre elles et à des expériences passées. Sans ces structures internes, les informations externes restent inertes, voire trompeuses. Elles peuvent aussi être mal interprétées ou prises pour fiables sans être correctement évaluées, qu’il s’agisse de contenus en ligne ou de réponses générées par des intelligences artificielles.

La mémoire ne sert pas seulement à stocker des données, mais à organiser le savoir et à lui donner sens. Elle permet également d’anticiper, de comparer, de relier des informations entre elles et d’élaborer des raisonnements. Accéder à une réponse ne garantit ni son interprétation correcte ni sa mise en relation avec d’autres connaissances. Un étudiant peut ainsi obtenir une explication juste d’un phénomène scientifique sans pour autant en saisir les enjeux, faute de maîtriser les concepts nécessaires pour l’intégrer dans un ensemble cohérent.

Cela conduit à distinguer plusieurs types de connaissances. Certaines peuvent être largement externalisées : des faits isolés, des dates, des informations ponctuelles. D’autres, en revanche, doivent être internalisées. C’est le cas des concepts fondamentaux, du vocabulaire – notamment disciplinaire –, des grandes structures explicatives – qui permettent d’organiser et de relier les connaissances entre elles –, ainsi que des procédures automatisées comme le décodage en lecture ou le calcul. Ces connaissances ont en commun de structurer la compréhension plutôt que d’ajouter simplement des informations. Elles ne sont pas simplement utiles : elles sont nécessaires pour comprendre, raisonner et apprendre.

Le vocabulaire d’une discipline, par exemple, ne sert pas seulement à nommer des objets : il permet de structurer la pensée et d’accéder à des distinctions conceptuelles. De même, les automatismes comme le décodage en lecture ou le calcul libèrent des ressources cognitives indispensables à des raisonnements plus complexes.

Des connaissances pour penser avec les outils

Il serait illusoire, dans ce contexte, de chercher à se passer des outils dont nous disposons, tant ils font partie intégrante de nos activités cognitives. Les technologies numériques et l’intelligence artificielle ne remplacent pas ces connaissances internes : elles les prolongent. Elles s’intègrent à ce que l’on peut appeler des assemblages cognitifs, dans lesquels la pensée se distribue entre le cerveau, les outils, les interactions avec autrui et l’environnement, et où l’accès à l’information s’articule en permanence avec les connaissances déjà présentes en mémoire.

Mais pour que ces assemblages fonctionnent, encore faut-il qu’il y ait quelque chose à assembler : une base de connaissances et de structures internes permettant d’interpréter, de sélectionner et d’organiser l’information. Dans ces assemblages, consulter un moteur de recherche, interroger une intelligence artificielle ou relire un document ne sont pas des opérations extérieures à la pensée, mais des prolongements de celle-ci.

Dès lors, la question n’est plus de savoir s’il faut apprendre par cœur ou non, mais de déterminer ce qui doit être appris pour que l’accès au savoir reste possible. Les institutions éducatives, à travers des dispositifs comme le socle commun de connaissances et de compétences, tentent d’apporter des réponses à cette question. Mais à l’ère de l’intelligence artificielle, cette question mérite d’être reposée.

Cela suppose de repenser non seulement ce que l’on apprend, mais aussi les critères qui guident ces choix. Apprendre par cœur ne disparaît pas : il change de fonction. Il ne s’agit plus d’accumuler des informations, mais de construire les structures qui rendent le monde intelligible.

The Conversation

Frédéric Bernard ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

11.04.2026 à 07:41

Moyen-Orient : au-delà du choc énergétique, une crise mondiale pour les ressources minérales

Anne Bialkowski, Responsable de l'unité Intelligence minérale, BRGM
Mathieu Leguerinel, Economiste des ressources minérales, BRGM
Le conflit au Moyen-Orient ne provoque pas seulement un choc pétrolier et gazier. Il fragilise l’ensemble des chaînes d’approvisionnement de ressources minérales cruciales.
Texte intégral (2724 mots)

La crise économique née dans le sillage de la guerre en Iran n’est pas seulement un choc pétrolier et gazier. Elle fragilise l’ensemble des chaînes d’approvisionnement de ressources minérales cruciales, tant pour l’agriculture mondiale que pour la transition énergétique.


Le conflit qui secoue le Moyen-Orient depuis le 28 février 2026 provoque une onde de choc sur l’ensemble des marchés mondiaux des ressources minérales, au-delà des impacts sur les marchés du pétrole et du gaz. La région, point de passage stratégique pour le transport maritime de par son positionnement géographique, joue en effet un rôle clé dans l’approvisionnement en aluminium, en soufre et en hélium. En effet, leur production nécessite du gaz naturel. Cela affecte aussi, plus indirectement, d’autres métaux dont l’industrie dépend soit du pétrole, soit du soufre, comme le nickel, le titane ou le cuivre.

Les restrictions du transport dans le détroit d’Ormuz, par lequel ont transité près de 34 % du pétrole brut mondial en 2025 ainsi que 19 % du gaz naturel liquéfié, agissent comme un verrou géopolitique dont les effets se répercutent sur toutes les chaînes de valeur industrielles, bien au-delà des hydrocarbures et des produits pétrochimiques.

Nous travaillons pour l’Observatoire français des ressources minérales pour les filières industrielles (Ofremi), coordonné par le BRGM, impliquant également le CEA, l’IFPEN, l’Ifri et l’Ademe. Cet observatoire peut apporter un éclairage stratégique sur cette crise en offrant une lecture globale des chaînes d’approvisionnement en ressources minérales, au-delà des seules dynamiques énergétiques.

Par son expertise sur les métaux et minéraux critiques au travers de l’ensemble de leurs chaînes de valeur, l’Ofremi met en évidence les effets systémiques et souvent sous‑estimés de ce type de conflit sur l’ensemble des secteurs stratégiques pour notre économie. Nous vous proposons dans cet article un tour d’horizon des effets de la crise sur plusieurs matières critiques : l’hélium, l’aluminium, le soufre, le nickel, le cuivre et le titane

Hélium : une pénurie mondiale inédite

L’hélium est un sous-produit du traitement du gaz naturel lors de sa liquéfaction. Environ un tiers de la production mondiale d’hélium provient du site de Ras Laffan, au Qatar.

Terminal gazier à Ras Laffan (Qatar) en 2012. Matthew Smith, CC BY

La rupture d’approvisionnement risque d’être fortement impactante à terme pour l’industrie, car cet élément est indispensable à la fabrication de semi-conducteurs, ainsi qu’à une partie des équipements médicaux.

Ainsi, Taïwan, la Corée du Sud et la Chine sont particulièrement exposés, tout comme les équipements de santé européens (aimants supraconducteurs présents dans les appareils IRM notamment), si des circuits d’approvisionnement alternatifs ne sont pas identifiés à moyen terme.

Aluminium : une industrie régionale paralysée et des tensions sur les prix à prévoir

La production d’aluminium métal à partir d’alumine, elle-même issue de la bauxite, requiert beaucoup d’énergie. On la produit généralement là où elle est disponible à bas coût, dans des fonderies fonctionnant au gaz naturel. C’est pourquoi environ 10 % des capacités mondiales de production d’aluminium se situent dans le Golfe persique. Le manque de gaz et l’impossibilité d’importer l’alumine d’Australie entraînent donc des arrêts de production, comme chez les Qataris Qatalum (joint-venture entre le norvégien Hydro), Qamco (qui maintiendra sa production à 60 % de sa capacité) et Alba (Aluminium Barhain BSC), dont l’arrêt contrôlé de trois lignes de procédés réduira de 19 % sa production annuelle.

Sites de la chaîne de valeur de l’aluminium au Moyen-Orient. Fourni par l'auteur

Cette situation risque d’accroître la hausse des prix de l’aluminium, déjà sous tension depuis un an. Au 1er avril 2026, le prix de l’aluminium coté à la bourse de Londres avait augmenté de près de 45 % sur un an. Le phénomène devrait encore être amplifié par la hausse des prix de l’énergie, la baisse de l’offre en provenance du Moyen-Orient et de potentielles spéculations.

L’Europe et les États-Unis dépendent des importations en aluminium provenant du golfe Persique, et sont donc particulièrement vulnérables aux changements du marché.

Soufre : un maillon critique qui menace l’agriculture mondiale, mais pas seulement

Dans le golfe Persique, le soufre n’est quasiment pas extrait de mines : il est coproduit à partir des hydrocarbures, en particulier du gaz naturel et du pétrole, riches en soufre. Les pays du Golfe fournissent un quart du soufre mondial. Or, le soufre est essentiel à la fabrication des engrais phosphatés, mais aussi d’acide sulfurique, indispensable à la métallurgie du cuivre et du nickel et à de nombreux procédés industriels.

Principaux producteurs de soufre en 2024. WMD 2026, via Ofremi, Fourni par l'auteur

Des ruptures d’approvisionnement pourraient provoquer une flambée des prix des engrais et, à plus long terme, des tensions sur le secteur agricole ainsi que des réactions protectionnistes, notamment de la Chine, qui est aujourd’hui le principal producteur mondial de soufre.

Nickel : l’Indonésie en difficulté

Les usines indonésiennes utilisant la lixiviation haute pression (procédé appelé High-Pressure Acid Leaching, ou HPAL) produisent 70 % des produits intermédiaires à base de nickel utilisés pour les batteries. Or, cette industrie utilise de l’acide sulfurique produit à partir du soufre importé du Moyen-Orient.

Avec des stocks couvrant à peine un mois, certaines installations ont déjà suspendu leur production. Cette situation tendue pourrait perturber la chaîne mondiale des batteries haute performance pour les véhicules électriques.


À lire aussi : Quelle technologie de batterie pour les voitures électriques ? Un dilemme de souveraineté industrielle pour l’Europe


Cuivre et titane : des impacts pour l’instant indirects

Le cuivre n’est pas directement menacé, mais sa production dépend elle aussi de l’acide sulfurique, utilisé par les procédés métallurgiques. Comme le prix du cuivre dépend fortement de l’état de l’économie mondiale, il pourrait reculer si celle-ci est freinée par la hausse des prix du pétrole.

Gros plan sur une éponge de titane. Hi Res Images of Chemical Elements/Wikicommons, CC BY

Pour ce qui est du titane, L’Arabie saoudite possède une usine d’éponges de titane (forme poreuse et irrégulière de titane ure, obtenu par réduction du tétrachlorure de titane, qui est une des formes de titane faisant l’objet de commerce mondial), située au bord de la mer Rouge. Il s’agit d’un matériau critique pour l’industrie aéronautique.

Si ce site industriel est peu exposé actuellement, il pourrait le devenir dans le cas d’une extension du conflit du côté de la mer Rouge.

Un choc global aux répercussions durables

La crise au Moyen-Orient ne saurait pas être réduite à un simple épisode géopolitique : elle révèle la sensibilité structurelle des chaînes d’approvisionnement mondiales, en déclenchant une cascade de vulnérabilités. Pétrole, gaz, hélium, soufre, aluminium, nickel… autant de ressources essentielles dont la disponibilité conditionne les secteurs industriels, notamment ceux porteurs de la transition énergétique.

Si le conflit s’inscrit dans la durée, les tensions pourraient s’amplifier, entraînant une hausse généralisée des coûts de production pour les entreprises, une augmentation durable des prix et des risques d’approvisionnement dans certains secteurs. La sécurisation des approvisionnements en ressources minérales, par la diversification des lieux de production, est plus que jamais d’actualité.


Antoine Lebrault, chargé de communication au BRGM, a participé à l’écriture de cet article.

Cet article a été réécrit sur la base d’une note de l’Ofremi à diffusion restreinte, avec les contributions de Marc-Antoine Eyl-Mazzega et Thibault Michel (Ifri), Emmanuel Hache (IFPEN) et Stéphane Bourg, Claire André-Luquet, Gaétan Lefebvre, Katherine Leroy, Paul Notom, Éric Pujol, Aurélien Reys (BRGM).

The Conversation

Bialkowski Anne a reçu des financements de l'ANR dans le cadre du projet OFREMI

Mathieu Leguerinel ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

09.04.2026 à 16:52

Parkinson : comprendre comment les protéines toxiques s’accumulent dans les neurones

Cristine Alves Da Costa, Pharmacienne - Directrice de recherche Inserm, responsable de l’équipe ALZPARK (Physiopathologie des maladies d'Alzheimer et de Parkinson) à l' l'Institut de pharmacologie moléculaire et cellulaire - CNRS, Université Côte d’Azur
Pour mettre au point des traitements contre la maladie de Parkinson, les scientifiques doivent en comprendre les causes, et notamment les raisons pour lesquelles certaines protéines s’accumulent dans les neurones.
Texte intégral (1616 mots)

À l’heure actuelle, il n’existe aucun traitement curatif contre la maladie de Parkinson. La découverte de la fonction, longtemps passée inaperçue, d’une protéine impliquée dans la maladie permet de mieux comprendre son émergence, et pourrait ouvrir de nouvelles pistes thérapeutiques.


La maladie de Parkinson continue à progresser. On estime qu’elle affectera en 2050 plus de 25 millions de personnes dans le monde, contre 11,8 millions en 2021. Selon ces évaluations, la situation de la France, qui figure parmi les dix pays du monde les plus touchés, ne devrait pas s’améliorer.

Rien d’étonnant à cela : à l’heure actuelle, il n’existe aucun traitement capable de guérir cette affection. Les médicaments disponibles ne peuvent que diminuer les symptômes qui frappent les patients. Pour espérer changer les choses, il est impératif de mieux comprendre les mécanismes de la maladie.

C’est ce à quoi nous travaillons avec mon équipe. Nos recherches ont permis de révéler qu’une protéine associée à la maladie – la parkine – était capable d’interagir avec l’ADN. La découverte de ce rôle permet de lever le voile sur certains mécanismes de la maladie, et pourrait conduire à l’identification de nouvelles pistes thérapeutiques.

À l’origine de la maladie, une chute de la production de dopamine

La progression de la maladie de Parkinson s’explique à la fois par le vieillissement de la population et par l’amélioration des méthodes de diagnostic. Les conséquences médicales, sociales et économiques considérables de cette pathologie en font un enjeu majeur de santé publique. À l’heure actuelle, cependant, de nombreuses zones d’ombres persistent quant ses causes.

On sait que cette affection prend racine dans une région du cerveau appelée la substance noire. C’est là que sont localisés des neurones d’un type particulier, appelés « neurones dopaminergiques ». Comme leur nom l’indique, ils sont à l’origine de la production de dopamine.

Cette molécule, qui agit à la fois comme un neurotransmetteur (un messager chimique transportant les informations entre les cellules nerveuses) et comme une hormone, joue un rôle central dans de nombreux processus. Elle est, par exemple, impliquée dans la régulation du plaisir et dans le circuit de la récompense. La dopamine est aussi très importante pour le contrôle du mouvement, ainsi que pour de nombreuses autres fonctions : la motivation, l’apprentissage, l’attention, la régulation émotionnelle, la réponse au stress et les fonctions cognitives.

Lorsque les neurones qui la produisent dégénèrent, sa production chute, ce qui est à l’origine des symptômes moteurs de la maladie de Parkinson : tremblements, lenteur des mouvements, rigidité musculaire. Si ces symptômes sont bien connus, on sait moins que la maladie s’accompagne aussi de symptômes dits « non moteurs » : perte de l’odorat, constipation, dépression, difficultés cognitives…

Autant de signaux qui compliquent le diagnostic et la prise en charge des patients au fil de l’évolution de leur maladie. L’établissement précoce du diagnostic est particulièrement important, car pour freiner au maximum la dégradation des capacités des malades, il faut administrer les traitements disponibles au plus tôt. Des traitements qui sont, comme nous allons le voir, encore largement perfectibles.

Des traitements à améliorer

Les traitements disponibles à l’heure actuelle reposent principalement sur l’administration de L-DOPA, un précurseur de la dopamine (c’est-à-dire une molécule qui, après modification, pourra être transformée en dopamine). Ces médicaments permettent de soulager les symptômes, parfois de façon spectaculaire, mais ne freinent pas la progression de la maladie.

Pour aller plus loin, il est donc indispensable de comprendre ce qui se passe à l’intérieur des neurones. Pour cela, les chercheurs s’intéressent à différentes protéines. Au sein de notre équipe, nous travaillons à élucider le rôle d’un trio de molécules dont chaque membre joue un rôle central dans l’apparition et la progression de la maladie de Parkinson : la parkine, l’alpha-synucléine et la glucocérébrosidase.

Notre objectif est de clarifier la façon dont ces trois cibles prioritaires interagissent, afin d’identifier de nouvelles pistes thérapeutiques, tant pour les formes sporadiques que familiales de la pathologie. Pour comprendre comment ces trois protéines peuvent mener au développement de la maladie, il faut revenir sur le rôle qu’elles assument au sein des cellules.

Une nouvelle fonction pour la parkine

En temps normal, l’alpha-synucléine est une protéine bénéfique, puisqu’elle empêche la mort des cellules nerveuses. Cependant, lorsqu’elle est mutée, modifiée chimiquement ou insuffisamment éliminée, elle s’accumule dans les neurones, où elle forme progressivement des agrégats toxiques. Ces amas, qui perturbent le fonctionnement neuronal, sont considérés comme l’une des signatures majeures de la maladie de Parkinson.

Pourquoi et comment l’alpha-synucléine s’accumule-t-elle ? Nos travaux, qui portent sur la parkine, autre membre du trio de protéines précité, ouvrent des pistes pour répondre à cette question.

Dans les cellules nerveuses, la parkine favorise l’élimination des protéines en excès. Or, en 2009, nous avons démontré qu’elle assumait aussi une autre fonction : elle est également capable de contrôler l’expression de certains gènes dans les cellules.

Cette découverte a bouleversé le dogme établi, selon lequel cette protéine assumait une seule et unique fonction. Ce qui a d’importantes implications dans le développement de la maladie de Parkinson.

Des dérèglements en cascade

Lorsque la parkine est altérée – à cause de mutations, du vieillissement ou d’autres mécanismes – plusieurs processus cellulaires se dérèglent. C’est non seulement le cas de la régulation de la production d’alpha-synucléine, mais aussi de celle du troisième membre de notre trio de protéines : la glucocérébrosidase. Or, en temps normal, cette enzyme joue notamment un rôle essentiel dans la dégradation de l’alpha-synucléine (ainsi que d’autres composés cellulaires).

Actuellement, nous poursuivons nos travaux, avec pour objectif d’estimer la part due à la parkine dans la régulation directe et indirecte du gène de l’alpha-synucléine.

Si la parkine ne joue plus son rôle de régulatrice de l’expression des gènes, la production d’alpha-synucléine est perturbée, ce qui conduit à son agrégation (par divers mécanismes que nous n’expliciterons pas ici).

Qui plus est, l’inactivation de la parkine provoque une diminution de l’expression du gène de la glucocérébrosidase, ce qui entrave les processus de dégradation impliqués dans l’élimination des protéines. Résultat : l’alpha-synucléine sous sa forme agrégée et toxique, s’accumule dans les cellules nerveuses (résultats en cours de publication).

Vers de nouvelles pistes thérapeutiques

Nos résultats soulignent que la capacité de la parkine à contrôler des gènes qui interviennent dans la dégradation des protéines toxiques (via la régulation de la glucocérébrosidase) est cruciale.

Cette capacité est non seulement impliquée dans le développement de la maladie de Parkinson, mais aussi, probablement, dans d’autres maladies neurodégénératives associées à des dysfonctionnements de la machinerie cellulaire responsable de la dégradation des protéines, par exemple la maladie d’Alzheimer.

À terme, nous espérons parvenir à mieux comprendre les mécanismes de régulation génique de l’alpha-synucléine, ainsi que le rôle joué par la parkine dans le développement des formes génétiques (liées aux mutations du gène de cette protéine) et sporadiques de la maladie de Parkinson (les formes les plus répandues).

Ces connaissances pourraient conduire à l’identification de nouvelles pistes thérapeutiques s’attaquant aux causes de la pathologie, et non plus seulement à ses symptômes.


Le projet SynaPark (ANR-20-CE16-0008) est soutenu par l’Agence nationale de la recherche (ANR), qui finance en France la recherche sur projets. L’ANR a pour mission de soutenir et de promouvoir le développement de recherches fondamentales et finalisées dans toutes les disciplines, et de renforcer le dialogue entre science et société. Pour en savoir plus, consultez le site de l’ANR.

The Conversation

Cristine Alves Da Costa a reçu des financements de l’Agence nationale de la recherche dans le cadre du projet Synapark (ANR-20-CE16-0008).

09.04.2026 à 16:51

Quelles sont les chances de Jean-Luc Mélenchon à la présidentielle ?

Rémi Lefebvre, Professeur de science politique université Lille 2, Université de Lille
Après les victoires de LFI dans plusieurs villes importantes aux municipales, Jean-Luc Mélenchon est-il en bonne position pour aborder la présidentielle ?
Texte intégral (1704 mots)

Après les victoires de La France insoumise dans plusieurs villes importantes aux dernières municipales, notamment autour de figures de personnalités issues de l’immigration, le parti de Jean-Luc Mélenchon semble en position favorable pour aborder l’élection présidentielle. Mais son futur candidat a-t-il des chances de se qualifier au second tour ? Et dans ce cas, pourrait-il s’imposer face au candidat du Rassemblement national ? Entretien avec le politiste Rémi Lefebvre.


The Conversation : La France insoumise (LFI) a-t-elle progressé de façon significative avec les élections municipales 2026 ?

Rémi Lefebvre : Le bilan de LFI peut apparaître modeste au regard du nombre de villes conquises : une dizaine de villes sur 35 000 communes, c’est beaucoup moins que le Parti socialiste ou que le Parti communiste français qui ont des maires dans des centaines de villes. Mais il y a incontestablement une percée puisque LFI partait de zéro. Ils revendiquent environ 1 000 conseillers municipaux, une ville de 150 000 habitants, une autre de 100 000. Les villes gagnées peuvent devenir des laboratoires pour les années qui viennent, renforcer l’armature militante et territoriale du parti. Autant d’atouts en vue de l’élection présidentielle.

Autre élément majeur : LFI envoie un signal aux populations issues de l’immigration. Plusieurs maires noirs ont été élus : symboliquement, c’est très important car, de fait, il y a peu de maires noirs en France. Il faut savoir que le profil des députés LFI est très différent de ces nouveaux édiles : les députés sont issus des classes moyennes supérieures, urbains et diplômés. Il y avait bien eu Rachel Kéké, mais elle a été battue en 2024. Là, on voit apparaître un nouveau profil d’élus.

Les quartiers populaires, notamment les Français issus de l’immigration, ont-ils voté LFI ?

R. L. : La France insoumise n’a pas le monopole de cet électorat, qui demeure très abstentionniste. Mais il y a très clairement un phénomène de cristallisation autour de LFI. À Lille, Lahouaria Addouche, qui était la tête de liste LFI, a suscité un véritable engouement. Elle est ouvrière, d’origine maghrébine, cela a beaucoup plu dans les quartiers. Mes étudiants lillois ou certains cadres ont également été sensibles à son profil et à une proposition de renouvellement du personnel politique. LFI joue la carte du dégagisme face aux notables en place à travers la promotion de candidats issus de l’immigration. Cette approche a fonctionné localement dans de nombreux endroits.

Rappelons, avec le sociologue Olivier Masclet, qui travaillé sur la gauche et les quartiers, que le PS ou le PCF n’ont pas beaucoup promu ce type de profils. Balli Bagayoko est d’abord passé par le Parti communiste, sans succès, et La France insoumise l’a finalement récupéré.

LFI a théorisé son approche en parlant de « nouvelle France »…

R. L. : Je suis frappé par la capacité de Jean-Luc Mélenchon à alimenter le débat public et à structurer l’agenda médiatique et politique. Ses saillies, souvent violentes et volontairement polémiques, contribuent à son exposition, mais ses idées également, comme celle de « nouvelle France ». Ce concept désigne les jeunes, les quartiers, les diplômés : il évoque à la fois le métissage et le renouvellement générationnel. Il s’agit de se positionner par rapport au prétendu « grand remplacement » et d’installer un duel avec l’extrême droite en s’opposant à sa vision de la France. C’est un prolongement de l’idée de créolisation, défendue par Jean-Luc Mélenchon en 2020 (le terme est emprunté à Édouard Glissant, et désigne le brassage des cultures), mais cela va plus loin avec la construction d’un récit national, d’une conception de la communauté nationale.


À lire aussi : La République laïque de Jean‑Luc Mélenchon : un débat qui fracture la gauche et bien plus encore


Quels sont les atouts de La France insoumise pour la présidentielle de 2027 ?

R. L. : La France insoumise a trois forces : elle a un leader incontesté, un programme quasiment immuable, et une machine électorale très performante pour une élection présidentielle. La force militante est d’environ 100 000 personnes, avec 400 000 soutiens inscrits sur la plateforme. LFI, c’est aussi une armée numérique très importante : les abonnés YouTube de Mélenchon sont plus d’un million, et LFI développe sans cesse de nouveaux outils numériques. Au moment où les autres partis de gauche sont englués dans leurs divisions internes, LFI est en ordre de marche pour 2027 : tout est organisé, planifié, rationalisé. La capacité d’organisation et de mobilisation du parti est certainement renforcée par la dynamique des municipales. On peut donc s’attendre à une montée en puissance de LFI dans les mois qui viennent : la machine est déjà en marche.

Quelle est la vision stratégique de LFI en vue de la présidentielle et des législatives qui suivront probablement en 2027 ?

R. L. : LFI propose une fédération à gauche, avec une volonté de répartir les investitures aux élections législatives. C’est clairement orienté en direction des écologistes. Vu l’attentisme du PS et ses hésitations à s’engager dans une primaire, LFI va essayer de détacher les verts du PS. On peut s’attendre à ce que l’aile gauche des écologistes soit tentée de rallier LFI, ce fut déjà le cas pendant les municipales.

L’objectif de Mélenchon, c’est de tout faire pour empêcher la gauche non mélenchoniste de se structurer. Il s’agit de neutraliser le pôle unioniste de gauche (Faure, Tondelier, Ruffin, Autain) pour installer un duel avec le pôle social-démocrate (Hollande, Glucksmann, Guedj, Vallaud).

Quelles sont les chances de Jean-Luc Mélenchon, futur candidat à l’élection présidentielle ?

R. L. : Aujourd’hui, Jean-Luc Mélenchon est à 12 % ou 13 % d’intentions de vote dans les sondages. C’est plutôt un bon niveau pour un début de campagne. Il a un socle solide qui ne varie pas, malgré ses outrances verbales répétées. C’est un atout majeur, incontestablement. Mais peut-il élargir à partir de ce socle ? Peut-il reproduire l’extraordinaire siphonnage de voix liées au vote utile comme en 2022 ? L’idéal pour Jean-Luc Mélenchon serait que la gauche non mélenchoniste et le bloc central demeurent divisés et morcelés. Mais si le bloc central désigne un candidat unique ou si un candidat se détache, la donne change et le seuil d’accès au second tour s’élève. Par ailleurs, on peut imaginer un vote utile d’électeurs modérés dès le premier tour – y compris d’électeurs de gauche – pour un candidat comme Édouard Philippe qui, pour l’instant, semble le mieux placé pour battre le candidat RN au second tour.

L’un des enjeux majeurs de cette présidentielle sera de savoir qui réussira à capter le vote de centre gauche. Au soir de son élection au Havre, Édouard Philippe a envoyé des signaux en direction de l’électorat centriste modéré. Or, Boris Vallaud, François Hollande, Raphaël Glucksmann visent le même espace. Aujourd’hui, il est trop tôt pour anticiper les dynamiques de tous ces concurrents dans les mois à venir.

Et si Mélenchon arrive au second tour ?

R. L. : Jean-Luc Mélenchon est un solide candidat de premier tour, mais on ne perçoit pas de stratégie crédible pour le deuxième tour. Certains politistes ont imaginé que les abstentionnistes pourraient voter Mélenchon face à Bardella ou à Le Pen, lui permettant de l’emporter au second tour. J’ai du mal à y croire. En revanche, les municipales ont montré que la mobilisation à droite était très forte contre LFI. À Clermont-Ferrand, à Toulouse, à Brest, la perspective d’une victoire de LFI a surmobilisé l’électorat de droite, celui qui vote LR ou RN au premier tour. Le caractère répulsif de LFI est incontestable et devrait se confirmer dans le cadre d’un deuxième tour de présidentielle. Aujourd’hui, dans l’hypothèse d’un duel Bardella-Mélenchon au second tour, les hypothèses donnent 70 contre 30 environ. On ne peut anticiper des résultats un an avant le scrutin, mais l’issue d’un second tour Bardella-Le Pen face à Mélenchon ne laisse pas beaucoup de doutes.

L’élection présidentielle va se jouer sur le choix du candidat qui fera face à l’extrême droite au second tour, ce qui est très handicapant pour Jean-Luc Mélenchon.

Propos recueillis par David Bornstein.

The Conversation

Rémi Lefebvre ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

09.04.2026 à 16:51

Médiation entre les États-Unis et l’Iran : le Pakistan sur le devant de la scène diplomatique mondiale

Samina Yasmeen, Director of Centre for Muslim States and Societies, The University of Western Australia
Le Pakistan s’appuie sur sa proximité à la fois avec l’Iran et avec les États-Unis pour apparaître comme un acteur diplomatique de premier plan.
Texte intégral (2298 mots)
Le 25 septembre 2025, le premier ministre du Pakistan Shehbaz Sharif et le chef de l’armée Asim Munir sont accueillis par Donald Trump, J. D. Vance et Marco Rubio à la Maison-Blanche. Whitehouse.gov

Alors que Donald Trump venait de menacer d’anéantir la civilisation iranienne, Washington et Téhéran ont finalement conclu, le 7 avril 2026, un cessez-le-feu temporaire de deux semaines, en échange de la réouverture du détroit d’Ormuz. Le Pakistan, fort de ses relations privilégiées avec les deux pays, a joué un rôle important dans les négociations et accueillera sur son territoire les discussions prévues ces tout prochains jours.


L’annonce du fragile cessez-le-feu passé entre les États-Unis, Israël et l’Iran fut premièrement communiquée via une publication du premier ministre pakistanais Shehbaz Sharif sur son compte X.

Il s’agit, en soi, d’une grande victoire diplomatique pour le Pakistan, quand bien même l’accord a rapidement été menacé par la poursuite et même l’intensification des bombardements israéliens sur le Liban.

Le Pakistan demeurera au cœur des négociations de paix, puisque des discussions entre les parties se tiendront sur son territoire à partir de ce 10 avril.

Islamabad est parvenu à réunir les deux adversaires en s’appuyant sur les relations de longue date qu’il entretient avec eux et sur des accords passés avec l’un comme avec l’autre. Ce faisant, il apparaît comme une puissance diplomatique avec laquelle compter.

La longue relation avec l’Iran

Le Pakistan et l’Iran entretiennent une amitié et une alliance anciennes. Partageant plus de 900 kilomètres de frontières, les deux pays ont, depuis la création du Pakistan en 1947, cherché plusieurs fois à s’aider mutuellement à résoudre des crises diplomatiques.

CC BY-SA

Durant la période monarchique de l’Iran, qui prit fin en 1979, le Pakistan bénéficia d’une médiation iranienne dans ses différends avec l’Afghanistan ainsi que d’un soutien actif de Téhéran lors des guerres qui l’opposèrent à l’Inde en 1965 et en 1971. La relation ne fut pas toujours pas exempte de tensions. Selon certaines sources, l’ancien premier ministre pakistanais Zulfikar Ali Bhutto (1973-1977) n’appréciait guère l’attitude hautaine du shah d’Iran.

Ces liens étroits se sont maintenus après la révolution islamique en Iran. Près de 20 % de la population pakistanaise est chiite et entretient depuis longtemps une relation étroite avec le régime iranien.

Téhéran s’est par ailleurs servi de ces communautés pour diffuser sa propre vision de l’islam et de la politique, en prenant toutefois soin de ne pas franchir certaines limites. Le régime a veillé à ce que les tensions ne dépassent pas un seuil au-delà duquel le gouvernement pakistanais le considérerait comme un facteur de déstabilisation et une menace pour sa propre sécurité.

En raison de cette histoire commune et de cette proximité géographique, le régime iranien est particulièrement disposé à écouter son homologue pakistanais.

Sécurité régionale et nationale

Contribuer à une stabilisation de la situation en Iran est d’autant plus crucial pour le Pakistan que ce dernier souhaite absolument éviter une fragmentation de son voisin de l’ouest en plusieurs petits États.

Le Baloutchistan, la plus grande province du Pakistan, connaît une recrudescence des violences armées commises par le groupe séparatiste Armée de libération du Baloutchistan (BLA). Ses combattants ont attaqué de nombreuses installations militaires, des forces de l’ordre et des fonctionnaires, en particulier ceux originaires de la province du Pendjab (la plus importante sur le plan démographique et économique).


À lire aussi : Who are the Baloch Liberation Army? Pakistan train hijacking was fuelled by decades of neglect and violence


Le Pakistan a conscience qu’un Iran affaibli ou fragmenté pourrait renforcer l’attrait pour l’idéologie de la BLA. Islamabad refuse d’envisager la création d’un grand Baloutchistan qui engloberait des territoires des deux côtés de ses frontières avec l’Iran.

Autre considération : le Pakistan craint que son arsenal nucléaire ne devienne la prochaine cible des puissances étrangères, et cherche ainsi à désamorcer les tensions dans l’ensemble de la région.

France 24.

La situation géographique du Pakistan est également à prendre en compte. Islamabad ne veut surtout pas se retrouver en étau entre un Iran qui serait contrôlé par Israël et une Inde qui est déjà une proche alliée de Tel-Aviv.

Il est probable que le régime iranien soit conscient de ces préoccupations et comprenne que la médiation du Pakistan repose sur ses propres inquiétudes quant à la sûreté du pays. Mais, du point de vue iranien, ce n’est pas forcément une mauvaise chose : cela signifie que toutes les pistes sont explorées pour parvenir à un cessez-le-feu et à un règlement durable.

Des amis dans le camp MAGA

Le Pakistan jouit d’une réelle crédibilité aux yeux de l’administration Trump. Cela s’explique principalement par le rôle prépondérant que l’armée pakistanaise a joué dans l’élaboration de la politique étrangère du pays. Cette influence, sensible dès la naissance du Pakistan il y a près de 80 ans, s’est encore renforcée récemment.

En 2022, le général Asim Munir a pris ses fonctions de chef d’état-major de l’armée. Il a été promu au grade de maréchal à la suite de la « mini-guerre » qui a opposé le Pakistan à l’Inde en mai 2025.


À lire aussi : Inde-Pakistan : vers une nouvelle guerre de grande ampleur ?


En poste pour les cinq prochaines années et possiblement jusqu’en 2035, il s’est imposé comme le général le plus puissant à la tête du Pakistan depuis des décennies.

Munir a noué des relations cordiales avec le président états-unien Donald Trump. Il s’est rendu à deux reprises au siège de l’administration, où il a notamment été reçu dans le bureau Ovale.

Le premier ministre pakistanais Shehbaz Sharif serre la main du secrétaire d’État américain Marco Rubio, sous le regard du maréchal Asim Munir. Andrew Harnick/Getty

Munir a également influencé la politique du Pakistan à l’égard du Golfe, notamment en ce qui concerne la signature d’un accord stratégique de défense mutuelle avec l’Arabie saoudite en septembre 2025. Cet accord s’appuie sur des décennies de coopération en matière de défense entre les deux pays. Il stipule clairement que toute attaque contre l’un des deux pays sera considérée comme une attaque contre les deux.

Bien que le Pakistan ait pris soin de souligner qu’il n’étend pas son parapluie nucléaire à l’Arabie saoudite, cet accord témoigne d’une dissuasion régionale partagée et de la capacité des deux États à collaborer contre leurs adversaires.

La signature de cet accord fut suivie de celle d’un accord de défense stratégique entre l’Arabie saoudite et les États-Unis, lors de la visite du prince héritier Mohammed ben Salmane à Washington, en novembre 2025.

Une alliance est donc désormais formée entre les États-Unis, l’Arabie saoudite et le Pakistan.

La Chine, autre alliée

Dans le même temps, le Pakistan maintient des relations militaires, économiques et politiques solides avec la Chine. Pékin s’est montré favorable à une désescalade du conflit dans le Golfe, en raison de sa forte dépendance à l’égard du pétrole provenant de la région. Cet intérêt fut clairement exprimé lors de la visite du ministre pakistanais des affaires étrangères Ishaq Dar en Chine, le 31 mars dernier. Peu avant, il avait rencontré ses homologues saoudien, égyptien et turc, confirmant que le Pakistan bénéficie à la fois du soutien de toutes les grandes puissances à majorité musulmane et de la Chine.

En contribuant à une solution possible au conflit en Iran d’une façon telle que Donald Trump peut mettre sa médiation en avant et donc ne pas perdre la face, Islamabad s’impose comme le grand vainqueur diplomatique de la séquence actuelle.

The Conversation

Samina Yasmeen ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

09.04.2026 à 16:50

Comment l’Union européenne s’arme-t-elle face à la politique darwiniste de Trump ?

Sylvie Lemasson, Politologue, membre du laboratoire Centre d'études sur la sécurité internationale et les coopérations européennes (CESICE), Sciences Po Grenoble - Université Grenoble Alpes
Cécile Pelaudeix, Chercheuse à l'Academy of International Affairs (Bonn), chercheuse associée en sciences politiques à Pacte Sciences Po Grenoble-UGA, Université Grenoble Alpes (UGA)
Sur bien des dossiers – du Groenland à la guerre au Proche-Orient –, Donald Trump affiche régulièrement son mépris à l’égard d’une UE qu’il décrit comme faible et pusillanime.
Texte intégral (1806 mots)

Dans la vision du monde du locataire de la Maison-Blanche, les prédateurs, à commencer par les États-Unis, ne font aucun cas de l’Union européenne. Or, à y regarder de plus près, l’UE manifeste de plus en plus sa capacité à résister aux appétits de Washington en se faisant le héraut du respect du droit international.


Au-delà de ses positions erratiques, le président américain n’en finit pas de déboussoler l’Union européenne (UE). Les coups de boutoir répétés de Donald Trump sont d’autant plus déstabilisants qu’ils visent les alliés historiques des États-Unis. Le renouvellement de ses menaces, le 1er avril 2026, de quitter l’Otan en réponse au refus des Européens d’aider militairement son armée à débloquer le détroit d’Ormuz est une nouvelle manifestation d’une désinvolture toxique dans l’usage des rapports de force.

Cette politique darwiniste faite de mépris et d’humiliation se prend à cartographier la scène internationale en « espèces étatiques ». D’un côté, des puissances prédatrices, chacune destinée à se reproduire. De l’autre, des proies soumises, toutes condamnées à disparaître. C’est ainsi que, de manière sidérante, le président a pu menacer, le 6 avril, de « faire disparaître la civilisation iranienne ».

Faiblesses et atouts de l’UE

Sur cette échelle de valeurs, l’UE n’a manifestement pas vocation à s’imposer. Alors que la guerre en Ukraine perdure et que les conflits s’enchaînent sur la planète, les discours de l’administration américaine ne cessent de dévaluer l’Europe. Si l’Union entend déjouer ce sombre sort, elle doit impérativement se pencher sur les écueils qui entravent sa pleine maturation.

Il est vrai que le nombre croissant des États membres rend périlleuse l’expression d’une seule voix dans les domaines régaliens, surtout en période de crises. Mais le mécanisme du vote à la majorité qualifiée pourrait s’appliquer plus largement, ainsi que le recours aux coopérations renforcées. Depuis plusieurs années déjà, Berlin et Paris proposent la constitution de différents groupes « pionniers », capables d’entraîner dans leur sillage d’autres partenaires.

La coalition des volontaires pour sécuriser l’Ukraine et le groupe « E6 », qui rassemble les six plus grandes économies de l’UE – Allemagne, France, Italie, Pays-Bas, Pologne et Espagne pour consolider les leviers économiques de l’UE attestent de cette volonté de doter l’espace communautaire d’une souveraineté stratégique. Trois phases récentes laissent croire à un réveil des consciences d’un certain nombre de pays pour travailler à une force de projection de l’UE sur la scène internationale.

Défense du Groenland, extension du parapluie nucléaire français et implication au Moyen-Orient

Primo, la séquence groenlandaise qui a opposé frontalement le Danemark à Donald Trump a largement mobilisé l’UE. Sur un front politique, les instances bruxelloises ont su faire bloc pour affirmer haut et fort la souveraineté danoise sur le territoire arctique autonome. Et sur un front militaire, l’envoi de contingents européens, organisé par Copenhague avec le ferme soutien de Paris, a ressuscité l’idée d’un pilier européen au sein de l’Otan.

Si l’opération « Arctic endurance » reste modeste en termes logistiques, elle souligne avant tout les velléités de résistance aux assauts américains. Malgré cela, les discussions en cours entre les États-Unis et le Danemark sur l’extension à quatre bases (contre une seule actuellement, la base spatiale de Pituffik) de la présence militaire au Groenland – ce qui permettrait au président Trump de prétendre à une sortie honorable de la crise groenlandaise – pourraient au contraire consolider la dépendance européenne.

D’autant que l’administration Trump donne régulièrement des signes d’autoritarisme. La politique de Washington se montre en effet poreuse aux théories du juriste allemand Carl Schmitt, qui dans les années 1930, développe le concept de libéralisme autoritaire. Aussi retrouve-t-on, dans le langage comme dans l’action des représentants américains, les principes d’un « État fort pour une économie saine », d’une dualité assumée entre « ami et ennemi » et d’une référence aux prises territoriales comme autant de gestes messianiques. En outre, le milliardaire Peter Thiel, appui constant de Trump, n’a aucun scrupule à faire valoir ses lectures bibliques pour évoquer des « guerres sacrées » lors de ses conférences en Europe. Quant à Pete Hegseth, dont le titre officiel de « secrétaire d’État à la défense » a été récemment modifié en « secrétaire à la guerre », il assume pleinement le terme de croisade. Arborant un tatouage de la Croix de Jérusalem et se prévalant d’un soutien de Dieu à son projet, il explique sans ambages que les États-Unis jouissent de l’« arsenal de la foi » : en d’autres termes, d’un magistère de la force.


À lire aussi : États-Unis : quand les imaginaires religieux justifient (ou non) la guerre en Iran


Secundo, le discours très remarqué d’Emmanuel Macron sur l’ouverture du parapluie nucléaire français à des États membres de l’UE va dans le sens d’une autonomie européenne accrue. Tout en s’affranchissant de la doctrine de ses prédécesseurs relative à la « stricte suffisance » de l’arsenal français, le président Macron promeut l’idée d’un accroissement de moyens pour rendre crédible cette « dissuasion avancée ». La France prend donc l’initiative de penser la défense euro-européenne au plan continental à partir de ses propres atouts nationaux.


À lire aussi : Dissuasion nucléaire : tournant majeur dans la stratégie française et européenne


Et, tertio dans le cadre du conflit iranien, Paris assume, là encore, le rôle d’une avant-garde stratégique avec le déploiement en Méditerranée d’une force navale qu’aucun autre pays de l’UE n’est en mesure d’aligner. En réponse au découplage politique croissant entre les États-Unis et l’UE, la réaction française à l’intervention américaine se prévaut du droit international. Tout en cherchant à contribuer au maintien d’un équilibre régional, la France entend rappeler l’ADN de l’Europe : le respect de valeurs normatives. Et c’est désormais une réponse relativement cohérente que l’UE apporte au conflit iranien basée sur la désescalade diplomatique.

Le refus d’un engagement militaire offensif et la défense des intérêts économiques et sécuritaires européens

Mais cet activisme français doit composer avec un certain nombre d’entraves venant principalement d’Allemagne. Outre la division spectaculaire entre Paris et Berlin sur l’accord avec le Mercosur, les divergences s’accumulent sur des sujets stratégiques comme l’énergie (Paris considérant, contrairement à son partenaire, que la production électrique passe par un parc nucléaire garant d’une indépendance géopolitique) ou sur l’industrie d’armement de l’UE (Berlin prenant ses distances de nombreux programmes lancés en commun avec Paris comme l’avion et le char du futur).

Enfin, la diplomatie apporte son lot de contrariétés sur l’échiquier moyen-oriental. Quand l’Allemagne décline la reconnaissance de la Palestine et modère sa position à l’égard d’Israël, hier à Gaza et aujourd’hui au Liban, la France, elle, adopte une posture des plus critiques à l’encontre du gouvernement israélien.

La refondation de l’UE n’est donc pas acquise. Pour autant, elle reste vitale. Car la rupture avec le monde d’hier, basé sur un système de règles internationales que les États-Unis bafouent après en avoir été eux-mêmes les garants, s’impose à tous. En clair, le logiciel européen n’est plus adapté aux déviances actuelles. Dans ce grand jeu de bascule, l’UE peut s’inspirer des résolutions d’un autre partenaire nord-américain qui l’invite à se repenser. Malmené lui aussi par Washington, le Canada propose une voie médiane d’inspiration gaullienne. Lors du dernier Forum de Davos, le premier ministre Mark Carney s’est posé en héraut des puissances moyennes, toutes celles que le darwinisme de Donald Trump verrait volontiers disparaître.

Cette voie alternative qui exige un projet politique, un dirigeant européen aurait pu la clamer. Encore faut-il commencer par le commencement : construire un leadership. Et la perspective de l’élection présidentielle française en 2027 rend le projet plus incertain encore. Sans timonier à la barre, tracer un chemin parait illusoire. Qui plus est en pleine tourmente.

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.

09.04.2026 à 16:49

Iran : un nécessaire changement de régime ?

Thierry Kellner, Chargé de cours (politique étrangère de la Chine), Université Libre de Bruxelles (ULB)
Mohammad Reza Djalili, professeur émérite, Institut des hautes études internationales et de développement de Genève
Le régime de Téhéran est fondamentalement irréformable. Seule une chute de la République islamique pourrait satisfaire la grande majorité des Iraniens.
Texte intégral (3909 mots)

Si Donald Trump affirme régulièrement que le régime de Téhéran a déjà changé, puisque bon nombre de ses dirigeants ont été éliminés, il n’en est rien dans les faits. Au contraire, une aile encore plus dure s’est emparée du pouvoir. Le président américain, connu pour son penchant pour la tractation, vient d’annoncer un cessez-le-feu et pourrait bien finir par trouver un accord de long terme avec les nouveaux responsables. La population iranienne, dont une grande majorité abhorre le système en place, serait la grande perdante d’un tel scénario.


Depuis le début des opérations militaires lancées contre l’Iran par les États-Unis et Israël, le 28 février dernier, se pose la question des buts de ce conflit. Les objectifs mis en avant par le président Trump sont restés flous et changeants, si l’on se rapporte à ses déclarations successives. Ces derniers temps semble se dessiner l’idée que l’administration américaine pourrait trouver une sorte de terrain d’entente ou de sortie de crise avec le régime iranien. Ce dernier a d’ailleurs été présenté comme un « nouveau régime » par le président américain.

Il est vrai que le personnel dirigeant a changé, étant donné les assassinats ciblés – dont ceux du Guide suprême Ali Khamenei et d’Ali Larijani, l’un des principaux dignitaires de la République islamique – qui ont été effectués dès le début du conflit. Mais à en croire la Maison-Blanche, le changement de régime serait un fait accompli et la communauté internationale aurait désormais affaire à un autre régime, sous-entendu, plus « modéré ». Or, ce n’est aucunement le cas.

Le résultat des frappes américano-israéliennes : un durcissement du régime iranien

Les leaders qui semblent aujourd’hui en charge sont tout autant issus du régime que leurs prédécesseurs. Ils ne font pas partie d’un quelconque camp « réformiste » qui existerait au sein de l’élite dirigeante et s’inscrivent, en réalité, dans la continuité. C’est en effet l’aile dure des du Corps des gardiens de la révolution qui a pris le contrôle des fonctions clés de l’État et marginalisé l’administration civile du président Pezeshkian. Elle a, aussi, joué un rôle majeur dans la nomination du nouveau Guide, Mojtaba Khamenei.

Ce dernier ne répond pourtant guère aux qualités requises par la Constitution de la République islamique pour occuper cette fonction. C’est d’ailleurs ce qu’a déclaré à l’Assemblée des experts Ali Asghar Hejazi, un haut responsable de la sécurité du bureau de l’ex-Guide suprême, avant d’ajouter que la succession héréditaire était en outre incompatible avec les principes énoncés par Ali Khamenei lui-même. Résultat : Hejazi semble aujourd’hui être dans le collimateur des gardiens.

Mojtaba Khamenei, quant à lui, ne s’est pas montré publiquement depuis plusieurs semaines, si bien que certains émettent des doutes sur le fait qu’il soit en état de diriger le régime, voire en vie. Quoi qu’il en soit, un « conseil militaire » composé de hauts officiers des gardiens exercerait désormais un contrôle total sur la structure décisionnelle centrale, imposant un cordon de sécurité autour de Mojtaba Khamenei.

Un régime irréformable

Outre le fait que l’on n’ait donc pas, en réalité, affaire à des « réformistes » et que même si c’était le cas, il est douteux que la population iranienne – la grande absente des débats sur l’Iran – les accepterait étant donné le rejet massif de l’ensemble du régime qui s’est exprimé en décembre 2025/janvier 2026, la question de fond reste de savoir si ce régime qui s’inscrit dans la continuité, même s’il semble dériver vers une sorte de dictature islamo-militaire sous l’égide des gardiens de la révolution, est réellement « réformable », quels que soient les moyens utilisés. Il faut malheureusement répondre par la négative. C’est en tout cas l’enseignement que l’on peut tirer des 47 années d’existence de la République islamique.

Depuis 47 ans, des observateurs ont périodiquement évoqué de possibles « ouvertures » du régime iranien. Dès la disparition de Ruhollah Khomeyni en 1989 et l’arrivée d’Hachemi Rafsandjani au poste de président (1989 à 1997), a ainsi été évoquée l’idée d’un possible « Thermidor en Iran » pour reprendre le titre d’un ouvrage de Fariba Adelkhah, Jean-François Bayart et Olivier Roy publié en 1992. Il n’en a rien été.

Un peu plus tard, en 1997, l’élection à la présidence de Mohammad Khatami avait à nouveau suscité un espoir de réforme. L’homme était présenté comme un « réformateur », plus ouvert sur le monde. Ne mettait-il pas en avant officiellement le « dialogue des civilisations » ? Nombreux sont les observateurs à avoir pensé à ce moment qu’une évolution positive du régime était possible. Une fois encore, il a fallu déchanter.

Mohammad Khatami s’exprime lors du sommet de Davos en 2004. World Economic Forum, CC BY-NC

Ses deux mandats consécutifs, de 1997 à 2005, ont été marqués non seulement par la persistance de la répression – plus de 150 titres de presse professionnels (hors presse estudiantine) ont par exemple été suspendus durant sa présidence et il a cautionné la politique de filtrage d’Internet qui s’est développée à cette période –, mais aussi par l’élimination d’intellectuels et d’opposants politiques dissidents dans ce qui a été qualifié d’« assassinats en chaîne ».

L’illusion réformiste de cette période s’est totalement dissipée avec le retour au pouvoir des « conservateurs » avec l’élection de Mahmoud Ahmadinejad en 2005 puis l’écrasement du Mouvement vert qui s’était développé à la suite de sa réélection très contestée en 2009 et avait vu des millions d’Iraniens descendre dans la rue.

Ahmadinejad restera au pouvoir jusqu’en 2013. Ses présidences seront marquées par un conservatisme radical, un isolement international accru, des difficultés économiques croissantes et la multiplication des exécutions. Les présidents suivants, quelle que soit leur étiquette – Hassan Rohani (2013-2021), considéré au départ comme un « réformateur », Ebrahim Raïssi (2021-2024), présenté comme un ultraconservateur, puis Massoud Pezeshkian (depuis 2024), qualifié de « réformateur modéré » –, n’ont pas fait évoluer le régime dans un quelconque sens de réforme, d’ouverture ou de modération.

Aucun des dirigeants actuels – tels Mohammad Ghalibaf, qui apparaît comme l’homme fort du moment, ou Ahmad Vahidi, le commandant en chef des Corps des gardiens de la révolution – n’a un profil de réformateur. L’auraient-ils que cela ne changerait rien si l’on s’appuie comme nous venons de le faire sur l’expérience de l’ensemble des présidents depuis la formation de la République islamique.

La réalité est simple : ce régime, s’il a su se monter souple à certains moments pour des raisons tactiques – comme l’avait, par exemple, bien sous-entendu Ali Khamenei au moment de la signature de l’accord de Vienne sur le nucléaire en 2015 –, est en réalité fondamentalement irréformable. Il ne peut en effet se transformer d’une quelconque manière sans perdre son essence « révolutionnaire » même. C’est ce que savent très bien les Iraniens et ce que de nombreux analystes, commentateurs ou décideurs se refusent d’admettre pour diverses raisons.

Que veulent les Iraniens ?

Et si on écoutait la voix des Iraniens ? Depuis l’hiver 2017-2018, on a vu apparaître de manière croissante lors des mouvements de protestation qui se sont multipliés dans le pays la référence à la dynastie Pahlavi. Cela a aussi été le cas de manière récurrente et étendue lors des vastes manifestations qui ont secoué tout l’Iran en décembre 2025 et janvier 2026 avant qu’une répression sanglante ne s’abatte sur les manifestants.

Comme l’ont bien analysé Oliver Bast et Pollet Samvelian dans un article récent publié dans la Croix, la popularité du fils de l’ancien shah d’Iran – dont le nom est le seul parmi d’autres personnalités possibles à avoir émergé lors des protestations de cet hiver – traduit non pas une quelconque « nostalgie », mais une forte défiance envers l’idée même de la possibilité d’une transition réformiste de la République islamique. Le camp dit réformateur est en effet aujourd’hui discrédité, notamment en raison de son impuissance au sein d’un système politique en réalité totalement verrouillé. Le nom de Reza Pahlavi fonctionne dans cette analyse comme un signal envoyé par la population iranienne : celui de la rupture. Il ne dit pas seulement « autre chose », il dit « autre monde », relèvent ces auteurs.

S’il n’est évidemment pas simple de sonder l’opinion publique dans l’un des pays les plus répressifs au monde, cette analyse rejoint néanmoins les études effectuées avant même la répression de janvier 2026 et la guerre actuelle par le Groupe d’analyse et de mesure des attitudes en Iran (Gamaan), une fondation de recherche indépendante à but non lucratif enregistrée aux Pays-Bas. Selon son rapport d’analyse sur les « préférences politiques des Iraniens en 2024 » publié en août 2025, toutes provinces confondues, qu’il s’agisse de zones rurales ou urbaines, de toutes les tranches d’âge et des deux sexes, environ 70 à 80 % des personnes interrogées déclaraient qu’elles ne voteraient pas pour ce régime, tandis que seuls 11 % des sondés lui exprimaient clairement leur soutien.

Depuis, le régime a mené une répression extrêmement violente et sanglante en début d’année 2026, faisant des dizaines de milliers de victimes et n’hésitant pas à faire appel à des milices étrangères pour cette basse besogne. Il s’agit de la pire répression de l’histoire de la République islamique. Elle ne peut que lui avoir aliéné encore davantage de citoyens.

Si l’on suit les enquêtes de Gamaan, de nombreux Iraniens faisaient déjà une distinction claire entre, d’une part, l’idée même de l’Iran et, d’autre part, la République islamique. Ils considéraient le régime comme un élément étranger, une force d’occupation. Une opinion exprimée à travers des slogans, tels que « Notre ennemi est ici même, ils mentent en disant que c’est l’Amérique » et « Ni Gaza, ni le Liban, je ne donnerai ma vie que pour l’Iran » – des positions soutenues respectivement par 73 % et 64 % des personnes interrogées lors de l’enquête menée par Gamaan en 2021. On remarquera d’ailleurs qu’en dépit des opérations militaires israélo-américaines qui ont immanquablement provoqué des destructions et fait des victimes civiles, et contrairement à ce qui se passe en général dans ce type de situation, on ne relève actuellement aucun « effet de ralliement » massif autour du régime.

Déjà lors de la « guerre des 12 jours » de juin 2025, environ 44 % de la population tenait la République islamique d’Iran pour responsable du déclenchement de la guerre. 33 % en attribuaient la responsabilité à Israël et 16 % estimaient que les deux parties étaient également responsables. Très inquiet de la situation actuelle, le régime, affaibli et divisé, a d’ailleurs à nouveau fait appel à ses supplétifs étrangers (notamment les milices irakiennes) pour l’aider à maintenir l’ordre — voire faire régner la terreur – face à sa propre population.

Les auteurs de cet article ont co-signé plusieurs ouvrages, dont Histoire de l’Iran contemporain, aux éditions La Découverte, Collection « Repères », dont la troisième édition actualisée est parue en 2024.

L’impératif de la clarté

Le constat d’un rejet massif de la population iranienne à l’égard du régime étant posé, reste à en tirer les conclusions, c’est-à-dire, essentiellement pour l’administration Trump, à déclarer clairement qu’un des objectifs majeurs de l’opération « Epic Fury » est de créer les conditions nécessaires pour permettre un véritable changement de régime. Un message clair et sans ambiguïté accompagné d’une mise en œuvre réelle de cet objectif – en ciblant par exemple spécialement l’aile la plus dure du régime tout en laissant des portes ouvertes à ceux qui sont le moins compromis – pourrait avoir de nombreuses vertus à la fois en direction de la population iranienne et aussi de ce qui reste de l’ancien régime.

Pour la population, ce signal pourrait apaiser l’incertitude actuelle liée aux ambiguïtés de l’administration Trump quant à ses objectifs et au risque que le président américain ne trouve finalement un terrain d’entente avec le régime iranien, comme il l’a fait dans le cas du Venezuela. C’est la plus grande crainte en Iran, étant donné que ce développement laisserait la population en tête-à-tête avec son bourreau de janvier, celui-ci étant avide de prendre sa revanche sur des citoyens qui ne l’ont guère soutenu dans le cadre du conflit. En revanche, la perspective, même plus lointaine, d’un changement répondant aux attentes exprimées par les Iraniens pourrait à la fois les aider à mieux supporter le coût des opérations militaires du fait de l’espoir d’un changement de régime, mais aussi ouvrir la voie à une mobilisation massive au moment opportun.

Par ailleurs, au sein d’un régime qui n’est pas monolithique et unitaire et qui a été affaibli par trente-huit jours de bombardements, ce positionnement clair pourrait avoir pour vertu d’accroître la pression et les divisions déjà visibles au stade actuel, d’instiller le doute et d’inciter aux défections. Comme le relevait récemment Mohsen Sazegara, l’un des fondateurs des gardiens de la révolution, aujourd’hui en exil, une évaluation interne menée par le ministère iranien du renseignement en 2025 indiquait en effet qu’environ la moitié des membres de base des gardiens de la révolution considéraient leur appartenance à l’organisation comme un simple emploi. Ce ne sont donc pas des « jusqu’au-boutistes », surtout si on leur offre une porte de sortie. Parmi l’autre moitié, animée par des convictions idéologiques ou politiques, une large majorité était, selon Sazegara, insatisfaite en raison de la corruption des commandants, des politiques erronées de la direction et du fait que leur organisation avait été dressée contre le peuple.

Ces conditions offrent un large éventail de possibilités et de stratégies pour faciliter un changement de régime et une transition politique. Sazegara note par exemple que les États-Unis pourraient exercer de fortes pressions pour que la création d’un Conseil national de réconciliation – et les étapes qui en découleraient – soit une condition sine qua non de la fin de la guerre. Cela accroîtrait considérablement la pression sur les tenants actuels du régime, non seulement de la part de la population, mais aussi d’une grande partie des structures gouvernementales et des forces armées. Des « figures de rassemblement » pourraient peut-être, dans ce scénario, également jouer un rôle – éventuellement transitoire – dans la mise en place d’un régime alternatif en Iran. Reza Pahlavi a exprimé son souhait de retourner en Iran, mais il a surtout déjà présenté en avril 2025 un plan de transition complet, l’Iran Prosperity Project (IPP), élaboré par une équipe de plus de 100 conseillers et experts. Ce dernier vise à la stabilisation du pays, au maintien des services essentiels ainsi qu’à la préparation à la transition vers un État laïque et démocratique. Les possibilités ne sont donc pas inexistantes.

Encore faudrait-il que Donald Trump choisisse de se montrer clair sur ce point – ce qui est loin d’être acquis. N’en déplaise à son instinct, à une partie de son électorat et à certains commentateurs, malgré les difficultés, les défis et les débats sur la manière d’atteindre cet objectif, il s’agit de la seule possibilité pour à la fois répondre aux attentes de la majorité de la population iranienne et espérer apaiser, à terme, une région qui en a bien besoin. L’autre terme de l’alternative est le maintien du régime actuel, avec sa dérive islamo-militaire. Ce dernier est certes affaibli à court terme. Mais il va demeurer problématique et pour sa population et pour son environnement régional. Il aura sans aucun doute compris que sa meilleure chance de survie est, en interne, de faire quelques concessions tactiques, tout en s’appuyant en réalité sur la force et le contrôle – voire sur des milices étrangères comme il l’a déjà fait – et, à l’international, de développer le plus rapidement possible des capacités nucléaires. Cela lui permettrait de renforcer ses moyens de pression et de contrôle sur le détroit d’Ormuz afin de mieux assurer, en cas de besoin, l’application renouvelée de la politique de prise d’otage de l’économie mondiale, qu’il vient d’expérimenter avec succès dans cette zone.

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.

09.04.2026 à 16:49

Les paysages sonores : un patrimoine naturel méconnu

Cyprian Czaban, Diplômé de l'Université Paris Sciences et Lettres, Sciences Po Paris, Sorbonnne Université, et du Conservatoire à Rayonnement Régional de Paris., Sciences Po
Jérôme Sueur, Professeur, Muséum national d’histoire naturelle (MNHN)
Julie Trottier, Directrice de Recherche au CNRS, spécialiste des territoires palestiniens, ART-Dev, UMR 5281, Université de Montpellier
Ludovic Crochard, Docteur en écologie, Muséum national d’histoire naturelle (MNHN)
Nicolas Hette-Tronquart, chargé de mission recherche
Sylvain Haupert, Ingénieur de Recheche CNRS en écoacoustique, Muséum national d’histoire naturelle (MNHN)
Les paysages sonores font partie de la richesse de notre patrimoine naturel. Ils restent cependant méconnus et peu considérés dans les politiques de conservation de la biodiversité.
Texte intégral (4050 mots)

Les paysages sonores font partie de la richesse de notre patrimoine naturel, ils restent cependant méconnus et peu considérés dans les politiques de conservation de la biodiversité.


Nos journées commencent très souvent par un son, celui d’un réveil qui tressaille, d’une radio qui s’allume, d’un téléphone qui vibre, ou d’une voix qui nous dit « Debout, c’est l’heure ! » Les yeux encore fermés, arrivent déjà d’autres manifestations acoustiques : une porte qui claque, une voiture qui passe, un oiseau qui chante, des voisins qui discutent dans la rue ou sur le chemin.

Même si nous sommes des organismes dont la modalité d’exploration du monde est essentiellement visuelle, nous sommes en constante alerte auditive : nous écoutons, parfois sans nous en rendre compte, pour esquiver, trouver, avancer, communiquer ou, plus simplement, profiter d’une musique.

Nous évoluons en continu dans des environnements sonores composés de vibrations de machines pour nous déplacer ou construire (on parle de « technophonie »), de voix humaines (« anthropophonie »), de vocalisations animales non humaines (« biophonie »), de tapotements de pluie, de bruissements de vent ou de grondements océaniques (« géophonie »).

Chaque mélange acoustique, plus ou moins structuré, plus ou moins agréable, qui peut être terrestre, aquatique ou souterrain, constitue un paysage sonore. Le concept scientifique de paysage sonore est apparu au cours des années 1970, notamment dans le livre le Paysage sonore : le monde comme musique, écrit par le musicien et universitaire canadien Murray Schafer. Le paysage sonore peut être défini comme un ensemble de sons issus de sources vibrantes actives en un lieu donné et à un instant donné.

Il existe une infinité de paysages sonores puisque chaque lieu sur Terre est unique et parcouru à un instant T par un ensemble singulier de vibrations sonores. Ces paysages sonores sont perçus, analysés et interprétés par tous les organismes vivants dotés de récepteurs de pression ou de mouvements de particules, qu’ils soient relativement simples, comme les tympans de certains papillons nocturnes qui détectent les cris des chauves-souris qui les chassent, ou très sophistiqués, comme les oreilles asymétriques de certaines chouettes qui savent localiser très précisément les petits rongeurs dont elles se nourrissent.

Plus généralement, les mammifères, les oiseaux, les amphibiens, les reptiles, les poissons, les insectes, les araignées, les crustacés et même certains mollusques et cnidaires, comme les moules et les méduses, écoutent et analysent les paysages sonores qu’ils traversent et qui les traversent. Chaque interprétation des paysages sonores est également unique puisqu’elle dépend des capacités physiologiques et cognitives de chaque individu.

Forêt de la Reine, Parc naturel régional de Lorraine, 3 mars 2023, 6 heures, chœur matinal des oiseaux. Projet Sonosylva, OFB/MNHN2,29 Mo (download)

Parc naturel régional du Gâtinais français (Essonne), 18 mai 2024, 23 heures, sangliers. Projet Sonosylva, OFB/MNHN2,29 Mo (download)

À lire aussi : Perte d’audition : quand les sons de la nature disparaissent


A l’écoute des forêts protégées de France : le projet Sonosylva

En France, les paysages sonores sont le reflet de la grande diversité des territoires hexagonaux, corses et ultramarins, depuis de simples zones vertes périurbaines, occupées par quelques chants d’oiseaux, jusqu’aux immenses forêts tropicales d’Amazonie truffées de coassements de grenouilles et stridulations d’insectes, en passant par les récifs coralliens des îles du Pacifique crépitants de crevettes pistolets dont la fermeture soudaine de leur pince hypertrophiée produisent des claquements en faisant imploser des bulles d’air.

Un tiers de la surface de ces socio-écosystèmes français est protégé par des structures de conservation de la nature, qu’elles soient locales (arrêtés préfectoraux de protection de biotope, réserves de biodiversité intégrales, réserves nationales naturelles), nationales (parcs nationaux) ou européennes (zones Ramsar, zones Natura 2000).

Ces aires protégées ont été, dans la plupart des cas, construites et délimitées à partir des critères d’inventaire faunistique et/ou floristique, ou d’habitats particuliers, en référence notamment aux directives européennes Habitats-Faune-Flore et Oiseaux. Cependant, de ces espaces émanent des paysages sonores qui forment un patrimoine naturel national méconnu dont les valeurs doivent être définies pour être mieux considérées et protégées.

Afin de répondre aux besoins d’information des politiques publiques et des citoyens sur l’état de la biodiversité, un schéma directeur de la surveillance de la biodiversité terrestre a été publié par le gouvernement français en 2024. Dans ce cadre national, une expérimentation de trois ans menée par l’Office français de la biodiversité (OFB) et le Muséum national d’histoire naturelle (MNHN) a pour ambition de documenter et analyser les paysages sonores des forêts protégées de France hexagonale et de Corse.

Ce projet, Sonosylva, repose sur la collaboration de plus de 200 agents employés dans 80 structures couvrant un ensemble de 110 forêts. Ces acteurs de la préservation de la biodiversité ont installé des magnétophones autonomes au cœur de leur territoire forestier afin d’enregistrer les paysages sonores, une minute tous les quarts d’heure, un jour sur deux, du printemps à l’automne, en 2024, en 2025 et, encore cette année, en 2026. Cet observatoire scientifique participatif recueille chaque saison plus d’un million de fichiers audio, soit plus de 16 000 heures de paysages sonores forestiers.

Situation géographique des 110 forêts enregistrées, situées dans des aires protégées de France hexagonale et de Corse. Document du projet Sonosylva porté par l’Office français de la biodiversité et le Muséum national d’histoire naturelle., Fourni par l'auteur

Si l’analyse de cette immense base de données ne fait que commencer, une enquête a déjà été conduite auprès de 162 participants afin de cerner leur intérêt pour ce patrimoine. Comment les paysages sonores naturels sont-ils perçus ? Peuvent-ils faire partie des politiques de conservation, de préservation et de sensibilisation des aires protégées ?

Une perception des paysages sonores conditionnée par les territoires

La majorité des gestionnaires considère que leurs aires protégées se caractérisent par un paysage sonore unique participant à l’identité et au patrimoine de leurs territoires. Ainsi, l’un des répondants remarque que le site dont il a charge « possède des marqueurs sonores emblématiques et riches (faune, bétail domestique, océan). L’éloignement des zones urbaines et la superficie restreinte de la zone publique nous permet de garder un environnement sonore propice à la quiétude sur site ».

Exemples de magnétophones autonomes installés en cœur de forêt protégée. De gauche à droite et de haut en bas : parc national du Mercantour (Alpes), réserve de biosphère du parc naturel régional Millevaches (Limousin), parc national de forêts (Haute-Marne et Côte-d’Or), zone Natura 2000 du parc naturel régional de la Narbonnaise en Méditerranée, parc national des Cévennes (Ardèche, Gard, Lozère), espace naturel sensible de Siounet (Var), espace naturel sensible des Albières (Aude), parc naturel régional des volcans d’Auvergne, réserve biologique intégrale de la Louvière (Meuse), réserve biologique intégrale de Campagne (Dordogne). Photographies fournies par les partenaires du projet OFB-MNHN Sonosylva., Fourni par l'auteur

Cette empreinte acoustique résulte de l’association de sons naturels et anthropiques, leurs variations spatiales et temporelles étant liées à des facteurs météorologiques, écologiques et sociétaux. Les gestionnaires considèrent par ailleurs les sons dérangeants différemment selon leur ancrage local. Les bruits constants, hors de portée, comme ceux d’une route, d’un couloir aérien ou d’une activité industrielle, sont relativement bien acceptés, pouvant être même considérés comme un simple « bruit de fond ».

Forêt de Crécy, Parc naturel régional Baie de Somme, Picardie maritime (Aisne), 18 avril 2024, 03 h 30, pluie et chouette hulotte. Projet Sonosylva, OFB/MNHN2,29 Mo (download)

Réserve biologique intégrale des Maures (Var), 3 juillet 2024, 13 heures, cigales de l’Orne. Projet Sonosylva, OFB/MNHN2,29 Mo (download)

Les bruits ponctuels, attribués à un dérangement de voisinage, comme ceux d’une circulation locale, de groupes de visiteurs aux discussions un peu intenses ou d’une activité de récréation telle que la musique, sont, eux, appréciés négativement. Il existe donc un traitement bien distinct entre les bruits distants incontrôlables et les bruits de proximité évitables.

Un manque d’actions de sensibilisation et de formation

L’enquête révèle également un décalage important entre l’intérêt croissant des gestionnaires pour les paysages sonores et un sentiment d’impuissance lié au manque de formation et d’applications concrètes ayant un impact sur les politiques publiques nationales ou locales des territoires, comme le note un participant :

« Démarche pertinente, le paysage sonore et la pollution sonore ne sont que peu parcourues dans nos métiers, alors que ce devrait être pris davantage en compte. Me concernant, je ne m’y penche pas faute de compétences. Des initiations ou formations sur ces sujets pourraient être une bonne base. »

La mise en valeur et la protection des paysages sonores semblent de fait difficiles par l’absence de sensibilisation à l’échelle du pays et par un manque de ressources d’aide à la gestion et à la communication sur la valeur sonore des sites protégés. La thématique du paysage sonore est notamment absente des documents les plus essentiels, comme les guides d’élaboration des plans de gestion des espaces naturels (document CT88). Les structures administratives chargées de protéger les espaces naturels souffrent également de ressources humaines et financières limitées, ne permettant pas aujourd’hui de considérer les paysages sonores, leurs richesses et les pollutions qui les menacent, comme des priorités de gestion.

Les nuisances sonores génèrent des conflits

Les bruits liés aux activités humaines dans les aires protégées, notamment les forêts du projet Sonosylva, génèrent des conflits principalement liés à une propriété essentielle du son : il est non exclusif. Il est, en effet, presque impossible d’empêcher un individu, qu’il soit humain ou non humain, d’émettre un son, et il est également très difficile de contrôler la propagation du son dans l’environnement. Le son, quel qu’il soit, n’a pas de frontières : il traverse les paysages de manière incontrôlable. Un paysage sonore n’a pas de cadre comme un paysage visuel, il est fluide plus que solide, il s’écoule plus qu’il ne stagne.

Les gestionnaires font aussi face à une problématique d’échelle dans la gestion des conflits liés aux sons. Certaines décisions d’aménagement national, comme les tracés des nouvelles lignes ferroviaires ou autoroutes, ne prennent pas en compte les conséquences sur le paysage sonore à l’échelle locale.

À l’inverse, les problématiques locales peuvent conduire à des changements nationaux positifs : le récent « exode urbain » a occasionné des conflits de voisinage avec certains néoruraux dérangés par les grenouilles, les coqs ou les cigales ce qui a conduit, en janvier 2021, à l’inscription des sons et des odeurs des milieux naturels et ruraux dans le premier article du Code de l’environnement, en tant que partie du « patrimoine commun de la nation ».

Réserve biologique intégrale de l’Artoise (Aisne), 26 avril 2024, 14 h 45, oiseaux et travaux forestiers. Projet Sonosylva, OFB/MNHN2,29 Mo (download)

Parc naturel régional du Gâtinais français (Essonne), 6 mai 2024, 17 h 15, avion. Projet Sonosylva, OFB/MNHN2,29 Mo (download)

De nouveaux conflits sonores peuvent apparaître dans les aires protégées, mais alors ce sont les visiteurs humains qui sont susceptibles de déranger : bruits de moteurs (voitures, motos, quads), bruits de fêtes (repas, rave parties) ou de voix peuvent à la fois affecter les espèces non humaines et les autres humains venus chercher un espace de quiétude. :

Ainsi, l’un des participants observe :

« Ces dernières années (en lien avec l’augmentation de la fréquentation), de nombreuses perturbations sonores (visiteurs avec des instruments de musique, des enceintes portatives, des chiens très bruyants). Les groupes de visiteurs sont eux-mêmes très bruyants et ne se rendent souvent pas compte de la portée de leur cri et de leur dérangement. »

Et un autre remarque que « des sons de véhicules motorisés sont audibles depuis le site d’installation de l’enregistreur, notamment ceux de motos, qui sont particulièrement perceptibles. On note également plusieurs passages d’avions de chasse par jour au-dessus du site ».

Agir pour les paysages sonores

Il semblerait que nous assistions à une progressive montée de la conscience collective sur l’impact cumulatif des bruits dans la vie quotidienne comme l’illustrent les rapports de l’Agence de l’environnement et de la maîtrise de l’énergie (Ademe), de l’Agence européenne pour l’environnement, et de l’Organisation mondiale de la santé (OMS).

Les gestionnaires témoignent d’une volonté de changement qui se manifeste par la création de conférences ou de colloques sur l’aménagement du territoire de manière à intégrer les paysages sonores dans les politiques publiques de préservation de la biodiversité, dans une perspective « Une seule santé » (« One Health », en anglais). Des réflexions sont aussi en cours, notamment dans l’agglomération de Lille (Nord), afin d’intégrer la trame blanche qui cherche à assurer la continuité sonore au même titre que les trames verte et bleue, brune et noire qui préservent les continuités des habitats, des sols et des ciels nocturnes.

En France, des zones de sensibilisation sont mises en place dans différentes réserves nationales naturelles ou parcs nationaux (démarche Quiet-Attitude dans le parc national du Mercantour), des interdictions d'enceintes connectées, (réglementation du parc national des Calanques), ou encore des actions pédagogiques pour sensibiliser au patrimoine sonore (projet Biodiversité sonore de l’Ana–Conservatoire d’espaces naturels en Ariège).

Cependant, ces actions restent relativement marginales. Afin de mieux intégrer les paysages sonores dans les politiques publiques, nous suggérons une réflexion sur les réglementations afin qu’elles limitent au mieux la présence de bruit. Au-delà de ces règles d’usage, nous proposons la création de zones d’écoute du vivant motivées par l’émerveillement plus que par la proscription.

Dans ces zones d’écoute, il s’agirait de favoriser des solutions de réduction des bruits à la source, en limitant par exemple l’usage des machines (transports) et en suggérant un comportement discret (petits groupes). Déjà expérimentés il y a quelques années par le parc naturel régional du Haut-Jura, ces lieux mettraient en valeur l’existence de paysages sonores remarquables permettant de passer d’un comportement dominant dérangeant à une attitude attentive aux autres et respectueuse des sites et de leurs paysages sonores.

Les paysages sonores constituent aujourd’hui une facette méconnue de notre patrimoine naturel pour laquelle il reste presque tout à faire : intégration dans les politiques publiques d’aménagement du territoire, intégration dans les plans de conservation de la biodiversité à petites et à grandes échelles, et, bien sûr, pédagogie pour tous les publics afin d’améliorer notre écoute du monde vivant.

The Conversation

Julie Trottier est membre de du groupe d'experts sur la tenure de l'eau de la FAO (Nations Unies). Elle a reçu des financements de l'Agence Nationale de la Recherche et de l'Agence Française de Développement.

Cyprian Czaban, Jérôme Sueur, Ludovic Crochard, Nicolas Hette-Tronquart et Sylvain Haupert ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur poste universitaire.

09.04.2026 à 16:48

Mais à quoi sert encore le Livret A ?

Jean-Marc Figuet, Professeur d'économie, ISG Lab, Université de Bordeaux
Souvent critiqué et pourtant toujours aussi populaire. Pourquoi les Français continuent-ils à avoir un Livret A ? À quoi servent les 450 milliards d’euros d’encours qui y sont placés ?
Texte intégral (1866 mots)

C’est un paradoxe : le taux de rémunération du Livret A est régulièrement l’objet de critiques pour sa faiblesse relative. Simultanément, il reste le placement préféré des Français, détenu par 8 sur 10 d’entre eux. Peut-être parce que ce n’est pas qu’une question de rendement financier. Et que ce livret plus que bicentenaire remplit des fonctions essentielles dans l’économie, avec un encours total de… 450 milliards d’euros.


Le Livret A est né le 22 mai 1818, à Paris, avec la création de la première Caisse d’épargne. Depuis, il est le produit d’épargne préféré des Français, puisqu’ils sont près de 57 millions (83 % de la population) à en posséder un aujourd’hui. Au début de 2026, l’encours total frôlait 450 milliards d’euros.

Une popularité sans égal

La popularité du Livret A s’explique par sa simplicité d’ouverture, sa parfaite liquidité, son absence de fiscalité et de risque.

Chaque Français, quel que soit son âge, peut ouvrir un Livret A (et un seul !) dans la banque de son choix avec un capital initial de 10 euros (1,50 euros à la Banque postale), soit le montant du solde minimum. Le plafond est fixé à 22 950 euros. Le Livret A a un quasi « jumeau », le Livret de développement durable et solidaire (LDDS) qui obéit aux mêmes règles, mais avec un plafond maximal de 12 000 euros. Le livret A est également accessible à certaines personnes morales (associations, syndicats de copropriétaires et organismes HLM), mais non aux entreprises.


À lire aussi : Épargne : les Français toujours accro au livret A malgré des envies de risque et de rendement


Les fonds sont disponibles sans préavis à la différence d’autres supports d’épargne, tels que l’assurance vie, c’est dire que c’est un placement très liquide. Le retrait minimal est de 10 euros (1,50 euros à la Banque postale). Il est possible de retirer des espèces directement au guichet ou à un distributeur automatique de billets.

Pas d’impôt et peu de risques

Les intérêts perçus sont exonérés d’impôt sur le revenu et de prélèvements sociaux. Autrement dit, le rendement nominal est strictement égal au rendement brut. Le taux d’intérêt servi à l’épargnant est fixe entre deux semestres. Chaque détenteur peut alors calculer le montant des intérêts (calculés par quinzaine et capitalisés au 31 décembre de chaque année).

Enfin, le Livret A est un actif sans risque, car l’épargne placée est protégée par le Fonds de garantie des dépôts et de résolution en cas de faillite de la banque.

Ces avantages font du Livret A le support privilégié pour l’épargne de précaution des ménages, c’est-à-dire un matelas de sécurité immédiatement mobilisable pour faire face à un imprévu. Pour de nombreux Français, il s’agit d’ailleurs du seul support d’épargne. D’où son caractère singulier. Bien évidemment, ces qualités indéniables sont contrebalancées par un rendement faible qui peut faire l’objet de polémiques.

Un faux débat récurrent

Le taux d’intérêt du Livret A est fixé par l’État qui se réfère au calcul effectué par la Banque de France deux fois par an. Depuis 2021, le taux est la moyenne semestrielle du taux d’inflation (hors prix du tabac) et des taux interbancaires à court terme (€STR), avec un arrondi au dixième de point le plus proche.

Cette formule implique que le taux d’intérêt plancher du Livret A est de 0,5 %. Elle implique également que, à certaines périodes, le rendement réel (taux nominal auquel on retranche l’inflation) du Livret A soit négatif : cela implique une perte de pouvoir d’achat de l’argent ainsi épargné. Ce fut le cas notamment lors de la période post-Covid (voir graphique).

Depuis le 1er février 2026, le taux nominal est ainsi fixé à 1,5 % (contre 1,7 % auparavant), ce qui implique un rendement réel d’environ à 0, 8 %. Du point du seul rendement, le Livret A n’est donc pas le produit le plus intéressant. En comparaison, les contrats d’assurance-vie en euros ont rapporté, en moyenne, 2,65 % en 2025.

Sur la même période, le CAC 40 a progressé de plus de 10 %. Rappelons toutefois qu’à l’inverse le rendement nominal des dépôts à vue est nul, donc toujours inférieur à celui du Livret A.

Une contrepartie

La faiblesse du rendement du Livret A n’est donc que la contrepartie de ses avantages. En détenant des encours parfaitement sécurisés, les épargnants doivent accepter un rendement réel faible. En finance, ce n’est pas vraiment une surprise. Plus de rendement implique nécessairement de prendre plus de risque, comme l’a souligné le Prix Nobel d’économie William Sharpe. Le Livret A est alors un support adéquat pour les épargnants manifestant une forte aversion pour le risque.

La faiblesse du rendement ne doit pas, non plus, occulter le rôle économique et social que joue le Livret A pour l’économie française par l’intermédiaire de la Caisse des dépôts et des banques.

Le rôle de la Caisse des dépôts

Les quelque 450 milliards d’euros placés sur le Livret A ne dorment pas paisiblement. Ils alimentent un circuit de financement de prêts à long terme qui doit simultanément rester liquide pour faire face aux demandes de retraits. Ainsi l’annonce de la baisse du taux au 1er février s’est-elle accompagnée d’une décollecte de 1,87 milliard d’euros en janvier 2026.

Près de 65 % des fonds sont centralisés à la Caisse des dépôts, qui transforme des dépôts liquides en financements longs, notamment par des prêts au logement social et à la politique de la ville. Le Livret A n’est donc pas une caisse fermée. C’est un dispositif de transformation des dépôts liquides en financements longs, sous contrainte de liquidité.

Pour la Caisse des dépôts et sa Banque des territoires, l’enjeu est massif puisque le stock de prêts sur fonds d’épargne atteint 202 milliards d’euros en 2024, dont 180 milliards consacrés au logement social et à la politique de la ville. Pour la seule année 2024, 28,5 milliards d’euros de prêts ont été accordés.

Une ressource structurante

Le Livret A est ainsi une ressource structurante pour le financement du logement social et d’investissements territoriaux de long terme. Concrètement, ces financements couvrent la construction et la réhabilitation de logements sociaux, mais aussi les résidences étudiantes et, dans certains cas, des équipements médico-sociaux, tels que les Ehpad, pour accompagner le vieillissement de la population française.

France Télévisions, 2026.

Mais l’effet du Livret A ne s’arrête pas à la sphère publique. La part non centralisée, soit 35 % des encours, reste au bilan des banques distributrices. Cet autre versant, plus discret, implique que l’épargne réglementée contribue aussi au financement de l’économie.

Le Livret A et le crédit bancaire

La part non centralisée demeure au passif du bilan des banques et constitue une ressource de financement. La loi impose que ces ressources soient orientées vers le financement des petites et moyennes entreprises (PME), de la transition énergétique et de l’économie sociale et solidaire, avec des obligations de reporting public.

La Banque de France chiffre à 245,6 milliards d’euros l’encours conservé au bilan fin 2024. Pour la même année, les prêts nouveaux aux PME atteignent 116,7 milliards d’euros et l’encours total de crédits aux PME 568,5 milliards d’euros. Il s’agit donc d’un fléchage par enveloppe plutôt qu’un « tuyau » euro-pour-euro. En effet, la part non centralisée alimente une enveloppe de ressources au bilan bancaire, et le fléchage se vérifie par des montants agrégés, non par une correspondance euro-pour-euro entre un dépôt et un prêt.

Le Livret A remplit donc une double fonction. D’un côté, il offre aux ménages une épargne de précaution simple et sécurisée. De l’autre, il alimente un circuit de financement collectif, du logement social au crédit bancaire aux PME. Cette ambivalence explique sa place particulière.

The Conversation

Jean-Marc Figuet ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

09.04.2026 à 16:47

La crise écologique est-elle vraiment le produit d’un excès d’humains sur Terre ? Relire « The Population Bomb »

Victor Bianchini, Maître de conférences en sciences économiques, Université Paris 1 Panthéon-Sorbonne
Abdelkader Slifi, Enseignant chercheur en économie, Université Paris Dauphine – PSL
La mort de Paul Ehrlich remet en lumière « The Population Bomb », un ouvrage clé qui a fait de la « surpopulation » une catégorie centrale du débat écologique.
Texte intégral (2184 mots)
*The Population bomb*, écrit en 1968, prédit une famine mondiale au cours des années 1970 et 1980. DrCarrrven/Shutterstock

La mort du biologiste Paul Ralph Ehrlich le 13 mars 2026, a remis en lumière The Population Bomb, un classique de la littérature écologique publié en 1968. Les auteurs rappellent ici que la « surpopulation » n’est pas un simple fait naturel, mais un objet profondément politique. Depuis Thomas Robert  Malthus, la restriction démographique reste un sujet d’actualité brûlant.


The Population Bomb est un ouvrage co-écrit par Paul R. et Anne H. Ehrlich. Wikimedia

Pour la première fois en France depuis 1945, le nombre de naissances est devenu inférieur aux décès en 2025 ; l’indicateur de fécondité atteint 1,56 enfant par femme, son plus faible niveau depuis la Première Guerre mondiale.

Dès 2024, le président Emmanuel Macron appelait à un « réarmement démographique » pour répondre au vieillissement de la population. Dans le même temps, à propos de Mayotte, était soulevée la question de la « surpopulation » ou de la « pression démographique » sur l’île française.

Bien que ces diagnostics portent sur des échelles territoriales différentes, selon les contextes, la population peut être présentée comme une ressource à développer ou un problème à contenir. Le débat n’est pas nouveau. Coécrit par les biologistes américains Paul R. Ehrlich (1932-2026) et Anne H. Ehrlich, The Population Bomb reprend les principaux postulats malthusiens, en les replaçant dans le contexte de la crise écologique.

Alors que le malthusianisme classique fonde l’idée de surpopulation sur la rareté des ressources agricoles, le néo-malthusianisme du XXe siècle l’inscrit dans le cadre plus large des limites environnementales.

Trop d’humains

Anne et Paul Ehrlich coécrivent cet ouvrage dans un contexte marqué par le renouveau du néo-malthusianisme d’après-guerre et par l’affirmation d’une écologie attentive aux limites de la planète, dont témoignera notamment le rapport Meadows de 1972.

Très influent et polémique, l’ouvrage installe une idée devenue familière : les crises alimentaires et écologiques seraient d’abord le produit d’un excès d’humains sur Terre. Si le livre est connu pour ses prédictions catastrophistes, l’essentiel est ailleurs. The Population Bomb a transformé la manière de poser le problème, en présentant la surpopulation comme un fait scientifique, une réalité objective dictée par des contraintes naturelles, et appelant dès lors des réponses politiques fortes.

Leur point de départ est celui de la biologie des populations. Dès le premier chapitre de The Population Bomb – structuré autour « Trop d’humains », « Trop peu de nourriture » et « Une planète mourante » –, ils s’intéressent aux dynamiques de croissance, aux interactions entre population et environnement, ainsi qu’aux contraintes écologiques. L’ouvrage en donne d’emblée la clé de lecture :

« Les Américains commencent à prendre conscience que les pays en développement sont confrontés à une crise démographique et alimentaire inévitable. »

Parmi ces sections, « Trop d’humains » joue un rôle central. La population humaine y est d’abord traitée comme une variable naturelle à l’échelle mondiale, avant d’être envisagée dans ses dimensions sociales, économiques et politiques.

La bataille pour nourrir l’humanité est perdue

Dans The Population Bomb, le constat est sans appel : « la bataille pour nourrir toute l’humanité est perdue ».

Les crises alimentaires ne sont pas d’abord pensées comme des défaillances économiques, mais comme le rapport de l’homme à la nature ; la croissance démographique conduit à une pénurie de ressources. La hausse du prix de la nourriture résulterait de la mise en culture de terres moins fertiles, elles-mêmes conséquence de la croissance démographique :

« Nous savons déjà qu’il est impossible d’augmenter suffisamment la production alimentaire pour faire face à la croissance démographique continue. »

Anne et Paul Ehrlich déploient un registre catastrophiste, fait d’échéances rapprochées, de famines et d’effondrements sociaux. L’argument ne se limite pas aux pays en développement. Les sociétés riches sont aussi concernées, sous d’autres formes :

« Plutôt que de souffrir de pénuries alimentaires, ces pays en subissent les conséquences sous la forme d’une dégradation de l’environnement et d’une difficulté croissante à se procurer les ressources nécessaires pour maintenir leur niveau de vie. »

Cette approche ne signifie pas une absence du politique. La surpopulation est posée comme un fait objectif, quasi indiscutable, issu de lois naturelles, appelant ensuite des réponses politiques fortes. Le débat ne porte pas tant sur la définition du problème que sur les moyens d’y répondre.

Contrôle des naissances

Dans les derniers chapitres de l’ouvrage, Anne et Paul Ehrlich appellent explicitement à l’action coercitive de l’administration des États-Unis plutôt qu’à des mesures incitatives : contrôle des naissances grâce à la contraception, y compris la stérilisation forcée, droit à l’avortement ou réorientation de l’aide internationale.

Dans son discours de 1965, le président états-unien Lyndon Johnson appelait à traiter le problème de l’explosion démographique et de la rareté des ressources avec un contrôle des naissances. La réalité démographique contemporaine est loin d’être homogène. De nombreux pays développés font aujourd’hui face au vieillissement de leur population – Japon, France ou États-Unis –, tandis que d’autres régions concentrent l’essentiel de la croissance démographique mondiale et de la jeunesse. Le nombre d’habitants de l’Afrique subsaharienne pourrait dépasser les deux milliards en 2050.

Surtout, les pressions écologiques ne dépendent pas uniquement du nombre d’habitants, mais aussi des modes de production, de consommation, ainsi que de la concentration spatiale des activités économiques. Deux populations de taille comparable peuvent avoir des impacts très différents.

Effet Malthus

Parler de « surpopulation » ne renvoie jamais à une humanité indifférenciée. Cette catégorie suppose, implicitement, des écarts entre populations selon les territoires et les conditions sociales. Dès l’Essai sur le principe de population de Thomas Robert Malthus, la croissance démographique est pensée comme une loi naturelle. Elle s’accompagne d’une prise de position politique explicite : la critique des politiques d’assistance, notamment les « Poor Laws » accusées d’encourager la reproduction des plus pauvres.

Cette manière de poser le problème ne disparaît pas complètement avec le néo-malthusianisme. Dans The Population Bomb, Thomas Robert Malthus n’est pas mobilisé de manière explicite. Le problème est posé à l’échelle globale, sans désignation de groupes sociaux, tout en orientant implicitement le diagnostic vers certains territoires en développement. Aujourd’hui encore, cette logique se prolonge sous des formes plus diffuses, que certains travaux désignent comme un « effet Malthus ». Concrètement, les inégalités sociales et territoriales sont reformulées en termes apparemment naturalisés, à travers des diagnostics globaux qui évitent de nommer les populations concernées.

Parler d’un monde où il y aurait « trop d’humains » suppose donc, même tacitement, que certaines dynamiques démographiques sont plus problématiques que d’autres.

I = P × A × T

En 1971, Paul Ehrlich proposait avec le professeur de sciences de l’environnement John Holdren une formulation plus large de l’impact environnemental, souvent résumée par l’équation I = P × A × T. Impact environnemental (I) = taille de la population (P), richesse de la population (A) et technologie (T).

Cette équation fait dépendre l’impact environnemental du produit de la population, l’abondance – mesurée par la consommation par tête –, et de la technologie. Cette approche, reprise notamment dans The Population Explosion, reconnaît le rôle des choix économiques et techniques, que l’ouvrage de 1968 tendait à subordonner à la seule dynamique démographique.

Les débats se sont ensuite recentrés sur la mesure des contributions de ces facteurs au réchauffement climatique. Dans les années 1990, l’identité de Kaya permet de mesurer empiriquement les émissions de gaz à effet de serre en les reliant à la population, au produit intérieur brut par habitant, à l’intensité énergétique de la production et au contenu carbone de l’énergie. Plutôt que de se limiter au facteur démographique, elle met en évidence la nécessité de découpler la croissance de la consommation des émissions de gaz à effet de serre, notamment par la décarbonation.

La crise écologique impose des limites à l’exploitation des ressources, mais celles-ci tiennent moins à une supposée « surpopulation » qu’aux impacts environnementaux des modes de production et de consommation sur le climat. Autrement dit, l’enjeu n’est pas tant le nombre d’humains que la manière dont les sociétés organisent production, décarbonation, répartition et sobriété de la consommation des ressources.

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.

09.04.2026 à 16:46

« Biloute », « tchot »… : les mots du Nord à l’épreuve des parlers jeunes

Anne Gensane, Chercheuse en sciences du langage, Université d'Artois
En s’inflitrant dans l’argot des jeunes, certains mots issus du patois du nord de la France pourraient perdurer et gagner une nouvelle légitimité.
Texte intégral (1963 mots)

Les parlers du nord de la France sont-ils en train de se figer en souvenir d’un autre temps ? Ou continuent-ils à se manifester dans les usages contemporains, y compris là où on ne les attend pas ?


À partir d’une enquête de terrain menée dans plusieurs établissements des Hauts-de-France entre 2016 et 2025, il est possible d’observer non pas un retour massif de patois, mais une circulation complexe de quelques formes septentrionales (entendre par là, parlers « du Nord ») au sein de répertoires linguistiques hétérogènes.


À lire aussi : Que reste-t-il de nos argots ?


Dès 1971, le linguiste Pierre Guiraud notait que des mots d’origine dialectale (issus de variétés linguistiques régionales distinctes du français « standard ») pouvaient être relayés par l’argot. Timothy Pooley, autre linguiste, évoquait un peu plus tard une possible « dépicardisation » , soit une disparition du picard – celui-ci étant une langue régionale d’oïl historiquement parlée dans le nord de la France et en Belgique. Faut-il y voir un déclin irrémédiable ou plutôt la transformation d’un héritage ?

Un petit noyau nordiste dans des « parlers jeunes »

Les jeunes du Nord parlent-ils encore « patois » ? Dans les corpus recueillis (listes lexicales co-construites, entretiens, observations) dominent les emprunts à l’arabe, à l’anglais et au rromani. Pour autant, un noyau de régionalismes du Nord persiste et, parmi eux, les substantifs et appellatifs « biloute » (gars, mec) et « tchot » (petit), « chicour » (champion), le déterminant « ch’ », la locution verbale « dire quoi », ou encore le verbe « finquer » (fumer). Le relevé révèle par ailleurs des flottements étymologiques : certaines origines sont discutables – de même que les termes employés pour les décrire : patois, dialecte, régionalisme.

Premier enseignement que nous livre cette étude : ces mots ne subissent aucune manipulation morphologique notable. Par exemple, pas de verlanisation bien connue des pratiques argotiques contemporaines. Là où l’argot contemporain aime à transformer, le régionalisme nordiste est inséré sans cette modification.

Deuxième enseignement : leur vitalité est inégale. « Biloute » et « tchot » sont massivement compris, et encore employés par une partie des locuteurs interrogés en 2025 dans l’étude citée plus tôt. « Finquer » est plus fragile. « Chicour » donne lieu à des définitions divergentes (de « champion » spécialisé uniquement à son sens littéral, à « frimeur »). Pour désigner ces savoirs linguistiques diffus, les linguistes parlent par exemple de « compétence latente », souvent sous-estimée par les locuteurs.

Patrimoine affectif, stigmate social

Les discours épilinguistiques (discours au sujet de la langue) recueillis éclairent cette situation. Les formes régionales sont fréquemment associées à la famille, au « patrimoine » du Nord. Elles relèvent donc d’une mémoire territoriale.

Mais cette valorisation affective coexiste avec une forte dépréciation sociale : l’idée même du « chti », nous informe un lycéen interrogé, renvoie à l’image des « anciens », mais aussi… aux « bouseux ». On oscille alors entre « condescendance et attendrissement », si nous reprenons les mots du linguiste Pierre Rézeau. L’accent du Nord, même s’il n’est pas le seul, fait l’objet de moqueries récurrentes. On retrouve ici ce que Philippe Blanchet nomme la « glottophobie » : la stigmatisation des manières de parler. Le paradoxe est d’ailleurs souvent frappant ; des locuteurs peuvent se moquer d’un accent qu’ils partagent eux-mêmes. L’insécurité linguistique persiste, et explique en partie la faible revendication explicite des régionalismes dans les usages ordinaires.

À l’inverse, les pratiques argotiques contemporaines souvent associées aux « banlieues » bénéficient parfois d’une sorte de prestige paradoxal pour certains jeunes locuteurs interrogés dans la même étude ; elles incarnent souvent (mais pas toujours) l’opposition, et aiment se distinguer par « rupture », au contraire du patois.

Argot et dialecte : un même travail de différenciation

Pour autant, opposer frontalement argot et patois serait simplificateur. Un argot contemporain, comme un dialecte, est localisé, marqué socialement et investi d’une forte charge identitaire. De même, tous deux participent d’un déplacement du Soi par rapport à l’Autre : inclusion des pairs, distinction vis-à-vis de l’extérieur.

Cela peut nous conduire à penser que les régionalismes du Nord intégrés aux « parlers jeunes » n’apparaissent pas comme des fossiles folkloriques, mais fonctionnent plutôt comme des indices discrets de connivence. L’argot peut relever davantage de l’opposition, le patois davantage de la proximité… mais ils partagent un même ressort symbolique.

De nouveaux canaux de légitimation

Les arts et médias contemporains jouent un rôle non négligeable dans ces circulations. Le rap, devenu un genre musical d’importance, agit comme instance de légitimation linguistique. Si des artistes comme Jul ont diffusé des régionalismes méridionaux (« tarpin », « fraté »), certains évoquent très ponctuellement le Nord. C’est ainsi que nous pouvons noter la présence de le « chnord » (présence un tant soit peu erronée, « ch » étant déjà un déterminant), chez Freeze Corleone qui n’est pas du Nord.

Mais nous trouvons aussi notamment les Nordistes BEN plg et ZKR, issus d’un espace urbain identifié comme un foyer actif de production rap et argotique, soit souvent Roubaix, et dont les usages font apparaître des formes localement ancrées (par exemple, « zig » pour désigner un individu), et bien que certaines soient issues, au départ, de ressources empruntées à l’arabe (par exemple, « tneket », qui signifie incroyable). Toutes ces occurrences réinvestissent l’imaginaire territorial du Nord. Nous pourrions également citer le groupe Paula Fargue qui met en valeur patois et accent du Nord.

Les réseaux sociaux ou les publicités contribuent à donner de l’importance à certaines formes. Des expressions virales, portées par des influenceurs ou des émissions de téléréalité, pourraient y acquérir une visibilité nationale.

Les formes régionales y trouvent parfois une nouvelle scène, comme ce fut le cas du mot « drache » dans une campagne publicitaire récente d’une marque de cosmétiques. Ces « tiers » médiatiques modifient l’équation : ce qui était perçu comme ringard peut devenir tendance, à condition d’être adoubé par une figure d’autorité culturelle.

Enfin, nous n’oublierons pas le rôle du dictionnaire : « drache » est justement entré dans celui-ci il y a quelques années, avec la marque lexicographique « régionalisme ». En légitimise-t-il l’usage ?

La publicité peut-elle légitimer un régionalisme ?

Quel avenir pour les parlers septentrionaux ?

Les données recueillies révèlent une ambivalence bien connue de la sociolinguistique : attachement affectif d’un côté, distance sociale de l’autre. Les jeunes interrogés n’expriment pas de crainte de voir disparaître le patois et n’en font pas une cause à défendre. En revanche, ils mobilisent certains mots comme des ressources ponctuelles, souvent chargées d’affect.

Le « renouvellement » dont nous pourrions parler ne prend donc pas la forme d’un retour à un parler dialectal homogène. Il réside dans la réinterprétation au sein d’un répertoire où se côtoient arabe dialectal, anglicismes, rromanismes… et héritages locaux.

À l’heure où les langues sont souvent pensées en termes de concurrence ou de remplacement, cette situation invite à une autre lecture : celle d’une cohabitation mouvante, celle de répertoires linguistiques avec styles à activer en fonction de la situation. Quelques mots résistent, certains voyagent et reviennent par le biais du numérique… et l’accent persiste. C’est peut-être ici que se joue l’avenir des parlers régionaux chez les « jeunes » : moins dans la fidélité déclarée que dans les usages rares mais tenaces, et labiles… vivants, en somme.

Nous n’oublierons pas, quoi qu’il en soit, que le picard (comme le flamand occidental dont nous n’avons pas parlé ici) peuvent être enseignés au sein de l’éducation nationale depuis 2022. On peut donc imaginer que cela contribue progressivement à faire disparaître la possible insécurité voire la honte liée à l’accent ou au vocabulaire patoisant. En acquérant davantage de connaissances sur l’histoire et la richesse de ces pratiques linguistiques, les locuteurs pourraient développer davantage l’envie de son recours, ce qui pourrait donner lieu à un nouvel essor des pratiques linguistiques régionales à observer.

The Conversation

Anne Gensane ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

09.04.2026 à 11:29

Le greenwashing dans la loi : comment repérer les promesses environnementales douteuses ?

Valérie Martin, Cheffe du service Mobilisation citoyenne et médias, Ademe (Agence de la transition écologique)
Frein majeur à la transition écologique, le greenwashing est une pratique largement répandue, mais de mieux en mieux définie et sanctionnée par la loi.
Texte intégral (2131 mots)

Faire le tri parmi les promesses environnementales dont les entreprises nous inondent est devenu quasiment impossible. Pourtant, le greenwashing est une pratique interdite, dont les contours sont de plus en plus strictement définis par la loi. L’Agence de la transition écologique, l’Ademe, propose quelques repères pour le détecter et le combattre.


En octobre 2025, le tribunal judiciaire de Paris condamnait TotalEnergies à « cesser la diffusion de communication trompeuse », ciblant ses allégations d’« ambition de neutralité carbone d’ici 2050 », la société affirmant être une « actrice majeure de la transition ».

Face au flot d’allégations environnementales qui inondent notre quotidien dans la publicité, dans la communication des entreprises en général, sur les réseaux sociaux ou sur les emballages des produits que nous achetons, nous sommes souvent démunis. Comment faire le tri entre les affirmations légitimes et fiables et celles, trompeuses ou mensongères, qui relèvent du « greenwashing » (ou écoblanchiment) ?

Le Larousse définit ce terme, depuis 2023, comme :

« [L’]utilisation fallacieuse d’arguments faisant état de bonnes pratiques écologiques dans des opérations de marketing ou de communication. »

Cette confusion a des effets délétères sur la mise en œuvre de la transition écologique. En effet, le greenwashing dégrade considérablement la confiance des citoyens envers les marques et les pouvoirs publics et décrédibilise, dans le même temps, les efforts réels que certaines structures mettent en place, ce qui pourrait freiner leur engagement.

Heureusement, comme le montre la condamnation de TotalEnergies, le problème ne se résume pas à un enjeu moral : le greenwashing est interdit par la loi. Connaître ses contours juridiques peut nous aider à mieux le repérer et à mieux le combattre. Afin d’encourager davantage les entreprises qui font réellement des efforts en faveur de l’environnement, l’Agence de la transition écologique (Ademe) a élaboré un guide anti-greenwashing, qui doit aider les entreprises à respecter la loi et adopter des pratiques vertueuses.

Un arsenal juridique robuste

Le greenwashing couvre toutes les formes de décalage entre le discours et la réalité des actes, relativement à l’empreinte environnementale de ses produits ou à ses engagements environnementaux dans le cadre de sa démarche de responsabilité sociétale des entreprises (RSE).

À ce titre, il relève légalement de la lutte contre les pratiques commerciales trompeuses. Ces dernières sont interdites par une directive européenne de 2005 et transposées en droit français dans le Code de la consommation.

Depuis, d’autres règles plus strictes ont été adoptées. La France, précurseuse en la matière, a adopté des dispositions contre le greenwashing dans la loi Anti-gaspillage pour une économie circulaire (Agec) en 2020 et la loi Climat et résilience de 2021.

Au niveau européen, la directive de 2024 qui vise à « donner aux consommateurs les moyens d’agir en faveur de la transition verte grâce à une meilleure protection contre les pratiques déloyales et grâce à une meilleure information » doit être transposée en droit français, les nouvelles dispositions devant entrer en application le 27 septembre 2026. Cette directive définit notamment de façon très précise l’allégation environnementale.

Ces textes définissent et encadrent la notion d’allégation environnementale, qui s’étend ainsi à toutes formes de mentions (texte, image, représentation graphique, symbole, label, dénomination sociale ou dénomination de produit…), de communication et toute organisation (y compris des professionnels).

Elles interdisent l’usage de certaines mentions génériques ne pouvant pas être démontrées, comme « biodégradable », « respectueux de l’environnement », « non toxique », « non nocif », « non polluant », « écologique » ou autres allégations similaires. Elles encadrent également strictement certaines affirmations comme « neutre en carbone » ou « recyclable ».

Au-delà de ces lois contraignantes, des textes de « droit souple » (c’est-à-dire, n’ayant pas d’effets contraignants par eux-mêmes) peuvent être pris en compte par les juridictions pour interpréter les textes de loi. Dans cet esprit, l’Ademe a, par exemple, publié un avis d’experts en 2022 sur la communication relative à la neutralité carbone. Cet avis formule un certain nombre de recommandations à l’intention de tous les acteurs du secteur privé et du secteur public.

Enfin, des normes internationales ISO ainsi que des règles déontologiques aiguillent les pratiques de communication autour de l’environnement. C’est par exemple le cas de la recommandation relative au développement durable de l’Autorité de régulation professionnelle de la publicité (ARPP).

Un phénomène d’ampleur encore sous-estimé

En France, c’est la Direction générale de la concurrence, de la consommation et de la répression des fraudes (DGCCRF) qui se charge de détecter et sanctionner les cas de greenwashing. Or, le bilan des enquêtes qu’elle a menées en 2023 et 2024 a mis en évidence l’ampleur du phénomène.

Sur plus de 3 200 entreprises, 15 % des professionnels contrôlés présentaient des manquements graves à la réglementation. Plus de 430 entreprises ont ainsi été gratifiées d’une injonction de mise en conformité et 74 se sont vu infliger des sanctions (amendes administratives ou procès-verbaux). Plus de 500 avertissements ont également été adressés pour des informations manquantes ou imprécises.

Sur le périmètre de la publicité, l’Ademe et l’ARPP réalisent par ailleurs une étude qui porte sur plusieurs centaines de publicités environnementales pendant 4 mois depuis 2007. Selon les années, le taux de visuels non conformes à la recommandation développement durable de l’ARPP varie entre 6 et 12 % – ce qui est beaucoup plus important que dans d’autres bilans thématiques menés par cette instance.

En outre, ces chiffres sont sans doute sous-estimés, car certains supports promouvant ces allégations environnementales demeurent à ce stade mal étudiés. C’est notamment le cas sur les réseaux sociaux (influenceurs), lors des prises de paroles de dirigeants, dans les rapports d’impact ou RSE, sur les sites Web et sur les offres d’emploi.

Les signes d’alerte pour détecter le greenwashing

Preuve que ces pratiques affectent la crédibilité des organisations et en particulier des entreprises, seuls 40 % des consommateurs français déclaraient en 2025 « faire globalement confiance aux marques », contre 58 % en 2004.

Dans ce contexte, il apparaît urgent que les citoyens soient mieux armés pour trier le bon grain de l’ivraie, dans le flot de communications qui les inondent. Face à une allégation environnementale, plusieurs signes peuvent alerter.

De façon générale, il s’agit de se méfier face aux communications qui véhiculent des promesses inappropriées, déloyales et excessives, d’être vigilants vis-à-vis des allégations ambiguës ou mal justifiées, qui n’apportent aucune preuve de ce qu’elles avancent, ou aux messages qui incitent à des comportements ou des modes de vie contraires à la transition écologique, tout en se parant de vertu environnementale.

De même, les éléments sonores ou visuels trompeurs, notamment les belles images et la représentation d’éléments naturels comme l’eau, la forêt, le ciel, le soleil, la banquise, que ce soit en vidéo, en photo, sous forme de pictogramme ou d’émoticônes, sont souvent utilisés pour « verdir » l’image d’un produit, sans que ces vertus ne soient étayées.

Ce qui permet d’identifier les produits plus vertueux

À l’inverse, des signes distinctifs positifs peuvent nous aider à repérer les performances environnementales des produits.

Différents textes législatifs ou réglementaires imposent aux fabricants ou aux importateurs d’indiquer certaines informations de nature environnementale sur les produits qu’ils mettent sur le marché. Ces informations obligatoires, comme l'indice de réparabilité, l'indice de durabilité ou l'étiquette énergie, donnent aux consommateurs les moyens de comparer les produits d’une même catégorie sur la base d’informations comparables relatives à leurs niveaux d'impacts, lors de l'achat des produits concernés (TV, smartphones, lave-linge, ordinateur…).

L’affichage environnemental, prévu par la loi Climat et résilience de 2021, doit permettre d’informer les citoyens sur les impacts environnementaux des produits qu’ils achètent de façon claire et transparente. D'application volontaire et encadrée, ce coût environnemental traduit, sous forme d’une valeur chiffrée, l’impact sur l’environnement tout au long du cycle de vie du produit. Il est, à ce stade, en cours de déploiement sur certaines catégories de produits, mais il est appelé à se généraliser à terme aux principaux produits de consommation et services.

Les labels sont un autre outil qui peuvent nous aider à faire un choix éclairé – autant qu’il peut nous perdre. Pour pouvoir s’y fier, il faut savoir se repérer dans la jungle des labels existants – plus de 350 ont été recensés par l’Ademe. Pour nous guider, l’agence recommande de privilégier en priorité ceux qui sont conformes à la norme ISO 14024 et a dressé 7 critères pour reconnaître un label de confiance. Elle a par ailleurs publié un outil en ligne qui rassemble de façon non exhaustive des labels garantissant vraiment un impact limité du point de vue environnemental, classés par catégories de produits. Il est à noter également que la directive européenne citée plus haut renforce également les règles applicables aux labels en imposant une vérification par un tiers.

Une communication juste et transparente

Certaines entreprises sont tentées, face à ces réglementations, de tomber dans le « greenhushing », c’est-à-dire de réduire fortement toute communication sur les innovations leur permettant de réduire leur impact environnemental pour éviter le problème. Une telle attitude contribuera aussi à freiner la transition écologique : communiquer sur ces avancées est essentiel. Simplement faut-il le faire en ayant conscience que les mots et les images ont un sens et une influence sur les imaginaires, et que cette responsabilité doit être prise en compte.

Pour les aiguiller, des outils comme le guide anti-greenwashing et les tests en ligne existent pour se poser les bonnes questions en amont, renforcer les procédures de relecture et de validation, et renforcer une communication plus responsable. Les entreprises ont tout intérêt à éviter le piège du greenwashing au profit d’une communication juste, responsable et honnête sur les efforts qu’elles font et ceux qu’il leur reste à faire. Il ne s’agit pas de se montrer parfaites, mais d’être transparentes sur les atouts de leurs produits, leurs engagements en matière de RSE et leur marge de progression. C’est le seul moyen de regagner la confiance des consommateurs, mais aussi, en interne, des salariés.

The Conversation

Valérie Martin ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

09.04.2026 à 10:39

Has multilateralism hit a dead end? Could International organisations be collateral damage of the war in Iran?

Theresa Reinold, Professeure assistante de droit international, EDHEC Business School
Once again, in a crisis, the UN and the EU seem to pale into insignificance. Multilateralism may not be dead, but it’s currently at an all-time low…
Texte intégral (1655 mots)

One of the most striking aspects of the war with Iran is the extent to which it has highlighted the irrelevance of international organisations and multilateral approaches to resolving global conflicts.

If we take war as an indicator of the viability of the rules-based international order established after World War II, then we may well conclude that the “patient” is showing a very weak pulse.

The United Nations and the European Union are two organisations that epitomise the post-1945 global normative order – an order which is founded on principles such as the rule of law, non-aggression, and respect for sovereign states’ territorial integrity and political independence.

These principles, and the international organisations that embody then, are among the first casualties of the US-Israeli military campaign. How did this happen and what could be done in order to revitalise the patient?

The United Nations – a tale of a great power struggle and double standards

Beginning with the UN, the war with Iran has made it abundantly clear that the system of collective security system established after 1945 is largely disabled when a major power decides to go it alone. The UN Security Council was designated as the guardian of international peace and security, yet has been paralysed by the veto powers of its permanent members, which have time and again used their influence to shield their own actions and those of their allies from international scrutiny.

When the US and Israel launched strikes against Iran in late February 2026, the Security Council initially failed to come up with any kind of meaningful response, let alone authorise any measures to de-escalate the crisis. Instead, the conflict unfolded outside the framework of international law, with unilateral military actions becoming the norm rather than remaining the exception.

The Security Council eventually adopted a resolution on March 11, which focused narrowly on condemning Iran’s attacks on Gulf states. The resolution, passed with 13 votes in favour and abstentions from Russia and China, labelled Iran’s actions as “egregious attacks” and demanded an immediate halt to its regional aggression.

While the resolution is an important signal that the patient is still alive and that the UN has some residual willingness to protect the fundamental norms on which it was built, the resolution’s one-sided approach underscores the Security Council’s persistent double standards: the resolution makes no mention of the initial US-Israeli strikes on Iran that triggered the escalation, nor does it address the broader context of the conflict, such as the legality of those strikes or the killing of Iran’s supreme leader.

The deafening silence of the UN Security Council in the face of US and Israeli breaches of peremptory international law suggests, once more, the use of double standards and further undermines the credibility of the UN Security Council as the guardian of international peace and security.

However, while the Council is currently more or less paralysed, there is a procedure that could revitalise the UN in this geopolitical crisis, namely the Uniting for Peace procedure.

This mechanism empowers the UN General Assembly in the case of Security Council deadlock. If this has not been used yet in the Iran crisis, it is because there has not been sufficient political will to do so.

The EU: an actor with geopolitical ‘muscle’ but no willingness to use it

Another noteworthy (yet unsurprising) aspect of the Iranian conflict is the complete irrelevance of the European Union as a mediator and peacemaker.

The founding impetus for the EU was to build peace on the basis of multilateral cooperation and the non-violent resolution of disputes.

The EU sees itself as a normative power which seeks to project its values worldwide through the use of soft power but tends to shy away from applying coercion.

Unfortunately, the world we live in is one where the most powerful states in the system have decided that violence is now the preferred tool for pursuing foreign policy objectives – either by removing unfriendly regimes from power or by usurping foreign territories through armed aggression.

In this dog-eat-dog world, Europe seems helpless. The EU was neither consulted in the run-up to the Iran war, nor is it actively taking part in hostilities. Instead, it is watching from the sidelines, issuing futile calls for restraint and sabotaging itself in internal quarrels. This is regrettable, given Europe’s historical leadership in negotiating the Iran nuclear deal.

Why does the EU find itself watching from the sidelines in the most important geopolitical event of 2026?

For one, because it – again – has failed to speak with one voice. Member states have adopted divergent positions, with some expressing support of US-Israeli actions and others calling for restraint.

Spain, for instance, has risked open conflict with the Trump administration over the use of its military bases for the war effort, while other critical players, including Germany and France have expressed a certain degree of sympathy for the air strikes.

While it is easy to criticise the EU for its lack of unity on important geopolitical questions, this multiplicity of voices is actually an intended design feature of this hybrid entity, which combines both supranational and intergovernmental elements in its institutional architecture.

At the same time, this design feature actively undermines EU agency in important geopolitical matters. Another factor condemning the EU to futility in geopolitical crises is Europe’s dependency on the US for security and the lack of a common defence policy underpinned by a European army.

However, the biggest obstacle to EU agency in geopolitics is neither institutional nor material. It is psychological. There is no will to lead, no will to use a muscular approach to counter Trump’s blatant disregard of multilateralism and international law (values that are at the heart of Europe’s identity), and a naive belief that the transatlantic relationship will somehow repair itself.

Instead of leveraging its economic and diplomatic weight to push back against unilateral US actions, the EU has often defaulted to reactive, conciliatory gestures, hoping that transatlantic harmony will somehow be restored by goodwill alone. This reflects a fundamental miscalculation: the belief that the US, under Trump or any other leader, will eventually recognise and reward European loyalty, even as Washington’s actions demonstrate the opposite.

The good news is that this can be changed. Mindsets can be changed, identities can be reconstructed, and agency can be built.

The patient is weak, yet there is hope

So no, multilateralism isn’t dead. International organisations such as the UN and the EU have not only put in place norms and mechanisms that would allow them to play a critical role in geopolitical crises, they also have enormous resources at their disposal that would enable them to play such a role.

The patient’s pulse is thus weak, but there are effective remedies available to strengthen it. Now, we must muster the political will to implement them.


A weekly e-mail in English featuring expertise from scholars and researchers. It provides an introduction to the diversity of research coming out of the continent and considers some of the key issues facing European countries. Get the newsletter!


The Conversation

Theresa Reinold ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

50 / 50

 

  GÉNÉRALISTES
Ballast
Fakir
Interstices
Issues
Korii
Lava
La revue des médias
Time [Fr]
Mouais
Multitudes
Positivr
Regards
Slate
Smolny
Socialter
UPMagazine
Le Zéphyr
 
  Idées ‧ Politique ‧ A à F
Accattone
À Contretemps
Alter-éditions
Contre-Attaque
Contretemps
CQFD
Comptoir (Le)
Déferlante (La)
Esprit
Frustration
 
  Idées ‧ Politique ‧ i à z
L'Intimiste
Jef Klak
Lignes de Crêtes
NonFiction
Nouveaux Cahiers du Socialisme
Période
 
  ARTS
L'Autre Quotidien
Villa Albertine
 
  THINK-TANKS
Fondation Copernic
Institut La Boétie
Institut Rousseau
 
  TECH
Dans les algorithmes
Framablog
Gigawatts.fr
Goodtech.info
Quadrature du Net
 
  INTERNATIONAL
Alencontre
Alterinfos
Gauche.Media
CETRI
ESSF
Inprecor
Guitinews
 
  MULTILINGUES
Kedistan
Quatrième Internationale
Viewpoint Magazine
+972 mag
 
  PODCASTS
Arrêt sur Images
Le Diplo
LSD
Thinkerview
🌞