LePartisan.info À propos Podcasts Fil web Écologie Blogs REVUES Médias
The Conversation – Articles (FR)
Souscrire à ce flux
L’expertise universitaire, l’exigence journalistique

ACCÈS LIBRE UNE Politique International Environnement Technologies Culture

▸ les 50 dernières parutions

22.11.2024 à 13:15

Menaces nucléaires russes : Apocalypse now ?

Cyrille Bret, Géopoliticien, Sciences Po

La frappe du 21 novembre contre Dnipro et les menaces destinées à l’Occident formulées immédiatement après par Vladimir Poutine ne doivent susciter ni la panique, ni l’indifférence.
Texte intégral (2538 mots)

Peu après l’autorisation donnée par Joe Biden à Kiev d’utiliser des armes fournies par les Américains pour frapper en profondeur le territoire russe, Vladimir Poutine a modifié sa doctrine nucléaire, frappé le territoire ukrainien avec un missile balistique vide mais capable d’emporter une charge nucléaire – ce qui est sans précédent – et tenu un discours solennel dans lequel il a ouvertement menacé les alliés de l’Ukraine. Quelle posture faut-il adopter face à cette nouvelle montée des tensions ?


L’apocalypse nucléaire n’est pas pour demain en Europe mais un cran a incontestablement été franchi dans les menaces nucléaires proférées par la Russie. L’adoption d’un nouveau décret sur la doctrine nucléaire le 19 novembre et l’utilisation d’un missile balistique RS26 le 21 novembre contre l’Ukraine – que Vladimir Poutine a justifiée quelques heures plus tard par la nécessité de répondre à des tirs de missiles ATACMS (d’origine américaine) par les forces armées ukrainiennes contre le territoire russe dans la région de Briansk – exigent une analyse lucide.

Selon les termes du général Schill, chef d’état-major de l’armée de terre française, il s’agit d’un « signalement stratégique » important. Il doit être décrypté comme tel, avec gravité mais sang-froid.

Sommes-nous à la veille d’une attaque nucléaire sur l’Ukraine ? Ou, pour le dire en termes techniques, la Russie a-t-elle abaissé drastiquement le seuil de déclenchement d’un tir nucléaire ?

La menace est crédible car elle provient d’un État qui possède têtes nucléaires et vecteurs en grand nombre, une chaîne de commandement fonctionnelle et une doctrine établie. Kiev et ses soutiens font aujourd’hui face non pas à une attaque nucléaire imminente mais à une mise en garde pressante : toute attaque d’ampleur sur le territoire russe exposera l’Ukraine à des représailles, y compris nucléaires. Écouter et comprendre les déclarations russes n’est pas s’en faire le porte-voix et encore moins l’avocat. C’est une précaution indispensable pour assurer la sécurité des Européens.

Vers la fin du tabou nucléaire en Russie ?

Évaluer le risque nucléaire est toujours extrêmement délicat car ce risque comporte tout à la fois un absolu et une gradation.

Son caractère absolu tient au fait que les armes nucléaires ont un potentiel militaire de destruction sans équivalent dans le domaine conventionnel et un poids politique qui confine au tabou depuis leur utilisation par les États-Unis contre le Japon les 6 et 9 août 1945. Risque absolu, mais réalisation graduée : pour produire ses effets, la dissuasion nucléaire exige une doctrine solide, complexe, crédible et en partie publique, comme le rappelle Bruno Tertrais dans Pax Atomica (Odile Jacob, 2024). L’escalade nucléaire est lente, jalonnée et démonstrative.

Avec le nouveau décret sur la doctrine nucléaire adopté le 19 novembre puis le tir assumé contre la ville ukrainienne de Dnipro d’un missile balistique vide mais capable d’emporter une charge nucléaire et la déclaration subséquente de Poutine selon lequel la Russie s’estime en droit de frapper « les installations militaires des pays qui autorisent l’utilisation de leurs armes contre nos installations », Moscou s’est-elle réellement rapprochée de l’utilisation d’armes nucléaires contre l’Ukraine et/ou contre ses soutiens occidentaux ? En déclarant que le conflit en Ukraine prenait une dimension mondiale, Poutine prépare-t-il une Troisième Guerre mondiale inaugurée par une frappe nucléaire ?

Rappelons que l’invasion de l’Ukraine a été placée, depuis son lancement en février 2022, sous l’ombre de la menace nucléaire.

Au fil du conflit, le président russe, ses ministres de la Défense, son ministre des Affaires étrangères et son porte-parole ont régulièrement rappelé que la Russie était un État nucléaire, qu’elle disposait d’un tiers des têtes nucléaires au monde, qu’elle maîtrisait plusieurs vecteurs ou types de missile pour les mettre en œuvre et qu’elle était disposée à relever le niveau d’alerte et de mobilisation de ses forces nucléaires. Ces déclarations n’ont pour autant jamais été suivies d’effets militaires. Plusieurs analystes ont dès lors estimé qu’il s’agissait d’effets de manche, de propagande sans contenu concret ou de gesticulations.

Il est vrai que, jusqu’ici, ces menaces répétées n’ont – heureusement – pas été mises à exécution. Pour autant, une telle hypothèse est-elle à absolument écarter ? Et envisager que la Russie puisse utiliser l’arme suprême entraverait-il par définition le soutien occidental à la défense de l’Ukraine ?

C’est tout le contraire : entendre et comprendre cet avertissement n’est pas céder au chantage. C’est déchiffrer la grammaire complexe mais explicite de la dissuasion nucléaire russe.

Les messages envoyés par le Kremlin cette semaine sont clairs. Analysons les principales évolutions que comporte le décret présidentiel sur la doctrine nucléaire du 19 novembre : à l’article 11 de ce décret, la Russie s’ouvre la possibilité de répliquer par l’arme nucléaire à une attaque contre son territoire conduite par un État non nucléaire soutenu par un État nucléaire. Ce changement n’est ni cosmétique ni révolutionnaire. La doctrine nucléaire russe est constante dans son fondement : l’arme nucléaire peut être utilisée si l’existence de l’État ou le territoire de la Fédération sont menacés par des armes étrangères. Une attaque massive menée contre eux exposera donc l’Ukraine et ses fournisseurs d’armes à des répliques, y compris nucléaires.

La ligne rouge est nette : la Russie a pu faire face à l’opération militaire terrestre limitée dans l’oblast de Koursk, mais elle ne laissera pas se prolonger les attaques de missiles en profondeur sur son sol comme celles qui ont visé il y a quelques jours une base dans la région de Briansk.

La Russie frappée par 6 missiles ATACMS|LCI, 19 novembre 2024.

Plus largement, tout risque d’invasion ou de tentative de changement de régime depuis l’extérieur peut donner lieu à une réplique nucléaire. Le tir du missile RS-26 sans tête nucléaire contre la ville de Dnipro le 21 novembre renforce dans les actes la crédibilité de cette doctrine, dont la Russie rappelle ainsi qu’elle ne se réduit pas à une posture de papier. Car il ne s’agit plus, pour Moscou, de la victoire ou de la défaite en Ukraine. Il s’agit de la protection de son territoire et donc de l’autorité de l’État.

Toute la difficulté est aujourd’hui de résister à la panique nucléaire sans céder à la négligence politique ou à l’interprétation non informée. Depuis 2022, la Fédération de Russie a placé son offensive sous protection nucléaire. Aujourd’hui, elle place la défense de son territoire (et de ses bases militaires) sous ce même parapluie. C’est odieux, mais rationnel. En effet, les menaces nucléaires ont permis à la Russie depuis 2022 (et en réalité depuis 2014) d’engager un affrontement bilatéral avec l’Ukraine sans s’exposer à la mise sur pied d’une coalition internationale comme celle qu’a affrontée la Serbie dans les années 1990. Elles lui ont permis, également, de réduire les capacités opérationnelles des armements occidentaux fournis à l’Ukraine. En somme, la menace nucléaire a contraint les Européens et les Américains à s’en tenir à soutenir l’auto-défense de l’Ukraine sans chercher ni la victoire en Russie ni le changement de régime au Kremlin. Ce parapluie nucléaire russe a profondément façonné les modalités du conflit et la forme du soutien occidental à la légitime défense ukrainienne.

Écouter Poutine sans lui céder

En Europe et aux États-Unis, on a souvent tendance à minimiser les déclarations du président russe et de ses principaux ministres. Lire et écouter leurs propos passe souvent pour un signe de naïveté, voire pour un acte de trahison. Pourtant, il y a loin de la compréhension à la complaisance et à la compromission.

Bien entendu, dans un rapport de force stratégique, il est essentiel de ne céder ni à la panique ni au chantage. Il serait inacceptable d’accepter toutes les revendications de la Russie au motif qu’elle est une grande puissance nucléaire, un membre permanent du Conseil de Sécurité des Nations unies, un leader revendiqué du Sud Global ou l’allié le plus puissant de la République populaire de Chine. Renoncer au rapport de force aurait conduit l’UE à ne pas s’élargir aux anciennes démocraties populaires (Pologne, Tchéquie, Slovaquie, Hongrie, Roumanie, Bulgarie) et aux anciennes Républiques socialistes soviétiques (Estonie, Lettonie, Lituanie). Le cours de la construction européenne aurait été interrompu, les aspirations des peuples souverains d’Europe orientale auraient été bafouées et la sécurité du continent aurait été rendue précaire. Face à la Russie, la fermeté diplomatique est essentielle pour faire face à la rhétorique révisionniste.

Toutefois, il est symétriquement irresponsable d’organiser une surdité volontaire envers les déclarations officielles russes, au motif qu’elles constitueraient une propagande vide de contenu. Les relations entre, d’une part, la Fédération de Russie et, d’autre part, les forums occidentaux (UE, OTAN, G7-8, etc.) sont marquées par une incompréhension qui dépasse la simple résistance aux revendications russes : ne pas écouter les discours de Moscou conduit souvent les Occidentaux à des erreurs de jugement stratégique.

Plusieurs discours jalonnent cette route faite de malentendus, de mésinterprétations et de propagande.

Le discours de Vladimir Poutine à la Conférence sur la Sécurité de Munich en 2007 a été tout à la fois surévalué et sous-évalué : le président russe y traçait ses lignes rouges, notamment la non-extension de l’OTAN à ses frontières et son refus des systèmes de défense anti-missiles autour de la Fédération de Russie. Certains l’ont surestimé, au sens où ils y ont vu – surtout a posteriori – l’annonce d’une entrée en guerre différée contre l’OTAN et le premier jalon d’une route conduisant inéluctablement à la confrontation.

Mais d’autres ont considéré qu’il s’agissait de menaces vaines de la part d’un État ayant rejoint le consensus occidental en raison de sa propre faiblesse : la Russie était en effet alors associée à l’OTAN dans le cadre du Conseil OTAN-Russie, au G7 avec la création du G8, et à l’OMC. Moins qu’un programme révisionniste mais plus qu’une simple protestation, il s’agissait d’une revendication sur la zone d’influence que la Russie considère comme vitale. Face à une revendication, rien n’est pire que l’abdication… si ce n’est la négligence.

Autre exemple de surdité : la réception de la déclaration d’entrée en guerre contre l’Ukraine. La volonté affichée de « dénazifier » l’Ukraine a paru si insensée en Occident qu’elle a rapidement été rangée au rayon des prétextes historiques grotesques pour justifier l’injustifiable. Ce tumulte idéologique paraît inévitablement délirant à ceux qui ne connaissent pas le détail de la Seconde Guerre mondiale dans cette partie de l’Europe. Surtout, il a masqué les autres messages du président russe : le but de son invasion était d’éviter un élargissement de l’OTAN et de l’UE dans un pays limitrophe de la Fédération de Russie. Le recours aux armes pour entraver la souveraineté d’un pays est inacceptable – sans discussion. Mais prêter une oreille attentive – non complaisante – à cette déclaration aurait permis de saisir la portée réelle de l’invasion.

Mesurer la résistance à la Russie n’est pas trahir l’Ukraine

La posture adoptée ces derniers jours par Vladimir Poutine n’est ni une gesticulation vide ni un engrenage vers l’apocalypse nucléaire. C’est un ensemble d’actions destinées à rappeler, par la menace, la crédibilité de la dissuasion russe. Un signalement stratégique brutal et net. Il ne s’agit pas d’un bluff ou d’un coup de poker, mais d’une montée en puissance dans un bras de fer ancien.

Face à ces actes et à ces propos, les Européens doivent conserver leur posture stratégique : l’utilisation de l’arme nucléaire contre un État non nucléaire est inacceptable ; l’invasion et l’occupation de l’Ukraine sont illégales ; la stratégie des sanctions économiques, diplomatiques et politiques contre la Russie est justifiée et adaptée ; les attaques militaires directes contre le territoire et le régime russe doivent être évitées dans la mesure où elles exposent l’Ukraine et l’Europe au feu nucléaire.

Le soutien des Européens à la souveraineté ukrainienne ne peut être efficace s’il s’aveugle : la menace nucléaire russe doit être prise au sérieux mais elle peut toujours être contrée. Dans la présente crise, l’essentiel pour les Européens est de conserver leur posture stratégique et de renforcer leurs outils de pression tout en décryptant correctement les signaux russes.

The Conversation

Cyrille Bret ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

21.11.2024 à 17:21

Mercosur : les agriculteurs soumis à une concurrence déloyale et à des contradictions toujours plus fortes

Bertrand Valiorgue, Professeur de stratégie et gouvernance des entreprises, EM Lyon Business School

Xavier Hollandts, Professeur de stratégie et entrepreneuriat, Kedge Business School

Les agriculteurs français se mobilisent contre le Mercosur. Les normes sanitaires et environnementales imposées par l’Europe ne sont pas exigées en Argentine, au Brésil, en Uruguay et au Paraguay.
Texte intégral (1318 mots)

L’accord de libre-échange avec le Mercosur (Argentine, Brésil, Uruguay et Paraguay) pourrait être adopté en décembre 2024 par l’Union européenne. En France, les agriculteurs français se mobilisent pour s’opposer à cette décision. Les normes sanitaires et environnementales imposées aux agriculteurs européens ne sont pas respectées par les pays du Mercosur. Cette différence a des conséquences importantes sur les coûts de production. L’Europe envoie donc un message contradictoire, demandant aux agriculteurs de respecter des normes strictes tout en ouvrant ses portes à des produits bien moins contrôlés.


L’agriculture française (et européenne) est l’une des plus sûres au monde grâce aux normes sanitaires et environnementales imposées par le régulateur français et européen.

Une simple comparaison des pratiques agricoles actuelles avec celles des années 1990 permet de prendre la mesure de ce saut qualitatif (abandon de certaines molécules, prise en compte de la biodiversité, qualité de l’alimentation du bétail, par exemple).

On a tendance à oublier que ces démarches d’amélioration ne se réalisent pas sans investissements ni surcoûts. La substitution d’une technique de production par une autre n’est pas qu’un simple changement d’habitude.

C’est un investissement, un apprentissage et un risque nouveau qu’il faut apprendre à gérer.

On oublie aussi régulièrement que ces investissements et surcoûts sont très difficilement répercutés sur les prix, du fait de la structure et du fonctionnement des marchés des matières premières agricoles.

Un agriculteur soucieux de l’environnement et de ses pratiques n’est pas un agriculteur qui est mieux rémunéré. C’est un agriculteur qui doit fournir un effort supplémentaire qui n’est pas intégré dans le prix de vente des denrées alimentaires qu’il produit.

Cette dure loi économique, que l’on retrouve dans le secteur agricole, porte le nom d’« effet tapis roulant ». Elle a été introduite pour la première fois par l’économiste Willard Cochrane.

« L’effet tapis roulant »

Pour rester compétitifs et présents sur les marchés, les agriculteurs doivent procéder à des investissements et à l’incorporation de nouvelles technologies qui les rendent plus productifs. Cela engendre une plus grande disponibilité de denrées alimentaires commercialisées sur les marchés des matières premières et une baisse concomitante des prix.

Il faut alors procéder à de nouveaux investissements et à l’incorporation de nouvelles technologies pour rester sur le marché. On a, à l’arrivée, des agriculteurs toujours plus efficients mais dont les rémunérations stagnent. Ils doivent toujours courir plus vite sur le tapis roulant sans que leurs situations économiques progressent pour autant.

Le même effet (tapis roulant) s’observe au niveau de la préservation de l’environnement.

Les agriculteurs incorporent des normes environnementales toujours plus exigeantes sans jamais bénéficier d’augmentation des prix.

L’UE en pleine contradiction

La signature du traité de libre-échange du Mercosur touche directement à cette question en faisant entrer sur le territoire européen et français des denrées alimentaires produites selon des normes bien moins strictes, voire tout simplement interdites aux agriculteurs hexagonaux : utilisation d’antibiotiques comme activateurs de croissance, variétés issues de la transgénèse, farines animales, recours à certaines molécules chimiques, culture de céréales génétiquement modifiées…

Cet accord pourrait contribuer à déverser sur le marché français et européen des matières premières agricoles et des denrées alimentaires moins chères et produites dans des conditions peu soucieuses de l’environnement et dans des proportions très significatives.

Liste des matières premières agricoles concernées par le traité Mercosur :

  • 99 000 tonnes de viandes de bœuf

  • 160 000 tonnes de viande de volaille

  • 25 000 tonnes de viande porcine

  • 180 000 tonnes de sucre

  • 650 000 tonnes d’éthanol

  • 45 000 tonnes de miel

  • 60 000 tonnes de riz

Si le traité venait à être ratifié, les filières et les agriculteurs concernés devront faire face à une concurrence déloyale et un dumping environnemental orchestré par l’Union européenne qui au même moment renforce ses exigences environnementales et sanitaires à l’égard des producteurs agricoles localisés dans la zone Europe.

Cette réalité brutale pousse les agriculteurs français et européens à descendre dans la rue afin de dénoncer une concurrence déloyale, réalisée au détriment de l’environnement et de leurs exploitations. L’Europe envoie un message contradictoire à ses agriculteurs, leur demandant de respecter des normes strictes tout en ouvrant ses portes à des produits bien moins contrôlés.

Elle accélère de la sorte la vitesse de rotation du tapis roulant tout en augmentant les charges que doivent supporter les agriculteurs. Ces derniers progressent de manière continue sur le respect de l’environnement sans que les marchés récompensent les efforts accomplis.

Quand les contradictions deviennent insoutenables

L’opposition des agriculteurs français à l’égard du Mercosur est emblématique d’une inquiétude croissante à l’égard des politiques menées par l’Europe.

La littérature sur le management des paradoxes a montré qu’à partir d’un certain niveau de contradiction, les acteurs exposés à des injonctions paradoxales s’engagent dans des dynamiques de repli et de contestation de l’autorité jugée comme étant à l’origine de la situation dans laquelle ils se retrouvent plongés.

Quand le niveau de contradiction est trop fort, la conflictualité devient la seule issue possible afin de retrouver une situation plus équilibrée et cohérente.

La contestation des agriculteurs à l’égard du traité Mercosur est révélatrice d’un niveau de contradiction fabriqué par les politiques de l’Union européenne que les agriculteurs français n’arrivent plus à supporter.

Ce niveau de contradiction est vécu avec intensité par les agriculteurs français qui mettent une pression politique sur leur gouvernement.

Il en va autrement dans les autres pays européens, comme l’Allemagne ou l’Espagne, favorables à l’accord avec le Mercosur. Sans mouvement des agriculteurs à l’échelle de l’Union et sans veto d’au moins 4 pays de l’Union européenne, il est probable que le traité soit validé en décembre prochain.

Cette ratification placerait les agriculteurs français dans un grand désarroi et enclencherait de nouveaux mouvements de contestation susceptibles d’être de plus en plus virulents.


Frédéric Courleux, agroéconomiste et conseiller au sein du Parlement européen, est co-auteur de cet article

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.

21.11.2024 à 17:21

Loin des clichés : les gladiateurs coopéraient pour survivre

Jérôme Ballet, Maître de conférences en sciences économiques et éthique, Université de Bordeaux

Damien Bazin, Maître de Conférences HDR en Sciences Economiques, Université Côte d’Azur

Sous Auguste, les gladiateurs n’étaient pas des combattants sanguinaires sans scrupules, mais des travailleurs coopérant les uns avec les autres pour augmenter leurs chances de survie.
Texte intégral (1524 mots)

24 ans après Gladiator, Ridley Scott signe le retour de son protagoniste tout en muscles. Dans les salles depuis le 13 novembre 2024, Gladiator II dépeint un personnage héroïque et franc-tireur. En réalité, l’entraide et la solidarité ont parfois été au cœur du système des gladiateurs.


Les gladiateurs sont souvent perçus comme des figures héroïques, capables, par leurs exploits et leur courage, de gravir les échelons de la société pour accéder à la liberté et à la richesse. Une ascension sociale qui aurait un prix : un engagement physique total dans le combat, avec un risque de mort omniprésent.

Les gladiateurs étaient assez éloignés de la vision romantique dépeinte dans les péplums ou dans les films à gros budgets. Plusieurs conditions sociales coexistaient : prisonniers de guerre, criminels condamnés à mort mais de naissance libre, forçats obligés de purger leur peine sous le statut de gladiateurs, et engagés volontaires (dans une moindre mesure).

Devenir gladiateur nécessitait un apprentissage et le respect de règles, cela se rapprochait de l’exercice d’un métier. De nombreuses écoles impériales de gladiateurs existaient : Ludus Magnus, Dacius, Matutinus et Gallicus, pour n’en citer que quelques-unes. Elles assuraient une professionnalisation qui devait permettre de concilier spectacle (durée et beauté du combat) et survie des intervenants.

Du sang, mais pas trop

Sous Auguste, le premier empereur romain (27 av. J.-C. à 14 apr. J.-C.), les combats étaient une représentation théâtrale. A cet effet, les combattants devaient garantir un spectacle de qualité devant un public exigeant. Il s’agissait d’assurer le « show » avec ce qui peut ressembler de nos jours à une chorégraphie (précision du geste, diversité des armes « spectaculaires » et des techniques de combats). L’objectif des gladiateurs n’était pas de trucider l’adversaire mais de proposer un divertissement. Ainsi, il n’était pas rare d’opposer un combattant lourdement équipé à un adversaire légèrement armé (évoquant le duel entre David et Goliath). Techniquement, les assauts étaient maîtrisés et on s’assurait que les armes n’étaient pas trop affûtées. Il s’agissait surtout de provoquer des blessures qui conduisaient à l’abandon d’un des combattants. Les coups fatals étaient plutôt rares.

Certes, les combats étaient sanglants, mais sous Auguste, le sang coulait avec mesure, car il s’agissait de garder les gladiateurs en état de combattre et de les maintenir « en forme » afin qu’ils puissent divertir les citoyens venus assister en nombre aux combats.

Le combat : un spectacle encadré

Assez rapidement, les combats sont devenus des activités économiques comparables à ce qu’une entreprise dans le secteur du spectacle peut représenter de nos jours. Tout était organisé comme une attraction : musique, contrôle des billets, « chauffeurs » de salle… Les ambulanciers étaient grimés en démons et transportaient les combattants sur des civières pour assurer une touche burlesque. Boissons et nourritures circulaient dans les gradins.

La qualité du spectacle se jaugeait au travers du respect de règles. À cet égard, toute une « équipe » s’efforçait de livrer au public une « prestation de qualité ». Les gladiateurs n’étaient que la partie visible de l’iceberg. Chaque membre de l’équipe était hautement valorisé. Dans l’arène, des arbitres de jeu faisaient respecter les règles. Mais c’est le président (juge-arbitre) qui détenait le pouvoir décisionnaire et souverain sur la vie et la mort des « sportifs ». En cas de désinvolture dans le combat, le président pouvait demander que le fouet, le fer et le feu soient préparés en guise d’avertissement.

Sous l’empereur Auguste, si le vaincu reconnaissait sa défaite et demandait pitié au vainqueur, le vaincu avait habituellement la vie sauve, sous condition que le combat fut de qualité. Dans le cas contraire, le corps arbitral pouvait refuser la demande de clémence et réclamer une prolongation afin qu’une mise à mort survienne.


À lire aussi : Spartacus, célèbre gladiateur, était-il un révolutionnaire ?


Plusieurs recherches ont ainsi souligné le dilemme auquel étaient confrontées les parties prenantes qui vivaient de la gladiature : inciter à un combat esthétique et dramatique (donc violent, avec un risque de mort important après de multiples blessures) ou recommander un combat minimisant le risque de décès.

Pour trouver cet équilibre, il était essentiel que le spectacle soit de qualité… Et les gladiateurs coopéraient pour s’en assurer.

Coopération et ancêtre de mutuelle

En tant que professionnels dont l’objectif était de gagner de l’argent, de la gloire, tout en survivant, les gladiateurs s’organisaient pour que l’objectif des combats ne soit pas la recherche de la mort. Les premières formes de coopération entre gladiateurs semblent s’être structurées au travers de sodalitats (confréries) religieuses. Grâce à cette entente, sous l’empereur Auguste, les combats obéissaient à des règles tacites convenues entre les « écuries » de gladiateurs avant les combats, garantissant une durée suffisante, une diversité des techniques favorisant l’esthétisme du spectacle, tout en étant « raisonnablement » violent pour ne pas apparaître comme une simple mise en scène.

[Déjà plus de 120 000 abonnements aux newsletters The Conversation. Et vous ? Abonnez-vous aujourd’hui pour mieux comprendre les grands enjeux du monde.]

Certaines ententes dépassaient même ce cadre, se rapprochant à certains égards d’un système de solidarité mutuelle. Au sein des Familiae gladiatoria (troupes de gladiateurs), il n’était pas rare que les guildes de gladiateurs (sorte d’associations de gladiateurs) se réunissent pour discuter de la prise en charge de frais d’obsèques de l’un d’entre eux, lorsque la mort survenait durant les jeux ou à la suite de blessures.

Loin d’être des héros solitaires, sous Auguste, les gladiateurs avaient mis la coopération au cœur de leur (sur)vie.

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.

21.11.2024 à 17:20

Au-delà de l’affaire McKinsey, qu’est-ce qu’un « bon » marché public ?

Thomas Forte, Docteur en sociologie et chercheur associé au Centre Émile Durkheim, Université de Bordeaux

Lors de l’affaire McKinsey, les débats ont notamment porté sur l’argent public utilisé à mauvais escient. Mais est-ce que la loi établit simplement ce qui correspond à un bon marché public ?
Texte intégral (2407 mots)

Lors de l’affaire McKinsey, les débats ont notamment porté sur l’argent public utilisé à mauvais escient. Mais comment définir quand un marché public est réussi ? Est-ce que la loi l’établit simplement ? En réalité, un marché public est construit par un travail administratif et fait intervenir de nombreux acteurs et documents.


Quand on aborde les marchés publics, on pense avant tout aux dépenses qu’ils représentent ainsi qu’aux scandales auxquels ils sont associés dû à leur opacité (le recours abusif aux cabinets de conseil mis en exergue par l’affaire McKinsey, la corruption…). Deux dimensions centrales des marchés publics sont absentes de ces débats : le marché public en tant qu’objet administratif, et les personnes qui les rédigent (comme les conseillers, les rédacteurs et les chefs de projet). L’une comme l’autre sont pourtant centrales, puisque c’est le travail de rédaction de ces contrats qui détermine en partie les conditions dans lesquelles l’argent public est dépensé et les missions que les attributaires devront remplir.

Ce travail de rédaction consiste à déterminer les qualités qu’un marché doit posséder. Elles ne se réduisent pas à un rapport binaire au droit (légal ou illégal), mais à de multiples formes auxquelles un marché peut prétendre afin d’être considéré comme « bon » ou « mauvais » par les services administratifs, juridiques et les entreprises.

Par exemple, quel critère de sélection des offres choisir ? Faut-il intégrer une clause environnementale ? Comment allotir, c’est-à-dire séparer le besoin en lot, afin de permettre à toutes les entreprises de répondre ? Comment être sûr que les documents seront compris par les candidats ?

L’analyse sociologique que j’ai menée montre que l’allocation de l’argent public est avant tout le résultat d’un travail administratif, dans lequel un objet juridique est produit (le marché public) et où un sens de la règle juridique est déterminé. Étudier ce travail permet de dépasser les discours rigides sur l’État de droit et de porter une attention aux conditions dans lesquelles l’allocation de l’argent public est réalisée.

Un dispositif d’allocation de l’argent public

Un marché public est attribué par la mise en concurrence de candidats, qui peuvent être des organisations publiques ou privées. Il répond à un besoin déterminé par le Code de la commande publique et par les missions de l’organisation qui l’émet. Il permet ainsi aux organisations publiques d’assurer leur fonctionnement. Le papier toilette, les ordinateurs, les forfaits téléphoniques, les goodies, etc., sont achetés par son intermédiaire. Cette mise en concurrence est permise par des critères de sélection des offres, généralement distingués en deux catégories : le prix et le technique.

Ce dispositif repose sur le principe que la qualité des offres et l’optimisation de l’allocation de l’argent public sont assurées par la mise en concurrence du secteur marchand. Cette justification n’est pas nouvelle, elle est mobilisée dès la Révolution, lors des premières réglementations relatives aux marchés publics, afin de rompre avec les abus en matière de finances publiques sous la Monarchie.

Cet argument est d’ailleurs repris par l’enquête de Cash investigation diffusée le 17 septembre dernier, lorsque les journalistes mettent en rapport le coût du marché public de conseil avec l’utilité des livrables produits par le cabinet McKinsey. Le reportage souligne également comment le recours aux cabinets de conseil articule, dans les débats, une finalité d’entrisme dans les prises de décision avec une critique de l’administration publique. Autrement dit, comment, de manière plus large, le travail du secteur public est « empêché », ce qui se traduit par un manque de temps et de moyens qui ne permet pas aux personnes de réaliser convenablement leur travail.

Dans le cas des marchés publics, mon analyse du travail de rédaction au sein d’un conseil Départemental montre comment ce contexte a également des conséquences sur le rapport aux droits au sein de la collectivité. Tout en étant encadré par des textes européens et nationaux, le marché public est le résultat d’un travail administratif, bureaucratique. Il nécessite la circulation des documents qui constituent le marché entre les bureaux de plusieurs organisations.

C’est au cours de cette circulation que les documents vont être lus et écris afin d’évaluer s’ils ont les qualités juridiques attendues. Ce travail requiert une forte expertise dans la mesure où il mobilise des savoirs juridiques, économiques et opérationnels, qui dépassent l’appartenance rigide à une profession et une organisation.

Qui rédige les marchés publics ?

Au sein des organisations publiques, le répertoire des métiers de la fonction publique liste treize métiers liés au travail de rédaction de ce dispositif. Ils peuvent être divisés en quatre catégories : acheteur (qui vise la performance économique), rédacteur, conseiller (qui contrôlent les documents) et chef de projet, à l’initiative du besoin.

Il est difficile d’établir un profil type de ces professions, que ça soit en termes de statuts (fonctionnaire, contractuel) et de modalités de recrutement (catégorie C, B, A). De plus, avoir une formation en droit n’est pas une obligation. Leur travail est cependant proche. Il est caractérisé par la gestion du flux de dossiers. Dans le conseil Départemental étudié, cela représente 448 marchés publics par an. Un marché est produit en moyenne en six mois. En pratique, les dossiers se chevauchent dans le temps et ils demandent de maîtriser des sujets variés (les techniques de construction d’une route, le droit, les normes d’un secteur d’activité…).

C’est là où réside l’expertise inhérente à la rédaction d’un marché. Une rédactrice, par exemple, articule dans son travail le cadre juridique, l’environnement économique des entreprises (forte concurrence, monopole, TPE/PME) et les objectifs de l’organisation (les gains budgétaires, le développement de l’économie locale).

L’interdépendance des documents d’un marché public

Un marché est composé d’une dizaine de documents qui forment un réseau où chacun a un rôle spécifique. Ces documents sont déposés sur une plate-forme numérique afin que les candidats puissent déposer leurs offres. S’y ajoute enfin le rapport d’analyse des offres (RAO) qui synthétise les étapes d’analyse et d’attribution du marché.

Dans chaque document se trouvent plusieurs catégories d’information. On peut distinguer les informations techniques (les caractéristiques du besoin), juridiques (références au Code), économiques (le prix) ou administratives (les modalités de mise en concurrence, le calendrier). Ces informations sont d’autant plus importantes qu’elles se retrouvent dans plusieurs documents à la fois (le prix est présent dans sept pièces) et que le droit détermine un ordre de valeur entre les pièces contractuelles.

Ainsi, les informations présentes dans l’acte d’engagement (qui engage les parties lorsqu’il est signé) – pièce la plus haute placée dans la hiérarchie – prévalent sur celles d’un cahier des clauses techniques et particulières (CCTP, qui définit le besoin technique) lors de l’exécution du marché ou lors d’un contentieux. Une contradiction peut alors avoir des conséquences sur la résolution des conflits, mais aussi sur les manières dont une prestation est réalisée.

Une première conclusion serait de considérer que ce travail d’écriture ne consisterait qu’à vérifier l’exactitude des informations dans les documents afin de garantir qu’elles ne se contredisent pas. Pourtant, ce travail administratif demande d’articuler la variété de ces informations, de se repérer dans des documents qui peuvent faire plusieurs dizaines de pages, ainsi que de considérer les effets des pratiques d’écriture sur les offres potentielles.

Le cas suivant illustre une partie de ce travail. Une rédactrice fait des remarques sur un marché d’insertion de jeunes par un service civique au sein de la collectivité étudiée. Dans trois pages différentes du CCTP, des paragraphes abordent différemment le transport des jeunes vers leur lieu de stage. À la lecture, la rédactrice tisse des liens entre eux, bien qu’ils soient isolés dans une somme d’informations relativement importante (le CCTP seul fait trente pages). Dans un des paragraphes, c’est le prestataire qui doit garantir ces moyens de transport, alors que dans un autre, ils reposent sur une aide de la collectivité, dont les conditions d’utilisation sont définies dans deux autres paragraphes qui se contredisent.

Cette répétition a trois enjeux importants. D’une part, la recherche d’information pour les futurs candidats : trois informations sur un même sujet sont réparties dans trois pages différentes. La seconde est juridique, puisqu’il y a une contradiction dans le rôle des cocontractants sur les aides. Enfin, il y a un enjeu économique puisque dans le cas où l’aide est versée par le Département, les candidats n’ont pas à l’intégrer à leur offre financière.

Cet exemple, qui paraît anodin d’un point de vue administratif, illustre les allers-retours nécessaires afin de résoudre ces incohérences, mais aussi le lien direct entre le travail d’écriture et le droit. Les conseillères, rédactrices, chefs de projet et acheteurs rédigent ensemble des documents qui permettent d’attribuer l’argent public. Ces documents juridiques sont opposables devant un juge et leurs termes s’imposent dans le cadre d’une relation contractuelle. Produire un marché public ne se réduit pas à une mise en forme stéréotypée du droit qui lui donnerait de facto une force légale.

Le travail du droit, le droit au travail

Si les rédactrices et les conseillères rédigent les marchés publics, ils circulent auprès d’autres acteurs qui peuvent aussi émettre des jugements. Par l’intermédiaire d’une plate-forme numérique, un candidat peut faire remonter qu’un critère n’est pas nécessaire pour juger les offres. Un élu, lorsqu’il signe un rapport d’analyse des offres en commission, peut juger que l’attributaire aurait dû être une TPE/PME. Les services du comptable public peuvent rejeter un marché selon leurs propres interprétations de la règle. Par ailleurs, des organisations privées (Le Moniteur, Décision achat) et publiques (comme la direction des affaires juridiques) se sont spécialisées dans l’édition de recommandations quant aux manières dont les marchés publics doivent être produits.

L’ensemble de ces jugements s’articulent autour de trois rapports au droit que j’ai identifié dans ma recherche : la sécurité juridique (le droit est une sphère distincte, qui s’impose et qu’il faut suivre), l’opérationnalité (le droit est une contrainte à l’activité qui augmente la charge de travail et diminue l’efficacité) et la politique achat (le droit est un outil permettant d’atteindre des objectifs poursuivis par l’organisation).

L’articulation de ces trois rapports au droit est déterminée par les contextes où le travail se réalise. Par exemple, être en sous-effectif et gérer la surcharge de dossiers laisse peu de temps pour optimiser certaines clauses ou discuter de la pertinence des critères choisis. L’opérationnalité est alors privilégiée. Dans certains cas, cela se traduit par le recours à des cabinets d’avocat pour réaliser le travail de rédaction alors même que les services de la collectivité disposent de ces compétences. Ainsi, le droit est le résultat d’un travail, c’est-à-dire que sa place et sa production s’inscrivent dans des opérations administratives ordinaires. Des professionnels, que l’on considère généralement éloignés du droit, l’interprètent, le manipulent et le transmettent aux autres.

Ce faisant, produire un marché public, c’est produire un cadre contractuel acceptable, moins par rapport à un cadre juridique national, qu’à des attentes locales qui répondent aux contraintes relatives au contexte de travail des personnes impliquées. La dégradation des conditions de travail du service public touche alors directement la capacité des collectivités et de l’État à déterminer les cadres contractuels qui leur permettent d’allouer l’argent public.

The Conversation

Thomas Forte ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

21.11.2024 à 17:20

Plateformes et réseaux sociaux : derrière l’illusion de la neutralité, un vrai pouvoir d’influence

Aurélie Leclercq-Vandelannoitte, Chercheuse, CNRS, LEM (Lille Economie Management), IÉSEG School of Management

Emmanuel Bertin, Expert senior, Orange. Professeur associé, Télécom SudParis – Institut Mines-Télécom

Présentées comme des espaces de liberté, les plates-formes conditionnent en réalité nos comportements. Depuis le rachat de Twitter par Elon Musk, cette façade de neutralité s’effondre.
Texte intégral (1450 mots)

Présentées comme des espaces de liberté, les plates-formes numériques conditionnent en réalité nos comportements. Et depuis le rachat de Twitter par Elon Musk, qu’il renomme par la suite X, la façade de neutralité s’effondre. Après son implication et celle de son réseau dans la campagne de Donald Trump, les utilisateurs sont de plus en plus nombreux à quitter le navire pour chercher des espaces numériques qui remplissent cette promesse originelle. Peine perdue ?


Les grandes plateformes numériques de Meta (Instagram, Facebook), TikTok ou X (anciennement Twitter) exercent une forme de pouvoir sur leurs utilisateurs, et à travers eux sur nos sociétés. Mais quelle est la nature de ce pouvoir ? Nous nous sommes intéressés à cette question dans un travail de recherche récemment publié.

Nous proposons une perspective issue des travaux de Michel Foucault. Le philosophe a en effet consacré la majeure partie de son œuvre à l’étude des mécanismes d’exercice du pouvoir au cours de l’Histoire.

Les plates-formes orientent les comportements de leurs utilisateurs

La première question à se poser est de savoir si ces plates-formes cherchent à exercer un pouvoir, c’est-à-dire, au sens de Foucault, à « conduire les conduites » de leurs utilisateurs. Autrement dit, on doit se demander si ces plates-formes sont simplement des outils techniques ou des outils de gouvernement des personnes.

Un outil technique peut certes influencer notre façon d’appréhender le monde (« Toute chose ressemble à un clou, pour celui qui ne possède qu’un marteau », écrivait le psychologue américain Abraham Maslow), mais ne vise pas dans sa conception même à produire un certain type de comportement. Ainsi, un traitement de texte comme Word, malgré un nombre d’utilisateurs qui n’a rien à envier à celui des plates-formes, reste un outil technique.

A contrario, les plates-formes numériques cherchent à produire un certain type de comportement chez leurs utilisateurs, d’une façon liée à leur modèle économique. Une plate-forme sociale comme X ou Facebook vise ainsi à maximiser l’engagement des utilisateurs, en les exposant à des contenus dont leur algorithme a déterminé qu’ils les feraient réagir. Les contenus mis en avant sont ceux susceptibles de produire des émotions intenses afin de pousser les utilisateurs à les relayer vers leurs contacts puis à en guetter les réactions, et ce faisant, maximiser leur temps passé sur la plate-forme et donc leur exposition aux publicités. Autre exemple : le jeu Pokemon Go, conçu par la firme Niantic (fondée par Google), guide ses utilisateurs vers les restaurants ou magasins qui ont payé pour cela.

Quand les réseaux sociaux remplacent le pasteur

Dans ses écrits sur le libéralisme, Foucault décrit comment la liberté devient un instrument de pouvoir bien plus efficace que la contrainte, car guidé par l’intérêt particulier de chacun. Par exemple, lorsque l’État met en œuvre des incitations fiscales, il joue sur l’intérêt particulier pour obtenir un comportement souhaité, plutôt que sur la contrainte. Dans le modèle des plates-formes sociales, cette liberté est guidée par les émotions, notamment l’indignation, ce qui conduit par exemple X à rendre le plus visible les publications les plus controversées. À partir d’un certain seuil, cela a un impact indirect sur l’ensemble de la société, en donnant par exemple une grande audience à des publications complotistes ou de désinformation.

S’il est clair que ces plates-formes exercent un pouvoir sur leurs utilisateurs, comment peut-on le caractériser ? Il nous semble qu’il s’inscrit dans un type de pouvoir décrit par Foucault : le « pouvoir pastoral », ainsi nommé en référence à la figure du pasteur, qui à la fois guide son peuple dans son ensemble et connait individuellement chacun de ses membres. Autrement dit, ce type de pouvoir est à la fois englobant et individualisant (« Omnes et Singulatim », comme l’écrit Foucault). Englobant, car les plates-formes gèrent tous leurs utilisateurs avec les mêmes technologies et algorithmes, ce qui permet des économies d’échelle massives. Individualisant, car elles s’adaptent de façon ciblée à chaque utilisateur afin de maximiser sa conformité au comportement souhaité.

Les technologies de capture et d’exploitation massive de données permettent de porter cette individualisation à un niveau jamais atteint auparavant. Ces technologies ne visent pas explicitement tous les aspects de la vie, mais cherchent tout de même à en capturer le maximum d’information, y compris via les objets connectés.

L’illusion de la neutralité

La création d’un pouvoir pastoral entièrement désincarné, car s’exerçant à travers une plate-forme purement numérique, est une nouveauté. Là où le rôle de pasteur s’est incarné dans l’Histoire par des clercs puis par les représentants de l’État, il n’est désormais plus une personne, mais une plate-forme. À certains égards, cela pourrait apparaître comme un progrès : la plate-forme est apparemment neutre, elle ne favorise personne et n’a pas d’intérêt personnel. Ses algorithmes sont censés être objectifs, hormis sans doute avec quelques biais venus de leur programmation, mais qu’il suffirait d’identifier pour les corriger. Tout cela n’est pourtant qu’une illusion, et Elon Musk le démontre clairement depuis son rachat de Twitter en octobre 2022.

Car les plates-formes ont un propriétaire, et dans le monde de la tech ce propriétaire est la plupart du temps un homme seul (à l’exception d’Alphabet, société mère de Google, contrôlée par deux hommes). Jusqu’à Elon Musk, ces propriétaires cultivaient l’illusion de la neutralité, se retranchant derrière de nobles discours promouvant le bien de l’humanité, le rejet des actions mauvaises (selon l’ancien slogan informel de Google : « Don’t be evil ») ou mettant en place des comités éthiques, purement consultatifs.

Avec Musk à la tête de Twitter, les masques tombent

Elon Musk fait voler en éclat cette façade, en supprimant explicitement les équipes de modération ou les mécanismes de suppression de faux comptes (qui propagent usuellement de fausses nouvelles), ouvrant ainsi la porte à une vague de contenus complotistes. Et cela tout en se faisant en même temps passer pour un utilisateur quelconque de X, en relayant des contenus parfois eux-mêmes proches du complotisme, ou en faisant activement campagne pour Trump.

Avant Elon Musk, le bannissement de Trump de Twitter par Jack Dorsey, son précédent propriétaire, pouvait d’ailleurs être tout autant considéré comme une décision politique, mais réalisée sous couvert d’une « violation des conditions d’utilisations », afin de préserver l’illusion de neutralité de la plate-forme.

Pour autant, Elon Musk n’est pas le pasteur de X, pas plus que Zuckerberg, celui de Facebook ou Instagram, c’est bien la plate-forme qui joue ce rôle. Mais derrière la façade, ces plates-formes sont bel et bien sous l’influence de leur propriétaire qui peut modifier telle règle ou tel paramètre algorithmique de façon discrétionnaire en fonction de ses objectifs – et dans le cas d’Elon Musk, de ses opinions politiques.

The Conversation

Emmanuel Bertin travaille chez Orange comme expert senior, et est également professeur associé à Télécom SudParis.

Aurélie Leclercq-Vandelannoitte ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

21.11.2024 à 17:20

Cameroun : la mise en scène bien ordonnée de la loyauté de la population au président Biya

Marie-Emmanuelle Pommerolle, Maîtresse de conférences (HDR) en science politique , Université Paris 1 Panthéon-Sorbonne

Au Cameroun, derrière l’apparente stabilité politique assurée par le président Biya depuis 1982, se dessinent des failles qui remettent en cause le système autoritaire du pays.
Texte intégral (2506 mots)
Ces femmes portent des portraits du président Paul Biya et des pagnes à son effigie, à l’occasion du défilé de la fête nationale de l’Unité le 20 mai 2011 à Douala (Cameroun). Wikimedia Commons, CC BY

Le 6 novembre dernier, le président Paul Biya a célébré le 42ᵉ anniversaire de sa présence ininterrompue au pouvoir. Son grand âge (91 ans) et sa présence à peine audible dans la vie politique du pays ne semblent pas rebuter les cadres de son parti, le Rassemblement démocratique du peuple camerounais, qui souhaitent le voir briguer un huitième mandat en 2025.

Dans son nouvel ouvrage « De la loyauté au Cameroun. Essai sur un ordre politique et ses crises », qui vient de paraître aux éditions Karthala, Marie-Emmanuelle Pommerolle, maîtresse de conférences en science politique à l’Université Paris 1 – Panthéon Sorbonne, analyse l’apparente stabilité politique du Cameroun assurée par la présidence Biya… et invite à la nuancer.

Cet essai revient sur l’avènement de crises mais surtout de pratiques politiques ordinaires de la part de la population qui mettent au défi les formes autoritaires prises par le régime tout en préservant sa pérennité. De sorte que le constat d’Achille Mbembe, peu après l’arrivée au pouvoir de Paul Biya, d’un Cameroun frappé par « les hoquets du changement et les pesanteurs de la continuité » semble toujours valable.

Cette étude au plus proche du terrain invite à regarder au-delà des démonstrations de loyauté inébranlable qu’expriment les citoyens camerounais à l’égard du pouvoir politique. Et éclaire, de manière plus générale, les ressorts sociaux des individus en situation autoritaire ainsi que leurs ambiguïtés. Extraits.


La loyauté incarnée : défilés officiels et participations populaires

Chaque année, le 20 mai, à l’occasion de la Fête de l’Unité, écoliers et écolières, étudiants et étudiantes, partis politiques et soldats défilent sur le boulevard du même nom, à Yaoundé.

Marcher, au pas cadencé, devant les « élites de la République », et au rythme des slogans louant le chef de l’État et son action peut recouvrir de multiples réalités : l’expression d’une conviction, l’attente de rétributions, le goût de la fête, la coercition.

Les intentions derrière la participation à ces défilés sont diverses, mais cette dernière produit un effet unique : elle permet aux dirigeants de se prévaloir de ces démonstrations de loyauté pour affirmer leur légitimité. Peu importe qu’une majorité des marcheurs, comme de celles et ceux qui les contemplent depuis les tribunes ou les observent de la rue, ne soient pas dupes ou pas complètement convaincus. Que l’enthousiasme ne soit pas toujours débordant, ou qu’il demeure mesuré, la performance en elle-même ré-affirme l’ordre social et politique légitime : hiérarchies de pouvoir, hiérarchie de genre, hiérarchie sociale sont jouées, exprimées et considérées comme acceptées.

Voici quelques réactions recueillies auprès de personnes ayant défilé ou regardé le défilé le 20 mai 2015 :

Une militante du RDPC :

« Oui, j’ai pris part au défilé et c’était beau. On nous avait distribué des campagnes du parti au sein de la section pour le défilé. Les listes ont été dressées pendant l’entraînement. C’est comme ça que mon nom s’est retrouvé là. Mais d’autres noms ont été introduits ici au boulevard. Personne ne peut te dire qu’il défile là pour rien. Tu penses que les gens défilent pour rien ? Ils sont payés pour ça. On a l’habitude de nous payer 2500 francs CFA [environ 4 euros] immédiatement après le passage […]. Tu penses que ceux qui étaient assis à la tribune ont notre temps ? Ils ont conscience de nos besoins et nos attentes ? Au Cameroun, c’est la débrouille. L’argent qu’on nous donne là, c’est ce que les autres volent et c’est même insignifiant. »

Une étudiante :

« Le défilé n’est que symbolique. Le patriotisme et le nationalisme se matérialisent par des actes. On peut bien défiler sans être patriotes […]. Je ne crois pas que tous sont patriotes. C’est une apparence. Même ceux qui pillent ce pays étaient là. Sincèrement je pense que c’est la fête, et la fête ne refuse personne. »

Une écolière :

« Oui, j’ai défilé. Mais nous sommes restés trop longtemps au soleil, la fatigue et la famine nous ont rongés. Après toute cette peine, on m’a donné 200 francs. Je ne suis pas venue ici par mon gré. Le surveillant nous a obligés. »

Un cadre de la fonction publique :

« Oui, ce qui vient de se passer c’est du patriotisme, de l’attachement sentimental à sa patrie. Cette volonté manifeste s’est exprimée ce jour. Donc pour moi, le 20 mai est une date pleine de signification parce que les Camerounais ont été consultés par voie référendaire pour dire s’ils veulent aller vers un peu plus d’intégration et d’unité nationale. La réponse a été positive. C’est ce qui justifie la mobilisation de ce jour. »

Ce chapitre s’intéresse à ces démonstrations de loyauté, organisées par le gouvernement depuis les années 1960. Leur pérennité, malgré les transformations politiques issues du multipartisme, en fait l’un des traits caractéristiques des dispositifs de pouvoir camerounais. Les premières lectures de ces cérémonies officielles donnent à voir à la fois un rituel de construction de l’État et la mise en forme des rapports de domination politique et sociale. « Fêtes d’État », au Cameroun comme dans de nombreux autres pays d’Afrique, ces cérémonies participent, durant les deux premières décennies de l’Indépendance, de la théâtralité du pouvoir, et désignent l’État comme maître du temps et de la définition de la nation.

S’y joue également l’encadrement des groupes sociaux dominés, jeunes et femmes notamment, appelés à se mobiliser et à afficher leur participation à la mise en scène du pouvoir. Alors que ces cérémonies se perpétuent, malgré « l’ouverture » des années 1980 et celle, plus probante, des années 1990, elles sont considérées comme l’une des manifestations de l’intimité caractéristique de la « tyrannie post-coloniale ». Elles matérialisent à la fois la « fétichisation du pouvoir » et sa « ratification par la plèbe », la connivence au travers de laquelle le « commandement » s’impose et est défait.

La ténacité de cet échange politique, la popularité de certaines de ces cérémonies, comme celle du 8 Mars, Journée internationale des droits des femmes, et la tenue de défilés exceptionnels dans les moments de crise, commandent que l’on regarde de plus près ce qui se joue durant ces « performances politiques ». En notant la diversité des audiences et des situations de participation – comme le suggèrent les citations introduisant ce chapitre –, on s’autorise à ne pas imposer de signification homogène à cette participation, et à mieux comprendre les conditions de félicité et de reproduction de ces cérémonies que d’aucuns pourraient juger désuètes ou folkloriques. Ni rituel de soumission ni complet simulacre, ces défilés et les événements qui les entourent offrent un terrain d’observation particulièrement riche de la co-production de la loyauté.

Célébrations en grande pompe du 42eanniversaire de l’arrivée au pouvoir de Paul Biya.

Durant ces « performances », le pouvoir se montre tel qu’il veut être vu. Mais la performance n’est pas seulement une imposition de la part de celles et ceux qui l’organisent. Si l’on suit Kelly Askew et son analyse tirée de performances musicales et de leurs usages politiques en Tanzanie, ces dernières sont une « conversation » entre celles et ceux qui sont sur scène ou mettent en scène et leur public. D’un côté, l’administration organise soigneusement ces défilés, choisissant les slogans, les tenues, les marcheurs et l’entière scénographie. De l’autre, la participation, dans le défilé ou sur les bords de la route, relève en partie de « l’envie d’être honoré, de briller, et de festoyer ». Plus précisément, on trouve de multiples situations de participation parmi les personnes présentes : participants et badauds viennent, souvent en groupe, exhiber leur tenue, profiter d’une sortie en dehors de l’école, approcher les élites présentes dans les tribunes, récupérer un peu d’argent distribué pour l’occasion. Si la coercition est parfois employée, notamment dans les écoles, elle n’est pas le ressort principal ou unique de la mobilisation à ces défilés. Le désir de participer à des festivités est au cœur de l’événement.

La constellation d’intérêts produisant ces cérémonies permet aux dirigeants de se prévaloir d’une forme de légitimité par les pratiques sociales qu’ils exhibent. La production des « gages de loyauté » affichés durant ces cérémonies n’engage en rien le contenu des croyances en la légitimité du pouvoir de celles et ceux qui défilent ; mais la performance en elle-même participe de la légitimation de l’ordre politique. Cette constellation de désirs et d’intérêts, sans lesquels ces cérémonies ne seraient pas possibles, ouvre aussi des espaces à la critique : les commentaires sur les élites présentes, sur le fonctionnement de ces marches, les tentatives d’expression dissidente aux abords des défilés, comme les festivités qui suivent ces cérémonies encadrées, sont autant d’occasions de prendre ses distances, voire de remettre en cause l’ordre tout juste exprimé. Bien que normées, ces performances sont contingentes, risquées, et peuvent à tout moment déstabiliser l’ordre tout juste matérialisé.

[…]

Couverture de l’ouvrage « De la loyauté au Cameroun. Essai sur un ordre politique et ses crises »
Ces extraits sont tirés de l’ouvrage de Marie-Emmanuelle Pommerolle « De la loyauté au Cameroun. Essai sur un ordre politique et ses crises, qui vient de paraître aux éditions Karthala. Éditions Karthala

Ces performances publiques, officielles et populaires, figurent un ordre, et perturbent en même temps. Elles sont certes des moments de symbolisation de l’ordre politique, institutionnel et social, mais elles ne sont pas figées ni reproductibles à l’infini. Elles sont un ensemble de pratiques et d’interactions qui laissent une place à la contingence et à la critique. Le fait de participer à ces cérémonies, en défilant ou en regardant, implique de se conformer à un rôle pré-établi par des autorités, administratives, scolaires, partisanes ou militaires.

Jouer ce rôle attendu peut s’appuyer sur des désirs et des attentes multiples, satisfaites par cette performance collective. Désir matériel, de reconnaissance, désir militant sont autant de supports sur lesquels se construisent les démonstrations de loyauté. Le soin porté à ces défilés, la multiplication des journées officielles, notamment en période de « crise », comme en 2015 avec la guerre menée dans l’Extrême-Nord contre Boko Haram, soulignent l’importance de ces performances pour le pouvoir. Le déroulement de la cérémonie n’est cependant pas prévisible, et des désirs non satisfaits, des critiques plus anticipées peuvent surgir dans le commentaires et les pratiques. Le pouvoir seul ne peut produire ces démonstrations de loyauté, et la conversation qu’il engage avec ses citoyennes et ses citoyens peut se révéler corrosive.

The Conversation

Marie-Emmanuelle Pommerolle ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

21.11.2024 à 13:00

Pourquoi la neige est-elle blanche ?

Marie Dumont, Chercheuse, directrice du Centre d'études de la neige, Centre National de Recherches Météorologiques, Météo France

La couleur de la neige n’est pas anodine – elle affecte le climat, et elle nous renseigne sur des phénomènes qui peuvent traverser les mers.
Texte intégral (1375 mots)
La neige est blanche, bien sûr ; mais sa teinte dépend de sa fraîcheur… et elle peut virer à d'autres couleurs dans certaines conditions. Marie Dumont, Fourni par l'auteur

La neige est blanche, mais il y a plusieurs nuances de blanc, et elle revêt même parfois d’autres teintes, plus originales. Plongée entre physique et météo avec la directrice du Centre d’études de la neige basé à Grenoble.


D’une blancheur immaculée qui scintille au soleil, la neige quand elle recouvre le sol à le pouvoir de transformer les paysages en quelque chose de magique. Mais pourquoi est-elle blanche ? Elle est constituée de glace et d’air et les glaçons qui sortent de notre congélateur ne sont pas blancs, ils sont transparents ! Alors comment est-ce possible ?

La neige est blanche justement parce que la glace est transparente. Lorsque l’on dit que la glace est transparente, cela veut dire que la lumière visible et toutes les différentes couleurs qui la constituent ont très peu de chances d’être absorbées lorsqu’elles traversent la glace.

La neige est en fait une sorte de mousse de glace et d’air : la lumière qui la traverse va avoir très peu de chances d’être absorbée en traversant la glace ou l’air, les deux transparents.

Par contre, à chaque interface air-glace, la lumière va être réfléchie (comme un miroir) ou réfractée (changée de direction à l’intérieur de la glace), et va finir par ressortir du manteau neigeux, car elle a très peu de chances d’y être absorbée.

Ainsi la majeure partie de la lumière visible qui entre dans la neige ressort vers le haut, ce qui rend la neige blanche.

Pourquoi la neige est-elle blanche ? (Observatoire environnement terre univers, OSUG).

Cette couleur blanche de la neige est très importante pour notre planète. En effet cela veut dire que lorsque la neige recouvre le sol, la majeure partie de la lumière du soleil va être réfléchie vers l’atmosphère, contrairement à un sol nu ou recouvert de végétation, plus sombre, et qui absorbe plus de lumière. La couleur blanche de la neige limite donc l’absorption d’énergie solaire, et ainsi le réchauffement. Or, plus la température augmente, moins il y a de neige au sol, donc plus la couleur de la planète s’assombrit et plus elle se réchauffe. C’est un phénomène d’« emballement », que l’on appelle encore « rétroaction positive », lié à l’albédo (c’est-à-dire la fraction de rayonnement solaire réfléchi par un milieu) de la neige et qui est très importante pour notre climat.

50 nuances de neige

La neige n’est pas simplement blanche, elle peut prendre différentes nuances de blancs.

Cela vient de l’interaction de la lumière avec la structure de la neige. La structure de la neige, c’est-à-dire, l’arrangement tridimensionnel de l’air et de la glace à l’échelle du micromètre (un millionième de mètre, soit environ cinquante fois moins que l’épaisseur d’un cheveu), varie beaucoup en fonction de l’état de la neige.

Évolution de la microstructure d’une neige en présence d’impuretés. Source : ANR.

Plus la neige a une structure fine, comme c’est le cas par exemple pour la neige fraîche, plus la surface de l’interface air-glace est grande par rapport au volume de glace contenu dans la neige. Pour faire l’analogie avec une piscine à balle, pour la neige fraîche, on aurait alors une grande quantité de toutes petites balles, soit une grande surface de plastique en contact avec l’air. Plus tard, la neige évolue et notre piscine contiendrait des balles plus grosses, en moindre quantité, ce qui résulte en moins de surface de contact entre air et plastique.

La quantité de lumière absorbée est proportionnelle au volume de glace alors que la quantité de lumière diffusée est proportionnelle à la surface de l’interface air-glace. Ainsi plus le rapport entre la surface de l’interface et le volume de glace est grand, c’est-à-dire plus la structure est fine, plus la neige va être blanche. Une neige fraîche paraîtra donc plus blanche qu’une neige à structure plus grossière, par exemple qui a déjà fondu et regelé.

Cette nuance de blanc, qui provient de l’interaction entre la lumière et la structure de la neige, est également à l’origine d’une rétroaction positive importante pour notre climat. En effet, lorsque la température augmente, la structure de la neige a tendance à grossir, la neige devient moins blanche, absorbe plus d’énergie solaire et donc peut fondre plus rapidement.

De la neige en couleur

Mais la neige n’est pas que blanche, on peut trouver de la neige orange, rouge, noire, violette ou même verte. Lorsque de telles couleurs se présentent, c’est que la neige contient des particules colorées qui peuvent être de différentes origines.

On y trouve souvent du carbone suie issu de la combustion des énergies fossiles et qui rend la neige grise.

Dans les massifs montagneux français, il est courant de trouver de la neige orange, voire rouge, après des épisodes de dépôts de poussières minérales en provenance du Sahara.

Vents du Sahara dans le Caucase. Source : Alpalga.

Enfin, la neige contient des organismes vivants, et en particulier des algues qui produisent des pigments pouvant être de différentes couleurs. Dans les Alpes, l’espèce d’algue de neige la plus courante s’appelle Sanguina Nivaloides et teinte la neige d’une couleur rouge sang, que vous avez peut-être déjà observée lors d’une promenade en montagne à la fin du printemps.

En changeant la couleur de la neige, toutes ces particules colorées provoquent une augmentation de la quantité de lumière solaire absorbée par celle-ci, et accélèrent sa fonte.

La blancheur de la neige et ses subtiles nuances sont donc très importantes pour l’évolution du couvert nival et pour le climat de notre planète.


Le projet EBONI et le projet ALPALGA ont été soutenus par l’Agence nationale de la recherche (ANR), qui finance en France la recherche sur projets. Elle a pour mission de soutenir et de promouvoir le développement de recherches fondamentales et finalisées dans toutes les disciplines, et de renforcer le dialogue entre science et société. Pour en savoir plus, consultez le site de l’ANR.

The Conversation

Marie Dumont a reçu des financements de l'Agence National pour la Recherche (ANR EBONI et ALPALGA), du Centre National d'Etudes Spatiales (APR MIOSOTIS) et du European Research Council (ERC IVORI).

21.11.2024 à 11:14

Voici pourquoi reconnaître à la mer Méditerranée un statut d’entité naturelle juridique est nécessaire et réaliste

Victor David, Chargé de recherches, Institut de recherche pour le développement (IRD)

Elle ne représente que 1 % de la surface terrestre, mais abrite 10 % de sa biodiversité. La Méditerranée est pourtant devenue fort vulnérable face aux bouleversements du climat et de l’environnement.
Texte intégral (3807 mots)
Jon Amdall/Unslpash, CC BY

Elle ne représente que 1 % de la surface terrestre, mais abrite 10 % de sa biodiversité. La mer Méditerranée est pourtant devenue fort vulnérable face aux bouleversements du climat et la dégradation des environnements. Autant de signaux alarmants nous invitant à repenser sa protection et son identité.


Accorder à la mer Méditerranée un statut d’entité naturelle juridique pour mieux la protéger. Depuis que l’idée est lancée, elle a pu être taxée tout à la fois d’irréalisable, d’utopique, de naïve, de dangereuse… Voici au moins quatre arguments qui montrent, à l’inverse, que ce projet est non seulement souhaitable, mais aussi nécessaire et réaliste.

Argument numéro 1 : reconnaître des droits à de nouvelles personnes ou entités, c’est l’histoire même du droit

Reconnaître des droits à des éléments de la nature, c’est la dernière étape en date dans l’histoire du droit, faite de reconnaissance et de conquêtes progressives de droits subjectifs par des êtres vivants. Les obstacles dans les combats pour l’égalité, pour se voir reconnaître des droits, depuis toujours, ont été nombreux, celles et ceux qui les ont menés le savent.

Portrait de Bartolomé de las Casas (anonyme, XVIᵉ siècle).

Ainsi, au XVIe siècle, le religieux espagnol Bartolomé de Las Casas plaidait pour la reconnaissance de l’humanité des indigènes amérindiens et leur droit à un traitement juste. En face, l’homme d’Église Juan Ginés de Sepúlveda, justifiait la conquête et l’asservissement des indigènes sous prétexte de leur supposée infériorité. S’en suivirent des mois de débats, avant que Charles Quint ne tranche en faveur de Las Casas.

En France, les planteurs et commerçants coloniaux soutenaient que l’économie des colonies, principalement basée sur la production de sucre, de café, et d’autres produits agricoles, dépendait entièrement de la main-d’œuvre esclave. Ils craignaient que leur affranchissement ne génère une hausse des coûts de production, l’insécurité économique et une chute de la compétitivité des produits français sur le marché international, sans parler de la déstabilisation de l’ordre colonial. Les propriétaires d’esclaves exigeaient également des compensations financières en cas d’abolition, car ils considéraient les esclaves comme une « propriété ». Il en aura fallu de l’humanisme et de la persévérance pour dépasser ses obstacles pour en arriver au décret d’abolition de l’esclavage du 27 avril 1848.

Anonyme, Olympe de Gouges. Mine de plomb et aquarelle, XVIIIᵉ siècle. Musée du Louvre.

On peut aussi citer d’Olympe de Gouges se battant dans sa Déclaration des droits de la femme et de la citoyenne (1791), pour la reconnaissance des femmes en tant qu’égales aux hommes dans les droits et la dignité. Face à elle, certains opposants, influencés par les théories essentialistes, affirmaient que les femmes, par leur nature biologique, étaient moins aptes que les hommes à participer à la vie publique ou politique. Elles seraient, selon eux, plus émotives, moins rationnelles et mieux adaptées aux tâches domestiques et à la maternité. Le rôle « traditionnel » des femmes soutenu par l’Église catholique en France fut aussi un argument utilisé pour des raisons inverses par d’autres opposants à l’égalité craignant le conservatisme religieux des femmes. Il a fallu attendre 1944 pour que les femmes en France obtiennent le droit de vote et 1965 pour avoir celui de détenir leur propre compte bancaire et le combat des femmes pour l’égalité n’est pas terminé.


Pour suivre au plus près les questions environnementales, retrouvez chaque jeudi notre newsletter thématique « Ici la Terre ». Abonnez-vous dès aujourd’hui.


Argument 2 : Reconnaître des droits de la nature c’est contrecarrer l’accaparement mortifère de la nature par l’homme

Pour la reconnaissance des droits de la Nature, les obstacles sont connus. Parmi eux, le statut actuel juridique des éléments de la Nature réduits à celui de biens, à l’instar des esclaves, appropriables par les individus ou par leurs regroupements. L’idée que d’une part les humains sont supérieurs aux autres éléments de la Nature est souvent associée à la pensée occidentalo-judéo-chrétienne. L’idée que la Nature est un bien (ou patrimoine) que l’homme peut exploiter à sa guise est aussi imputée à la philosophie de René Descartes, qui érigeait l’homme doué de science, « comme maître et possesseur de la nature » dans Le Discours de la méthode. Ce dernier n’était sans doute pas le premier à prôner cette idée, mais il a en effet contribué à une conception mécaniste de la nature.

Ces idées sur lesquelles la pensée occidentale s’est construite au cours de ces derniers siècles, qui se sont renforcées avec la domination technologique des forces de la nature, le recours accru aux « ressources naturelles » et le capitalisme, ont la vie dure. Penser à supprimer ou réduire l’inégalité juridique dans les relations entre humains et vivants non humains des mondes végétal, animal, minéral ou aquatique reviendrait dangereusement, pour un certain nombre de penseurs (juristes compris), à diminuer la supériorité humaine sur ces mondes. Le non-dit, corollaire, c’est que ça limiterait l’exploitation capitaliste des éléments de la Nature au nom du profit. Il est bien là l’obstacle à dépasser.

De fait, le constat est, dans l’arène juridique, que les relations entre les humains (et leurs groupements) et le non-humain vivant ou non, réduit au statut de bien, sont à sens unique, asymétriques et sources d’injustices et d’inégalités créées par le droit lui-même, tels que les privilèges découlant du droit de propriété des humains ou de souveraineté des États, ou encore l’absence d’intérêt propre à agir des éléments de la Nature pour ne citer que celles-là. Certes, des correctifs ont été apportés par le droit de l’environnement depuis une cinquantaine d’années. Ils demeurent cependant insuffisants et ne modifient en rien l’inégalité dans les interactions juridiques. Tout ceci doit donc nous amener à réfléchir autrement, à tester de nouvelles solutions pour accélérer les changements en faisant évoluer le statut juridique de la Nature et ses éléments. Les sortir de la catégorie des biens et leur reconnaître des droits, pas seulement comme bénéficiaires, cela existe déjà, mais en tant que titulaires.


À lire aussi : L’animisme juridique : quand un fleuve ou la nature toute entière livre procès


Argument 3 : Accorder un statut de sujet de droit à des entités naturelles juridiques cela a déjà été fait en France

Peu le savent, mais le statut d’entités naturelles juridiques a déjà été utilisé en France.

Fin juin 2023, la Province des Îles Loyauté en Nouvelle-Calédonie adoptait une règlementation sur le droit du vivant dans laquelle était inscrite la création d’une nouvelle catégorie de sujets de droit, les entités naturelles juridiques (ENJ), que nous avions surnommées « anges », fidèles à la transcription phonétique [ɑ̃ʒ] de l’acronyme. Les ENJ ne sont ni des personnes juridiques ni des biens et ont leur propre régime juridique. Requins et tortues avaient ainsi été les premières espèces animales vivantes, emblématiques dans la culture kanake, à bénéficier de ce nouveau statut juridique, placé en haut de la hiérarchie de protection du Vivant. Les élus de la province, en accord avec les autorités coutumières des Îles Loyauté avaient décidé de reconnaître la qualité de sujet de droit à des éléments de la Nature en vertu du principe unitaire de vie, au cœur de la vision du monde kanak où l’homme et la Nature ne font qu’un.

Baie de JINEK, Lifou, îles Loyauté, Nouvelle-Calédonie. Sekundo./Flickr, CC BY

Un an plus tard, dans le cadre d’un contentieux administratif à l’initiative de l’État, le Conseil d’État avait, cependant, dans un avis, conclu à l’incompétence de la province à créer des entités juridiques naturelles estimant que cette démarche relevait de la Nouvelle-Calédonie, dépositaire depuis 2013 de la compétence normative en matière de droit civil. Sur cette base, le tribunal administratif de Nouméa a annulé les dispositions de juin 2023 relatives aux ENJ. Les requins et tortues des eaux loyaltiennes n’auront été des anges qu’un an. Néanmoins, cette brève expérience a créé un précédent et montre qu’il est toujours possible de réformer le droit. Le passé nous montre lui que la reconnaissance de nouveaux droits a façonné l’histoire et demeure même à l’origine de droits que presque personne aujourd’hui ne penserait à remettre en question.

Argument 4 : La Méditerranée souffre de politiques de protections fragmentées

La mer Méditerranée, souvent qualifiée de berceau des civilisations, est bien plus qu’un simple espace maritime. Ses eaux abritent une biodiversité exceptionnelle (10 % de la biodiversité mondiale), essentielle pour le climat, les économies locales et la culture des peuples qui l’entourent. Pourtant, aujourd’hui, elle subit des pressions inédites. Pollutions, surpêche, hausse des températures et acidification des eaux, sans oublier les tensions géopolitiques qui sapent les efforts de protection.

La Méditerranée, une mer en danger | Le Dessous des Cartes | Arte.

Les initiatives actuelles de protection de la Méditerranée, bien qu’importantes, sont fragmentées et de ce fait souvent inefficaces. La Méditerranée englobe plus d’une vingtaine de territoires maritimes, zones économiques exclusives des États côtiers incluses. Les conventions internationales comme la Convention de Barcelone, ou des projets de création de zones marines protégées, peinent à enrayer la dégradation de l’écosystème. Ces initiatives restent tributaires des intérêts nationaux ou européens et économiques de chacun des 21 pays riverains. Face à ces menaces croissantes, une approche nouvelle se profile : la reconnaissance de la Méditerranée comme sujet de droit. En transformant la Méditerranée en un sujet de droit, on déplacerait le centre de gravité des politiques environnementales vers une approche holistique, où la protection de l’intégrité de la mer deviendrait une priorité absolue.

On passerait à une gouvernance unifiée et une responsabilité collective à l’échelle régionale et transfrontalière. Un tel changement impliquerait que les États et les entreprises opérant dans cette région soient responsables des atteintes à l’intégrité de la mer en tant qu’entité vivante. En clair, polluer la Méditerranée reviendrait à violer les droits de cette entité, créant des responsabilités juridiques tangibles pour les acteurs en cause.

Si la reconnaissance des droits de la Méditerranée comme entité naturelle juridique offre des perspectives prometteuses, le chemin pour y parvenir sera long. La première difficulté réside dans la mise en place d’un cadre juridique international contraignant. Les droits de la Nature, bien que reconnus dans certains pays, peinent à s’imposer au niveau mondial. Chaque État riverain de la Méditerranée a ses propres priorités économiques, politiques et environnementales, et il pourrait être difficile de les amener à adopter un cadre commun. Il est donc souhaitable de commencer avec quelques pays qui partageraient cette ambition pour la Méditerranée.

Carte de l’Europe et de la Méditerranée, dans un atlas catalan de 1375.

Un autre obstacle réside dans l’application de ces droits. Qui serait en charge de défendre les intérêts de la Méditerranée ? La reconnaissance d’écosystèmes naturels comme sujets de droit ailleurs dans le monde s’est accompagnée de la nomination de gardiens et de porte-parole, responsables de la protection des intérêts des entités reconnues comme personnes juridiques et de leur représentation devant les tribunaux. Un mécanisme similaire pourrait être envisagé pour la Méditerranée, avec la création d’une entité internationale ou d’une organisation (ou la transformation d’une déjà existante) dédiée à la défense de ses droits.

Ces gardiens pourraient inclure des représentants d’États, mais aussi des scientifiques, des ONG et des représentants des professionnels de la mer, des citoyens. Mais l’on peut aussi imaginer, en s’inspirant du modèle de l’Union européenne et de ses institutions, une nouvelle forme de gouvernance écologique de la mer avec ses propres organes issus d’une démocratie transméditerranéenne. Cette nouvelle gouvernance encouragerait, dans un esprit de justice environnementale, l’émergence d’initiatives innovantes pour répondre aux défis environnementaux, économiques et sociaux auxquels la région est confrontée plutôt que le conflit et les tragédies que nous vivons actuellement.

Faire de la Méditerranée une entité naturelle juridique à l’instar de ce qui a été fait pour les requins et tortues en Province des Îles Loyauté en Nouvelle-Calédonie n’est pas une simple question théorique, ni seulement un acte symbolique, mais une nécessité pratique et un levier puissant pour la construction d’un avenir durable. Cette révolution juridique nous offrirait une chance unique de réconcilier les besoins des humains avec ceux de la Nature, pour que la Méditerranée, source de vie et d’inspiration, continue de prospérer pour les générations à venir. C’est le pouvoir des anges qui ne meurent jamais.


À lire aussi : Kalymnos, une île grecque face aux mutations de la biodiversité marine


The Conversation

Victor DAVID, Chargé de Recherche à l'IRD est Membre de la Commission Mondiale du Droit de l'Environnement de l'UICN, Membre de la Commission droit et politiques environnementales du comité français de l'UICN et Membre du réseau d'experts Harmonie avec la nature des Nations unies (ONU). J'ai reçu via mon Institut qui assure ma rémunération des financements de la Province des Îles Loyauté (Nouvelle-Calédonie) pour ma recherche sur la thématique des droits de la Nature.

21.11.2024 à 11:01

Reconnaître et protéger les « droits du vivant », une nouvelle mission pour l’ONU ?

Chloé Maurel, SIRICE (Université Paris 1/Paris IV), Université Paris 1 Panthéon-Sorbonne

Protection de la nature et des êtres humains sont intimement liées. Accorder une personnalité juridique au vivant pourrait être une solution à mettre en place à l’échelle internationale.
Texte intégral (2300 mots)

La notion de « droits du vivant » fait débat au sein de la communauté internationale, comme l’a récemment montré la COP16 en Colombie. Accorder une personnalité juridique à la nature (fleuves, mer, forêts, etc) est-il contradictoire ou complémentaire avec l’urgence à faire respecter celle des humains ?


Alors que la 16e Conférence des parties sur la biodiversité se déroule jusqu’au 1er novembre en Colombie, la question du rôle que doit jouer la gouvernance internationale dans la protection du vivant est au cœur des discussions. En juillet 2021, le secrétaire général de l’ONU, le Portugais Antonio Guterres affichait ainsi une position forte, estimant qu’il était « hautement souhaitable » de créer le crime d’« écocide », en l’incluant dans la liste des crimes jugés par la Cour pénale internationale.

Certains pays ont déjà innové en reconnaissant des droits à la nature, par exemple à des fleuves. C’est le cas de l’Inde et de la Nouvelle-Zélande qui, depuis 2017, reconnaissent la personnalité juridique à des fleuves, comme le Gange et la Yamuna (Inde), et le fleuve Whanganui (Nouvelle-Zélande), afin de garantir leurs droits à être préservés dans leur intégrité.

Faut-il continuer dans ce sens, en étendant le concept aux différents éléments de la nature : fleuves, mers, forêts, zones humides, zones arides, animaux… ? Comme dans le film récent Le Procès du chien, qui évoque sur un mode humoristique mais au fond sérieux, la possibilité de considérer les animaux comme des personnes juridiques. Ou vaut-il mieux nous concentrer sur les droits des êtres humains, loin d’être garantis aujourd’hui dans le monde ?

Examinons quelques initiatives qui tendent à préserver les entités vivantes, leur socle philosophique, juridique et politique, avant de prendre la mesure des liens intimes entre droits des êtres humains et droits de la nature.

Des initiatives pionnières

Ce sont d’abord les peuples autochtones qui ont considéré la nature comme une personne à part entière. Ainsi, depuis 1870 en Nouvelle-Zélande, la tribu Iwi luttait pour cela à propos du fleuve Whanganui. Ce fleuve, long de près de 300 kilomètres, a finalement été reconnu en 2017 par le parlement néo-zélandais comme une entité vivante, avec le statut de « personnalité juridique » », dans toute sa longueur, y compris ses affluents et ses rives.

Parallèlement, en Inde, les deux fleuves sacrés que sont le Gange et la Yamuna, sont élevés au rang d’_ « entités vivantes ayant le statut de personne morale » par la haute cour de l’État himalayen de l’Uttarakhand. Cela permet aux citoyens d’agir en justice pour protéger ces fleuves et lutter contre leur pollution industrielle déjà dramatique.

vue d’un paysage de fleuve et de montagne
Le fleuve Whanganui, en Nouvelle-Zélande, un écosystème naturel préservé, à protéger. Wikimedia, CC BY-NC-SA

Le mouvement s’est amplifié dans les années suivantes : « De l’Équateur à l’Ouganda, de l’Inde à la Nouvelle-Zélande, par voie constitutionnelle, législative ou jurisprudentielle, des fleuves, des montagnes, des forêts se voient progressivement reconnaître comme des personnes juridiques, quand ce n’est pas la nature dans son ensemble – la Pachamama (la Terre Mère) – qui est promue sujet de droit. »

Pour la première fois en Europe, l’Espagne a, par le biais de son Sénat, reconnu, en 2022, des droits à la « Mar menor », lagune d’eau salée située sur le littoral méditerranéen, près de Murcie.


Pour suivre au plus près les questions environnementales, retrouvez chaque jeudi notre newsletter thématique « Ici la Terre ». Abonnez-vous dès aujourd’hui.


Réflexion philosophique, juridique et politique

Ces mouvements, venus le plus souvent de groupes de citoyens très sensibilisés à l’écologie, s’appuient sur des réflexions philosophiques, politiques et juridiques.

Ces considérations trouvent leur origine dans les années 1970, période d’essor de la pensée écologiste. En 1972, le juriste américain Christopher Stone avait publié un essai remarqué : Les arbres doivent-ils pouvoir plaider ?, plaidant la cause des vénérables et anciens séquoias géants de Californie. Un changement conceptuel à saluer, pour la juriste Marie Calmet, comme une « révolution démocratique ». Elle applaudit notamment la décision de l’Équateur « où les citoyens se sont prononcés par référendum en faveur des droits de la Pachamama (la Terre Mère), dans le cadre de la Constitution adoptée en 2008 ».

Cependant, à l’heure où des êtres humains souffrent et meurent dans des conditions atroces, des bateaux de migrants en Méditerranée aux zones de guerre en Ukraine, au Soudan, en RDC ou à Gaza, ne faudrait-il pas mieux concentrer les efforts de la communauté internationale sur les êtres humains ? Ne vaut-il pas mieux prioriser les vies humaines sur les vies des arbres et des cours d’eau ?

Droits du vivant et droits des êtres humains

En réalité, il s’agit des deux faces d’une même pièce. Le récent mouvement de pensée « One health » (« une seule santé »), qui s’est développé au sein des instances nationales et internationales de santé au moment de la crise du Covid-19 (2019-2022), considère qu’il faut « penser la santé à l’interface entre celle des animaux, de l’homme et de leur environnement, à l’échelle locale nationale et mondiale ».

Face aux crises sanitaires et environnementales, il s’agit de « trouver des solutions qui répondent à la fois à des enjeux de santé et des enjeux environnementaux » : 60 % des maladies infectieuses humaines ont, en effet, une origine animale, et la pollution d’un fleuve ou d’une nappe phréatique affecte la population autour.

Schéma explicatif du concept « One Health ». Inrae, CC BY-NC-ND

Le concept One Health « lie donc la santé de l’humain à la santé des animaux, ainsi qu’à la santé des plantes et de l’environnement. Cette approche globale offre une vue d’ensemble pour comprendre et agir face aux différentes problématiques, qui se voient toutes reliées entre elles : les activités humaines polluantes qui contaminent l’environnement ; la déforestation qui fait naître de nouveaux pathogènes ; les maladies animales qui frappent les élevages ; ces mêmes maladies animales qui finissent par être à l’origine de maladies infectieuses pour l’humain (les zoonoses) ».

Comme l’analyse Gilles Bœuf, biologiste et spécialiste de la biodiversité, l’objectif est désormais, pour les défenseurs de la nature, que One Health devienne « un projet politique », « en mettant en place par exemple des dispositifs participatifs », et il faut comprendre que l’affirmation et la protection des droits du vivant vont dans le bon sens « pour le bien-être des citoyens ».

Il est ainsi essentiel de prendre en compte le fait que santé humaine, santé animale, santé végétale sont liées et que la protection de la nature (fleuves, forêts, mangroves, animaux…) va dans le bon sens pour préserver le mode de vie de nos sociétés.

Une interconnexion entre l’environnement naturel et les intérêts des populations humaines qui implique de transcender les frontières étatiques : la communauté internationale, à savoir l’ONU et ses agences (OMS, Unesco, FAO, OMM…) est particulièrement bien placée pour veiller à une régulation de ces intérêts, au moyen de conventions internationales.

Elle pourrait donc se saisir de ces enjeux pour établir une législation internationale afin de préserver le vivant sous toutes ses formes, au bénéfice de l’humanité tout entière.

The Conversation

Chloé Maurel ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

20.11.2024 à 21:00

When the technical meets the political: Court of Justice rules that EU standards require more openness

Arnaud Van Waeyenberge, Professeur Associé en Droit, HEC Paris Business School

Certain European technical standards that come from private bodies are a source of EU law, but a recent court ruling points to the need for policymakers to adopt standards via democratic processes.
Texte intégral (1049 mots)
The European Commission estimates that more than 3,600 technical standards have been developed over the past three decades. Shutterstock 19 Studio

The Court of Justice of the European Union (CJEU) has ruled that harmonised technical standards – an influential form of governance – must be more accessible. Here’s what this landmark decision means.

Technical standardisation, which encompasses standards published by the International Organization for Standardization (ISO), has become a critical aspect of global regulation. Its scope has expanded far beyond goods, encompassing services, the environment, corporate social responsibility (ISO 26000) and anti-corruption measures (ISO 37000).

This trend is particularly evident within the European Union. The “new approach” to standardisation, launched in the 1980s by then European Commission president Jacques Delors, placed technical standards at the heart of the EU’s single market. The success of this approach, evidenced by the “CE” marking on products, was initially focused on goods and later extended to services. It plays a central role in the recent EU Artificial Intelligence Act, which requires AI computing services to comply with a series of technical standards, including for personal data security.

3,600 harmonised European standards

Over the past 30 years, the European Commission estimates that more than 3,600 “new approach” technical standards have been developed. The sectors covered by these standards represent over 1.5 trillion euros in annual trade – about 10% of the EU’s gross domestic product. These standards, developed by private bodies like the European Committee for Standardization (CEN) and the European Committee for Electrotechnical Standardization (CENELEC), are voluntary and require manufacturers and service providers to pay a fee to access them. However, compliance is not optional, because aligning with these standards creates a presumption of conformity with EU law. Failure to comply means manufacturers must either withdraw their products or prove compliance through alternative, often costly, means.

Until recently, these fee-based standards were viewed as a form of self-regulation beyond judicial scrutiny. That changed in 2016 when the CJEU ruled in the James Elliott Construction case that these technical standards produce legal effects, making them “part of the law of the Union”.

Following this ruling, two non-profit organisations, Public.Resource.org and Right to Know, whose mission is to make the law freely accessible to all citizens, asked the European Commission for free access to four harmonised standards. The Commission denied the request, a decision upheld by the General Court of the European Union in July 2021.

On March 5, 2024, the CJEU, the supreme body of the European legal order, overturned the decision, finding that an overriding public interest justified the disclosure of the harmonised standards in question. Moving forward, the Commission will need to grant requests for free access to harmonised standards.

This jurisprudential development has turned the technical standardisation model on its head. Indeed, given that these standards are becoming legalised and will henceforth be free of charge, the production and funding methods of standardisation bodies and the intellectual property protections they rely on must be re-evaluated. This evolution could also be an opportunity to improve the legitimacy of these standards.

[There are already over 120,000 subscriptions to The Conversation newsletters. What about you? Subscribe today for a better understanding of the world’s major issues.]

Based on figures from CEN, the potential loss of revenue from making these standards freely accessible could amount to around 11% of the 19 million euros of average annual revenue, or around 2 million euros. This calculation was made by averaging the revenues reported as income for each year between 2019 and 2022 in the 2021 CEN annual report and the 2022 CEN annual report.

Governed by engineers

This amount does not appear to be insurmountable for the Commission to manage, but it should be accompanied by a systemic reform. This reform would aim to involve civil society organisations more effectively, ensuring that technical standards impacting fundamental principles are developed with a diverse range of perspectives in mind. The Commission is best positioned to verify the genuine involvement of all stakeholders and ensure that standards bodies take their input into account.

Technical standards produced by “engineers” are not merely technical, neutral or optional, but are powerful modes of governance that have significant political implications. Consequently, these standards must not escape a democratic adoption procedure and respect for the rule of law under the control of the courts. It is therefore incumbent on the EU’s institutional bodies – the Commission, the Parliament and the Council of the European Union – to stop basing public policies, especially non-economic ones, on technical standards.

The EU’s recent AI legislation illustrates this tendency. When public authorities rely on technical standards, it gives the impression that norm-setting is being outsourced, allowing authorities to bypass the political process. This approach may be pragmatic, but it is legally questionable. The CJEU’s recent rulings signal a need for EU public decision-makers to change their approach.

The Conversation

Arnaud Van Waeyenberge ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

20.11.2024 à 20:59

Social media has complex effects on adolescent wellbeing, and policymakers must take note

Tina Lowrey, Professeur de marketing, HEC Paris Business School

L.J. Shrum, Professeur de marketing, HEC Paris Business School

Research shows that many factors influence how social media can impact – positively and negatively – the wellbeing of young people. But the media and politicians often draw simpler conclusions.
Texte intégral (1274 mots)

In late 2024, more than 20 years after the birth of Facebook, the impact of social media on our lives cannot be overstated. Initially underestimated by many in business, social media eventually came to be recognised for its power to enable workers to share solutions, ideas and perspectives. While companies took time to see its potential, younger generations have been living part of their lives through social platforms for years. A 2023 Pew Research Center survey reveals that a majority of US youth aged 13 to 17 visit YouTube, TikTok and Snapchat at least “about once a day”, with roughly 15% saying they visit these platforms “almost constantly”.

This widespread use of social media has brought with it an increased focus on its effects on young people, particularly adolescents. Over the past year, we collaborated with our former doctoral student Elena Fumagalli to review research in this area and its potential impact on policymaking. Our findings were surprising and, at times, conflicting. While many studies share evidence of the negative impacts of social media use on adolescent wellbeing, the research we reviewed also showed conflicting findings and a dearth of high-quality research designs. And yet, policy decisions and media coverage are often based on them.

In response to this, we recently published a paper focusing on the most rigorous studies on this topic. Our goal was to identify research that we believe offers valid and dependable conclusions. Through this review, we discovered that social media’s effects on adolescent wellbeing are complex, varying by age, gender and the type of platform use.

The “moving target” of social media research

A critical challenge in this area is what we call the “moving target” problem. Social media platforms are constantly evolving, making it difficult to generalise research findings from one period to another. For example, Facebook today is not what it was 10 or 15 years ago – its functionality, user base and even its name have changed. Similarly, platforms like Instagram have gained popularity, while others such as Friendster, Vine and Google’s Orkut have disappeared.

Given this ever-changing landscape, it’s nearly impossible to draw definitive conclusions from older studies. That’s why we focused our review on research conducted in the past five years, a period marked by significant advances in data collection and analysis. We limited our scope to adolescents and young adults aged 13 to 21 to better understand how social media affects wellbeing during these critical developmental years.

Developmental sensitivity to social media

One of the most significant findings from our paper is that the negative effects of social media vary by age and gender, something which is rarely taken into consideration by authorities and the media. For girls, the most vulnerable period appears to be between 11 and 13 years old, while for boys it is between 14 and 15. These age ranges coincide with the onset of puberty, which we believe plays a significant role in how adolescents experience social media.

The beginning of puberty is already a challenging time for most young people, and social media seems to amplify these challenges. For example, body image issues, which often emerge during adolescence, are exacerbated by the highly curated and idealised content found on platforms like Instagram. While social media didn’t create these issues, it amplifies them like never before, making it harder for adolescents to ignore them.

Interestingly, we also found negative psychological effects for both boys and girls at age 19. This age corresponds to major life transitions such as leaving home, entering college or starting a job, all of which can induce anxiety. Social media appears to intensify these anxieties, possibly by fostering unrealistic expectations about life or creating a sense of inadequacy.

Active versus passive use

Another challenge we encountered in our research is the lack of clear definitions for what constitutes “social media use.” Furthermore, platforms vary significantly in their design, function, and audience, and these differences matter when it comes to their effects on wellbeing. For instance, image-based platforms like Instagram tend to have a more significant negative impact on body image than text-based platforms such as X (formerly Twitter).

Moreover, the way adolescents and young adults use social media also matters. We found that active use, where individuals post and engage with others, is linked to more positive self-esteem. In contrast, passive use, where users merely scroll through content without interacting, is associated with negative effects on wellbeing. These differences are crucial to understanding social media’s impact and need to be better accounted for in future research.

A further factor is the intentional addictiveness of these platforms. Whistleblowers have revealed that many social media companies design their products to be habit-forming, encouraging users to spend more time on their platforms. This makes social media more invasive than previous technologies like television or radio, and its influence is likely to extend into the workplace as today’s adolescents enter the job market.

Beyond adolescence

Our study highlights the need for more long-term, rigorous research to better understand social media’s impact on wellbeing. Recent studies suggest that various moderators – such as the type of platform and patterns of use – can either worsen or mitigate the negative effects of social media. These must be taken into account in evaluating measures to take against these negative consequences.

We also believe it’s important to look beyond adolescence. As the next generation enters the workforce, their social media habits are likely to follow them, potentially affecting their productivity and mental health. This is why we advocate for more longitudinal studies that track social media use over time and examine its long-term effects on wellbeing.

As we have found, despite the complexities and inconsistencies in social media research, politicians and the media often draw simplistic conclusions. For example, the Kids Off Social Media Act, a US bipartisan effort to ban social media for children under 13, reflects a tendency to make blanket statements about the dangers of social media. While it’s true that younger adolescents are more vulnerable to its negative impacts, age is not the only factor that matters. The type of platform, how it’s used, and individual psychological differences also play significant roles. Therefore, we must be careful not to jump to conclusions or implement one-size-fits-all solutions. Instead, we need nuanced, data-driven policies that account for the many variables at play.

Finally, as social media continues to evolve, so too must our understanding of its effects. More detailed, high-quality research can help guide interventions and programmes that protect the wellbeing of adolescents and young adults. With the right approach, we can better understand and mitigate the risks associated with this powerful technology.

The Conversation

Tina Lowrey a reçu des financements de HEC Foundation.

L.J. Shrum a reçu des financements de HEC Foundation

20.11.2024 à 17:11

Les vins français doivent-ils craindre une nouvelle taxe Trump ?

Jean-Marie Cardebat, Professeur d'économie à l'Université de Bordeaux et Prof. affilié à l'INSEEC Grande Ecole, INSEEC Grande École

Donald Trump l’a promis à ses électeurs : les droits de douane vont augmenter pour tous les produits. Quel impact cela pourrait-il avoir sur la filière vinicole française ?
Texte intégral (1310 mots)

Donald Trump l’a promis à ses électeurs : les droits de douane vont augmenter pour tous les produits. Quel impact cela pourrait-il avoir sur la filière vinicole française ? Tout dépendra du montant finalement retenu de la taxe. Plus fondamentalement, les entreprises du secteur doivent prendre acte de la démondialisation en cours et revoir la carte mondiale de leurs clients.


Lors de sa campagne aux élections présidentielles américaines, Donald Trump a affiché une féroce volonté protectionniste. Ce n’est plus seulement la Chine qui est dans son collimateur, mais le monde entier. Pour les échanges commerciaux, Trump 2 sera vraisemblablement pire que Trump 1. Dès lors, que doit craindre la viticulture française dans ce contexte ?

Encore traumatisée par la taxe Trump de 25 % d’octobre 2019 à mars 2021, la filière française anticipe de nouvelles difficultés pour exporter ses vins vers les États-Unis. La comparaison entre la précédente taxe Trump et ce qui est annoncé par le futur président américain laisse cependant un peu d’espoir. Deux éléments risquent de changer la donne : le montant de la nouvelle taxe et son périmètre, à savoir les pays qui seront touchés par cette taxe.

Un certain flou

Il existe un certain flou sur le montant des droits de douane qui seront imposés aux vins importés aux États-Unis. Le chiffre le plus courant annoncé par Trump se situe entre 10 et 20 % pour tous les produits non chinois (60 % pour les produits chinois). 10 % ou 20 % ce n’est pas bien entendu la même histoire. On peut espérer cependant que le montant finalement retenu soit plutôt autour de 10 %.


À lire aussi : Les États-Unis ne croient plus en la mondialisation, et leur économie se porte bien malgré tout


Sinon l’effet inflationniste sur l’économie américaine serait trop important. Les économistes ont du mal à imaginer comment les consommateurs américains pourraient accepter un choc de 20 % de hausse des prix des produits importés. Surtout après la période inflationniste qu’ils viennent de subir. Des droits de douane trop élevés seraient donc très impopulaires, même si Trump fait le pari d’augmenter le revenu des ménages américains via des baisses de prélèvements et d’impôts financés par ces droits de douane afin de maintenir le pouvoir d’achat de ses concitoyens.

600 millions perdus

Le périmètre de la taxe Trump de 2019 était limité à trois pays : la France, l’Espagne et l’Allemagne, soit les trois pays du consortium Airbus. La mise en place de la taxe s’inscrivait dans le cadre d’un litige entre les États-Unis et l’UE sur la question aéronautique. Les droits de douane prévus lors de cette seconde mandature vont toucher tous les pays, ce qui constitue un changement profond.

Car si les vins français ont tant souffert en 2019, avec 40 % de ventes perdues et un manque à gagner estimé à 600 millions d’euros, c’est aussi qu’il y a eu d’importants effets de report des consommateurs américains vers d’autres vins importés. En particulier vers les vins rouges italiens, déjà leaders aux États-Unis. Pour le dire autrement, les Italiens ont été les grands gagnants de la taxe Trump. Pour les vins blancs, ce sont les Néo-Zélandais qui ont profité de la taxe. Cette fois, tout le monde devrait être touché. Les gagnants ne pourront être que les vins américains, qui, par définition, seront les seuls à ne pas être taxés.

Quel serait l’effet d’une taxe de 10 % touchant tous les vins importés aux États-Unis ? L’expérience montre qu’une partie de ces 10 % sera absorbée par la chaîne d’intermédiaires allant du producteur au consommateur, chacun acceptant une baisse marginale de son prix. Chacun (importateurs, grossistes, détaillants) souhaitant conserver sa part de marché, on peut imaginer que la hausse finale de prix sera inexistante ou extrêmement limitée. C’est ce qu’on appelle un comportement de marge, classique en cas de variation des taux de change ou de droits de douane. Une taxe de 10 % ne fait donc pas craindre d’effondrement de marché pour les vins français sur le marché des États-Unis. L’effet volume serait très contenu, mais la marge légèrement rognée.

Le danger d’une taxe de 20 %

L’équation se compliquerait cependant avec une taxe qui serait fixée à 20 %. Trop importante pour que des comportements de marge gomment l’effet de la fiscalité sur le prix final au consommateur. Dans ce cas, une hausse des prix finaux, dont l’ampleur dépendra du taux d’absorption par la chaîne d’intermédiaires, est inévitable. Les grands gagnants seront les producteurs américains vers lesquels se tourneront les consommateurs locaux.

Pour les vins français, l’effet dépendra de la sensibilité des consommateurs américains aux prix. Les vins les plus chers, qui sont aussi les plus demandés et les plus « uniques », sont toujours moins sensibles aux variations de prix. En revanche, les vins d’entrée et de milieu de gamme, qui sont le plus soumis à la concurrence, verront leur demande diminuer sensiblement.

Buvez Trump ?

Donald Trump étant lui-même producteur de vin, en concurrence avec les vins européens, une taxe supérieure à 10 % pour le vin n’est pas à exclure. Ce n’est pas le scénario privilégié pour autant. La politique économique américaine semble en fait surtout orientée vers l’industrie. L’idée des droits de douane s’inscrit dans la continuité de celle de l’Inflation Reduction Act (IRA), initiée par le démocrate Joe Biden. Ces politiques ont pour objectif de créer une incitation économique forte à l’installation de l’industrie mondiale sur le sol américain. Le vin devrait donc passer sous les radars.

France 24.

Néanmoins, malgré des effets attendus limités pour la filière vin française, cette nouvelle annonce protectionniste contribue au sentiment latent de démondialisation. Le marché russe s’est fermé avec la guerre en Ukraine. Le marché chinois impose des taxes aux brandys européens (essentiellement le Cognac à l’export) de 35 %.

L’accès aux grands marchés semble donc très précaire et on ne voit pas d’amélioration à court terme. Au-delà de Trump, il est grand temps d’acter cette démondialisation. De comprendre que les flux d’exports doivent significativement se réorienter vers des pays où la fiscalité serait plus propice aux échanges. De nombreux pays en Asie, en Afrique, en Amérique latine constituent des réservoirs potentiels de consommateurs. Les Européens sont à reconquérir également, mais avec des vins différents. Le marketing doit donc s’adapter à cette nouvelle donne internationale.

The Conversation

Jean-Marie Cardebat est Président de la European Association of Wine Economists

20.11.2024 à 17:11

Photos, IA et désinformation historique : l’enseignement de l’histoire face à de nouveaux défis

Mathieu Marly, Responsable éditorial de l'Encyclopédie d'histoire numérique de l'Europe (Sorbonne Université - Éducation nationale), agrégé, docteur en histoire contemporaine et chercheur associé au laboratoire SIRICE, Sorbonne Université

Gaël Lejeune, Enseignant-chercheur, Sorbonne Université

Alors que l’intelligence artificielle accélère la propagation de fausses images, les cours d’histoire se doivent d’intégrer une formation à l’histoire numérique. Explications avec le projet VIRAPIC.
Texte intégral (2216 mots)

À l’heure où l’intelligence artificielle accélère la propagation de fausses images et de photos sorties de leur contexte, apprendre aux élèves à sourcer leurs informations est plus important que jamais. Et les cours d’histoire se doivent d’intégrer aujourd’hui une formation à l’histoire numérique que peuvent faciliter des outils comme le projet VIRAPIC qui aide à repérer des photos virales.


Chaque jour, des images en lien avec des évènements historiques sont mises en ligne sans être référencées – avec leur auteur, leur date, leur localisation, leur lieu de conservation – et encore moins contextualisées par un commentaire historique. C’est le cas, par exemple, de cette photographie, la plus souvent publiée pour représenter les exactions des « mains coupées » dans le Congo de Léopold II, au tournant du XIXe au XXe siècle. En 2024, on la retrouve sur des milliers de pages web sans que l’auteur de cette photographie soit toujours mentionné et sans faire l’objet d’un commentaire historique approprié.

Cette photographie semble illustrer de manière saisissante les exactions commises par les compagnies de caoutchouc au Congo. Mais que peut-on voir de cette photographie sans connaître son histoire ? Le spectateur est ici contraint d’interpréter le message photographique au filtre de ses propres représentations, saisi par le contraste entre les victimes et les Européens habillés de blanc jusqu’au casque colonial, lesquels semblent justifier les châtiments corporels par leur pose hiératique.

En réalité, cette photographie a été prise en 1904 par une missionnaire protestante, Alice Seeley Harris, pour dénoncer ces violences et les deux hommes sur la photographie participent à cet acte de résistance photographique qui contribuera à mobiliser l’opinion publique européenne contre les crimes commis dans l’État indépendant du Congo. L’identité et les intentions du photographe ne sont pas ici un détail : ils rendent compte d’une réalité historique plus complexe, celle d’une « polyphonie morale » des sociétés européennes à la fin du XIXe siècle, divisées sur le bien-fondé et les dérives de la colonisation.

Un brouillard numérique d’images décontextualisées

Des exemples comme celui-ci, il en existe des milliers sur le web, les publications et partages d’images générant un brouillard de photographies décontextualisées, rendues virales par les algorithmes des moteurs de recherche et des réseaux sociaux numériques.

Prenons l’exemple de ce tweet d’Eric Ciotti posté le 16 juillet 2024 en commémoration de la rafle du Vel d’Hiv :

Capture d’écran.

La photographie postée n’a pas grand-chose à voir avec les rafles des 16 et 17 juillet 1942 : il s’agit en réalité d’un cliché montrant des Français soupçonnés de collaboration enfermés au Vel d’Hiv après le Libération. Ce compte Twitter n’est pas le seul à reproduire cette erreur ; il faut noter que les algorithmes de Google images ont longtemps placé cette photographie dans les premiers résultats de recherche à la suite des mots clefs « Rafle du Vel d’Hiv ».

La rectification de cette erreur est-elle seulement l’affaire des historiens préoccupés par l’identification des sources ? En réalité, cette erreur participe à la méconnaissance historique de la rafle du Vel d’Hiv. Comme le montre l’historien Laurent Joly, il existe une seule photographie de la rafle, prise le 16 juillet 1942 à des fins de propagande et pourtant jamais publiée dans la presse. Ce détail n’est pas anodin, il révèle que les autorités allemandes ont interdit la publication des photographies de la rafle, alertées par la désapprobation de la population parisienne.

Un défi pour les enseignants

Ces quelques exemples doivent nous alerter sur l’usage illustratif de la photographie encore trop présent dans l’édition scolaire. Faute de place, les manuels se contentent, le plus souvent, d’une simple légende sans commentaire pour éclairer ou confirmer le cours de l’enseignant.

L’usage des photographies par les historiens a pourtant évolué ces dernières années, considérant désormais celle-ci comme de véritables archives auxquelles doivent s’appliquer les règles élémentaires de la critique des sources. Un tel usage gagnerait certainement à être généralisé dans l’enseignement de l’histoire pour sensibiliser les élèves à la critique documentaire – le plus souvent résumée par la méthode SANDI (Source, Auteur, Nature, Date, Intention). Car, si cette méthode est parfois jugée artificielle par les élèves, elle trouve une justification, pour ainsi dire immédiate, dans la critique de l’archive photographique.


À lire aussi : Quelle éducation aux images à l’heure des réseaux sociaux ?


En effet, le regard porté par les élèves sur l’image photographique change radicalement une fois connue son histoire.

Cette approche documentaire est d’autant plus nécessaire que les élèves et les étudiants s’informent aujourd’hui de plus en plus sur les réseaux sociaux, des réseaux où les photographies sont relayées par des armées de comptes sans scrupules méthodologiques et parfois orientées par des lectures complotistes du passé.

Il faut encore ajouter une autre donnée pour comprendre l’enjeu pédagogique qui attend les enseignants d’histoire dans les années à venir : d’ici 2026, selon un rapport d’Europol, la majorité du contenu disponible sur le web sera généré par l’IA. Cela impliquera probablement la publication de fausses photographies de plus en plus crédibles et sophistiquées, lesquelles tiendront lieu de preuve à des fictions déguisées en histoire.

La prolifération des IA génératives, l’accélération des échanges de photographies inventées, détournées ou décontextualisées constituent un véritable défi pédagogique. Comment enseigner l’histoire aux élèves sans leur transmettre les outils pour affronter la désinformation historique en ligne ? Comment expliquer aux élèves l’environnement numérique dans lequel ils sont immergés (IA, algorithmes, vitalités des images) sans proposer un cours d’histoire qui soit aussi un cours d’histoire numérique ?

Un projet pour lutter contre la viralité de la désinformation historique

Pour répondre à ces défis, l’Encyclopédie d’histoire numérique de l’Europe (EHNE-Sorbonne Université) et les équipes d’informaticiens du CERES-Sorbonne Université élaborent un nouvel outil qui vise autant un public d’enseignants que d’éditeurs et les journalistes : le projet VIRAPIC, une plate-forme numérique dont l’objectif est de repérer les photographies virales (reproduites en ligne à une très grande échelle et/ou sur un laps de temps réduit) lorsque celles-ci sont inventées, détournées ou décontextualisées des évènements historiques qu’elles prétendent illustrer.

VIRAPIC, un nouvel outil pour éduquer le regard des élèves aux archives photographiques (novembre 2024).

L’objectif est double. Il s’agit d’injecter du contenu historique autour des photographies virales (source, légende, commentaire historiques) et d’analyser les viralités numériques des photographiques (Qui les publie ? Sur quels supports ? Avec quelle temporalité ?). Le projet VIRAPIC aborde surtout le problème de la désinformation historique par une approche pragmatique : lutter contre la viralité de la désinformation par le référencement du travail historien sur les moteurs de recherche.

L’originalité de cet outil tient en effet à la possibilité d’agir directement sur les pratiques des internautes grâce au référencement de l’Encyclopédie EHNE dont les pages web apparaissent dans les premiers résultats des moteurs de recherche. Ainsi, les internautes recherchant des photographies pour illustrer les évènements historiques verront apparaître les pages web EHNE/VIRAPIC dans les premiers résultats de recherche comme Google Images.

En constituant une base de référencement des photographies virales, détournées, décontextualisées ou inventées autour d’évènement historiques, le projet VIRAPIC permettra d’accéder rapidement à un contenu historique solide et critique sur les images que les élèves, enseignants ou éditeurs souhaitent publier en ligne ou utiliser en cours.


Science et Société se nourrissent mutuellement et gagnent à converser. La recherche peut s’appuyer sur la participation des citoyens, améliorer leur quotidien ou bien encore éclairer la décision publique. C’est ce que montrent les articles publiés dans notre série « Science et société, un nouveau dialogue », publiée avec le soutien du ministère de l’Enseignement supérieur et de la Recherche.

The Conversation

Mathieu Marly a reçu des financements du CNRS

Gaël Lejeune a reçu des financements de BPI France.

20.11.2024 à 17:11

Polices municipales : vers des pouvoirs accrus ?

Adrien Mével, Docteur en science politique, Université de Rennes 1 - Université de Rennes

Le Beauvau des polices municipales, qui reprend le 21 novembre, doit baliser la future « loi-cadre » voulue par le ministre de la Sécurité Nicolas Daragon.
Texte intégral (1652 mots)

Amorcé par le précédent gouvernement, le Beauvau des polices municipales reprend le 21 novembre et devrait rendre ses conclusions en mars prochain. L’enjeu est de baliser la future « loi-cadre » que le ministre délégué chargé de la Sécurité du quotidien, Nicolas Daragon, appelle de ses vœux. Ce dernier souhaite renforcer les prérogatives de la police municipale.


Aujourd’hui s’ouvre une nouvelle séquence du Beauvau des polices municipales, un espace de discussion associant ministres, représentants de syndicats de la fonction publique territoriale, associations d’élus locaux, parlementaires et membres de l’institution judiciaire. L’objectif explicite est de trouver des moyens d’augmenter le pouvoir des polices municipales : le ministre délégué à la Sécurité du quotidien, Nicolas Daragon a déclaré que si la police municipale est « bel et bien la troisième force de sécurité du pays, (elle est bridée) dans sa capacité à intervenir ». L’extension de ses pouvoirs s’inscrirait en particulier dans le cadre de la répression du trafic de stupéfiants.

Les policiers municipaux sont placés sous l’autorité du maire, et n’ont pas de pouvoir d’enquête. Contrairement aux policiers nationaux, ils ne peuvent par exemple pas réaliser de contrôle d’identité ou de fouille de personnes ou de véhicules. Depuis la loi de 1999 qui a fixé le cadre légal de la profession, les pouvoirs des agents sont restés globalement inchangés.

Des tentatives retoquées par le Conseil constitutionnel

Plusieurs tentatives de renforcement des pouvoirs des policiers municipaux ont déjà eu lieu : en 2011, la loi d’orientation et de programmation pour la performance de la sécurité intérieure II et plus récemment, en 2020, la proposition de loi « sécurité globale », qui listait une série de délits pour lesquels les policiers municipaux auraient été autorisés à agir de manière autonome. Ces dispositions ont été censurées par le Conseil constitutionnel qui a jugé qu’elles contrevenaient au principe de placement de la police judiciaire sous le contrôle de l’autorité judiciaire. D’où la recherche par le pouvoir central d’une nouvelle solution, le placement temporaire et optionnel des policiers municipaux sous l’autorité du procureur de la République.

Nicolas Daragon a insisté sur le caractère facultatif de cette délégation, échouant toutefois à désamorcer l’expression de réticences de la part d’élus locaux. Bien que la prise de plainte par les policiers municipaux – une possibilité que redoutent les maires et les agents car elle entraînerait un important transfert de charge administrative de la police nationale vers les polices municipales – n’est pas sur la table aux dires du ministre, il est à prévoir que les maires n’accueilleront pas tous favorablement une mesure qui se traduirait par une diminution de leur mainmise sur la police municipale. Même s’il a été présenté comme procédant du libre choix des communes, ce placement pourrait vite devenir un objet de négociation dans l’établissement des conventions de coordination entre villes et services étatiques.

Trois pistes pour étendre les pouvoirs de police municipale

Le ministre a annoncé trois mesures phares pour les polices municipales : le droit de consulter des fichiers (comme le fichier des personnes recherchées, le système des immatriculations de véhicule ou le fichier national des permis de conduire), d’effectuer des contrôles d’identité, et la possibilité d’infliger des amendes forfaitaires délictuelles (AFD) pour le délit de détention de stupéfiants.

Concernant l’AFD, il ne s’agit pas du premier essai de ce type, l'article premier de loi dite « sécurité globale » visait à donner ce pouvoir aux agents de police municipale, et a fait partie des éléments censurés par le Conseil constitutionnel.


À lire aussi : Comment le fichage policier est-il contrôlé ?


Si la solution qu’explore le gouvernement permettait de passer cette fois l’épreuve du contrôle de constitutionnalité, les policiers municipaux pourraient alors verbaliser le délit de détention de stupéfiants dans certains cas. Cependant, les études sur ce dispositif mettent surtout en lumière des effets socio-économiques négatifs sur les populations visées (avec une multiverbalisation qui peut générer de très importantes dettes au Trésor public), et peut créer chez les personnes mises à l’amende un sentiment d’un arbitraire policier de fait affranchi du contrôle judiciaire. La Défenseure des droits a d’ailleurs préconisé l’abandon de ce dispositif, arguant entre autres des problèmes en matière d’accès aux juges par les personnes sanctionnées et de respect des droits de la défense.

Pour ce qui est de l’accès aux fichiers administratifs, le gouvernement souhaite que les agents puissent les consulter sans avoir besoin de solliciter la police nationale. L’objectif est de leur permettre d’accéder rapidement à des informations sur les individus qu’ils contrôlent. Si cet enjeu est devenu aussi important, c’est en partie car les usages de ces bases de données par les policiers nationaux se sont multipliés. Les policiers municipaux, eux, n’ont qu’un accès indirect et limité à ces informations.

Nicolas Daragon souhaite que les policiers municipaux puissent effectuer des contrôles d’identité. Cet outil est massivement utilisé par les policiers nationaux tandis que les agents de police municipale ne peuvent, en droit, réaliser que des relevés d’identité. Ils peuvent demander la présentation de documents d’identité lorsqu’il s’agit de verbaliser une infraction mais ne peuvent pas obliger les personnes contrôlées à justifier leur identité. Dans les faits pourtant, les pratiques des policiers municipaux peuvent s’avérer assez proches de celles des agents de police nationale.

J’ai pu constater au cours de mes enquêtes de terrain que les policiers municipaux utilisent des infractions prétextes (avoir traversé en dehors du passage clouté par exemple) pour obtenir les papiers d’identité d’individus. Ils peuvent aussi jouer sur l’ambiguïté entre des injonctions légales et des demandes cherchant à obtenir le consentement des individus ciblés. Par exemple, demander : « est-ce que vous pouvez ouvrir votre sac s’il vous plaît ? », sachant qu’ils n’ont pas le pouvoir de l’imposer mais comptant sur le consentement et l’ignorance de la loi des personnes contrôlées.

Une étape supplémentaire dans la judiciarisation des missions de police municipale ?

Si elles devaient être adoptées, les mesures envisagées renforceraient clairement le pouvoir des policiers municipaux. Elles interrogent néanmoins le rôle des polices municipales, et présentent des risques de dégradation des rapports de ces agents à la population en les dotant d’outils générateurs de conflits.

Mais dans les faits, cette réforme ne signerait pas une évolution notable des missions de police municipale vers la répression de la délinquance, elle ne ferait qu’accompagner un processus déjà bien engagé.

En s’appuyant sur l’article 73 du Code de procédure pénale, les policiers municipaux sont déjà en mesure d’interpeller dans le cadre du flagrant délit. J’ai pu observer que le recours à cet article ne se fait pas seulement lorsque des policiers municipaux tombent « par hasard » sur un délit en train de se commettre. La possibilité d’interpeller ouvre en fait la possibilité d’une recherche active du flagrant délit, c’est-à-dire d’orientation des patrouilles et des modes de présence dans l’espace public pour maximiser les chances d’assister à un délit, avec une focalisation croissante des agents sur la vente de stupéfiants.

Bien que diversement investie en fonction des villes, des unités et des profils d’agents, la répression de la détention et de la vente de stupéfiants est déjà prise en charge par les policiers municipaux. Tout indique qu’elle le sera de plus en plus, avec ou sans extension des compétences judiciaires, sans que cette politique n’ait produit d’effets positifs clairs.

sec

The Conversation

Adrien Mével ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

20.11.2024 à 17:10

Comment les planètes naissent-elles ? La réponse pourrait se trouver dans les astéroïdes

Marco Delbo, Directeur de recherche à l’Observatoire de la Côte d’Azur, Université Côte d’Azur

La formation des planètes est une question fondamentale en astronomie. Comprendre comment elles se forment et évoluent est crucial pour déchiffrer le système solaire et au-delà.
Texte intégral (1954 mots)
Le télescope infrarouge de la NASA au sommet du volcan endormi Mauna Kea, sur la grande île d’Hawaï, aux États-Unis. Jenly Chen/Flickr, CC BY-SA

La formation des planètes est une question fondamentale en astronomie et en science planétaire. Comprendre comment elles se forment et évoluent est crucial pour déchiffrer le système solaire et au-delà. Malgré les avancées de la science, nous sommes encore loin de comprendre tous les détails de la formation planétaire.


Il est bien connu par la théorie et les observations astronomiques que les planètes se forment dans des disques de gaz et de poussière autour d’étoiles très jeunes. Il est donc logique que les planètes de notre système solaire se soient également formées dans le disque protoplanétaire de notre soleil. Cela s’est produit il y a 4,5 milliards d’années.

Cependant la phase la plus obscure de la formation planétaire est peut-être la façon dont la poussière s’accumule dans un disque protoplanétaire pour donner naissance aux planétésimaux, les objets constitutifs des planètes.

Les modèles classiques reposaient sur une coagulation collisionnelle progressive, un processus où de petits grains de poussière s’agglomèrent petit à petit pour former des particules de plus en plus grosses par des collisions, allant de quelques micromètres jusqu’à la taille des planètes. Cependant, des tests en laboratoire ont montré que ces modèles ne fonctionnent pas, car ils rencontrent un certain nombre d’obstacles, par exemple, les grains de poussière ne peuvent pas croître par collisions successives d’une taille submillimétrique à une taille kilométrique.

Une nouvelle théorie

De nouveaux modèles suggèrent que les planétésimaux se forment à partir des nuages de poussière qui atteignent des densités suffisamment élevées pour se soutenir sur eux-mêmes par la gravité. C’est ce qu’on appelle la Streaming Instability, une théorie qui a pris de l’ampleur dans la communauté de planétologues. Différentes études ont montré que cette théorie reproduit bien la distribution des tailles des grands astéroïdes et des objets transneptuniens.

Pourtant, il n’était pas clair jusqu’où s’étendait la distribution des tailles prédite par cette théorie, c’est-à-dire si elle produisait beaucoup de petits planétésimaux ou s’il existait une taille minimale pour ces derniers.

D’autre part, différentes études trouvent une taille typique d’environ 100 km de diamètre pour les planétésimaux, suggérant ainsi que les petits agrégats de particules ne donnent pas nécessairement naissance à de petits planétésimaux. En effet, il semble que les petits agrégats se dispersent en raison de la turbulence du gaz dans le disque protoplanétaire avant d’avoir la possibilité de former des planétésimaux. Ces derniers se sont-ils formés, donc, à grande ou à petite échelle ? Une réponse définitive n’était pas encore établie.

À la recherche des planétésimaux survivants

Origins, un projet de recherche que je dirige et financé par l’Agence Nationale de la Recherche (ANR), a apporté une contribution originale dans ce domaine en utilisant une méthodologie novatrice. Celle-ci repose sur l’analyse d’observations et de données astronomiques pour identifier les planétésimaux encore survivants parmi la population des astéroïdes, afin de mesurer leur distribution de taille.

Ces planétésimaux sont localisés dans la partie interne de la ceinture d’astéroïdes, entre 2,1 et 2,5 unités astronomiques, cette dernière étant la distance moyenne Soleil-Terre. Cela a permis de fournir des contraintes observationnelles strictes aux modèles de formation des planétésimaux.

L’idée fondatrice de notre projet repose sur le concept selon lequel les astéroïdes représentent bien les vestiges de l’ère de formation des planètes, mais que tous les astéroïdes que l’on observe aujourd’hui ne sont pas des survivants de cette époque primordiale. Il est connu que de nombreux astéroïdes sont des fragments issus de collisions entre des corps parentaux plus volumineux. Ces collisions ont eu lieu tout au long de l’histoire de notre système solaire. L’âge de ces fragments d’astéroïdes correspond au temps écoulé depuis l’événement de collision qui les a produits jusqu’à aujourd’hui. Bien que ces fragments conservent encore la composition originale de leurs géniteurs, leurs dimensions et formes ne fournissent aucune information sur les processus d’accrétion ayant conduit à l’accrétion des planétésimaux, et par conséquent, des planètes. Les méthodes développées dans le cadre de notre projet ont efficacement distingué les astéroïdes originaux, ayant été accumulés en tant que planétésimaux dans le disque protoplanétaire, des familles des fragments résultant de collisions. Par la suite, elles ont également permis d’étudier les événements dynamiques qui ont contribué à sculpter la structure actuelle du système solaire.

Notre équipe a développé et utilisé une méthode pour découvrir, localiser et mesurer l’âge des familles des fragments de collisions les plus anciennes : chaque membre d’une famille de fragments s’éloigne du centre de la famille en raison d’une force thermique non gravitationnelle connue sous le nom d’effet Yarkovsky.

Cette dérive se produit de manière dépendante de la taille du membre de la famille, les petits astéroïdes dérivant plus rapidement et plus loin que les plus grands. La méthode novatrice de notre projet consistait à rechercher des corrélations entre la taille et la distance dans la population d’astéroïdes. Cela a permis de révéler les formes des familles de fragments les plus anciennes.

Des astéroïdes vieux de 3 à 4,5 milliards d’années

Grâce à cette technique, quatre familles importantes et très anciennes d’astéroïdes ont été découvertes par les chercheurs de notre projet. Ce sont parmi les familles d’astéroïdes les plus répandues. Leur extension est d’environ une moitié d’unité astronomique et ils sont localisés dans la partie plus interne de la ceinture d’astéroïdes et ont des âges entre 3 et 4,5 milliards d’années.

Cependant, une nouvelle méthode d’identification des familles d’astéroïdes nécessite encore des vérifications. L’une de ces vérifications consiste à déterminer la direction de rotation de chaque membre des familles.

Pour ce faire, les chercheurs ont lancé une campagne internationale d’observations appelée « Ancient asteroids », impliquant des astronomes professionnels et amateurs. Ils ont obtenu des observations photométriques des astéroïdes afin de mesurer leur variation de luminosité en fonction de leur rotation (courbe de lumière). Grâce à des méthodes d’inversion de courbe de lumière, l’équipe de notre projet a pu déterminer l’orientation tridimensionnelle des astéroïdes dans l’espace et extraire la direction de rotation. Cela a révélé que les astéroïdes rétrogrades se trouvent généralement plus près du Soleil que le centre des familles, tandis que les astéroïdes progrades se trouvent au-delà du centre des familles, conformément aux attentes théoriques. Ces recherches ont permis de confirmer l’appartenance de plusieurs astéroïdes aux familles très anciennes identifiées par notre équipe.

Une question scientifique majeure qui s’est posée après l’identification des astéroïdes les plus primordiaux était de savoir quelle était leur composition. Pour répondre à cette question, les scientifiques de l’ANR Origins sont retournés à leurs télescopes pour étudier spectroscopiquement ces corps. Leur investigation spectroscopique des planétésimaux de la ceinture principale interne a confirmé que les corps riches en silicates dominaient cette région. Cependant, presque tous les types spectraux d’astéroïdes sont présents, à l’exception notable des astéroïdes riches en olivine. Leur absence parmi les planétésimaux pourrait être due à la rareté de ces types parmi les grands astéroïdes.

Certains types d’astéroïdes sont très rares

Mais pourquoi les astéroïdes riches en olivine sont aussi rares ? On s’attend à ce que les astéroïdes les plus anciens soient riches en olivine en raison du processus de différenciation. Ce processus entraîne l’organisation d’un corps en couches de densités et de compositions différentes, en raison de la chaleur générée par la désintégration d’éléments radioactifs.

Les chercheurs ont découvert, pour la première fois, une famille de fragments d’astéroïdes riche en olivine, probablement formée par la fragmentation d’un corps parent partiellement différencié. Cette famille pourrait également provenir de la fragmentation d’un corps riche en olivine, peut-être issu du manteau d’un planétésimal différencié qui aurait pu se briser dans une région différente du système solaire, et l’un de ses fragments aurait pu être implanté dynamiquement dans la ceinture principale.

En effet, l’idée que des astéroïdes pourraient avoir été implantés dans la ceinture principale par des processus dynamiques a été largement étudiée ces dernières décennies. L’un de ces processus dynamiques pourrait être l’instabilité orbitale des planètes géantes. Cela suggère que Jupiter, Saturne, Uranus et Neptune se sont formés sur des orbites rapprochées avant de migrer vers leurs positions actuelles. Cette migration aurait pu déclencher des interactions gravitationnelles avec les planétésimaux, les déplaçant dans le système solaire primitif. Déterminer l’époque de cette instabilité est une question majeure car elle est cruciale pour comprendre son impact sur la déstabilisation des populations de petits corps, la perturbation des orbites des planètes telluriques, et éventuellement son rôle dans leur évolution.

The Conversation

Marco Delbo ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

20.11.2024 à 17:10

La climatisation et le boom de l’IA vont-ils faire dérailler les engagements climatiques des États ?

Djedjiga Kachenoura, Coordinatrice du projet de recherche sur la finance et le climat, Agence française de développement (AFD)

Le budget carbone (ce que nous pouvons encore émettre avant de dépasser +1,5 ou 2 °C) doit être réparti équitablement entre États et secteurs, mais il n’existe pas de cadre sur la façon de s’y prendre
Texte intégral (3055 mots)

Tandis que les États s’engagent sur des réductions d’émissions de gaz à effet de serre dans le cadre des négociations climatiques internationales, certains domaines d’activité, comme la climatisation ou l’intelligence artificielle (IA), voient leur consommation d’électricité bondir. Comment répercuter les engagements nationaux au niveau des entreprises : selon quelles règles et quelles priorités ? Faudrait-il favoriser les considérations éthiques ou stratégiques ?


Alors que la COP29 sur le climat se déroule ce mois de novembre 2024 à Bakou, en Azerbaïdjan, l’avenir des énergies fossiles se trouve sous le feu des projecteurs.

L’électrification et la décarbonisation de nos économies (l’électricité étant, à condition d’être produite à partir de renouvelables, la plus « propre » des énergies) étaient justement à l’honneur du rapport annuel dévoilé par l’Agence internationale de l’énergie (AIE) en octobre dernier.

Cette édition du rapport, une référence internationale pour décrypter les tendances énergétiques mondiales, les prévisions de consommation et les meilleurs scénarios pour atteindre les objectifs climatiques, aurait pu s’intituler :

« bienvenue dans l’ère contrariée de l’électrique ».

D’ici 2035, la demande mondiale d’électricité devrait augmenter à un rythme annuel équivalent à la consommation électrique d’un pays comme le Japon (1 000 térawattheures). Cette hausse est portée par l’électrification des usages, mais également la demande croissante de climatisation et de dessalement d’eau de mer, en réponse au réchauffement climatique. Et dans une moindre mesure, par l’essor des data centers, en lien avec la croissance des usages liés à l’intelligence artificiel (IA).

De quoi interroger la hiérarchie de ces usages et de leurs finalités : le Financial Times soulignait que l’augmentation du recours à la climatisation constituait l’un des impacts à venir les plus « imprévisible » pour les systèmes électriques mondiaux.

Si l’on replace cela dans le contexte plus général des efforts de la diplomatie climatique pour limiter le réchauffement à 1,5 °C ou 2 °C, ce boom annoncé de l’électrique interpelle. En effet, il interroge la distribution internationale et sectorielle du budget carbone, cette quantité de CO2 que nous pouvons encore émettre sans que le réchauffement ne dépasse la limite souhaitée. Pour réfléchir à cette question, l’AFD a récemment publié une proposition de cadrage comptable et écologique des crédits carbone.


À lire aussi : Combien de tonnes d’émissions de CO₂ pouvons-nous encore nous permettre ?


IA et énergie, un cas emblématique… et un dilemme éthique

Comme le rapportait un article publié par le Washington Post en octobre 2024, des centrales à charbon subsistent aux États-Unis dans certaines régions pour répondre aux besoins énergétiques des data centers, ces infrastructures indispensables à l’IA.

En parallèle, les acteurs de l’IA et leurs fournisseurs de solutions de data centers cherchent à répondre à cette demande d’électricité tout en réduisant leur empreinte carbone. Ceci alimente la demande sur les marchés volontaires de la compensation carbone, et plus largement de solutions de décarbonisation, comme celles de capture du CO2 et même le renouveau de l’énergie nucléaire aux États-Unis.

Le cas de l’IA est emblématique car il cristallise des tensions qui peuvent aussi s’appliquer à d’autres secteurs d’activités :

  • Jusqu’à quel point un acteur ou un secteur économique peut-il augmenter ses émissions de gaz à effet de serre (GES) ? Peut-on définir une « légitimité à émettre » ?

  • Ces acteurs doivent-ils contribuer au développement et à la préservation des puits de carbone naturels (forêts, océans, sols…) et si oui, comment ?

  • Faudrait-il des règles ou des grands principes pour allouer au mieux entre les acteurs privés le budget carbone restant et l’accès aux crédits carbone ?

  • Ou encore, faudrait-il, au minimum, expliciter les règles du jeu pour gagner en transparence ?

Ces questions soulèvent des enjeux techniques, comptables, mais surtout politiques et éthiques.

  • Une éthique centrée sur l’individu prioriserait les usages de l’électricité pour la climatisation, facteur de confort individuel,

  • les États qui hébergent des acteurs majeurs de l’IA auraient, de leur côté, tendance à favoriser cet usage en raison de son importance stratégique,

  • D’autres pays, en revanche, pourraient refuser de limiter l’élevage, secteur très émissif, invoquant des raisons culturelles. Par exemple en Argentine, où la pratique des asados (barbecues) est profondément enracinée dans l’identité nationale.

Budget carbone : de quoi parle-t-on ?

Répondre aux questions qui précèdent n’est pas trivial : cela impliquerait d’avoir un cadre commun et partagé sur la scène internationale. Celui-ci pourrait s’inspirer de concepts financiers, comme les notions de dette et de remboursement de la dette.

Pour rappel, les États signataires de l’accord de Paris s’engagent déjà sur des réductions d’émissions à travers les contributions déterminées au niveau national (CDN). Mais rien n’est prévu pour répartir les budgets carbone au sein d’un même pays, où les actions de décarbonisation sont, in fine, déléguées aux acteurs.

La notion de budget carbone a été conceptualisé par le GIEC dans son sixième rapport d’évaluation du climat.

  • Pour limiter le réchauffement à 1,5 °C avec 50 % de probabilité et la neutralité carbone à l’horizon 2050, le budget carbone restant s’élève à 275 milliards de tonnes (Gt) de CO₂ – soit environ 7 ans d’émissions au rythme actuel.

  • Pour atteindre l’objectif de 2 °C, ce budget grimpe à 625 Gt CO2, ce qui correspond à 15 ans d’émissions au rythme actuel.

Où en sommes-nous ? Les émissions mondiales de gaz à effet de serre s’élèvent actuellement à 40 Gt équivalent CO2 par an, et proviennent approximativement à 90 % des combustibles fossiles (36 Gt) et à 10 % des changements d’usage des sols (4 Gt).

Depuis 1750, l’humanité a émis environ 2 800 Gt équivalent CO2. Heureusement, les écosystèmes terrestres et océaniques ont pu jouer leur rôle de puits de carbone, en divisant par deux la vitesse à laquelle les concentrations atmosphériques de CO2 ont augmenté.

Les émissions de gaz à effet de serre issues des énergies fossiles ne sont plus entièrement compensées par les puits de carbone naturels : le climat se réchauffe. Global Carbone Project, CC BY

À titre d’exemple, entre 2013 et 2022, les systèmes océaniques ont capté 26 % et les terrestres 31 % des émissions. Cependant, leur efficacité diminue avec la hausse des températures, comme le soulignait le dernier rapport du Global Carbon Budget.

Climat : une rigueur budgétaire à géométrie variable ?

Pourrait-on imaginer, pour mieux distribuer le budget carbone, un système de « débiteurs » du CO2 émis avec une obligation de remboursement ? L’enjeu semble surtout être de fixer les priorités. Un peu comme lors d’un exercice budgétaire, ou tout resserrement budgétaire doit conduire à un meilleur optimum social et/ou économique, et où les arbitrages réalisés doivent être explicités.

À l’échelle globale, aucun cadre universel ne permet actuellement de mesurer précisément la contribution des entreprises aux objectifs des CDN des États ou à la gestion du budget carbone mondial : encore faudrait-il savoir selon quels critères le faire, et sur la base de quelle comptabilité.

Le concept d’« alignement » tente d’y remédier : il qualifie les efforts de décarbonisation des entreprises et autres organisations par rapport à une trajectoire idéalisée de leur secteur de référence compatible avec un scénario net zéro.

Schéma explicatif du concept d’alignement avec l’accord de Paris. I4CE

Certaines de ces méthodes, comme celle développée par l’emblématique SBTi (Science Based target Initiative), allouent des budgets carbone d’abord par secteur, puis par entreprise.

Ce processus est controversé car il repose sur des scénarios sectoriels. Ces derniers sont donc bâtis sur des compromis politiques, ainsi que sur des hypothèses en matière de développement technologique et d’évolution de la demande.

Ce système favorise souvent les gros émetteurs actuels, selon le principe du « grandfathering », qui attribue les budgets carbone au prorata des émissions actuelles. Il échappe ainsi à toute délibération politique, créant ainsi une répartition implicite du budget carbone pour les entreprises, sans prendre en compte les trajectoires des CDN déclarées par les pays dans lesquels opèrent les acteurs concernés.

En France, la Stratégie nationale bas carbone (SNBC) prévoit de répartir le budget carbone national de la France en plusieurs budgets sectoriels. Cette répartition sectorielle, définie par la loi de transition énergétique pour la croissance verte, est le fruit d’un processus politique.

Concrètement, cette loi

« donne des orientations pour mettre en œuvre, dans tous les secteurs d’activité, la transition vers une économie bas carbone, circulaire et durable. Elle définit une trajectoire de réduction des émissions de gaz à effet de serre jusqu’à 2050 et fixe des objectifs à court-moyen termes : les budgets carbone ».

Les entreprises ne sont toutefois pas tenues de respecter ces budgets carbone sectoriels : la démarche est sur une base volontaire.


À lire aussi : Histoire des crédits carbone : vie et mort d'une fausse bonne idée ?


Faudrait-il aller plus loin et « désagréger » au niveau des entreprises le budget carbone dévolu à un secteur ? Dans un monde idéal avec un prix du carbone approprié, la décarbonisation s’opèrerait naturellement selon un critère optimal coûts-bénéfices. Comme ce n’est pas le cas, il faut descendre au niveau de l’entreprise pour comprendre comment se répartissent les efforts de décarbonisation.

L’entreprise semble être le lieu le plus approprié pour cela : elle a une existence juridique, des comptes financiers, des comptes carbone, et peut être tenue responsable. Elle est le lieu où convergent les investisseurs, les politiques publiques et la société civile.

Dans tous les cas, les méthodes de répartition des budgets au niveau individuel devraient distinguer et expliciter les différents enjeux d’ordre scientifique, technique, économique et politique qui les constituent et les soumettre à des délibérations élargies.


À lire aussi : Le grand flou de la comptabilisation des quotas carbone dans les entreprises


Vers l’épuisement du budget carbone

Le dépassement du budget carbone devrait engendrer la reconnaissance d’une dette climatique qu’il serait obligatoire de rembourser. Ce n’est pas le cas à l’heure actuelle.

Les crédits carbone liés aux puits de carbone (par exemple reforestation ou capture du CO2), qui relèvent principalement des marchés volontaires, ne sont en aucun cas liés à une dette climatique. En effet, aucune comptabilité ne reconnaît formellement le budget carbone, et du coup, ne peut enregistrer son dépassement. Bien que la méthode SBTi mentionnée précédemment tente d’introduire des règles, elle ne s’inscrit pas dans une logique de dette climatique.

Le GIEC a malgré tout formulé des recommandations, notamment le fait de réserver les puits de carbone aux secteurs difficiles à décarboniser (comme l’industrie lourde, l’aviation) ou aux émissions résiduelles, sans qu’il existe de consensus clair sur la définition de ces dernières. Le GIEC propose ainsi une tentative de hiérarchisation partielle (merit order) d’accès aux puits de carbone.

Il faut aussi rappeler que si la maintenance des puits de carbone existants est négligée, la création de nouveaux puits deviendra plus difficile, augmentant ainsi la nécessité de réduire ou d’éviter les émissions pour rester dans les limites du budget carbone global.

À ce jour, aucun cadre ne garantit donc la cohérence entre les systèmes de redevabilité ou de comptabilité carbone entre l’échelle de l’entreprise et celle d’un État. Cette absence de coordination empêche d’aligner efficacement les actions des entreprises avec le budget carbone national, et pose un risque clair de voir naître des politiques climatiques biaisées, des subventions captées par les mauvais acteurs voire des réglementations trop sévères pour d’autres.

The Conversation

Djedjiga Kachenoura ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

20.11.2024 à 17:10

Alliance AUKUS : les problèmes de fond des forces sous-marines australiennes

Benjamin Blandin, Doctorant en relations internationales, Institut catholique de Paris (ICP)

Confrontée à divers défis économiques, techniques et diplomatiques, l’Australie mesure les difficultés liées à la mise en œuvre de l’accord AUKUS.
Texte intégral (2751 mots)
Le HMAS Waller, l’un des six sous-marins de classe Collins exploités depuis les années 1990 par les forces armées australiennes, dans le port de Sydney le 29 mai 2008. Horatio J. Kookabura/Flickr, CC BY-SA

Voilà plus de cent ans que l’Australie accorde une grande importance à ses capacités sous-marines. En signant en 2021 l’accord AUKUS, elle s’est lancée dans un projet colossal, dont la mise en œuvre rencontre dernièrement de nombreuses difficultés.


En septembre 2021, l’accord AUKUS est annoncé au grand jour. Ce partenariat stratégique entre l’Australie, le Royaume-Uni et les États-Unis (d’où l’acronyme choisi pour le désigner) porte sur l’acquisition par Canberra d’une dizaine de sous-marins à propulsion nucléaire de fabrication américano-britannique – au grand dam de la France.

L’histoire de la force sous-marine australienne n’a été que rarement mentionnée dans cette affaire, alors qu’elle constitue un facteur clé pour comprendre les tenants et les aboutissants de ce partenariat tripartite.


À lire aussi : L’« Indo-Pacifique », au-delà du slogan


Une histoire ancienne semée d’embûches

L’Australie, en dépit d’une base militaro-industrielle assez limitée, d’un éloignement géographique relatif vis-à-vis de ses alliés occidentaux et d’un territoire faiblement peuplé – trois éléments n’en faisant pas un acteur naturel dans le domaine complexe et coûteux des sous-marins –, dispose de plus d’un siècle d’expérience en la matière.

En 1914, durant la Première Guerre mondiale, qui sévit aussi en Océanie, le pays reçoit sa première capacité sous-marine avec la livraison par le Royaume-Uni de deux sous-marins de type « E-class ».

L’escadre australienne entrant dans le port de Simpson, à Rabaul, en septembre 1914
L’escadre australienne entrant dans le port de Simpson, à Rabaul, en septembre 1914. Wikimedia, CC BY-NC-ND

L’un d’eux disparaît, la même année, lors de la campagne contre la base allemande de Rabaul (aujourd’hui en Papouasie-Nouvelle-Guinée). Le second est rapatrié en Europe et utilisé durant la campagne de Gallipoli.

Une deuxième tentative est initiée en 1919, avec la livraison de six sous-marins britanniques « J-class », mais ces derniers, en mauvais état, passent la plupart du temps en réparation et sont décommissionnés en 1922 après avoir été très peu utilisés. S’ensuit une troisième tentative en 1927 avec trois sous-marins britanniques « O-class », qui ne sont livrés qu’en 1930 et rapatriés en 1931, à nouveau en raison de nombreuses difficultés techniques.

Durant la Seconde Guerre mondiale, l’Australie est dépourvue de force sous-marine, à l’exception d’un submersible néerlandais, le K.IX rebaptisé K9, qui permet de former des hommes à la lutte anti-sous-marine. Cependant, de nombreux marins australiens servent dans la Royal Navy et les ports australiens de Brisbane et de Fremantle voient passer 122 sous-marins américains, 31 britanniques et 11 néerlandais. Entre 1949 et 1969, le Royaume-Uni maintient en Australie une flottille comprenant seulement deux à trois submersibles.

La première force sous-marine australienne véritable remonte donc à l’acquisition de six sous-marins de la classe Oberon, mis en service entre 1967 et 1978. Ces appareils nécessitaient cependant une maintenance très coûteuse (75 % du prix d’achat tous les cinq ans) et près de 85 % des pièces détachées et de soutien ont été fournis par des industriels extérieurs, entravant l’autonomie stratégique du pays.

En 1990, débute la construction des six sous-marins de la classe Collins – premiers sous-marins conçus et fabriqués en Australie dans le chantier naval ASC d’Adélaïde. Exploités entre 1996 et 2003, ces submersibles sont une version améliorée et plus longue du mini sous-marin suédois Västergötland.

Cette initiative était ambitieuse, le pays ne disposant pas à l’époque d’un complexe militaro-industriel naval à proprement parler, et son expérience se limitant à la production de navires de taille moyenne et à l’entretien de la classe Oberon. Canberra, via ce projet, souhaite alors gagner en indépendance dans le domaine des systèmes d’armes complexes. Le pays doit importer de nombreux composants et faire appel à l’expertise étrangère, mais la conception de la classe Collins présente l’avantage d’adapter les ambitions du gouvernement aux capacités industrielles nationales.

Les sous-marins de la classe Collins sont une version plus longue du petit sous-marin suédois Västergötland, utilisable par un équipage réduit de 50 personnes. Wikimedia, CC BY

Toutefois, cette expérience rencontre de nombreux problèmes techniques, de la phase de conception jusqu’à la phase d’exploitation et de maintenance. À tel point que moins de 25 ans après la mise en service du premier sous-marin, l’entièreté de la flotte a été jugée inapte, alors que sa durée de vie initiale était fixée à 30 ans. Les autorités australiennes pensaient que ces sous-marins ne pourraient être entretenus que pour une dernière période de sept ans avant l’accord AUKUS. Mais la nécessité de les maintenir en mer jusqu’au début des années 2040, en raison de la difficile mise en œuvre du pacte, exigera une modernisation approfondie et un entretien toujours plus coûteux et complexe.

En 2016, pourtant, Canberra avait signé avec le groupe français Naval Group un contrat qui prévoyait la livraison par la France de huit sous-marins Barracuda « Attack-class » (chiffre plus tard réévalué à douze). La livraison de ces sous-marins diesel, adaptés aux besoins stratégiques de l’Australie et à son opposition de longue date à la technologie nucléaire, était prévue pour le début des années 2030.

Étant donné que la conception, la production et la maintenance des sous-marins de la classe Collins constituaient la seule expérience australienne antérieure, ce contrat offrait à Canberra l’occasion d’accroître son expérience, son expertise et sa capacité industrielle et lui octroyait de surcroît un plus large niveau d’autonomie stratégique. Mais le contrat a été annulé en septembre 2021, entraînant une compensation de 555 millions d’euros versée à Paris et la perte de 3,4 milliards de dollars australiens (2 milliards d’euros) d’investissement initial, après sept années de coopération technique, technologique et industrielle entre les deux nations.


À lire aussi : Sous-marins australiens : le modèle français d’exportation d’armes en question


Un avenir tumultueux pour le pacte AUKUS

L’Australie a-t-elle fait le bon choix en se détournant de Paris au profit des sous-marins nucléaires promis par Londres et Washington ? Plusieurs éléments permettent d’en douter.

En ce qui concerne l’exploitation de la propulsion nucléaire des sous-marins, l’Australie ne dispose d’aucune installation ni expertise, technicien, ingénieur ou scientifique spécialisés. De plus, sa Constitution interdit la production, l’enrichissement, le stockage, l’usage et le transit d’uranium et/ou de plutonium enrichi.

La construction à Adélaïde des futurs sous-marins prévus dans le cadre du pacte AUKUS doit débuter à partir des années 2040, soit près de 40 ans après la dernière production d’un sous-marin sur le sol australien. Une situation susceptible de générer une perte de compétences significative, des retards et des coûts supplémentaires. Seule la dernière modernisation prévue pour la classe Collins pourra contribuer à un transfert de savoir-faire pour la construction des nouveaux sous-marins.

En outre, le coût financier se révèle exorbitant. Entre 2020 et 2050, le montant devrait s’élever entre 268 et 368 milliards de dollars australiens (164 à 225 milliards d’euros) pour la livraison de trois à cinq sous-marins américains de classe Virginia et environ huit sous-marins SSN-AUKUS. Les douze sous-marins de Naval Group avaient été négociés pour 56 milliards d’euros (100 milliards de dollars australiens) et leur coût aurait probablement été de 150 milliards de dollars australiens s’ils avaient été conçus avec un système de propulsion nucléaire.

De plus, la classe de sous-marins du pacte AUKUS nécessite l’amélioration et l’agrandissement des capacités du chantier naval de Perth, pour un coût estimé à 4,3 milliards de dollars. 1,5 milliard devront aussi être investis dans la base navale de Henderson.

Ajoutons que l’accord AUKUS devrait être conclu entre 2023 et les années 2050. Pour les États-Unis, cette période de 35 ans représente l’équivalent de neuf mandats présidentiels américains qui risquent d’entraîner des changements de politique intérieure et extérieure susceptibles d’entraver la mise en œuvre du pacte, à l’égard duquel le président nouvellement réélu Donald Trump s’est d’ailleurs montré critique.

Sans oublier que l’élaboration d’une politique cohérente avec quatre modèles différents (Collins, Astute, Virginia et AUKUS) est un défi supplémentaire pour Canberra. Comment former et transférer les équipages et les officiers d’une classe à l’autre ? Pour rappel, l’« AUKUS improved visit and onboarding program » prévu à cet effet devait débuter en 2023. Mais le positionnement permanent des sous-marins ne sera pas donné avant 2027, les sous-marins SSN-AUKUS ne doivent être livrés qu’au début des années 2040 et la livraison de la classe Virginia prévue en 2030 a été retardée.

La production des sous-marins Virginia par Washington est effectivement loin d’être terminée. La capacité de production est ralentie et la rivalité grandissante avec la Chine pourrait motiver les États-Unis à exploiter plus longtemps leur plus récent modèle de sous-marin avant de le livrer à l’Australie.

Dès lors, quel intérêt l’Australie trouve-t-elle dans ce partenariat ? Difficile de répondre à cette question, sachant que le pacte AUKUS inflige à Canberra une perte de temps et d’argent considérable, suscite une détérioration de ses relations avec la France et l’Asean, une tension accrue avec la Chine et peu voire aucune autonomie stratégique à l’horizon.

Ainsi, la volonté du gouvernement australien de faire de l’alliance AUKUS l’alpha et l’oméga de sa stratégie de défense et de considérer ce contrat comme « trop gros pour échouer » (« too big to fail ») est pour le moins imprudente. Cet apparent excès de confiance ne correspond pas aux réalités que souligne le Congressional Research Service, un think tank du Congrès américain, dans un rapport portant sur le pacte et mis à jour en octobre 2024. Ce dernier alerte sur la quasi-impossibilité pour Washington de livrer les sous-marins prévus et conseille aux autorités australiennes de réorienter leurs investissements militaires dans la défense aérienne, les drones et les capacités de frappe de précision à longue portée.

The Conversation

Benjamin Blandin ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

20.11.2024 à 17:10

L’externalisation des contrôles migratoires de l’UE : une politique dangereuse et inefficace

Alice Mesnard, Reader in Economics, City St George's, University of London

Filip Savatic, Chercheur postdoctoral sur le projet Migration Governance and Asylum Crises (MAGYC) au Centre de recherches internationales , Sciences Po

Hélène Thiollet, Chargée de recherche au CNRS, CERI Sciences Po, spécialiste des politiques migratoires, Sciences Po

Jean-Noël Senne, Maître de conférence en Economie, Université Paris-Saclay

Non seulement l’externalisation du contrôle de la migration met en danger les réfugiés et les autres migrants, mais elle se révèle en outre inefficace pour réduire l’immigration irrégulière.
Texte intégral (2631 mots)

Le Pacte sur la migration et l’asile adopté par l’UE en 2024, qui vise à réduire l’immigration irrégulière, consiste notamment à confier le contrôle des frontières aux États d’origine et de transit des migrants. Un examen attentif de la politique d’asile mise en œuvre jusqu’ici par l’Union et, notamment, du fameux accord avec la Turquie de 2016 concernant les Syriens met en évidence les nombreuses failles de ce projet.


Depuis 2014, plus de 30 000 personnes ont péri dans la mer Méditerranée en tentant de rejoindre l’Europe, et des centaines sont mortes en traversant la Manche dans l’espoir de gagner le Royaume-Uni. Ces catastrophes humanitaires récurrentes en Europe ont remis en question la manière dont les pays de destination, de transit et d’origine des migrants gèrent le « contrôle » de leurs frontières.

En réponse, les institutions de l’Union européenne (UE) ont formellement adopté en avril 2024, après environ neuf ans de négociations depuis la « crise » migratoire de 2015, un ensemble de mesures connu sous le nom de Pacte sur la migration et l’asile. Ce texte réforme la manière dont l’UE gère les flux migratoires, avec pour objectif principal de mettre fin à la « migration irrégulière » vers l’Europe.

L’une des principales composantes du Pacte est le renforcement des partenariats internationaux avec les pays d’origine et/ou de transit des migrants dans le but de maîtriser les flux migratoires avant que les individus n’atteignent les frontières extérieures de l’UE. Ces partenariats et les politiques qui en découlent ont été qualifiés d’« externalisation » des contrôles migratoires, car ils représentent des tentatives de la part des États européens et des autres États du Nord de coopter les États d’origine/de transit pour stopper ou décourager les migrations.

À la suite de l’adoption du Pacte, 15 États membres de l’UE ont adressé une lettre commune à la Commission européenne, insistant sur la nécessité de poursuivre l’externalisation et demandant que les demandes d’asile soient traitées et évaluées en amont dans les pays partenaires.

L’externalisation (et l’engagement de l’UE à cet égard) a été largement critiquée par les organisations de la société civile et les défenseurs des migrants, ainsi que par des universitaires de différentes disciplines. Ces critiques soulignent que les politiques d’externalisation limitent la capacité des individus à demander l’asile en Europe et conduisent à de nombreuses violations des droits de l’homme.

De leur côté, les décideurs européens font valoir que les politiques d’externalisation sont compatibles avec les obligations juridiques internationales et nationales de fournir une protection humanitaire à ceux qui en ont besoin. Ils affirment que ces politiques découragent les migrations « irrégulières » tout en garantissant le droit aux personnes fuyant la violence et la persécution de pouvoir continuer de demander l’asile.

Or notre article de recherche récemment publiée montre que les politiques d’externalisation réalisent le contraire de ces objectifs affichés : elles empêchent les demandeurs d’asile de solliciter une protection internationale tout en déplaçant la migration irrégulière vers d’autres itinéraires moins contraints.

Distinction entre migration forcée et irrégulière

Pour évaluer l’impact des politiques d’externalisation, il est d’abord nécessaire de distinguer la migration forcée des individus qui obtiendront probablement le statut de « réfugiés » dans leur pays de destination des autres migrations probablement « irrégulières ».

Cette distinction est controversée en sciences sociales. Loin d’être une description exacte des personnes migrantes ou un fait purement juridique, elle s’ancre dans des pratiques et des politiques de catégorisation et de hiérarchisation des groupes et de leurs droits à entrer ou rester sur un territoire. Ces pratiques et ces politiques varient dans le temps et sont largement déterminées par les dynamiques politiques des gouvernements qui les mettent en place, qui sont le plus souvent ceux des pays de destination ou de circulation des personnes migrantes.

Pour opérer une distinction entre les « réfugiés probables » et les « migrants irréguliers probables », nous avons développé une nouvelle méthode de catégorisation des flux migratoires qui prend en compte les décisions d’octroi ou non de l’asile dans les pays de destination, en fonction de la nationalité des demandeurs et de l’année de la demande.

Alors que les conditions dans les pays d’origine influencent la probabilité que les individus obtiennent le statut de réfugié, les décisions en matière d’asile prises dans les pays de destination sont au terme du processus celles qui déterminent si quelqu’un « est » ou « n’est pas » un réfugié. En outre, bien que les décisions en matière d’asile soient généralement prises au cas par cas, la nationalité des demandeurs d’asile est largement prise en considération. En pratique, le Pacte de l’UE préconise lui-même l’utilisation des taux d’acceptation des demandes d’asile par nationalité pour déterminer si les individus entreront dans une procédure d’asile accélérée plutôt que dans une procédure d’asile standard.

En utilisant les données d’Eurostat sur les décisions d’asile en première instance, nous avons calculé une moyenne pondérée annuelle du taux d’acceptation des demandes d’asile par nationalité des demandeurs dans 31 États européens de destination (l’UE-27, l’Islande, la Norvège, la Suisse et le Royaume-Uni). La pondération tient compte du nombre de décisions prises par nationalité dans chaque pays. Par exemple, le taux d’acceptation du statut de réfugié des ressortissants syriens en Allemagne a un poids plus important car c’est dans ce pays que la plupart des Syriens arrivés sur le territoire de l’UE ont demandé l’asile.

Ensuite, nous avons utilisé cette moyenne pondérée annuelle pour diviser l’enregistrement des flux migratoires non autorisés vers l’Europe en deux catégories : « réfugiés probables » et « migrants irréguliers probables ». Plus précisément, nous avons utilisé les données sur les détections de « franchissement illégal des frontières » (IBC) publiées par Frontex, l’Agence européenne de garde-frontières et de garde-côtes, qui fournit à ce jour les seules données systématiquement disponibles sur les flux migratoires précédemment non autorisés vers l’Europe.

Dans une publication récente, nous avons démontré que l’étiquetage « irrégulier ou illégal » de cet ensemble de données est très problématique étant donné qu’il n’est pas illégal de franchir les frontières des États parties à la Convention sur les réfugiés de 1951 sans autorisation préalable et d’y demander l’asile. Nous montrons dans quelle mesure, depuis 2015, cet ensemble de données a toutefois été fréquemment cité par des sources d’information à destination du grand public à travers l’Europe, ainsi que par des organisations internationales et des chercheurs, comme une mesure objective de la migration « irrégulière » ou « illégale ».

Les données publiées par Frontex indiquent le nombre de passages de frontières sans autorisation préalable identifiés par les États membres de l’UE et de l’espace Schengen et sont organisées en neuf itinéraires types vers l’Europe. La route de la Méditerranée orientale (représentant les passages de la Turquie vers la Grèce) et la route de la Méditerranée centrale (représentant les passages de la Libye et de la Tunisie vers l’Italie et Malte) sont les deux principales routes en termes de nombre de passages. La nationalité de chaque individu identifié lors du passage est indiquée, ce qui nous permet de répartir chaque franchissement dans l’une de nos deux catégories en utilisant le taux moyen pondéré d’octroi de l’asile par nationalité.

Évaluer l’impact de la déclaration UE-Turquie

Notre nouvelle méthode de catégorisation des migrations nous permet de révéler la nature dite « mixte » des flux migratoires vers l’Europe et d’évaluer les impacts des politiques d’externalisation sur les différentes catégories de migrants.

Tout d’abord, nos résultats montrent que 55,4 % des passages non autorisés de frontières sur la période 2009-2021 représentent des franchissements de « réfugiés probables » – une proportion qui atteint 75,5 % pour l’année de crise de 2015 et un minimum de 20 % les autres années. Les franchissements de frontières dits « irréguliers » représentent donc toujours des migrations « mixtes », tandis que les pics de flux représentent le plus souvent des migrations forcées de réfugiés probables. Cela remet en question la manière dont les données de Frontex sont étiquetées et utilisées.

Deuxièmement, nous avons mené une analyse quantitative approfondie de l’impact de la déclaration UE-Turquie de mars 2016 sur nos deux catégories de migrants. Cette politique est un exemple paradigmatique d’externalisation, souvent présentée par les décideurs politiques comme une avancée majeure qui a permis de mettre un terme à la crise migratoire de 2015.

En nous concentrant sur la période des 12 mois précédant et suivant l’adoption de la déclaration, nous montrons comment cette politique n’a en réalité pas atteint ses objectifs. Certes, sur la route de la Méditerranée orientale, directement ciblée par la politique, le nombre total de franchissements non autorisés a nettement diminué. En revanche, sur la route de la Méditerranée centrale – l’itinéraire alternatif le plus proche – ce nombre a parallèlement grimpé en flèche. Ces deux changements sont presque entièrement dus au nombre de « migrants irréguliers probables » identifiés sur chacune des routes. Sur l’itinéraire de la Méditerranée orientale, la politique n’a précisément pas eu d’effet significatif sur les traversées effectuées par les « réfugiés probables », malgré les dispositions de l’accord qui restreignent considérablement leur accès à l’asile. Dans le même temps, peu d’entre eux ont déplacé leurs trajectoires de migration vers la route de la Méditerranée centrale.

La nécessité d’alternatives politiques

Signé en 2024, le Pacte européen sur la Migration et l’Asile, âprement négocié au sein de l’UE, veut renforcer les partenariats extra-internationaux pour mieux gérer l’immigration et l’asile. Or nos conclusions révèlent que la déclaration UE-Turquie, souvent mis en avant pour favoriser ces partenariats, a été un échec en soi. Elle a largement empêché les personnes susceptibles d’être reconnues comme réfugiés de demander l’asile, tout en détournant les migrants irréguliers vers d’autres routes migratoires. En outre, les promesses de relocalisation de réfugiés syriens en Europe depuis la Turquie ne se sont pas concrétisées, seulement 40 000 personnes ayant été réinstallées depuis 2016 sur plusieurs millions présents en Turquie.

L’analyse que nous avons menée révèle les dangers de l’externalisation et la manière dont les politiques qui y sont liées sont potentiellement incompatibles avec les engagements juridiques pris par les États européens en matière de protection humanitaire, ainsi qu’avec les politiques d’asile qu’ils mettent en œuvre au niveau national. En proposant une analyse quantitative approfondie de son (in) efficacité au regard de son objectif déclaré de stopper la migration irrégulière, notre travail de recherche complète ainsi les critiques existantes de l’externalisation, qui ont mis l’accent sur la menace qu’elle représente pour le droit des individus à demander l’asile, et sur la dangerosité accrue des parcours migratoires du fait de la criminalisation des voies d’accès légales aux pays européens.

À la lumière de ces constats, il apparaît nécessaire que les décideurs politiques au sein de l’UE reconsidèrent leur engagement en faveur de l’externalisation des contrôles migratoires, notamment dans le cadre du Pacte sur la migration et l’asile. D’autres formes de coopération internationale mettant l’accent sur les voies légales de migration ainsi que sur l’organisation de la réinstallation des réfugiés depuis leur pays d’origine ou des premiers pays d’asile dans le Sud global serviraient mieux les intérêts de tous les États tout en protégeant les droits fondamentaux des personnes en déplacement.

The Conversation

Alice Mesnard a reçu des financements de l'Union Européenne (H2020) dans le cadre du projet MAGYC Migration Governance and Asylum Crises https://cordis.europa.eu/project/id/822806 (projet 822806).

Filip Savatic a reçu des financements de l'Union Européenne (H2020) dans le cadre du projet MAGYC Migration Governance and Asylum Crises https://cordis.europa.eu/project/id/822806 (projet 822806).

Hélène Thiollet a reçu des financements de l'Union Européenne (H2020) dans le cadre du projet MAGYC Migration Governance and Asylum Crises https://cordis.europa.eu/project/id/822806 (projet 822806).

Jean-Noël Senne a reçu des financements de l'Union Européenne (H2020) dans le cadre du projet MAGYC "Migration Governance and Asylum Crises": https://cordis.europa.eu/project/id/822806 (projet 822806).

20.11.2024 à 17:10

Mobilités internationales des professionnels de santé : comment faire pour qu’elles profitent à tous ?

Stéphanie Tchiombiano, Maitresse de conférence associée dans le département de science politique, Université Paris 1 Panthéon-Sorbonne

Maëlle de Seze, Chercheuse en santé mondiale et science politique, Université de Bordeaux

Face à la pénurie de personnels, les frontières s’ouvrent pour laisser entrer les soignants étrangers. Comment éviter de saigner les systèmes de santé de leurs pays d’origine, tout en respectant la liberté individuelle ?
Texte intégral (2706 mots)
EVG Kowalievska/Pexels

De nombreux États recrutent des soignants étrangers pour pallier le manque de personnel au sein de leurs systèmes de santé. Au détriment, parfois, des pays d’origine. Pour s’assurer que tous tirent bénéfice de cette situation, diverses solutions sont explorées, entre recommandations éthiques, accords bilatéraux ou mesures incitatives.


La pénurie mondiale de soignants, particulièrement criante pendant le pic de la pandémie de Covid-19 et les discussions sur les lois cherchant à réguler l’immigration, en France comme ailleurs, ont remis à l’agenda la question des mobilités internationales des professionnels de santé.

Pendant la crise Covid, plusieurs pays européens ont sollicité l’aide médicale de Cuba, d’autres ont envoyé des émissaires faire du recrutement actif de soignants dans des pays où la pénurie de professionnels de santé était déjà extrêmement grave, une pratique allant à l’encontre de toutes les recommandations internationales en termes de recrutement de professionnels de santé.

Selon le point de vue que l’on adopte, l’émigration des soignants peut être considérée comme un problème pour les pays d’origine qui voient leurs personnels partir pour l’étranger, ou comme une source d’opportunités, à la fois pour les professionnels de santé concernés, pour les systèmes de santé des pays d’accueil, voire pour les pays originaires, lorsque ces flux sont régulés et encadrés. Quels sont les garde-fous qui existent pour s’en assurer ?

Des flux de mobilités complexes

Le nombre de médecins et d’infirmiers nés à l’étranger a augmenté de 20 % dans les années 2010, par rapport à la décennie précédente. Actuellement, on considère qu’un médecin sur six exerçant dans les pays de l’OCDE a été formé à l’étranger.

Les mobilités de ces personnels sont complexes et ne se résument pas à de simples flux « Sud-Nord » qui résulteraient uniquement d’un phénomène de « fuite des cerveaux » (« brain drain » en anglais).

Le cas de l’Afrique du Sud est particulièrement édifiant : les médecins étrangers y représentent plus de 10 % de la main-d’œuvre médicale totale et le gouvernement traite des demandes d’enregistrement de médecins provenant de plus de 60 pays. Si le Nigeria est le principal pays d’origine de ces médecins qui migrent en Afrique du Sud (devant le Royaume-Uni, Cuba et la République démocratique du Congo), il est étonnant de constater qu’à l’inverse, 17 % des médecins exerçant au Nigeria sont étrangers (par ailleurs, 50 % des médecins nés à l’étranger qui y exercent viennent d’Asie, 29 % viennent d’Afrique, 14 % viennent d’Europe et 4 % viennent d’Amérique).

Le Nigéria est donc à la fois un pays « importateur » de médecins et, dans le même temps, un pays « exportateur », puisque certains médecins nigérians font à l’inverse le choix de partir, espérant trouver de meilleures conditions de travail aux États-Unis ou au Canada, par exemple. L’espoir d’un meilleur salaire occupe une place centrale dans leurs choix. L’herbe est souvent plus verte ailleurs, et les dynamiques migratoires délicates à décoder…

Mondialisation et inégalités économiques, deux moteurs des mobilités

La mobilité accrue des professionnels de santé ne s’explique pas uniquement par l’épidémie de Covid-19. Elle est également liée à l’augmentation des échanges mondialisés et à l’internationalisation des formations (facilitée par des dispositifs de reconnaissance des diplômes de plus en plus nombreux, même si leur absence est encore souvent un frein).

Elle est aussi renforcée par les inégalités économiques entre les pays, les différences en termes de conditions d’exercice, de conditions de travail et de conditions de vie.

Les raisons qui poussent les soignants et leurs familles à la migration peuvent être variées, au-delà du salaire : certains décident de migrer pour des raisons sécuritaires, d’autres, car ils ne reçoivent pas leurs attributions de postes, d’autres encore parce qu’ils ne peuvent pas pratiquer la médecine dans de bonnes conditions, etc.

Dans de nombreux pays à revenu faible ou intermédiaire, les professionnels de santé travaillent dans des conditions souvent difficiles, avec des statuts parfois précaires et des systèmes de santé qui n’ont pas toujours les moyens de créer des postes en nombre suffisant ou de retenir les professionnels de santé en zones rurales et reculées.

En comparaison, les perspectives d’emploi dans les pays à revenu plus élevé sont plus attractives, en particulier lorsque des émissaires de ces pays démarchent à l’international pour recruter en période de stress aigu sur les systèmes de santé (comme durant l’épidémie de Covid-19).

Des régions plus touchées que d’autres

Si la pénurie de soignants est mondiale, certaines régions du monde sont plus touchées que d’autres. En 2013, les professionnels de santé manquants dans la région « Afrique » de l’Organisation mondiale de la santé (OMS) représentaient un quart de la pénurie mondiale de soignants.

En 2030, l’OMS estime que ce chiffre augmentera pour atteindre 52 %. Avec la région de la Méditerranée orientale (20 %) et la région de l’Asie du Sud-est (19 %), ces trois régions représenteront 90 % de la pénurie mondiale de personnels de santé en 2030.

Comment atténuer les effets négatifs de ces mobilités sur les systèmes de santé des pays d’origine, en particulier lorsque ces pays sont en situation de pénurie critique de professionnels de santé, sans priver pour autant les individus de leurs droits à migrer ? Plusieurs pistes sont actuellement explorées.

Des recommandations éthiques

L’OMS a mis en place des dispositifs comme le Code de pratique mondial qui fixe quelques « règles du jeu » éthiques : ne pas nuire aux systèmes de santé des pays d’origine, respecter des principes de transparence, d’équité, de durabilité, tenir compte du droit à la santé des populations, respecter les droits individuels et la liberté des professionnels de santé qui souhaitent migrer, etc.

Une liste d’appui et de sauvegarde des personnels de santé est régulièrement mise à jour, pointant les pays où la pénurie de professionnels de santé est la plus critique et la densité de soignants la plus faible. Le recrutement actif de professionnels de santé de ces pays est théoriquement proscrit et ce sont les pays prioritaires pour les actions de la communauté internationale visant à lutter contre la pénurie de soignants.

Il s’agit aussi, avec les directives opérationnelles de l’OIT (Organisation internationale du travail), de s’assurer que les conditions de recrutement et de travail de ces professionnels de santé étrangers respecteront des normes éthiques.

En France, par exemple, des professionnels de santé sont régulièrement embauchés dans le système hospitalier en dessous de leurs qualifications, avec des salaires inférieurs ou de moins bonnes conditions de travail que leurs collègues nationaux.

La création d’une carte de séjour « talents-professions médicales et de la pharmacie », entrée en vigueur en France en janvier 2024, entretient l’idée de professionnels de santé formés à l’étranger comme variables d’ajustement de la pénurie nationale. Ce type de carte de séjour, qui doit être renouvelé tous les quatre ans, maintient par ailleurs les professionnels de santé dans une précarité relative et nuit à leur intégration durable dans le système de santé.

Pour les pays d’accueil, les mesures mises en place peuvent viser à faciliter les arrivées (via par exemple des procédures spécifiques de visas permettant aux professionnels de santé migrants de se stabiliser plus rapidement dans le pays d’accueil), ou encore à proposer des allègements fiscaux en reconnaissance de l’apport des soignants migrants.

Mise en place d’accords bilatéraux

Des accords bilatéraux peuvent être mis en place entre pays d’accueil et pays d’origine, instaurant non seulement des mécanismes compensatoires financiers (au bénéfice des États qui forment massivement des professionnels employés par d’autres États), mais aussi des dispositifs de formation linguistique ou d’aide à l’intégration.

C’est par exemple le cas du programme allemand « Triple win » qui a passé des accords avec sept pays : Inde, Vietnam, Tunisie, Serbie, Bosnie-Herzégovine, Philippines, et Jordanie.

Certains pays d’accueil ont également mis en place des dispositifs de formation et d’enseignement structurés pour les agents de santé migrants, à l’exemple de l’Irlande, dont le système de santé dépend fortement de personnels de santé notamment originaires du Pakistan et du Soudan.

Pour concilier cette nécessité avec son engagement envers le Code de pratique mondial de l’OMS, le gouvernement irlandais a lancé un programme de formation postuniversitaire de deux ans – l’International Medical Graduate Training Initiative (IMGTI) – à l’intention des médecins pakistanais.

L’objectif global est qu’à court terme, ces diplômés acquièrent une expérience de formation clinique qui leur est autrement inaccessible, afin d’améliorer à long terme les services de santé dans leur pays d’origine.

Mesures incitatives

Conscients des enjeux liés à la mobilité des professionnels de santé, de plus en plus de pays mettent en place des politiques spécifiquement dédiées à ces questions. Il peut s’agir pour les pays d’origine de mesures incitatives visant à convaincre les soignants de ne pas partir, ou à faire revenir ceux qui sont partis à l’étranger (comme le programme chinois d’aide au retour « Young Thousand talents »).

Pour les pays d’accueil, les mesures mises en place peuvent viser à faciliter les arrivées (via par exemple des procédures spécifiques de visas permettant aux professionnels de santé migrants de se stabiliser plus rapidement dans le pays d’accueil), ou encore à proposer des allègements fiscaux en reconnaissance de l’apport des soignants migrants.

Toutefois, les pays à revenu élevé, et notamment la France, doivent également « jouer le jeu » et accepter de ne pas pratiquer le recrutement international actif alors qu’ils ont d’autres moyens à leur disposition afin de lutter contre la pénurie relative de professionnels de santé à l’intérieur de leurs frontières (augmentation du nombre de places en formation et en stage, accroissement du nombre de postes de fonctionnaires au sein du service public hospitalier, etc.).

Soulignons que le droit international est non contraignant sauf accord explicite du pays concerné. Le respect des recommandations et bonnes pratiques dépend donc du bon vouloir des États et du risque « réputationnel » qu’ils courent en ne respectant pas ces principes.

Mieux reconnaître la valeur des soignants migrants

Il faut retenir de ces expériences l’idée générale de mettre en place des dispositifs incitatifs plutôt que contraignants pour répondre aux différents déséquilibres (nationaux, régionaux, internationaux). La mobilité des professionnels de santé est un fait, il nous semble qu’elle doit globalement être considérée comme une opportunité (échange de pratiques venant de cultures médicales différentes, mise en place de réseaux internationaux, etc.).

Les soignants migrants traversent souvent de nombreuses difficultés d’ordres administratif, financier, familial, etc. Obtenir une équivalence à la hauteur de leurs diplômes et de leurs qualifications par exemple peut prendre des années, même lorsque les candidats sont excellents.

Il ne s’agit donc pas de mettre en place de nouvelles entraves, de chercher à limiter les mobilités, mais plutôt de les accompagner de mesures incitatives et de mécanismes compensatoires afin de rétablir une forme d’équilibre.

Tant qu’il y aura des situations paradoxales où des pays à revenus faibles financent la formation de nombreux professionnels de santé qui vont ensuite pratiquer ailleurs, ces États ne parviendront pas à diminuer leur propre pénurie nationale de professionnels de santé et les inégalités en matière de densité de soignants continueront à croître.

The Conversation

Le présent article est en lien avec une étude "Les métiers de la santé de demain", réalisée pour le think tank Santé mondiale 2030 (http://santemondiale2030.fr) et financée par l'Agence Française de Développement. Stéphanie Tchiombiano a été la coordinatrice de ce think tank de 2016 à 2023.

Maëlle de Seze était salariée du think tank Santé mondiale 2030 de février 2022 à février 2023 afin de réaliser l'étude "Les métiers de la santé de demain", qui portait en partie sur les données présentées dans l'article.

20.11.2024 à 17:09

‘Will you buy fewer plastic bottles?’ A simple question can change our behaviour

Bing Bai, Doctorant en Marketing à l'Université de Montpellier - Attaché d'enseignement à l'EDHEC Business School, Université de Montpellier

Laurie Balbo, Professeure Associée en Marketing _ Directrice des Programmes MSc Marketing et MSc Digital Marketing & Data Analytics, Grenoble École de Management (GEM)

Marie-Christine Lichtlé, Professeur des Universités, Université de Montpellier

Are you considering buying fewer plastic bottles in the future? Maybe not, but now that the question has been asked, you’re bound to think about it.
Texte intégral (1371 mots)
Although awareness of the impact of plastic has been raised, its consumption is hardly decreasing. What are the levers that could help us do without this material? Pinglabel/Shutterstock

The bottled water market has seen explosive growth – up 73% over the last decade – making it one of the fastest-growing industries globally. However, this growth comes at a significant environmental cost. Plastic waste, greenhouse gas emissions from production and distribution, and the overexploitation of water resources all contribute to an escalating ecological crisis. Reducing reliance on bottled water is, therefore, an urgent challenge.

Public awareness of this issue has grown. A 2020 study by Futerra and OnePulse found that 80% of respondents were willing to change their habits to combat climate change, and 50% specifically considered cutting back on plastic use. Despite this, little attention has been given to communication strategies designed to reduce bottled water consumption.

The power of self-prophecies

Our research suggests that asking people questions about their future behaviour – a psychological effect known as a self-prophecy – may inspire meaningful change. In a study involving 269 participants in the United States, researchers investigated whether this tactic could reduce bottled water purchases.

Self-prophecies work by prompting individuals to predict their future actions (e.g., “Will you recycle your packaging?”). This triggers cognitive dissonance: the discomfort of recognising a gap between one’s values and behaviours. People often resolve this tension by adjusting their actions to align with their beliefs.

Guilt as a motivator

Our study uncovers the emotional mechanism that links self-prophecy prompts to pro-environmental actions, with anticipated guilt serving as the key driver. American social psychologist Leon Festinger, in his seminal work A Theory of Cognitive Dissonance, describes dissonance as a state of psychological discomfort that spurs behavioural change. While Festinger does not explicitly identify the nature of this discomfort, later theorists highlighted guilt as one of the emotions that dissonance can trigger under specific circumstances.

Building on this idea, we hypothesised that people anticipate guilt when they foresee themselves failing to engage in environmentally responsible actions, particularly when such behaviours align with their normative beliefs – social or cultural expectations of what constitutes appropriate behaviour. This anticipated guilt, we argue, motivates individuals to adopt eco-friendly practices to avoid experiencing the negative emotion.

To test this theory, we conducted an experiment measuring guilt in participants exposed to an advertisement featuring a prediction question designed to discourage bottled water purchases. Those who viewed the ad experienced higher levels of anticipated guilt compared to participants in a control group who saw an ad without the prediction element. Crucially, this guilt significantly reduced their intention to buy bottled water, demonstrating how emotional anticipation can influence behaviour.

Varying effects across individuals

We investigated two key factors that influence the effectiveness of self-prophecy techniques: normative beliefs and the motivations that drive people to act.

Research has long established the power of normative beliefs in shaping behaviour. People who strongly adhere to their beliefs are not only more likely to predict that they will act in accordance with them but also more likely to follow through. Our study delved into how different types of norms – descriptive (what most people do), injunctive (what is socially expected), and personal (internal moral standards) – affect intentions.

Our findings reveal that these three types of norms significantly influence feelings of anticipated guilt. Participants generally believed that reducing plastic bottle consumption was common, socially expected and aligned with their personal convictions. The stronger these norms, the more intense the anticipated guilt when participants considered non-compliance. However, the act of posing a prediction question did not amplify the salience of these norms during decision-making. This suggests that such questions do not inherently guide participants toward behaviour aligned with their normative beliefs.

We also examined approach motivation, the drive to seek positive experiences or rewards, measured through behavioral approach system (BAS) scores. Individuals with high scores are typically goal-oriented, pursuing both tangible rewards (e.g., acquiring objects) and abstract achievements (e.g., altruism). This heightened drive helps them actively close the gap between their personal objectives and actions.

When guilt and action don’t align

Surprisingly, our study found that individuals with lower sensitivity to rewards and less drive to seek positive experiences felt greater guilt than their more motivated counterparts. Why? These individuals, while less motivated to act, became acutely aware of the gap between their behaviours and personal norms when prompted by the prediction question. This awareness, despite their inertia, triggered a stronger sense of guilt, which in turn increased their intention to reduce plastic bottle use.

On the other hand, those with higher BAS scores seemed naturally adept at aligning their actions with their norms, minimising cognitive dissonance. Their proactive approach to achieving personal goals reduced the likelihood of experiencing guilt, as they had already taken steps to bridge the gap between their intentions and behaviours.

Using self-prophecies in environmental campaigns

Our study offers promising insights for environmental awareness efforts, suggesting that prediction-based questions can effectively encourage eco-friendly behaviours. This approach, easily adaptable by government agencies and NGOs, has the potential to make sustainability messaging more impactful.

Interestingly, the study did not find a connection between normative beliefs – what people perceive as socially accepted behaviours – and the success of self-prophecy techniques. Had such a link been observed, individuals with stronger normative beliefs might have adjusted their behaviours more significantly in line with societal norms. However, existing research consistently highlights the pivotal role of personal norms – deeply held beliefs about right and wrong – in shaping intentions and ecological actions.

We therefore recommend designing campaigns that emphasise personal responsibility and the consequences of inaction. For example, messages that underscore the urgency of environmental issues and the importance of individual contributions can amplify the effectiveness of self-prophecy interventions.

While the study primarily examined behavioural intentions rather than actual behaviours, previous research supports the long-term impact of self-prediction techniques on real-world actions. For instance, interventions have been shown to improve recycling rates over four weeks and boost gym attendance for up to six months. These findings underscore the power of a simple question to engage emotional drivers and inspire lasting sustainable practices.

The Conversation

Bing Bai has received funding from the Responsible Marketing and Well-Being Chair at the University of Montpellier.

Laurie Balbo et Marie-Christine Lichtlé ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur poste universitaire.

20.11.2024 à 16:26

Sustainable peace in Sudan: how international investment and solidarity can help end a ‘forgotten war’

Dominic Rohner, Professor of Economics and André Hoffman Chair in Political Economics and Governance, Geneva Graduate Institute, Graduate Institute – Institut de hautes études internationales et du développement (IHEID)

There are no shortcuts to peace in Sudan, but a Marshall Plan-like investment and UN peacekeepers can help local actors diversify the economy and implement reforms once the fighting ends.
Texte intégral (1427 mots)

In recent years, armed conflicts have frequently made global headlines, but media coverage has largely focused on just a few highly publicised wars. These conflicts represent only the tip of the iceberg: more than 50 countries are currently suffering from shocking levels of armed violence, many of which receive little to no public attention. These include the ongoing violence in Sudan, Somalia, the Democratic Republic of Congo, Myanmar, the Central African Republic and Yemen.

Many of these “forgotten wars” occur in countries with high poverty, significant interethnic inequalities and fragile states. Often, they are not sites of great power rivalry – one of the reasons they are largely “forgotten” by both the media and policymakers worldwide. Academia has not overlooked them, however: hundreds of recent studies examine policies that can make a real difference in such conflicts. As discussed in my new book, The Peace Formula: Voice, Work and Warranties, three factors have been found to matter most for sustainable peace.

Political representation, economic opportunity and security guarantees

First, a society must guarantee civil liberties and political representation for all regardless of ethnicity, gender, religion or sexual orientation. Excluded or discriminated-against groups are far more likely to form insurgent movements to challenge the state, whereas inclusive, power-sharing institutions are strongly associated with long-term peace and stability.

Second, the presence of a productive economy and a well-educated, healthy population with the means to earn a decent living are key. When opportunities are scarce and large segments of society are impoverished and desperate, they become easier prey for warlords or authoritarian leaders seeking to recruit fighters. Consequently, policies that strengthen education, healthcare and labour market access have a significant impact in promoting peace.

Third, security guarantees and robust state capacity are essential for implementing effective public policies and reducing the risk of coups or organised crime taking advantage of power vacuums. When citizens feel secure, state legitimacy is strengthened, making political and economic progress possible.

The war in Sudan

But even if one recognises these factors, the question remains: how can the international community enact positive change? Imposing regime change from outside typically backfires. However, when a reform window opens within a country and a well-intentioned government works toward positive change, it creates an opportunity for the international community to help. Substantial financial investment following the Marshall Plan model, along with support for emerging state capacities, can have a significant impact. UN peacekeeping forces have been shown to greatly enhance security, particularly for civilians.

These elements can make a crucial difference on the ground. Take the ongoing war in Sudan: after Omar al-Bashir’s autocratic regime ended in 2019, a window of opportunity for positive change briefly opened, leading to the initiation of a series of reforms under new prime minister Abdallah Hamdok. These included the obtainment of IMF financing, macroeconomic reforms and the removal of fuel subsidies. While the reforms aimed for fiscal stabilisation, they did not bring immediate relief to the economic hardship suffered by wide parts of the population, making it challenging to maintain lasting large-scale support for the government and its reforms. Also, the government never achieved full control over security and remained at the mercy of the military.

This period of transition to civilian rule was cut short in the fall of 2021, when a series of coups ushered in a new era of tension and violence. The situation deteriorated further in April 2023, when full-scale war broke out between the Sudanese Armed Forces and the Rapid Support Forces, the army’s former paramilitary allies. This power struggle has reportedly killed tens of thousands of people, and there are now more than 14 million displaced people in Sudan or across its borders. The war continues with devastating intensity, and in recent days, reports have emerged of mass killings and sexual violence in villages in Al Jazirah state in eastern Sudan.

Protecting members of all ethnic groups

Stopping the fighting and finding a political solution is the top priority. Once an armistice is reached, a long-term roadmap for sustainable peace will be essential to ensure that the current humanitarian catastrophe never happens again. Ensuring a democratic voice for everyone is vital in any country, but it is especially critical in the context of Sudan, which has severe ethnic divisions and a history of ethnically motivated violence, with, among others, the Masalit people and other non-Arab communities in the Darfur region repeatedly targeted. The state has a duty to protect the lives and rights of all its inhabitants, and it is crucial to put everything possible in place to prevent ethnic cleansing.

An economy that generates sufficient jobs is important everywhere, but particularly in Sudan, where poverty remains high and not everyone benefits equally from natural resource windfalls. While the extraction of fossil fuels poses a significant risk of conflict and rent-seeking – both generally and in oil-rich Sudan – a robust economy that extends beyond the sector is crucial, as it offers important employment opportunities without the same negative side effects as fossil fuel extraction.

Once a future civilian government is established, the international community can provide large-scale financial help. An International Growth Centre report highlights great opportunities for domestically producing a wide range of imported goods, including food and textiles, as well as boosting exports.

In terms of exports, Sudan’s geographical position close to Egypt, Ethiopia and the Gulf States is a major asset. The diversification of exports, such as a range of agricultural commodities and livestock, holds significant potential, and value-added activities could be stepped up. Sudan is the world’s largest producer of gum arabic but only gets a dismal share of the value chain. With more processing activities, a bigger share of this market could be secured.

There must also be strong security guarantees that enable a civilian government to implement reforms and build state capacity without the threat of military coups. Not only could UN peacekeepers protect a civilian government from military takeovers, but they would also help safeguard all civilians, regardless of their ethnicity. Of course, a key challenge for the UN is to obtain large enough contingents of peacekeeping troops from member states. This highlights the paramount importance of international solidarity.

Foundations for peace

If there is a roadmap to pacifying forgotten wars, why hasn’t it been followed more often? One issue is that many politicians prioritise short-term objectives. Striking an unsustainable deal with a despot or winning the favour of a significant yet unsavoury regime may seem appealing to leaders, especially before an election campaign. It has been argued that al-Bashir, who ruled Sudan for decades, had only been able to cling to power due to foreign support.

In contrast, investing substantial resources to lay the groundwork for long-term peace in a country far from the spotlight may be seen as less politically advantageous. The full benefits of, for example, building schools or improving the health system accrue only after some time. While some leaders may genuinely care about doing good, many are more focused on doing well. To change this dynamic, scrutiny from local and global civil society, as well as public opinion, is essential to realign incentives for our leaders, shifting their focus from short-term gains to sustainable foundations for peace. Independent, high-quality media and engaged citizens can serve as catalysts for such positive change.

The Conversation

Dominic Rohner ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

19.11.2024 à 17:04

Assassinat de Samuel Paty et haine en ligne : ce qui a changé dans la loi depuis 2020

Nathalie Devillier, Docteur en droit international, Auteurs historiques The Conversation France

Le procès de l'assassinat de Samuel Paty soulève le problème des campagnes de haine sur les réseaux sociaux. Depuis 2020, de nouvelles lois tentent de lutter contre ces campagnes. Etat des lieux.
Texte intégral (1862 mots)

Le procès de l’assassinat de Samuel Paty se poursuit devant la cours d’assise spéciale de Paris. Un certain nombre d’accusés comparaissent pour avoir mené une campagne de haine sur les réseaux sociaux avant le meurtre. Depuis 2020, de nouvelles lois – européennes et françaises – sont entrées en vigueur pour lutter contre les violences en ligne. Que retenir de ces législations ? Sont-elles efficaces ?


Le procès de l’assassinat de Samuel Paty a débuté lundi 4 novembre. Sur le banc des accusés se trouvent notamment ceux qui ont créé la polémique et intentionnellement faussé la réalité d’un des cours de l’enseignant portant sur la liberté d’expression. Dans une vidéo, le père d’une élève qui sera jugé durant le procès avait appelé à écrire à la direction de l’établissement « pour virer ce malade » et livrait publiquement le nom du professeur, son numéro de téléphone portable et l’adresse du collège.

Les insultes, menaces et commentaires haineux contre l’enseignant et la directrice du collège inondèrent les réseaux sociaux Facebook, WhatsApp, Instagram, Twitter, Snapchat, YouTube, TikTok, Google… devenus de véritables tribunaux virtuels.

Suite à l’émoi suscité par ces événements, la France a adopté en 2021 plusieurs lois pour contrer la haine en ligne, notamment l’article surnommé « Samuel Paty » de la loi sur le respect des principes de la République qui criminalise les actes d’intimidation et d’entrave au travail des enseignants par la diffusion de messages haineux.

Plus largement, ces dernières années, de multiples initiatives législatives, à l’échelle française et européenne ont cherché à responsabiliser les plates-formes de contenus, les réseaux sociaux mais aussi les utilisateurs pour limiter les impacts de la violence en ligne.

Des mesures pour obliger les plates-formes à plus de transparence

Entré en vigueur en 2023, le Règlement européen sur les services numériques (Digital Services Act, DSA) a notamment pour objectif d’endiguer la viralité de contenus violents pour éviter d’y exposer les utilisateurs. Il exige aussi la publication de rapports de transparence par les réseaux sociaux et plates-formes de partage tels que Facebook, Google Search, Instagram, LinkedIn, Pinterest, Snapchat, TikTok, X (anciennement Twitter) et YouTube.

En vertu de ce texte, les réseaux sociaux doivent aussi donner des informations sur leurs équipes de modération de contenu, mettre en place des mécanismes de signalement des contenus illicites et fournir des informations sur le fonctionnement de leurs algorithmes de recommandation.

Ce partage d’informations sur le fonctionnement des algorithmes devrait permettre aux utilisateurs de mieux comprendre et contrôler ce qu’ils voient en ligne. Il est surtout utile pour le Centre européen pour la transparence algorithmique qui contrôle l’application du règlement.

Les plates-formes doivent également évaluer et réduire les risques systémiques pour la sécurité publique et les droits fondamentaux liés à leurs algorithmes comme la propagation de la haine en ligne. Ces éléments doivent figurer dans les rapports émis à la disposition de la Commission européenne. Dans le cas contraire, ou si les actions des plates-formes ne reflètent pas suffisamment les attentes du DSA, c’est la Commission européenne qui prendra l’attache de l’entreprise et procédera en cas d’inertie de celle-ci à un rappel à la loi public. C’est précisément ce qu’a fait Thierry Breton en août dernier en s’adressant à Elon Musk.

Un outil de dénonciation permettant aux employés ou autres lanceurs d’alerte de signaler les pratiques nuisibles des très grandes plates-formes en ligne et des moteurs de recherche a été mis en place.

Avant ces nouvelles mesures, ces entreprises n’étaient soumises qu’à un code de conduite non juridiquement contraignant et dont les résultats avaient atteints leurs limites.

Comment évaluer l’efficacité de ces mesures ? Nous le saurons bientôt, la Commission européenne a ouvert, le 18 décembre 2023 une procédure contre X (ex-Twitter) après avoir mené une enquête préliminaire pour non respect de l’obligation de transparence et des défaillances dans la modération de contenus. X interdit aussi aux chercheurs éligibles d’accéder de manière indépendante à ses données conformément au règlement. La société encourt une amende pouvant aller jusqu’à 6 % de son chiffre d’affaires mondial et, en cas de manquements répétés, elle peut voire l’accès à son service restreint dans l’Union européenne.

Aujourd’hui, l’épée de Damoclès des sanctions financières et surtout le blocage du service sur le territoire européen font peser un risque économique et réputationnel que les plates-formes souhaitent éviter. Plusieurs procédures formelles ont été lancées par la Commission européenne contre le réseau social X en 2023, TikTok, AliExpress et Meta cette année.

Des mesures pour lutter contre le cyberharcèlement

En France, la loi « Sécuriser et Réguler l’Espace Numérique » (SREN) promulguée en mai 2024 sanctionne les plates-formes qui échouent à retirer les contenus illicites dans un délai rapide (75 000 euros d’amende) et met aussi en place des mécanismes pour mieux sensibiliser et protéger les utilisateurs contre les dangers en ligne.

Cela se traduit par l’information des collégiens en milieu scolaire et des parents en début d’année. Une réserve citoyenne du numérique (rattachée à la réserve civique) est également instaurée avec pour but lutter contre la haine dans l’espace numérique et à des missions d’éducation, d’inclusion et d’amélioration de l’information en ligne. Ce dispositif qui constitue un moyen officiel d’alerte auprès du procureur de la République aurait été le bienvenu il y a 4 ans, au moment de l’affaire Paty. À l’époque, seuls la médiation scolaire et le référent laïcité du rectorat avaient été actionnés, sans effet.

Les plates-formes en ligne ont des obligations légales croissantes issues du règlement européen et de la loi SREN pour prévenir et réagir au cyberharcèlement et aux contenus illicites, avec une responsabilité à plusieurs niveaux.

L’obligation de modération proactive signifie que les plates-formes doivent mettre en place des systèmes pour détecter, signaler et retirer rapidement les contenus haineux, violents, ou incitant au cyberharcèlement. C’est l’ARCOM (Autorité de régulation de la communication audiovisuelle et numérique) qui veille à ce que les éditeurs et fournisseurs de services d’hébergement de sites retirent effectivement ces contenus et conduit des audits pour vérifier la conformité aux règles. Cette obligation, issue du règlement européen sur les services numériques et de la loi SREN, sera mise en œuvre grâce à la publication d’un rapport annuel le nombre de signalements effectués. À ce jour, le premier rapport n’a pas été publié.

Les hébergeurs qui ont connaissance du caractère illicite du contenu et qui n’informent pas les autorités compétentes, par exemple, le procureur de la République, ni bloqué l’accès à cette publication, encourent des sanctions allant jusqu’à 250 000 euros d’amende et un an d’emprisonnement pour le dirigeant.

Les plates-formes doivent également sensibiliser leurs utilisateurs aux risques de cyberharcèlement et fournir des outils pour signaler facilement les contenus et comportements nuisibles. C’est le cas par exemple sur X, Facebook, Instagram.

En France, le cyberharcèlement est un délit sévèrement puni par des lois visant à lutter contre le harcèlement moral et les actes répétés de violence en ligne, notamment sur les réseaux sociaux. Une personne coupable de harcèlement moral encourt jusqu’à deux ans d’emprisonnement et 30 000 € d’amende. Si la victime est mineure, ces peines sont alourdies à trois ans de prison et 45 000 € d’amende. Des peines plus graves peuvent s’appliquer en cas d’incapacité de travail de la victime ou si les actes conduisent au suicide ou à la tentative de suicide, avec une sanction maximale de dix ans d’emprisonnement et 150 000 € d’amende.

Pour protéger les victimes de harcèlement groupé, en 2018 la loi Schiappa avait introduit un délit de « harcèlement en meute » ou raid numérique, visant à pénaliser les attaques concertées de multiples internautes contre une victime, même si chaque participant n’a pas agi de façon répétée.

La loi SREN prévoit également que les personnes reconnues coupables de cyberharcèlement peuvent se voir interdites de réseaux sociaux pendant six mois ou un an en cas de récidive. Ce bannissement inclut la création de nouveaux comptes durant la période d’interdiction. Les plates-formes risquent des amendes allant jusqu’à 75 000 € si elles ne bannissent pas les utilisateurs condamnés pour cyberharcèlement ou ne bloquent pas la création de nouveaux comptes pour les récidivistes.

The Conversation

Nathalie Devillier ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

19.11.2024 à 17:01

Derrière chaque petite porte : les secrets du succès des calendriers de l’avent

Sophie Renault, Professeur des Universités en Sciences de Gestion et du Management, IAE Orléans

Les calendriers de l’avent sont un véritable terrain de jeu pour les marques. Des produits de beauté aux sextoys en passant par les friandises pour chiens ou chats : retour sur un phénomène marketing !
Texte intégral (2181 mots)

Les calendriers de l’avent sont un véritable terrain de jeu pour les marques. Des produits de beauté aux sextoys en passant par les friandises pour chiens ou chats : retour sur un phénomène marketing !


Du latin adventus qui signifie la venue, l’avent fait référence aux quatre dimanches menant jusqu’à la naissance de Jésus. Nés au XIXᵉ siècle, les calendriers de l’avent étaient un moyen d’ajouter un peu de magie à l’impatience des enfants. Leur création est attribuée à une tradition allemande, où les familles placent quatre bougies sur une couronne de sapin, allumant une bougie chaque dimanche de décembre jusqu’à Noël.

Ce rituel a donc progressivement évolué au profit de calendriers illustrés. C’est au début du XXe siècle que les premiers calendriers avec de petites portes ou fenêtres sont apparus. Pendant la Seconde Guerre mondiale, la pénurie de papier impose d’interrompre momentanément leur production. Les calendriers de l’avent sont à nouveau fabriqués à l’après-guerre notamment par les éditions Sellmer avec le fameux modèle « La petite ville » aujourd’hui encore commercialisé. Au fil du temps, des calendriers contenant des douceurs, généralement des chocolats, sont devenus un incontournable des fêtes de fin d’année.

De la célébration de la naissance du Christ au rouleau compresseur marketing

Aujourd’hui, le calendrier de l’avent a évolué en une véritable opération marketing. Il s’agit de capter l’attention des consommateurs bien avant le jour de Noël et de transformer l’attente en un moment de plaisir quotidien. Bien loin de se limiter à la cible des enfants, les marques ont développé une multitude de calendriers destinés aux adultes… et le phénomène prend chaque année davantage d’ampleur. Décliné en thés, bijoux, bougies, semences, outils, sauces piquantes ou bien encore chaussettes de superhéros, le calendrier de l’avent n’est plus seulement une préparation spirituelle et/ou festive, il s’agit d’un produit de consommation s’inscrivant dans une dynamique expérientielle.

Le packaging joue ici un rôle essentiel : en soignant l’esthétique et le design de leur calendrier, les marques maximisent l’impact émotionnel du produit. La perspective de la découverte quotidienne d’un produit fait replonger les cibles dans leurs souvenirs d’enfance. Tandis que l’offre a évolué, le principe, quel que soit l’âge de la cible, reste en effet similaire : créer une attente, offrir une surprise, procurer du plaisir, et ce… quel que soit le budget. On peut ainsi trouver des calendriers à des prix très accessibles, mais aussi des modèles prestigieux comme celui proposé en 2024 par Dior. Baptisé « La malle des rêves », le calendrier est affiché au prix de 2 900 euros.

Du côté des adultes, le marché de l’avent s’avère être un terrain de jeu immensément plus vaste que pour la cible des enfants dominée par les sucreries et les jouets. Parmi les domaines ayant investi le marché, la beauté occupe une place de choix. La plupart des marques de cosmétiques (L’Oréal, Lancôme, Benefit…) dont les marques de distribution spécialisées (Sephora, Yves Rocher, Marionnaud…) ont le ou les leur(s).

Chaque fenêtre renferme une version miniature ou classique de soin, maquillage ou bien encore parfum, permettant aux consommateurs de tester des produits et de se laisser tenter par de futures acquisitions. Afin de mettre en perspective la stratégie de valorisation adoptée par les marques, prenons l’exemple du calendrier proposé en 2024 par L’Oréal. Tandis que ledit calendrier est proposé au prix psychologique de 89,99 euros, la marque met en perspective la valeur dite « réelle » de 256 euros. Le calcul de cette valeur s’appuie sur la somme des prix moyens des produits vendus à l’unité. Par contraste, le prix de 89,99 euros apparait comme une opportunité exceptionnelle générant alors la perception d’une économie significative.

À l’image de L’Oréal, la plupart des marques de cosmétiques adoptent cette stratégie leur permettant d’attirer et/ou de fidéliser une clientèle tout en augmentant leur notoriété. De nombreux consommateurs y voient ce faisant un hymne à la surconsommation. Cet avis en ligne à propos d’un calendrier de produits cosmétiques illustre notre propos : « Encore 4 cases à la poubelle ? Au bout de plusieurs années, je n’achète plus ce calendrier, car je n’utilise jamais les rouges à lèvres rouges ! » La diversité des produits proposés implique en effet un risque de gaspillage.

L’avent sans limites, de l’alcool aux sextoys

Si les produits de beauté sont désormais bien établis sur le marché de l’avent, ce sont aussi des produits moins conventionnels, si l’on garde à l’esprit le caractère spirituel originel, qui investissent le marché des calendriers de l’avent. Typiquement, le calendrier de l’avent Bières & découvertes propose aux amateurs la dégustation de nouvelles saveurs. Dans cette mouvance, de multiples autres offres alcoolisées font leur percée sur le marché.

Dans un autre registre, destiné à ceux qui cherchent un cadeau original pour pimenter leurs activités de couple en attendant Noël, Dorcel propose un calendrier avec la promesse suivante : “Chaque jour, le désir s’intensifie, dévoilant des surprises toujours plus audacieuses et captivantes. Case après case, le plaisir monte crescendo, menant à une expérience sensorielle ultime pour un Noël inoubliable”. Attendre Noël n’aura jamais été aussi enivrant ! Et pas question de laisser nos animaux de compagnie en reste : eux aussi peuvent maintenant participer à l’attente fébrile de Noël avec des calendriers dotés de friandises.

Le succès de ces offres repose sur leur aspect ludique, mais aussi sur la sensation de nouveauté et d’expérience offerte à chaque consommateur. Les calendriers de l’avent sont devenus un moyen pour les marques de se démarquer, de créer un lien particulier avec leur clientèle et de proposer une expérience. Le phénomène s’inscrit également dans une tendance plus large, celle des kidults ou adulescents, ces adultes qui conservent des goûts et des intérêts d’enfants, cherchant à retrouver la magie de leur jeunesse à travers des objets ludiques et des expériences nostalgiques.

Les calendriers de jouets, par exemple, ne sont plus seulement réservés aux enfants. Les amateurs de Lego ou de Playmobil adultes sont nombreux, et les marques ont su capter cette demande. Les calendriers Lego Harry Potter ou Star Wars sont ainsi devenus des incontournables pour les fans de ces univers, qu’ils soient petits ou grands. L’engouement des adultes pour ces calendriers s’inscrit dans une quête de nostalgie qui résonne fortement dans une époque marquée par le stress et les incertitudes.

Le marketing d’influence, l’arme diabolique des marques pour enflammer Noël

Le marketing d’influence joue un rôle clé dans la mise en avant de ces calendriers. Les unboxing de calendriers de l’avent sont devenus une tradition sur TikTok ou Instagram, créant une véritable attente chez les consommateurs et stimulant ainsi les ventes de ces produits. L’influenceur Cyril Schreiner a par exemple mis en ligne en octobre 2024 deux vidéos successives pour montrer tout d’abord le calendrier de l’avent conçu par Netflix, puis certaines de ses 24 surprises issues de sept séries populaires dont Stranger Things et Bridgerton. La rareté de certaines éditions et l’engouement généré par ces vidéos, souvent diffusées dès la mise sur le marché des calendriers, participent à la création d’un sentiment d’urgence, poussant les consommateurs à acheter au plus vite. Il n’est ainsi pas rare que le contenu des calendriers soit dévoilé dès septembre.

Les influenceurs jouent également sur l’aspect authentique et spontané de ces ouvertures voire renouvellent le genre : c’est le cas de Léna Situations qui en 2020 pour Maybelline n’a pas ouvert les cases du calendrier, mais les a au contraire remplies dans une vidéo vue plus de 1,3 million fois sur YouTube. Voir une personnalité qu’on apprécie s’enthousiasmer devant une « surprise » crée un lien émotionnel fort et donne l’impression que chaque calendrier est une expérience à ne pas manquer. Certains influenceurs déploient en outre leur propre calendrier sous forme de jeux-concours. Il s’agit alors sur la période de l’avent de faire gagner des produits à leur communauté. Les marques profitent de ces mises en scène pour élargir leur audience, susciter des envies et renforcer leur image de marque.

In fine, les calendriers de l’avent s’inscrivent dans une stratégie marketing redoutablement efficace, permettant aux marques d’occuper le terrain avant Noël, de renforcer leur visibilité et de susciter un engouement continu. Qu’il s’agisse de (se) faire plaisir, de découvrir de nouveaux produits ou de participer à une tendance partagée sur les réseaux sociaux, les calendriers de l’avent se réinventent, devenant les incontournables de décembre. Derrière chaque petite porte, c’est bien plus qu’une simple surprise qui attend le consommateur : c’est une stratégie de fidélisation et de séduction qui se déploie. Le phénomène ne s’arrête pas à Noël ! Jouant sur la proximité phonétique entre avent et avant, ce sont également des calendriers de l’après qui sont désormais proposés.

Calendriers de l’avent ou de l’après… les marketers trouvent toujours une case de plus à ouvrir dans nos habitudes de consommation.

The Conversation

Sophie Renault ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

19.11.2024 à 17:01

Louer ses vêtements plutôt que les acheter a-t-il un vrai impact environnemental ?

Pauline Munten, Researcher and Teaching Assistant in Marketing, Université catholique de Louvain (UCLouvain)

Joëlle Vanhamme, Professeur de marketing, EDHEC Business School

Valerie Swaen, Professeure ordinaire, présidente du Louvain Research Institute in Management and Organizations (LouRIM), Université catholique de Louvain (UCLouvain)

Louer des vêtements plutôt que les acheter a tout de la bonne idée pour l’environnement. La réalité est plus complexe car ne pas acheter et avoir un comportement responsable ne sont pas synonymes.
Texte intégral (1904 mots)

Louer des vêtements plutôt que les acheter a tout de la bonne idée pour l’environnement. La réalité est plus complexe car ne pas acheter et avoir un comportement responsable ne sont pas synonymes. Loin de là.


Louer ses vêtements plutôt que les acheter serait meilleur pour la planète ? À l’heure où l’industrie textile est pointée du doigt pour son impact environnemental, des services de location de vêtements promettent aux consommateurs de renouveler constamment leur garde-robe tout en réduisant leur empreinte carbone. Mais cette solution est-elle vraiment aussi écoresponsable qu’elle en a l’air ?

C’est la question que pose notre récent travail de recherche. Nous avons choisi d’examiner les effets cachés des comportements des consommateurs qui utilisent ces services d’économie collaborative basés sur l’accès aux biens (access-based services, ou ABS), et non sur leur possession.

Gare à l’effet rebond

Nos études qualitative et quantitative mettent ainsi en lumière une réalité surprenante : la location de vêtements, loin de toujours réduire l’empreinte écologique, peut en réalité encourager une consommation accrue chez certains types de consommateurs ! En cause ? L’effet rebond, un phénomène qui se produit lorsque les gains environnementaux attendus sont réduits, annulés, voire inversés, par des comportements compensatoires des consommateurs.

Ces enjeux s’inscrivent dans un débat plus large sur les limites des solutions perçues comme écologiques et sur la manière dont consommateurs et entreprises peuvent réagir afin d’éviter les pièges d’une surconsommation qui ne dit pas son nom.

Les services basés sur l’accès reposent sur une idée simple : au lieu de posséder un bien, le consommateur en profite temporairement en échange du paiement d’une contribution monétaire. La possession n’est plus un impératif. Ce changement de paradigme a été rendu possible par la montée en puissance des plates-formes numériques dans les transports (Uber), l’hébergement de loisir (Airbnb), l’électroménager, et plus récemment, la mode.

Une flexibilité plébiscitée

La location de vêtements, autrefois réservée à des occasions spéciales comme les mariages ou les galas, est désormais accessible pour le quotidien. Des plates-formes comme Le Closet ou Coucou permettent aux consommateurs de louer des vêtements de marque pour quelques jours ou quelques semaines, avant de les retourner pour en louer de nouveaux.

Les consommateurs apprécient particulièrement la flexibilité et la variété qu’offrent ces services. Ils peuvent ainsi suivre les tendances de la mode sans s’engager à long terme, tout en participant à un modèle de consommation présenté comme plus responsable. La production textile est en effet l’une des industries les plus polluantes, en particulier depuis l’avènement de la fast fashion. En principe, s’abonner à un service de location de vêtements devrait avoir pour résultat non seulement de limiter la quantité de vêtements produits, mais aussi d’en prolonger la durée de vie en les proposant à plusieurs utilisateurs successifs.

Quand le remède devient poison

En interrogeant 31 utilisateurs de plates-formes franco-belges de location de vêtements, nous avons identifié divers effets rebond qui « détricotent » l’idée selon laquelle il est nécessairement plus durable de louer ses vêtements plutôt que de les acheter.

Les effets rebond se produisent lorsque des gains d’efficacité ou des pratiques censées être durables, comme la location de vêtements, mènent paradoxalement à une augmentation de la consommation.

L’accès facilité, la variété et le faible coût des vêtements loués peuvent encourager une utilisation plus fréquente du service, voire des achats impulsifs de vêtements (certains achètent même les vêtements qu’ils ont loués !), ce qui peut annuler les bénéfices environnementaux attendus de la location par rapport à l’achat (effet rebond direct).

D’autre part, une personne qui économise de l’argent en louant des vêtements peut utiliser ces fonds pour acheter d’autres biens ou services dans d’autres catégories de produits (produits high-tech, voyages, équipements pour la maison, etc.), augmentant ainsi sa consommation totale et son empreinte écologique.

Il est crucial de comprendre que ces effets ne sont pas homogènes et varient selon les groupes de consommateurs et leurs motivations psychologiques. C’est ce que montre notre étude quantitative réalisée auprès de 499 utilisateurs.

Le rebond n’est pas le même pour tous

Ainsi, l’étude révèle deux groupes, parmi les cinq identifiés lors de l’analyse, représentant environ un quart des utilisateurs de services de location de vêtements, qui sont particulièrement enclins à présenter des effets rebond négatifs.

Le groupe des « chercheurs de stimulation et de plaisir » (7 %) est caractérisé par une forte recherche de stimulation et des motivations hédonistes et est principalement composé d’hommes. Pour eux, la location de vêtements ne diminue pas leur consommation globale, mais au contraire, elle peut l’accroître en stimulant leur désir de nouveauté et de diversité.

Le groupe des « jeunes urbains apathiques » (18 %) présente des comportements paradoxaux : bien qu’ils ne soient pas particulièrement motivés par le plaisir ou la stimulation, et diminuent leur consommation de vêtements grâce à la location, ils augmentent leurs achats dans d’autres catégories de produits après avoir loué des vêtements. Ils sont également les moins frugaux, ce qui renforce leur propension à des comportements de rebond indirects. Ce sont plutôt des jeunes hommes urbains, souvent célibataires et hautement éduqués. Ces résultats soulignent la nécessité d’aborder la diversité des comportements de consommation au sein de l’économie du partage, et d’adapter les stratégies pour chaque groupe de consommateurs.

D’autres pistes pour la mode responsable

Bien que les services basés sur l’accès aient le potentiel de motiver des habitudes de consommation plus durables, ils peuvent aussi encourager des comportements qui annulent ces bénéfices, voire pire… Cette découverte remet donc en question l’idée selon laquelle la location de vêtement est toujours synonyme de durabilité.

Quelles pistes pour une mode plus responsable ? Alors que les services basés sur l’accès gagnent en popularité, il devient crucial de comprendre comment maximiser leur potentiel écologique tout en minimisant les effets rebond indésirables. Dans ce but, les entreprises comme les consommateurs doivent sans doute repenser leur approche.

Les implications pour les managers et les décideurs politiques sont claires : il ne suffit pas de promouvoir la location de vêtements comme une solution durable. Environ un quart des utilisateurs de services de location de vêtements étant susceptibles de présenter des comportements de rebond négatifs, il est essentiel d’identifier ces consommateurs et de leur fournir des informations et des incitations adaptées pour limiter ces effets.

Trouver d’autres incitations

Les stratégies de communication des entreprises de location doivent être différenciées en fonction des segments de consommateurs. Pour les personnes en quête de stimulation et de plaisir, des incitations de type hédonique non liées aux vêtements loués, telles que des concours, jeux, récompenses ou cadeaux peuvent être efficaces. Pour les consommateurs apathiques, des rappels sur les conséquences négatives de leurs comportements peuvent les amener à réfléchir davantage à leurs choix.

Les entreprises doivent veiller à ne pas seulement mettre en avant les aspects hédoniques intrinsèquement liés la location de vêtements, car cela peut involontairement renforcer les effets rebond négatifs. Au lieu de cela, elles pourraient mettre l’accent sur les avantages écologiques et encourager la co-création de valeur avec les consommateurs pour répondre à leurs besoins tout en réduisant l’impact environnemental.

France Télévisions.

Les services de location de vêtements pourraient ainsi encourager la location à long terme, plus responsable, de produits éco-conçus par des marques qui partagent les mêmes valeurs écologiques. Au lieu de promouvoir la rotation rapide des articles, ils pourraient inciter les utilisateurs à réduire la fréquence des échanges et limiter le nombre de pièces que l’on peut louer en même temps.

Des efforts tous azimuts

Les entreprises pourraient aussi sensibiliser les consommateurs à l’impact environnemental de leurs choix, en fournissant par exemple des données sur l’empreinte carbone des vêtements loués, ou bien sur le nombre de fois qu’un vêtement loué a déjà pu être porté en plus que s’il avait été acheté.

Les entreprises du secteur de la location de vêtements devraient collaborer pour partager des informations et développer une compréhension plus approfondie des impacts environnementaux de leurs pratiques. En travaillant ensemble, elles peuvent mieux cibler les segments de consommateurs et promouvoir des pratiques de consommation plus responsables.

[Déjà plus de 120 000 abonnements aux newsletters The Conversation. Et vous ? Abonnez-vous aujourd’hui pour mieux comprendre les grands enjeux du monde.]

De leur côté, les clients jouent aussi un rôle essentiel dans la transformation de la mode vers une consommation plus réfléchie. Pour ce faire, ils doivent repenser leur relation avec la mode et la consommation. Un premier pas serait d’adopter une approche minimaliste, en privilégiant les vêtements de qualité plutôt que la quantité.

Les consommateurs peuvent aussi opter pour des pièces « éthiques », fabriquées de manière responsable, qui allient style et durabilité. Et se poser la question avant de louer un vêtement : « En ai-je vraiment besoin ? », « Le porterai-je plusieurs fois ? » Cette réflexion peut aider à éviter les locations impulsives et donc à réduire l’impact environnemental.

Transformer les plates-formes de location de vêtements en de véritables leviers de durabilité implique donc une volonté partagée des consommateurs et des entreprises. Ce n’est qu’au prix d’efforts combinés que ces services basés sur l’accès pourront réaliser leur promesse initiale : réduire l’empreinte carbone de la mode tout en répondant aux aspirations des consommateurs.

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.

19.11.2024 à 17:00

Pourquoi la transparence des entreprises ne suffira pas pour « sauver » la nature

Madlen Sobkowiak, Associate Professor in Social and Environmental Accounting, EDHEC Business School

En matière de RSE et de préservation de la nature, l'accent est surtout mis sur la transparence des actions. D'où une multiplication des informations qui n'est peut être pas le meilleur levier.
Texte intégral (2117 mots)

En matière de RSE et de préservation de la nature, l’accent est surtout mis sur la transparence des actions. D’où une multiplication des informations qui n’est peut-être pas le meilleur levier pour atteindre les objectifs annoncés. Bonne nouvelle : des moyens pertinents existent.


La transparence des entreprises pourrait-elle être l’une des solutions pour limiter le changement climatique ? Ou, à tout le moins, serait-elle un moyen de tenir les entreprises responsables de leur impact sur l’environnement ? 94 % des investisseurs eux-mêmes doutent de la validité des rapports sur le développement durable des entreprises, qui utilisent quantité d’affirmations non étayées selon le « Global Investor Survey 2023 » de PwC. Et leur scepticisme n’est pas infondé, selon l’étude que nous avons menée et récemment publiée.

En effet, si la transparence des entreprises est une première étape stratégique vers une économie plus durable, elle ne suffira pas à elle seule à obtenir des résultats positifs en matière d’impact des entreprises sur nos écosystèmes. Pour que le changement se produise réellement, trois conditions sont nécessaires : lier les actions des entreprises à leur impact sur l’environnement, prendre en compte les effets des opérations quotidiennes sur la nature et aligner les incitations financières et les objectifs écologiques.

Des débuts timides

Même si l’on observe une pression croissante en faveur des réglementations relatives à la prise en compte des écosystèmes naturels – en particulier sur les déclarations (disclosures) s’y rapportant – les entreprises commencent tout juste à fournir des informations sur leurs performances, leurs impacts et leurs risques en lien avec la nature. C’est l’essence même de la règlementation SFDR – Sustainable Finance Disclosure Regulation qui est entrée en vigueur en 2021 et de la directive CSRD – Corporate Sustainability Reporting Directive qui entre en vigueur en 2024 et vise à renforcer les obligations de transparence des entreprises sur les questions ESG au sein de l’Union européenne. Ces mesures sont caractéristiques d’un certain type d’approche, qui utilise la déclaration obligatoire d’informations comme moyen de réguler les comportements.


À lire aussi : Pourquoi la RSE ne suffit pas à rendre nos sociétés plus durables


Cela fonctionne-t-il ? Pas comme levier unique, car les entreprises ont encore du mal à comprendre pleinement leurs propres impacts ou les impacts de leur chaîne d’approvisionnement sur la nature. De plus, elles manquent souvent de connaissances et d’expertise pour naviguer dans le paysage complexe et en constante évolution des exigences nationales et internationales en matière de rapports sur le développement durable, et encore moins pour prendre des mesures significatives. Cela pourrait entraîner une dilution du concept de transparence et une augmentation de l’écoblanchiment.


Que vous soyez dirigeants en quête de stratégies ou salariés qui s’interrogent sur les choix de leur hiérarchie, recevez notre newsletter thématique « Entreprise(s) » : les clés de la recherche pour la vie professionnelle et les conseils de nos experts.

Abonnez-vous dès aujourd’hui


Le risque d’éco-blanchiment

L’écoblanchiment consiste à faire des déclarations environnementales fausses ou trompeuses. Ceci peut fausser les informations pertinentes dont un investisseur (un consommateur) a besoin pour prendre des décisions et, en fin de compte, éroder sa confiance dans les produits et/ou les pratiques liés au développement durable.

Une étude commandée par l’Union européenne en 2023 a révélé que 53 % des allégations environnementales sur les produits et services sont vagues, trompeuses, voire infondées. 40 % ne s’appuient sur aucune preuve. Aux États-Unis, 68 % des dirigeants ont admis s’être rendus coupables d’écoblanchiment. La normalisation des rapports sur le développement durable dans l’UE est donc nécessaire et attendue depuis longtemps.

Cependant, au lieu de demander aux entreprises de réduire leur impact environnemental en soi, les politiques actuelles se concentrent sur les informations à fournir, ce qui est nécessaire mais loin d’être suffisant en soi. Mes coauteurs et moi-même avons identifié trois conditions pour que les informations publiées puissent potentiellement influencer positivement les effets des activités des entreprises sur la nature :

  • établir un lien entre les entreprises et les écosystèmes ;

  • traduire les aspirations en opération ;

  • améliorer la réactivité et les réponses du système financier.

Notre approche actuelle, qui utilise les exigences en matière de déclaration pour modifier le comportement des entreprises, pourrait être limitée, car la fourniture d’informations n’encourage pas en soi les entreprises à atteindre pleinement des impacts positifs sur la nature. Comment changer cela ? Comment les informations publiées peuvent-elles donner lieu à des résultats tangibles ? Trois pistes doivent être étudiées.

Une traçabilité radicale

Le premier moyen intéressant à explorer consiste à relier les entreprises et les écosystèmes. Cela implique la mise en place d’une traçabilité radicale qui relie les actions des entreprises aux résultats obtenus dans des environnements particuliers. Cela permettrait de responsabiliser les entreprises, qu’elles publient ou non des données, et de les inciter à produire leurs propres données plutôt que de devoir répondre à des exigences créées par des tiers.

Cargill, fournisseur du secteur alimentaire, en est un exemple. Dans son rapport sur le soja en Amérique du Sud, l’entreprise trace le soja qu’elle produit et achète tout au long de sa chaîne d’approvisionnement, avec des sites situés dans des pays d’Amérique du Sud. Ces lieux sont géolocalisés et des données sur le degré de déforestation dans chaque parcelle sont obtenues à partir d’images satellites. Ainsi la traçabilité permet d’enrichir les déclarations de Cargill en lien avec les écosystèmes concernés par ses activités.

Développer des habitudes concrètes

La deuxième approche consiste à traduire les aspirations en opération. Pour cela, les entreprises doivent veiller à développer des outils et des « habitudes » qui traduisent l’intention stratégique en comportement sur le terrain. En d’autres termes, il s’agit d’établir un lien entre la connaissance et l’action. Même si les entreprises sont bien informées de leur impact sur la nature, il peut s’avérer difficile de traduire les stratégies de réduction de l’impact et de restauration de la nature en objectifs opérationnels. À cet égard, il peut être utile de traduire les ambitions en mesures spécifiques qui, une fois intégrées dans les entreprises, créent des actions (visibles et récurrentes) axées sur le changement.

Par exemple, LafargeHolcim Espagne, un producteur de granulat et de ciment, a développé un système de suivi pour évaluer les processus de restauration en étudiant les actifs naturels. Il a également analysé les ressources disponibles à partir d’échantillons de terrain en cataloguant la flore, en identifiant la végétation, en déterminant la répartition des oiseaux et des insectes, en évaluant l’état de la biodiversité dans la carrière et en élaborant des stratégies et des plans d’action. Le suivi des activités a été effectué à l’aide d’un indice de biodiversité développé en collaboration avec le WWF et le système d’indicateurs et de rapports sur la biodiversité de l’UICN.

Redonner du pouvoir aux propriétaires des entreprises

La dernière condition consiste à améliorer la réactivité des acteurs financiers, ainsi que leurs réponses. Cela nécessite de déterminer comment les acteurs du système financier peuvent favoriser les actions des entreprises. En d’autres termes, il s’agit d’aligner les incitations financières sur les objectifs environnementaux.

The Wall Street Journal (en anglais sous-titré).

Pour cela, les propriétaires des entreprises et ceux qui les financent sont les acteurs les plus puissants. La stabilité financière repose sur le bon fonctionnement des écosystèmes (des études récentes ont montré que le changement climatique constitue une menace pour la stabilité du système financier). Les modalités de publication d’information pourraient donc être utilisées pour attirer l’attention des investisseurs sur les impacts sur la nature, à l’image d’autres reportings existants plus développés.

Un exemple de ce type de mécanisme est le SFDR de l’Union européenne, qui exige des banques, des assureurs et des gestionnaires d’actifs qu’ils fournissent des informations sur la manière dont ils traitent les risques liés au développement durable. Prenons le cas de la société ASN Bank, spécialisée dans les produits bancaires durables, qui a développé un outil d’empreinte de biodiversité pour les institutions financières afin d’estimer les impacts d’un portefeuille d’investissement et d’identifier les points chauds de ce portefeuille.

Plus les informations déclarées sur le développement durable par les entreprises seront solides, normalisées et transparentes, plus nous pourrons lutter contre l’écoblanchiment qui sape la crédibilité des efforts. Mais si les déclarations sont essentielles, il est temps de prendre en compte leurs limites. Cela implique, pour les entreprises, d’adopter des approches de gouvernance qui façonnent l’action, et de cesser de s’appuyer uniquement sur les rapports existants.

The Conversation

Madlen Sobkowiak ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

19.11.2024 à 16:59

Loin de la sauvagerie du Moyen Âge : « Sire Gauvain et le Chevalier Vert », un roman courtois lumineux à la cour du roi Arthur

Olivier Simonin, Maître de conférences en linguistique anglaise , Université de Perpignan Via Domitia

Si le Moyen Âge passionne, il est souvent représenté comme une période obscure, marquée par la sauvagerie. Le roman courtois « Sire Gauvain et le Chevalier Vert » déjoue ces clichés.
Texte intégral (1771 mots)
_Horae as usum Parisiensem_, dites _Heures de Charles d'Angoulême_, manuscrit Latin 1173, folio 3r (détail), BnF BnF

Les fictions qui évoquent le Moyen Âge ont tendance à perpétuer des clichés sur la barbarie d’une époque sombre et rustre. Pourtant, Sire Gauvain et le Chevalier Vert, roman anonyme de la fin du XIVe siècle qui se déroule à la cour du Roi Arthur, nous démontre tout l’inverse.


Si le Moyen Âge passionne, il est souvent représenté comme une période obscure, marquée par la sauvagerie. En témoignent divers clichés, portant entre autres sur un recours barbare à la torture, dont une réplique culte de Pulp Fiction de Tarantino se fait plaisamment l’écho : « Je vais me la jouer médiéval sur ton gros cul » (I’m gonna go medieval on your ass).

Il en est de même pour l’esthétique sombre de séries médiévales-fantastiques comme Game of Thrones et de films tels que The Green Knight de David Lowery, inspiré du joyau de la littérature médiévale anglaise qu’est Sire Gauvain et le Chevalier Vert (Sir Gawain and the Green Knight en anglais), qui a tant inspiré Tolkien : le philologue qu’il était lui consacra une édition scientifique, qu’il co-signa avec E. V. Gordon, ainsi qu’une traduction qui reproduit le mètre d’origine.

Œuvre anonyme, Sire Gauvain et le Chevalier Vert est un des romans de chevalerie les plus aboutis du corpus occidental, qui laisse entrevoir un univers aux couleurs vives, d’un grand raffinement, conforme au goût aristocratique de la fin du XIVe siècle.

Fascination pour les couleurs

L’histoire s’ouvre sur des divertissements de cour à Camelot, où fait irruption un mystérieux chevalier paré de vert, qui vient lancer un défi au roi Arthur : que quelqu’un s’essaie à le décapiter avec la hache qu’il tient et, si lui-même survit à cette tentative, qu’il lui soit donné de rendre pareil coup un an plus tard. Gauvain tranchera la tête du Chevalier Vert, qui se relèvera pour la saisir de ses mains par quelque enchantement et engagera l’illustre chevalier à le retrouver dans un an.

Le Chevalier Vert est un être éminemment paradoxal, qui relève du merveilleux. Le poète et les témoins de l’épisode s’interrogent sur sa nature, son origine : est-ce un homme, un demi-géant, ou bien provient-il du monde des fées ? Le vert qu’il arbore sur ses habits et son équipement, jusqu’à sa barbe et ses cheveux, est éclatant et lumineux. Comme l’a si bien montré Umberto Eco (Art et beauté dans l’esthétique médiévale), l’homme médiéval est fasciné par les couleurs, et le vert intense, saturé, qui caractérise le chevalier ne pouvait que susciter l’étonnement en tant que signe extérieur de grande richesse (voire de magie), aux antipodes du vert sale, triste, délavé, que l’on peut voir dans des adaptations filmiques.

[Déjà plus de 120 000 abonnements aux newsletters The Conversation. Et vous ? Abonnez-vous aujourd’hui pour mieux comprendre les grands enjeux du monde.]

Michel Pastoureau (Vert. Histoire d’une couleur) a très justement insisté sur la difficulté d’obtenir des teintes vertes stables et vives, qui demeuraient l’apanage des puissants à cette époque, tout en soulignant l’ambivalence sémiotique de la couleur, qui combine des aspects positifs (le vert gai, associé à la jeunesse, au printemps…) et négatifs (le vert « perdu », qui connote la traîtrise, l’infidélité…). Or il se trouve que Chevalier Vert brouille les pistes en portant un vert éclatant, qui pourrait signifier beaucoup des choses que véhiculent habituellement le mauvais vert.

Une dimension morale

Gauvain, quant à lui, apparaît non moins resplendissant dans une armure rutilante, avec un blason nouvellement apposé sur sa cotte et son bouclier au moment de son départ : un pentacle d’or sur fond rouge vif. Ce symbole représente un idéal de perfection morale longuement développé dans le poème (2 strophes sur 101), que tous s’accordent à voir en Gauvain à ce stade de sa carrière, et qu’il affiche aux yeux du monde.

Champion de la courtoisie, soucieux du respect des usages et des engagements pris, tenant toujours des propos prévenants et délicats, il incarne l’opposé du Chevalier Vert, aux manières globalement frustes. Toutefois, même le meilleur des chevaliers d’Arthur qu’est (dans ce roman) Gauvain ne peut prétendre être exempt de toute faute ou souillure. C’est d’ailleurs ce que s’emploie à montrer le poète à travers cette aventure, que l’on pourrait considérer comme une démonstration sans appel qui consiste en une illustration par un cas extrême. Le simple fait de vouloir atteindre une authentique perfection trahit un grand orgueil, péché jugé mortel, et le roman de chevalerie plaide de fait pour une humilité lucide.

Dans le contexte religieux de l’époque, la perfection morale étant d’essence divine, on ne pouvait pas mériter le salut sans l’aide de Dieu, par le biais de sa grâce. On apprend en outre, plus tard, que l’envoi du Chevalier Vert à la cour d’Arthur avait notamment pour but de lui faire perdre de sa superbe, d’émousser son hubris, ses prétentions démesurées. Ainsi, le roman courtois (autre nom donné au roman de chevalerie, mais qui insiste moins sur ses aspects guerriers) flirte ici avec le genre tragique, par la hauteur de son propos et surtout par sa trame.

L’œuvre ne manque cependant pas d’ironie, et même d’effronterie, que le poète Simon Armitage – auteur d’une traduction récente en anglais moderne – estime typiquement nordique : le poème est écrit dans un dialecte du nord-ouest des Midlands, où se déroule d’ailleurs l’essentiel de l’action.

Humour et innovation littéraire

L’humour dont fait preuve le Chevalier Vert et, plus tard, le seigneur du château où réside Gauvain, est volontiers sarcastique. Tout cela va de pair avec l’aspect carnavalesque particulièrement marqué lors de l’irruption du Chevalier : il paraît devant la Cour le jour de l’ancienne fête des fous (le jour de l’an), dans un accoutrement qui pourrait rappeler un bouffon (le vert est aussi la couleur de la folie) ou un homme sauvage en lequel des mimes pouvaient se déguiser pour divertir les puissants.

Un des grands thèmes de l’œuvre est le jeu, le loisir, et la façon dont il convient de s’y adonner. Par exemple, on peut se demander s’il est légitime pour un chevalier de se présenter devant une cour et de requérir, par jeu, un échange de coups visant la décollation, la décapitation, tout en sachant pertinemment que cela n’aura pas de conséquences pour lui (comme il se trouve protégé par magie). Le grandiose et la légèreté se côtoient dans un véritable élan pré-shakespearien.

Le poète de Gauvain déploie non seulement son génie en sublimant le genre du roman courtois, mais il innove également en employant à la fois des vers allitérés, qui reposent sur un principe de répétition de consonnes sur des syllabes accentuées, et des vers rimés, qui viennent clore par groupes de cinq chaque strophe, donnant par là même une structure singulière au poème, dont il est le seul modèle parvenu jusqu’à nous. Pour reprendre les termes d’Ad Putter et Myra Stokes, dans The Works of the Gawain Poet :

« De même, les vers allitérés qui constituent l’essentiel du roman présentent des variations par rapport aux schémas attendus, détournés avec bonheur. »

Qui plus est, ce maître de l’art poétique de la fin du XIVe siècle se livre à la production de ce que l’on appelle aujourd’hui de la métafiction : alors qu’il décrit un Gauvain dans sa prime jeunesse, il convoque par l’intermédiaire d’une avenante châtelaine la littérature chevaleresque dont Gauvain est le protagoniste, et qui est souvent peu flatteuse à son égard, faisant de lui un galant plutôt libertin : elle cherche à le convaincre de lui apprendre les délices de l’amour courtois, dont elle a une vision bien prosaïque, sensuelle. Le poète oppose ainsi le véritable raffinement de la courtoisie, des bonnes manières et de l’art d’aimer, à ce qui pourrait être son prolongement voire son travestissement littéraire, son interprétation purement physique. Il se rapproche également de la modernité par un geste final d’ouverture, laissant de toute apparence le lecteur (ou auditeur) décider par lui-même si la quête de Gauvain est un succès ou un échec, pour lui et pour la cour d’Arthur.

Sire Gauvain et le Chevalier Vert est peut-être la meilleure illustration de l’inanité d’une perception plus ou moins fantasmée d’un Moyen Âge terne et morne au propre et au figuré, tout à la fois lugubre, rustre, et résolument rétrograde d’un point de vue littéraire.

The Conversation

Ma traduction bilingue de l'oeuvre médiévale est parue au Livre de Poche, auquel je suis de fait lié.

19.11.2024 à 16:59

Recherche biomédicale : décloisonner la biologie et le genre

Colineaux H, Post-doctorant en epidemiologie sociale, Medecin de sante publique, Methodologiste, Université de Toulouse III - Paul Sabatier, Inserm

Prendre en compte les mécanismes sociaux comme le genre dans la recherche biomédicale permet d’éviter des biais méthodologiques et interprétatifs et de mieux appréhender les enjeux actuels de santé.
Texte intégral (1734 mots)

Prendre davantage en compte les mécanismes sociaux et, en particulier le genre, dans la recherche biomédicale permettrait d’éviter des biais méthodologiques et interprétatifs et ainsi de mieux appréhender les enjeux actuels de santé, explique Colineaux H (Université de Toulouse III – Paul Sabatier, Inserm) dans Déconstruire les différences de sexe/Le sexe biologique et le genre à l’épreuve de la méthode scientifique aux éditions Double ponctuation.


Même si le champ du « genre en biologie/santé » a rapidement évolué ces dernières années, il me semble que les questions liées au genre et les questions liées à la biologie sont encore très cloisonnées disciplinairement. À quelques exceptions près, les sciences humaines et sociales se sont saisies du « genre » sans tellement s’approcher des questions de la dimorphie sexuelle (qui désigne le fait que les mâles et femelles d’une espèce sexuée se distinguent, en moyenne, morphologiquement et physiologiquement), de la physiologie reproductive, etc.

Et la recherche biomédicale pour sa part n’articule que très rarement ses objets avec les phénomènes sociaux, tels que le genre. Ce travail prend justement son point de départ dans les pratiques de la recherche biomédicale, et dans les biais méthodologiques et interprétatifs que peuvent produire la non-prise en compte des facteurs et mécanismes sociaux. C’est donc de ce point de vue que je l’aborde.

Des différences biologiques, mais aussi des mécanismes sociaux

Dans la littérature biomédicale, on peut constater que les différences biologiques observées entre les catégories de sexe ont été fréquemment expliquées par des mécanismes eux-mêmes biologiques, sans réelle base scientifique.

Par exemple, si la distribution du taux d’une protéine sanguine X montre un taux en moyenne plus élevé chez les femmes par rapport aux hommes, cette différence est souvent expliquée en premier lieu par des mécanismes liés à la dimorphie sexuelle.

On fait, par exemple, l’hypothèse d’une différence de calibre et d’élasticité des vaisseaux sanguins pour expliquer les différences de tension artérielle, on décrit l’interaction des œstrogènes ou de la testostérone avec le système physiologique de tel ou tel biomarqueur sanguin pour expliquer les différences de taux, etc.

Ces facteurs, bien sûr, peuvent être impliqués et nécessitent d’être explorés, mais des mécanismes sociaux peuvent aussi être en jeu pour expliquer ces différences, et ceux-ci ont été souvent négligés. Ils sont mobilisés plus souvent lorsque l’objet d’étude est de près ou de loin « social » (tel que le tabagisme, l’accès aux soins, voire l’obésité, etc.), mais plus rarement lorsqu’il est biologique (typiquement tous les biomarqueurs allant de la fréquence cardiaque au taux de cortisol).

Les facteurs génétiques ou hormonaux expliquent-ils tout ?

Ce raccourci est parfois explicite. Par exemple, dans un cours en ligne portant sur « Le sexe et le genre dans l’analyse des données » (consulté en mars 2022 sur le Canadian Institutes of Health Research, NDLR), l’hémoglobine, la fonction rénale, la taille, la masse maigre sont catégorisées comme des « variables liées au sexe », définies comme « des paramètres biologiques ou physiologiques qui diffèrent systématiquement entre les hommes et les femmes en raison de facteurs génétiques ou hormonaux ». Les facteurs génétiques ou hormonaux sont en effet probablement en jeu, et peut-être même pour une large part, mais expliquent-ils vraiment toute cette variabilité ?

Ce raccourci est aussi parfois, et même plus souvent, implicite, par exemple lorsque des seuils biologiques spécifiques par catégorie de sexe sont fixés pour prendre en compte un dimorphisme sexuel présumé. L’utilisation de seuils biologiques sexe-spécifiques pour établir un « score allostatique » en épidémiologie est d’ailleurs le point de départ de cette thèse. En épidémiologie sociale, nous utilisons en effet une mesure de la « charge allostatique », qui représente l’usure biologique du corps liée à l’ensemble des stress que nous traversons au cours de nos vies.

Cette mesure est calculée à partir de plusieurs biomarqueurs (un biomarqueur est une caractéristique biologique mesurable, par exemple la tension artérielle, le taux de cholestérol, etc.), tels que la tension artérielle, le taux de cholestérol, la CRP (il s’agit d’une protéine présente dans le sang et utilisée pour mesurer le niveau d’inflammation), etc.

Chez un individu donné, si un biomarqueur a une valeur « élevée », on le dit « à risque » et plus cet individu a de biomarqueurs « à risque », plus sa charge allostatique, c’est-à-dire son usure physiologique, sera considérée comme forte.

Biomarqueurs : des seuils différents selon le sexe

Mais qu’est-ce qu’une « valeur élevée » ? À partir de quel seuil la considère-t-on « à risque » ? Ce seuil est-il le même selon l’âge ? Selon la catégorie de sexe ? Nous avons observé dans la littérature que beaucoup ne prenaient pas les mêmes seuils selon le sexe.

Souvent, en effet, un biomarqueur est considéré comme « à risque » si sa valeur fait partie des 20 % ou 25 % des valeurs les plus hautes, non pas de toute la population, mais de sa catégorie de sexe. Ce choix n’est pas anodin et a des conséquences sur les analyses.

Par exemple, on prend un biomarqueur fictif X dont l’ensemble des valeurs possibles dans la population totale et par catégorie de sexe sont représentées sur la figure ci-dessous par une barre horizontale, et les seuils séparant les 25 % des valeurs les plus élevées par un trait vertical.

Si un individu catégorisé « homme » a un biomarqueur X avec une valeur de 70, cette valeur sera considérée comme « à risque » si le seuil est fixé dans toute la population (seuil du biomarqueur X égal à 65) mais pas s’il est fixé dans chaque catégorie de sexe (seuil du biomarqueur à 80 chez les hommes).

De même, si un individu catégorisé « femme » a un biomarqueur X avec une valeur de 60, cette valeur sera considérée comme « à risque » si le seuil est fixé par catégorie de sexe (seuil du biomarqueur X à 50 chez les femmes) mais pas s’il est fixé dans toute la population (seuil du biomarqueur à 65).

Pourquoi faire le choix de seuils différents selon la catégorie de sexe ? La justification, souvent non explicitée, repose sur l’observation de distributions statistiquement différentes en fonction de la catégorie de sexe, comme représentées sur la figure.

En effet si, dans cet exemple, les personnes catégorisées « femmes » n’atteignent jamais ou très rarement la valeur 80, alors que 25 % de la population catégorisée « hommes » la dépasse, il semble logique d’envisager qu’une même valeur n’a pas la même signification d’une catégorie à l’autre et ne doit donc pas être considérée de la même façon. Il y a plusieurs façons de prendre en compte cela avec des méthodes statistiques, dont la possibilité de fixer des seuils différents en fonction des catégories, comme décrit précédemment.

Les limites de l’approche sexe-spécifique

L’inconvénient de cette méthode est qu’elle neutralise les causes de ces différences. On ne peut plus mesurer ni observer leurs effets, elles sont comme effacées. Si cet inconvénient est accepté, c’est que l’hypothèse implicite est faite que ces différences de distribution ne s’expliquent que par le dimorphisme sexuel. Dans ce cas donc, fixer des seuils différents réalignerait en quelque sorte les hommes et les femmes, en « effaçant » ce dimorphisme, les rendant sur les autres plans comparables ou analysables ensemble.

Mais ces différences de distribution sont-elles réellement et uniquement liées au dimorphisme sexuel ? Des facteurs sociaux peuvent aussi, en théorie et jusqu’à preuve du contraire, expliquer une partie des différences de distribution des biomarqueurs entre les deux catégories de sexe.

En utilisant des scores sexe-spécifiques, on ne fait donc pas qu’effacer l’effet du dimorphisme sexuel, mais aussi de toutes ces autres causes. Or, si on utilise ces mesures pour étudier l’effet de facteurs tels que le niveau d’éducation, la classe sociale, les revenus, etc. sur la charge allostatique (ce qui est souvent le cas), cette approche sexe-spécifique peut potentiellement biaiser les résultats des analyses en sur ou sous-estimant l’impact des facteurs étudiés dans l’une ou l’autre des catégories de sexe.

Il nous semblait donc important d’explorer les causes, ou mécanismes, de ces différences biologiques. Sont-elles effectivement uniquement physiologiques, liées au dimorphisme sexuel, ou s’expliquent-elles, au moins en partie, par des mécanismes sociaux, liés au genre ? C’est cette question de départ qui a guidé mon travail de thèse.

The Conversation

Colineaux H est associé au groupe de recherche Gendhi et membre de la Society for Longitudinal and Lifecourse Studies (Interdisciplinary Health Research Group). Colineaux H a bénéficié de prises en charge de déplacements professionnels dans le cadre de son travail de thèse par le projet Gendhi (financement ERC) et de rémunérations au cours de ses dernières années de thèse par le projet GINCO (financement ANR).

19.11.2024 à 16:58

Comment la RDA a cherché à imprimer sa marque à la langue allemande

Laurent Gautier, Professeur des Universités en linguistique allemande et appliquée, Université de Bourgogne

En novembre 1989, la chute du mur de Berlin a mis fin à la séparation Est-Ouest. Les deux Allemagnes réunifiées étaient alors marquées par de nombreuses divisions, notamment sur le plan linguistique.
Texte intégral (2676 mots)
Mur de Berlin en mars 1990. Au temps de l'Allemagne divisée, les dirigeants de la RDA ont tenté de mener une politique linguistique se distinguant de l'Allemagne de l'Ouest. DacologyPhoto / Shutterstock

En novembre 1989, la chute du mur de Berlin a mis fin en l’espace de quelques heures seulement à près de quarante années de séparation entre les parties est et ouest de la ville, aboutissant à la réunification des deux Allemagnes. Les divisions entre ces deux sociétés étaient multiples, mais certaines demeurent encore peu connues, notamment sur le plan linguistique.


Il y a 35 ans, la chute du mur de Berlin, érigé en 1961, marque la réunion d’une ville divisée – Berlin-Ouest, sorte d’île à l’intérieur du territoire est-allemand d’un côté, Berlin-Est de l’autre – et d’un État divisé, partagé depuis la fin de la Seconde Guerre mondiale entre la République fédérale d’Allemagne (RFA) et la République démocratique allemande (RDA).

Les analyses ne manquent pas sur les processus ayant conduit à la disparition du mur et à la naissance, un an plus tard, d’un État allemand unifié. Les dimensions entre autres politiques, institutionnelles, économiques ou culturelles ont ainsi été étudiées, avec une attention particulière portée à la ville de Berlin. Toutefois, un aspect concernant cette séparation de quarante années reste moins connu, surtout en dehors des territoires allemands : l’évolution qu’a subie au cours de ces quatre décennies et demie la langue allemande en RDA.

Le langage, un miroir de la société est-allemande

La langue évolue au fil du temps : c’est une évidence. Mais, souvent, cette variation est abordée sur le temps long à l’échelle d’un ou de plusieurs siècles ; ou bien sur un temps extrêmement court avec l’apparition de néologismes sous la pression du besoin que nous avons de nommer de nouveaux concepts (découvertes scientifiques, inventions, etc.). Dans ce contexte, les quarante années de division de l’Allemagne représentent un laboratoire intéressant.

Un groupe de réfugiés est-allemands assis sur un banc, archive de 1961
Des réfugiés est-allemands attendent d’être transportés vers l’Allemagne de l’Ouest en juillet 1961. Extrait de la brochure « A City Torn Apart : La construction du mur de Berlin ».

À un premier niveau, les divergences de fond entre les systèmes des deux États ont entraîné de grandes divergences lexicales, illustrant la manière dont un lexique peut donner à lire l’évolution d’une société. Deux séries de mots nouveaux sont ainsi apparues en RDA.

D’une part, des mots qui dénommaient des réalités est-allemandes n’existant pas sous une forme identique en RFA. Par exemple, le Dispatcher emprunté au russe, qui désigne un employé chargé de contrôler le processus de production et la bonne réalisation des objectifs imposés par la planification économique du régime.

D’autre part, des mots désignant des réalités partagées mais pour lesquelles des dénominations particulières permettaient de marquer la spécificité est-allemande et, ainsi, de mieux se « démarquer » de l’Allemagne de l’Ouest – octroyant de fait une marque idéologique au concept nommé.

C’est le cas de la formule Antifaschistischer Schutzwall employée pour désigner le mur de Berlin – une dénomination qui cherche à opérer une redéfinition politique au service de l’idéologie en place. Elle ne fait pas du mur un élément de division, mais lui attribue un rôle protecteur pour les citoyens de RDA face à une Europe occidentale ennemie qualifiée de fasciste. Il s’agit là d’un leitmotiv dans le discours officiel de RDA, bien analysé dans les travaux de recherche allemands, en particulier ceux de la linguiste Heidrun Kämper.

Berlin est aussi l’objet d’une intéressante paraphrase désignant la partie Est de la ville : Berlin Hauptstadt der DDR (littéralement : « Berlin, capitale de la RDA »). La non-utilisation du mot Est permet de faire passer la partition de la ville au second plan.

Quatre ouvriers est-allemands dans une aciérie de la région de Dresde en 1989
Aciérie et laminoir de Riesa dans la région de Dresde (en Allemagne de l’Est) le 3 octobre 1989. Wikimedia, CC BY

L’autre forme par laquelle le lexique reflète les évolutions divergentes des deux sociétés allemandes relève des « néologismes de sens », c’est-à-dire de l’apparition de nouveaux sens donnés à des mots existants.

Le terme Brigade désignait en allemand (et désigne d’ailleurs toujours) une « brigade » dans les deux sens principaux du terme existant aussi en français, pour l’armée et en cuisine. En RDA, un sens supplémentaire, emprunté au russe, lui a été attribué : celui de la plus petite unité d’ouvriers dans une entreprise de production.


À lire aussi : Et si on réunifiait enfin l’Allemagne…


Le lexique n’est toutefois pas le seul niveau linguistique touché par ces changements. La syntaxe – le mode de construction des phrases – l’est également, par exemple à travers l’utilisation accrue de formes passives qui permettaient d’exprimer les contenus, en particulier dans le domaine politique, de façon dépersonnalisée et sans jamais citer les agents des actions. Donnant le sentiment que ces décisions s’imposaient d’elles-mêmes à la population sans que personne ne soit désigné pour en avoir été à l’origine.

Les formules de routine, rythmant les interactions quotidiennes, se sont aussi « teintées de RDA ». À l’instar de Freundschaft (« amitié ») qui était la formule de salutation lors des rencontres de l’organisation de jeunesse Freie Deutsche Jugend (« jeunesse libre allemande »), ou mit sozialistischen Grüssen (« avec des salutations socialistes »), expression utilisée comme formule de clôture dans les lettres.

Les textes et les discours n’étaient pas en reste, avec deux types de textes emblématiques : les « blagues de RDA » (DDR-Witze), mettant généralement en scène le régime, le parti unique ou les conditions de vie ; et les lettres de réclamation, dites Eingaben, un type de texte inventé par le régime et à la structure très figée.

Le film Good Bye Lenin ! en présente un exemple parfait. Le personnage de Christiane Kerner – la mère du protagoniste – aidait, du temps de la RDA, des personnes dans l’écriture de leurs Eingaben. Sur un mode ironique, le film met ainsi en évidence la façon dont cette variété d’allemand était sclérosée, reposant sur des fossilisations de formules « prêtes à l’emploi » et le plus souvent vides de sens.

Bande annonce de Good Bye Lenin ! (2003) réalisé par Wolfgang Becker. Le film se déroule en ex-RDA où le jeune Alex Kerner tente de cacher la disparition de la RDA à sa mère, Christiane, fervente communiste s’éveillant d’un long coma bien après la chute du mur.

À lire aussi : L’Allemagne de l’Est est-elle la grande perdante de l’unification ?


Avant ce film devenu culte, des écrivains de RDA s’employaient déjà à montrer le ridicule de cette langue largement artificielle (incarnée en particulier par le quotidien Neues Deutschland). Ils dé-construisaient ces formules pour en faire tomber les masques linguistiques.

La création d’une variété linguistique : une décision politique

L’état des lieux de l’allemand en RDA, décrit plus haut, doit être contextualisé d’abord sur le plan linguistique. Les années 1960-1970 sont marquées dans l’espace germanophone par un large débat sur la question des variétés de la langue. La question était de savoir si l’allemand n’existait que sous une seule forme, celle de l’Allemagne – le plus souvent réduite de manière implicite à la RFA –, et si les variétés autrichienne ou suisse devaient être considérées comme des « déviances » par rapport à cette unique norme de référence ; ou s’il fallait considérer l’allemand, à l’instar notamment de l’anglais, comme une langue dotée de différents centres légitimes (ici, l’Allemagne, l’Autriche et la Suisse) caractérisés par des variétés propres historiquement constituées et sources d’identification pour les locuteurs locaux.

Or dans le cadre de cette discussion sur la langue, la RDA voit une carte à jouer sur le plan politique. En 1969-1970, une rupture survient dans le discours officiel est-allemand : les officiels postulent l’existence d’une « langue » différente de celle pratiquée en RFA, appuyant la revendication d’une nation est-allemande. Cela s’est traduit concrètement et au premier chef dans le travail lexicographique de « fabrication » des dictionnaires. Depuis 1952, un groupe de travail à l’Académie des Sciences de Berlin (Est) élabore un dictionnaire de référence produit en RDA, le Wörterbuch der deutschen Gegenwartssprache (dictionnaire de la langue allemande contemporaine), aujourd’hui accessible en ligne.

Après la parution des trois premiers tomes, le travail de cette commission connaît une inflexion afin de mettre en œuvre le programme de politique linguistique du régime. Stigmatisation systématique des mots propres à la RFA et plus généralement à l’Europe occidentale tels que Faschismus (fascisme) ou bürgerlich (bourgeois), révision des définitions et des exemples pour les rendre conformes à l’idéologie du régime, attention accrue portée aux mots et aux expressions propres à la RDA. Cette inflexion a non seulement concerné les tomes encore en cours d’élaboration (4 à 6) mais a aussi débouché sur une refonte des trois premiers pour les rendre plus « conformes ».

Toutefois, peu de sources permettent de mesurer aujourd’hui le véritable degré de pénétration de cette politique linguistique dans la pratique réelle des locuteurs est-allemands. Les sources les plus accessibles relèvent toutes du discours officiel, public ou médiatique, qui appliquait scrupuleusement les préconisations du régime. Afin de contourner ce biais, il faut donc aussi consulter les égo-documents (correspondances privées, journaux intimes, biographies linguistiques) qui permettent d’accéder à une part d’intime – dimension essentielle pour étudier les usages d’une langue.

Aujourd’hui, l’emploi de termes propres à l’ancienne RDA n’est jamais dû au hasard. Ils peuvent avoir une valeur documentaire car relevant de réalités désormais historiques, ou être utilisés de façon ironique pour marquer une forme de distanciation. L’attention de la recherche sur la langue allemande – comme pour d’autres idiomes – porte davantage sur les évolutions récentes : néologismes, par exemple liés à la pandémie ou aux questions climatiques, évolution des modes d’écriture liés aux dispositifs sociotechniques, places des emojis, etc.

The Conversation

Laurent Gautier ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

19.11.2024 à 16:57

Qu’est-ce que le biomimétisme ?

Cathy Grosjean, Enseignante-chercheuse sur la transition écologique, UCLy (Lyon Catholic University)

Comment s’inspirer des principes du vivant tout en respectant la biosphère ? Le biomimétisme nous invite à replacer l’homme comme une espèce vivante parmi les autres espèces vivantes. Explications.
Texte intégral (1056 mots)

Comment s’inspirer des principes du vivant tout en respectant la biosphère ? Le biomimétisme nous invite à replacer l’homme comme une espèce vivante parmi les autres espèces vivantes. Explications.


Quel point commun entre les vitrages auto-nettoyants, les verres fabriquées par chimie douce et le traitement des eaux usées ECOSTP ? Tous relèvent du biomimétisme, une démarche visant à résoudre des problèmes et concevoir des solutions en s’inspirant des principes du vivant tout en respectant la biosphère et les limites planétaires.

Ainsi, les vitrages auto-nettoyants reproduisent l’effet superhydrophobe observé à la surface des feuilles de Lotus : une surface microtexturée et très hydrophobe qui ne retient ni la saleté ni l’eau. La chimie douce fabrique du verre à température ambiante en s’inspirant des processus biologiques identifiés chez les Diatomées, des microalgues qui fabriquent des « carapaces » transparentes en verre de silice. Quant au procédé ECOSTP, il s’inspire du fonctionnement de l’estomac à plusieurs chambres des vaches pour purifier l’eau sans alimentation électrique.

Les solutions identifiées par cette démarche sont ainsi par essence même économes en matière et en énergie, robustes et résilientes, elles s’insèrent dans leur milieu sans le dégrader et elles ne génèrent pas de déchets non réutilisables, au même titre que les processus développés par l’ensemble des êtres vivants au long des 3,8 milliards d’années d’évolution de la vie sur Terre.

Le tournant des années 1990

Cette démarche de biomimétisme a toujours existé spontanément dans les populations humaines mais elle s’est structurée et théorisée récemment. Le terme lui-même de biomimétisme a été proposé pour la première fois en 1969 par le biophysicien américain Otto Herbert Schmitt dans le titre de son article Some interesting and useful biomimetic transforms.

Une étape majeure dans la structuration du concept a été la publication en 1997 du livre de l’Américaine diplômée en gestion des ressources naturelles Janine Benuys Biomimétisme : quand la nature inspire des innovations durables (Biomimicry : Innovation Inspired by Nature). L’auteure a regroupé et structuré de nombreuses approches hétérogènes comme la permaculture, la symbiose industrielle, l’écoconception… et a proposé de quitter la vision très technique de la bionique (démarche qui crée des systèmes technologiques inspirés du vivant) pour construire la vision systémique du biomimétisme, qui prend en compte les conditions d’équilibre et les interactions entre les différents éléments du système vivant étudié.

Qu’est-ce que le biomimétisme ?

Comment s’inspirer des principes du vivant tout en respectant la biosphère ? Le biomimétisme nous invite à replacer l’homme comme une espèce vivante parmi les autres espèces vivantes. Explications.

Sous l’impulsion de ce livre, des think tanks et des cabinets de conseil se sont ensuite créés, tels que Biomimicry 3.8 et le Biomimicry Institute aux États-Unis, ou le CEEBIOS (Centre d’excellence en biomimétisme de Senlis) en France.

Ainsi le biomimétisme s’est développé et installé dans le paysage mondial ces vingt-cinq dernières années : la mise en œuvre technologique du concept s’est accompagnée d’une définition par une norme ISO, les politiques s’en sont également emparés et les chercheurs ont commencé à livrer des analyses critiques, notamment sous l’angle de la philosophie et de l’éthique.

Des enjeux éthiques

Le biomimétisme doit désormais faire ses preuves. Se contenter de reproduire des concepts techniques ne suffira pas, seule l’intégration d’une dimension systémique peut répondre aux enjeux environnementaux de manière réellement soutenable. Quelques réalisations indiquent que c’est possible, comme celles relevant de l’écologie industrielle et territoriale ou encore les démarches de type permaentreprise.

Cette dimension systémique est rendue visible par le terme d’écomimétisme parfois utilisé à la place de biomimétisme : il enjoint de nous inspirer non pas seulement des fonctions biologiques mais des propriétés des écosystèmes, donc de prendre en compte les interrelations entre les espèces et les populations, la circularité des flux de matière et d’énergie, la frugalité dans l’utilisation des ressources… : des propriétés des écosystèmes garantes du respect de la biosphère et des limites planétaires.

Le biomimétisme et l’écomimétisme doivent également faire leurs preuves dans leur capacité à intégrer une réflexion éthique : imiter la nature pour des applications purement techniques n’est qu’une instrumentalisation de plus de la nature.

De nombreux auteurs invitent au contraire à un changement de paradigme philosophique : replacer l’homme comme une espèce vivante parmi les autres espèces vivantes. Car c’est la position dominante de l’homme vis-à-vis de la nature qui a abouti à notre économie extractiviste, linéaire et mondialisée, destructrice de nos milieux de vie et des conditions d’habitabilité de la Terre.

The Conversation

Cathy Grosjean ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

19.11.2024 à 16:55

Pourquoi notre environnement nous semble plat alors que la Terre est ronde ?

Kelly R. MacGregor, Professor of Geology, Macalester College

Tout est une question de perspective : Plus on monte, plus on voit la courbe.
Texte intégral (1011 mots)
Cette image d'une tempête tropicale prise en 2014 depuis la Station spatiale internationale montre clairement la courbure de la Terre. NOAA/Getty Images

Depuis que les Grecs de l’Antiquité ont fait des observations de la Lune et du ciel, les scientifiques savent que la Terre est une sphère. Nous avons tous vu de magnifiques images de la Terre depuis l’espace, certaines photographiées par des astronautes et d’autres collectées par des satellites en orbite. Alors pourquoi notre planète ne semble-t-elle pas ronde lorsque nous nous trouvons dans un parc ou que nous regardons par la fenêtre ?

La réponse est une question de perspective. Les êtres humains sont de minuscules créatures vivant sur une très grande sphère.

Imaginez que vous êtes un acrobate de cirque debout sur une boule d’environ 1 mètre de large. Du haut de la boule, vous la voyez s’éloigner de vos pieds dans toutes les directions.

Imaginez maintenant une petite mouche sur cette boule de cirque. Son point de vue se situerait probablement à un millimètre ou moins au-dessus de la surface. Comme la mouche est beaucoup plus petite que la balle et que son point de vue est proche de la surface, elle ne peut pas voir toute la balle.


Chaque semaine, nos scientifiques répondent à vos questions.

N’hésitez pas à nous écrire pour poser la vôtre et nous trouverons la meilleure personne pour vous répondre.

Et bien sûr, les questions bêtes, ça n’existe pas !


La Terre mesure environ 12,8 millions de mètres de large, et même le regard d’un adulte de grande taille ne culmine qu’à environ 2 mètres au-dessus de sa surface. Il est impossible pour nos yeux de saisir la taille de la Terre sphérique lorsque nous nous trouvons dessus. Vous ne pourriez pas visualiser que la Terre est une sphère même en montant au sommet du mont Everest, qui se trouve à 8 850 mètres au-dessus du niveau de la mer.

La seule façon de voir la courbe de la Terre est de s’envoler à plus de 10 kilomètres au-dessus de sa surface. En effet, la longueur de l’horizon que nous voyons dépend de la hauteur à laquelle nous nous trouvons au-dessus de la surface de la Terre.

Debout sur le sol, sans rien qui bloque notre vision, nos yeux peuvent voir environ 4,8 kilomètres de l’horizon. Ce n’est pas assez pour que la ligne d’horizon commence à montrer sa courbe. Comme une mouche sur une boule de cirque, nous ne voyons pas assez le bord où la Terre rencontre le ciel.

Pour voir l’ensemble de la sphère planétaire, il faudrait voyager avec avec un astronaute ou à bord d’un satellite. Vous auriez ainsi une vue complète de la Terre à une distance beaucoup plus grande.

Les gros avions de ligne peuvent également voler suffisamment haut pour donner un aperçu de la courbure de la Terre, bien que les pilotes aient une bien meilleure vue depuis l’avant de l’avion que les passagers depuis les fenêtres latérales.

Pas tout à fait une sphère

Même depuis l’espace, vous ne pourriez pas déceler quelque chose d’important à propos de la forme de la Terre : elle n’est pas parfaitement ronde. Il s’agit en fait d’un sphéroïde légèrement aplati ou d’un ellipsoïde. Cela signifie qu’autour de l’équateur, elle est un peu plus large que haute, comme une sphère sur laquelle on se serait assis et qu’on aurait un peu écrasée.

Ce phénomène est dû à la rotation de la Terre, qui crée une force centrifuge. Cette force produit un léger renflement au niveau de la taille de la planète.

Les caractéristiques topographiques de la surface de la Terre, telles que les montagnes et les fosses sous-marines, déforment également légèrement sa forme. Elles provoquent de légères variations dans l’intensité du champ gravitationnel terrestre.

Les sciences de la Terre, le domaine que j’étudie, comportent une branche appelée géodésie qui se consacre à l’étude de la forme de la Terre et de sa position dans l’espace. La géodésie sert à tout, de la construction d’égouts à l’établissement de cartes précises de l’élévation du niveau de la mer, en passant par le lancement et le suivi d’engins spatiaux.

The Conversation

Kelly R. MacGregor reçoit des fonds de la National Science Foundation, du Keck Geology Consortium et du Minnesota Environment and Natural Resources Trust Fund (ENRTF).

19.11.2024 à 15:57

Reading dark romance: The ambiguities of a fascinating genre

Magali Bigey, Maîtresse de conférences en SIC, sémiolinguiste spécialiste de la réception de publics populaires, Laboratoire ELLIADD, Université de Franche-Comté – UBFC

What does the growing success of these provocative novels, often portraying romantic relationships tinged with violence, tell us eight years after #MeToo?
Texte intégral (1258 mots)
Un rayon qui ne cesse de s'étoffer. Fourni par l'auteur

A literary subgenre that emerged in the 2010s and gained widespread popularity in the 2020s, dark romance falls under the umbrella of unhealthy love stories. These novels often depict relationships that challenge moral and legal boundaries, raising questions about their growing appeal. What does the success of these provocative stories, frequently marked by violence and complex power dynamics, reveal about contemporary society?


Fueled by social media platforms such as TikTok – particularly under the hashtag #BookTok – the meteoric rise of dark romance underscores a shift in how narratives about love and desire are consumed. The genre’s ability to provoke intense emotional responses has captivated a predominantly young, female, and highly engaged audience. While controversial, these novels allow readers to explore forbidden or complex emotions within a controlled, fictional environment. How can society better understand this phenomenon, and more importantly, guide young readers toward critical engagement without dismissing their preferences?

A genre on the rise

The success of Fifty Shades of Grey by E.L. James in the early 2010s helped establish new romance as a dominant force in publishing, paving the way for subgenres like dark romance. Series such as 365 Days by Blanka Lipińska and Captive by Sarah Rivens have garnered millions of readers, cementing dark romance as a popular niche.

By 2023, romance accounted for 7% of the French book market, with dark romance representing a significant portion. Once relegated to the fringes, the genre is now widely available in bookstores, libraries, and even boasts its own event – the Festival New Romance in Lyon.

Central to dark romance’s success is the role of online literary communities. Platforms such as TikTok amplify these novels’ visibility through thousands of videos featuring recommendations, excerpts, and emotional analyses. Enthusiastic readers become influencers, driving interest and propelling titles to success – sometimes even before official publication. Viral sensations like Captive owe much of their popularity to this digital word-of-mouth model.

The allure of emotional intensity

Dark romance explores the murky areas of love and desire, often characterised by fraught power dynamics and implicit or explicit violence between protagonists. Yet, these stories typically have a positive, albeit complicated, conclusion.

Protagonists in these novels are often young women in submissive roles paired with dominant male characters. Despite frequent criticism for their portrayal of toxic relationships, these narratives resonate with readers by offering an emotional intensity unmatched by other romance subgenres.

For many, the appeal lies in the safe exploration of extreme emotions within a fictional framework. Similar to the thrill of horror movies, readers can experience fear, tension, or desire, knowing they remain in control of the story. This emotional catharsis may reflect broader societal unease, particularly among young people navigating conversations around gender equality, consent, and power dynamics in the post-#MeToo era.

Recognising excess without normalizing it

Contrary to fears that dark romance promotes violence or unhealthy relationships, many readers engage critically with these narratives. A 2024 study of high school students revealed that young readers often interpret such content through a lens of awareness, acknowledging the troubling dynamics while recognising their fictional nature. “It’s good to show readers the violence of these acts so they can understand how absurd it is,” one student told Arnaud Genon, a professor at INSPÉ in Strasbourg. This sentiment underscores the idea that reading these novels can foster a critical awareness of harmful behaviours rather than normalising them.

Far from being a mere incitement to violence, dark romance can serve as a tool for introspection and emotional processing – though its impact varies significantly based on the reader’s maturity and age. Concerns often arise regarding very young readers, particularly girls who may lack the emotional tools to process such content effectively. This underscores the importance of providing guidance and fostering environments where young people can discuss these narratives openly, whether with trusted individuals or within critical reading communities. Such approaches mitigate risks of superficial interpretations or unchecked immersion, especially on platforms like Wattpad, a collaborative storytelling site where moderation can be minimal.

Dark romance often serves as a form of catharsis, allowing readers to engage with powerful and conflicting emotions in a controlled and safe environment. The genre enables readers to navigate themes of control, freedom, and submission – concepts many young women grapple with amid societal pressures. Within these fictional realms, readers remain in control of the narrative, creating a boundary that separates fantasy from reality.

This exploration is particularly relevant in a society where young women are often subjected to paradoxical expectations. Dark romance provides a space to examine these tensions without real-world repercussions, making emotional engagement the cornerstone of the reader’s experience.

One of the reasons dark romance maintains its popularity is its ability to offer a sense of reassurance amid the complexities of real-world relationships. The recurring theme of the heroine “healing” her abuser or gaining control over the relationship provides a redemptive arc that appeals to readers seeking resolution. While the initial depictions of violence may be troubling, the eventual mastery and closure provide a controlled space for readers to explore challenging emotions without endorsing such behaviours in real life.

In many households, the introduction to dark romance comes from familial connections, such as mothers or older sisters sharing their own discoveries. These shared experiences often lead to discussions, fostering critical thinking and reflection on the content. In more open-minded environments, such exchanges transform reading into a communal and analytical activity, steering readers away from simplistic or potentially harmful interpretations.

Toward a more nuanced approach

Rather than condemning dark romance, society should focus on guiding its readership. Demonising the genre risks alienating young readers, while fostering open dialogue encourages critical reflection.

Teenagers often engage with these stories as a form of experimentation, rather than a desire to emulate the characters or relationships depicted. Social media reactions like “Oh, Ash is so handsome; I’d love a guy like that” are frequently playful provocations rather than genuine aspirations.

As Hervé Glevarec, a CNRS sociologist specialising in contemporary cultural practices, observes: “Cultural tastes cannot be understood independently of the context in which they are expressed; they are shaped by social situations and networks of sociability.” Dark romance, in this light, becomes an emotional playground where readers can safely explore desires, frustrations, and fantasies while remaining grounded in the understanding that these stories are fictional.

The challenge lies in ensuring young readers encounter dark romance within frameworks that encourage thoughtful engagement. When supported by open discussions and critical analysis, this provocative genre can serve as a space for readers to confront complex emotions on their terms – and ultimately dominate the narrative.

The Conversation

I advise library staff and middle and high school teachers regarding Dark Romance for young audiences

19.11.2024 à 12:36

« Kéta », « K », « Spécial K »… les usages détournés de la kétamine prennent de l’ampleur : quels sont les risques et les dispositifs de surveillance ?

Joëlle Micallef, Service de pharmacologie clinique et pharmacosurveillance, AP-HM Centre d'Évaluation et d'Information sur la Pharmacodépendance – Addictovigilance PACA-Corse Institut de Neurosciences des Systèmes (U1106), Aix-Marseille Université (AMU)

Thomas Soeiro, Service de pharmacologie clinique et pharmacosurveillance, AP-HM Centre d'Évaluation et d'Information sur la Pharmacodépendance – Addictovigilance PACA-Corse Institut de Neurosciences des Systèmes (U1106), Aix-Marseille Université (AMU)

L’usage détourné de la kétamine comme hallucinogène, psychédélique, pour le chemsex… se répand et fait régulièrement la Une, avec l’affaire Palmade ou le décès de Matthew Perry de la série « Friends ».
Texte intégral (2563 mots)

L’usage détourné de la kétamine, un médicament anesthésique, comme hallucinogène s’installe dans la population, même chez les jeunes. Ce produit peut entraîner des comportements addictifs, avec toutes les conséquences que cela implique, et peut aussi conduire à des complications sévères, notamment urinaires. Il fait l’objet de suivis par des dispositifs de surveillance spécialisés.


La kétamine est un médicament anesthésique général pour usage humain et vétérinaire, dont la première spécialité a été commercialisée en France en 1970.

Plus de 50 ans après, ce produit est aussi de plus en plus présent dans les faits divers en France ou à l’étranger pour son usage détourné. Il en a par exemple été question suite au décès de Matthew Perry, l’un des protagonistes de la célèbre série Friends. L’ampleur que prend l’usage détourné de la kétamine comme hallucinogène, bien loin de son utilisation médicale pourtant essentielle, est sans équivalents. Comment et pourquoi en est-on arrivé à une telle situation ?


Chaque mardi, notre newsletter « Et surtout la santé ! » vous donne les clés afin de prendre les meilleures décisions pour votre santé (sommeil, alimentation, psychologie, activité physique, nouveaux traitements…)

Abonnez-vous dès aujourd’hui.


En France, les usages récréatifs explosent avec la techno des années 90

Aux États-Unis puis en Europe, les premiers cas de déviation de son usage médical vers un usage récréatif ont été décrits notamment chez des professionnels de santé (anesthésistes) ayant accès aux produits. À la fin des années 90, son usage en France gagne l’espace festif techno, où elle est proposée sous différentes appellations (Kéta, K, Kate, Spécial K, la Golden, la vétérinaire…) et consommée essentiellement par voie nasale (60-100 mg) ou orale, pour ses effets hallucinatoires.

L’usage détourné de la kétamine va également atteindre l’Asie. Elle y prendra une ampleur considérable, en particulier dans les night-clubs de Taiwan et de Hong Kong. En 2006 à Hong Kong, la kétamine est la deuxième substance psychoactive la plus consommé après l’héroïne.

Une substance sous surveillance grâce à l’addictovigilance

En France, depuis de nombreuses années, la kétamine fait l’objet de rapports nationaux d’expertise d’addictovigilance, permettant ainsi de détecter, repérer et caractériser de nouvelles pratiques d’utilisations ainsi que leurs conséquences sur la santé.

Il faut dire que la France est le seul pays en Europe à avoir mis en place depuis 1990 un dispositif de veille spécifique sur les substances psychoactives et leurs conséquences sur la santé, grâce aux treize Centres d’Évaluation et d’Information sur la Pharmacodépendance-Addictovigilance (CEIP-A) qui constituent le Réseau français d’addictovigilance.

Cette analyse s’appuie sur la triangulation de plusieurs sources de données françaises, dont les déclarations de cas graves avec la kétamine (qui sont une obligation légale pour les professionnels de santé) et les données issues d’un dispositif de pharmacosurveillance appelé OPPIDUM (Observation des produits psychotropes Illicites ou détournés de leur Utilisation Médicamenteuse).

Ce dispositif permet de connaître les substances psychoactives consommées par les patients pris en charge en France dans les structures spécialisées en addictologie, grâce à un recueil effectué chaque année durant le mois d’octobre. Sur le mois d’octobre 2012, 35 patients (0,7 %) étaient des consommateurs de kétamine. Ce chiffre ne cesse de croire depuis jusqu’à attendre 107 consommateurs (2 %) lors du recueil en octobre 2023.

Une constante progression des usagers réguliers

La proportion d’usagers réguliers de kétamine est aussi en constante progression. C’est également le cas pour ceux qui augmentent les doses de kétamine et présentent des troubles de l’usage, c’est-à-dire une addiction avec la kétamine.

Cette problématique des troubles de l’usage avec la kétamine se retrouve dans les déclarations d’addictovigilance avec des usagers qui se retrouvent en difficulté avec leur consommation. Cela se manifeste par des augmentations des doses, du craving qui décrit le besoin irrépressible de consommer, des complications dans le domaine de la santé (complications urinaires, complications sur le foie, complications psychiatriques…), des conséquences financières… ce qui amène les usagers à consulter ou à être hospitalisés.

À noter dans ce contexte de troubles de l’usage avec la kétamine, des situations cliniques qui rapportent un comportement de recherche de kétamine pharmaceutique, par des passages via les services d’urgences pour obtenir de la kétamine. Ceci témoigne des passerelles qui peuvent exister entre la kétamine dite « illicite » et la kétamine pharmaceutique.

Quant au profil des usagers, il se diversifie. Certains continuent d’utiliser la kétamine dans un contexte festif ou récréatif, d’autres pour une finalité « auto-thérapeutique » (réduction de l’anxiété, bien-être, antidouleur, amélioration de l’humeur, sevrage alcoolique…) sans que l’efficacité de la kétamine dans ces indications ait été démontrée et hors de tout accompagnement médical, ce qui les expose à des effets indésirables possiblement graves et enfin, d’autres encore à visée sexuelle, notamment dans un contexte de chemsex.


À lire aussi : Du chemsex aux fêtes… La 3-MMC, cette drogue de synthèse qui gagne du terrain chez les jeunes


Une kétamine expérimentée aussi par une minorité de jeunes

De façon intéressante, trois récentes études réalisées en France sur les niveaux d’expérimentation des substances psychoactives ont inclus spécifiquement la kétamine. Leurs chiffres témoignent notamment de l’installation de l’expérimentation de kétamine en population générale mais aussi chez les jeunes.

On observe ainsi en France :

  • en 2023, une prévalence d’expérimentation de la kétamine au cours de la vie de 2,6 % (3,3 % chez les 18-24 ans, 4,8 % chez les 25-34 ans, 3,2 % chez les 35-44 ans ; sur un échantillon représentatif de 14 984 personnes âgées de 18 à 64 ans), d’après l’Observatoire français des drogues et des tendances addictives OFTH.

  • une prévalence d’usage de la kétamine de 0,9 % (allant de 0,6 % à 4,7 % en fonction de la situation scolaire) quand on interroge de jeunes gens âgés de 17 ans lors de la journée défense et citoyenneté (sur un échantillon représentatif de 23 701 filles et garçons âgés de 17,4 ans), selon les données ESCAPAD 2022.

  • une prévalence d’expérimentation de la kétamine de 1,1 % (1,4 % garçons, 0,9 % filles) chez des élèves de la sixième à la terminale, d’après les données d2022 du dispositif EnCLASS.


À lire aussi : Cocaïne, ecstasy, hallucinogènes… Quels sont les comportements des jeunes face aux drogues illicites ?


Et il ne s’agit pas d’une spécificité française. Au Royaume-Uni,par exemple, l’expérimentation de la kétamine est passée de 0,5 % en 2010 à 0,8 % en 2020. Parmi les 16-24 ans, cet usage a doublé durant la même période, de 1,7 % à 3,2 %.

Gare aux complications sévères, notamment urinaires

Une abondante littérature scientifique caractérise des complications liées à la consommation de kétamine, en particulier des complications urinaires sévères (à type de cystites interstitielles) chez des consommateurs réguliers de kétamine souvent par voie nasale.

Pourtant au début, comme souvent pour tout évènement nouveau, le lien avec la kétamine fut débattu et même critiqué, avec des arguments évoquant d’autres hypothèses comme l’existence d’un produit adultérant dans la kétamine, ses modalités de préparation (chauffage de la kétamine) ou encore la synthèse d’un métabolite toxique de la kétamine par les usagers asiatiques qui présente souvent des polymorphismes génétiques.

C’est en 2007 que paraîtront les deux premiers articles scientifiques sur les complications urinaires chez des usagers réguliers de kétamine, à Hong Kong et au Canada, battant en brèche l’hypothèse du métabolite toxique liée à la population asiatique.

De façon intéressante, cette publication canadienne donnera lieu à d’autres publications par des équipes utilisant la kétamine à but médical, de façon répétée, pour traiter des douleurs complexes et relatant dans ce cadre-là également des complications urinaires.

Des études expérimentales chez l’animal amèneront un éclairage utile pour établir ce lien avec notamment la mise au point d’un modèle animal de cystites induites par l’administration répétée de fortes doses de kétamine ou encore la mise en évidence d’anomalies urinaires symptomatiques chez le rat après l’administration de la méthoxétamine, une puissante drogue de synthèse et un antagoniste des récepteurs de la NMDA comme… la kétamine.

Difficultés à uriner, mictions fréquentes…

Ces cystites se manifestent par des difficultés à uriner (dysurie), la présence de sang dans les urines (hématurie) et des mictions très fréquentes en lien avec une capacité réduite de la vessie. Elles peuvent entraîner un retentissement sur le haut appareil urinaire donc au niveau des reins, conduisant à ce que l’on appelle des hydronéphroses.

Des tableaux cliniques sévères et invalidants peuvent nécessiter des interventions chirurgicales. Ces complications sont observées en cas de poursuite de la consommation de kétamine. Dès les premiers symptômes urinaires, l’arrêt constitue pourtant le meilleur traitement.

En France, toutes ces complications cliniques en lien avec les substances psychoactives à risque d’abus (médicamenteuses ou non) sont suivies de près par les pharmacologues du Réseau français d’addictovigilance, piloté par l’Agence National de Sécurité du Médicament et des produits de santé (ANSM).

Des saisies importantes, signe de la circulation du produit

La kétamine est un produit qui circule davantage. En 2022, près de 3 000 saisies ont été réalisées en Europe, pour un total de près de 2,79 tonnes de kétamine. Elles s’inscrivent dans une dynamique croissante.

Cet usage est facilité par une diffusion accentuée de la kétamine (comme en témoignent les niveaux de saisies en augmentation au niveau européen et mondial) et une accessibilité facilitée (deal, dématérialisation par le recours aux outils numériques…).

Cette situation explique les chiffres d’exposition en population générale, ou plus spécifiquement chez les collégiens et lycéens scolarisés, et également l’augmentation des complications sanitaires liées à la kétamine en France ou ailleurs.

The Conversation

Joëlle Micallef a reçu des financements dans le cadre d'appels à projets de l'Institut pour la Recherche en Santé Publique (IReSP) et de l’Institut National du Cancer (INCa).

Thomas Soeiro a reçu des financements dans le cadre d’appels à projets du GIS EPI-PHARE.

18.11.2024 à 15:56

50 ans après, Lucy n’a pas encore révélé tous ses secrets

Jean-Renaud Boisserie, Directeur de recherche au CNRS, paléontologue, Université de Poitiers

La découverte de Lucy marque un jalon scientifique très important. Que savons-nous d’elle aujourd’hui et que reste-t-il à découvrir ?
Texte intégral (3187 mots)

Ce dimanche 24 novembre marque le cinquantième anniversaire de la découverte du fossile de l’australopithèque Lucy. Jean-Renaud Boisserie dirige un programme de recherche interdisciplinaire travaillant dans la basse vallée de l’Omo en Éthiopie et ayant pour objectif de comprendre les interactions entre les changements environnementaux et l’évolution des organismes (humains inclus) de cette vallée au cours des quatre derniers millions d’années. Spécialiste des faunes fossiles de la région où à été découvert le fossile de Lucy, il nous renseigne sur l’importance de cette découverte et sur toutes les questions qu’elle soulève encore.


The Conversation : Lucy fait partie du genre Australopithecus et notre espèce du genre Homo : quelles sont les principales différences et ressemblances et notre lien de parenté ?

Jean-Renaud Boisserie : Le genre Homo est caractérisé à la fois par un volume cérébral généralement de grande taille (plus de 600 cm3), même s’il existe des exceptions, par une bipédie obligatoire marquée par diverses adaptations (par exemple jambes longues, bras courts) qui améliore l’endurance et la rapidité des déplacements bipèdes, et par une denture relativement réduite. Bien qu’également bipèdes, Australopithecus gardait une morphologie compatible avec une bonne aptitude aux déplacements arboricoles, présentait une denture le plus souvent « mégadonte » – c’est-à-dire des dents grosses à l’émail très épais (en particulier chez les australopithèques dits « robustes », et un cerveau de taille peu différente de celle des chimpanzés et des gorilles. On sait cela notamment grâce à la découverte d’Australopithecus afarensis.

T.C. : Quelle importance a eu la découverte de Lucy, la plus célèbre représentante de cette espèce ?

J.-R. B. : Cette découverte est un jalon dans notre compréhension de l’évolution humaine en Afrique, puisqu’on se posait un certain nombre de questions avant la découverte de Lucy sur l’ancienneté du genre Homo et le rôle des australopithèques dans l’ascendance de notre genre. Avec Australopithecus africanus en Afrique du Sud, on savait qu’il existait des formes bipèdes avec un cerveau relativement réduit, mais sans dates bien établies dans les années 1970, ce qui était assez problématique.

Côté Afrique orientale, Louis et Mary Leakey avaient mis au jour des australopithèques robustes à partir de la fin des années 1950, assez bien datés vers 1,8 million d’années, ainsi que les restes d’Homo habilis, alors le plus ancien représentant du genre Homo. À partir de 1967, les travaux menés dans la vallée de l’Omo, qui pour la première fois mobilisaient des équipes importantes et pluridisciplinaires, ont permis de découvrir des restes d’australopithèques datant de plus de 2,5 millions d’années, et des restes du genre Homo à peine plus récents.

Au début des années 1970, la découverte sur les rives du lac Turkana du crâne d’Homo rudolfensis – un représentant indubitable de notre genre avec sa capacité cérébrale de près de 800 cm3 – suggérait initialement l’âge très ancien (jusqu’à 2,6 millions d’années) de notre genre et d’une capacité cérébrale importante. Une partie de la communauté scientifique, notamment la famille Leakey, pensait donc que le genre Homo constituait une branche parallèle à celle des australopithèques, qui auraient donc été des cousins éteints, mais pas nos ancêtres.

Reconstruction du squelette fossile de Lucy, Australopithecus afarensis. MNHN Paris, CC BY

La découverte d’Australopithecus afarensis, et notamment de Lucy, a clarifié ce débat. Non seulement l’âge de ces nouveaux fossiles était clairement plus ancien que 3 millions d’années, mais surtout ils incluaient des fossiles bien préservés, en particulier l’exceptionnelle Lucy. Avec 42 os, représentés par 52 fragments, à peu près 40 % du squelette est représenté. Des fossiles humains aussi complets n’étaient alors connus qu’à des périodes beaucoup plus récentes (moins de 400 000 ans).

Avec Lucy, de nombreux autres spécimens ont été découverts dans les années 1970 à Hadar, ainsi qu’à Laetoli en Tanzanie, où ces derniers étaient associés à des empreintes de pas bipèdes dans des cendres volcaniques datées de 3,7 millions d’années.

Tous ces éléments montraient qu’Australopithecus afarensis, bipède à petit cerveau, était nettement plus ancienne qu’Homo (l’âge d’Homo rudolfensis fut d’ailleurs ultérieurement réévalué à moins de 2 millions d’années). Cette espèce pouvait donc être considérée comme ancêtre commun des toutes les espèces humaines ultérieures, notre espèce, Homo sapiens, comprise. C’est devenu l’hypothèse dominante pour décrire l’évolution humaine pendant pour plusieurs décennies.

T.C. : Quelle importance a eu Lucy dans le monde ? La connaît-on partout comme en France ?

J.-R. B. : En France, c’est vrai qu’on la connaît bien parce qu’elle a été très bien présentée par Yves Coppens, un des codirecteurs de l’International Afar Research Expedition, l’équipe qui a découvert Lucy. Avec son immense talent de vulgarisateur, il a réussi à la faire adopter par le public français tout en montrant bien son importance scientifique.

Ce fut la même chose aux États-Unis, où d’autres membres de l’équipe ont mené le même travail de vulgarisation, ainsi qu’en Éthiopie. Mais cela dépasse ce cadre géographique : ailleurs en Europe, en Asie et en Afrique, elle est extrêmement connue. C’est réellement un fossile extrêmement important pour la science internationale en général.

T.C. : Lucy a été présentée comme « grand-mère de l’humanité », cela a été vrai combien de temps ?

J.-R. B. : Après cette découverte d’Austrolopitecus Afarensis qui a conduit à la considérer comme l’ancêtre commun à toutes les espèces humaines plus récentes, il y a tout d’abord eu des espèces plus anciennes qui ont été mises au jour. On connaissait dès le début des années 1970 des fossiles plus anciens, mais ils étaient rares, très fragmentaires et mal conservés.

À partir des années 1990, de nouveaux travaux dans l’Afar, à quelques dizaines de kilomètres au sud de Hadar dans la moyenne vallée de l’Awash, ont révélé la présence d’une espèce plus ancienne qui a été baptisée initialement Australopithecus ramidus, puis Ardipitecus ramidus parce qu’elle a été jugée suffisamment différente pour définir un nouveau genre. Ces restes de 4,4 millions d’années montraient qu’il y avait eu quelque chose avant Lucy et les siens, qui ne représentaient plus le stade évolutionnaire le plus ancien de l’humanité.

D’autres découvertes sont intervenues au tout début des années 2000, avec Orrorin tugenensis au Kenya, daté à 6 millions d’années ; puis Ardipithecus kadabba, de nouveau dans le Moyen Awash, daté de 5,8 à 5,2 millions d’années ; et enfin, Sahelanthropus tchadensis (Toumaï), cette fois en Afrique centrale, au Tchad, plus près de 7 millions d’années.

Australopithecus afarensis n’était donc plus l’espèce la plus ancienne, mais devint potentiellement un jalon au sein d’une lignée évolutionnaire beaucoup plus ancienne.

En parallèle, il y a eu la découverte de formes contemporaines de Lucy, attribuées cette fois à des espèces contemporaines mais différentes. Ça a été par exemple le cas d’Australopithecus bahrelghazali au Tchad, daté entre 3,5 et 3 millions d’années. Dès 1995, ces restes assez fragmentaires montraient un certain nombre de caractères qui suggèrent qu’il s’agit d’une espèce différente de celle de Lucy. D’autres ont suivi, notamment Australopithecus deyiremeda, ou encore une forme non nommée connue par un pied très primitif (« le pied de Burtele »), tous deux contemporains d’Australopithecus afarensis, et issu d’un site voisin de celui de Hadar, Woranso-Mille.

T.C. : Comment détermine-t-on qu’un fossile appartient à telle espèce ou à tel genre ?

J.-R. B. : C’est un degré d’appréciation de la part des scientifiques qui est assez difficile à tester en paléontologie. Prenez par exemple les chimpanzés : il en existe deux espèces légèrement différentes dans leur comportement et dans leur morphologie. Elles sont néanmoins beaucoup plus semblables entre elles qu’avec n’importe quelle autre espèce de grands singes et sont donc toutes deux placées au sein du genre Pan. Les données génétiques confirment largement cela.

En paléontologie, c’est plus compliqué parce qu’on a affaire à des informations qui sont parcellaires, avec la plupart du temps la morphologie pas toujours bien préservée, et finalement peu de données sur les comportements passés. On peut caractériser une partie de l’écologie de ces formes fossiles avec des approximations, et sur cette base, les informations morphologiques et une vision souvent incomplète de la diversité alors existante, on tâche de déduire des critères similaires à ceux observés dans l’actuel pour classer des espèces fossiles au sein d’un même genre.

Pour définir Ardipithecus par rapport à Australopithecus, ce qui a primé, c’est la morphologie des dents, puisque par rapport aux grosses dents à émail épais des australopithèques, Ardipithecus présentait des dents qui sont relativement plus petites, un émail plus fin et des canines relativement plus grosses.

En matière de locomotion, il y a également des différences, bien décrites en 2009. Le bassin de Lucy est très similaire au nôtre, la bipédie est bien ancrée chez Australopithecus. Par contre, chez Ardipitecus, le développement de certaines parties du bassin rappelle ce qu’on voit chez des quadrupèdes grimpeurs, par exemple les chimpanzés. Surtout, on observe un gros orteil (hallux) opposable.

Par contre, les critères sont parfois beaucoup moins objectifs. En dehors de détails mineurs des incisives et des canines, ce qui a conduit à placer Orrorin et Sahelanthropus dans des genres différents d’Ardipithecus est davantage lié au fait que ces restes ont été découverts dans d’autres régions par des équipes différentes.

T.C. : Qu’est-ce qui a changé entre notre connaissance de Lucy au moment de sa découverte et aujourd’hui ?

J.-R. B. : Les grandes lignes de la morphologie des australopithèques n’ont pas fondamentalement changé depuis cette époque-là. Australopithecus afarensis et Lucy ont permis de définir des bases qui sont toujours extrêmement solides. Par contre, même s’il y des débats sur certains fossiles, il est très probable qu’il y avait une plus grande diversité d’espèces entre 4 et 3 millions d’années que ce qu’on pensait à l’époque. Avec le fait qu’il y a également des fossiles humains beaucoup plus anciens relativement bien documentés, c’est un changement majeur par rapport à la vision acquise dans les années 1970.

T.C. :Que savons-nous du régime alimentaire de Lucy ?

L’alimentation d’Australopithecus afarensis était certainement assez diversifiée, pouvant incorporer des fruits, mais également des herbacées et peut-être des matières animales. Australopithecus afarensis a vécu au moins entre 3,8 et 3 millions d’années, soit une très longue durée, beaucoup plus importante que les possibles 300 000 ans d’existence proposés pour Homo sapiens. Il a donc fallu une bonne dose d’opportunisme pour pouvoir faire face à des changements environnementaux qui ont parfois été relativement importants au Pliocène.

Il y a diverses techniques qui s’intéressent aux dents parce que ce sont des objets complexes, constitués de plusieurs tissus et incluant des éléments chimiques dont les concentrations peuvent être liées à l’alimentation. Il y a donc des approches qui utilisent ces contenus chimiques, ainsi que d’autres qui sont réalisés sur les types d’usures liées à l’alimentation. Ces méthodes et d’autres permettront d’avoir une meilleure compréhension de l’alimentation de ces espèces anciennes.

Australopithecus afarensis, connu par plusieurs centaines de spécimens, rarement aussi complets que Lucy même si certains s’en approchent, comprenant néanmoins beaucoup de restes dentaires, de mâchoires et d’os des membres, nous offre un véritable trésor sur lequel s’appuyer pour développer de nouvelles approches et répondre aux questions en suspens.

T.C. : Quelles sont les grandes questions qui restent à étudier ?

J.-R. B. : Lucy a encore un bel avenir scientifique devant elle car elle aidera certainement à répondre à plein de questions. Ainsi la caractérisation de la locomotion et les transitions entre les différentes formes de locomotion sont toujours l’objet d’un débat.

Lucy était bipède quand elle était au sol mais son membre supérieur suggère un également une locomotion arboricole. On ne sait toujours pas, néanmoins, combien de temps passait-elle réellement dans les arbres. Et comment et à quel moment se font les transitions entre les formes aux locomotions versatiles (par exemple Sahelanthropus, à la fois bipède au sol et sans doute fréquemment arboricole) et la bipédie plus systématique des australopithèques, puis avec la bipédie obligatoire d’Homo ? Ou encore entre un cerveau de taille similaire à celui des grands singes non humains actuels et le cerveau plus développé du genre Homo ?

Car finalement, les premiers représentants du genre Homo sont surtout bien connus après 2 millions d’années. Avant 2 millions d’années, les spécimens attribués au genre Homo sont essentiellement fragmentaires et donc assez peu connus. Cette transition n’est toujours pas bien comprise, et c’est un de nos objectifs de recherche dans la basse vallée de l’Omo.

Il y a d’autres questions qui se posent au sujet des australopithèques. Comment se développaient-ils ? Est-ce qu’ils présentaient des caractéristiques du développement similaire à celle des chimpanzés, ou plus similaire à celle d’Homo sapiens, c’est-à-dire avec une croissance plus lente, plus étalée dans le temps, et donc avec des jeunes qui naissent avec des capacités amoindries, nécessitant que l’on s’en occupe beaucoup plus.

La question de la naissance est de ce point de vue très importante. Est-ce que les bébés australopithèques avaient un cerveau relativement développé par rapport à la taille finale, comme ce qu’on peut observer chez les chimpanzés, ou est-ce qu’ils avaient un cerveau plus petit comme chez nous, permettant de se faufiler dans le canal pelvien ? Avec la bipédie, le bassin a été modifié et le canal pelvien, par où les naissances doivent s’effectuer, est devenu plus étroit et tortueux. Dans cette configuration, un cerveau trop gros à la naissance coince, et ça ne marche plus. Des travaux en cours sur Lucy et d’autres spécimens apportent des éléments de réponse importants sur ce type de questions.

D’autre part, si toutes les espèces d’australopithèques contemporaines au Pliocène récent sont bien avérées, comment tout ce petit monde coexistait ? À partir de Lucy et jusqu’à relativement récemment, on a toujours eu plusieurs espèces humaines qui ont pu exister de manière contemporaine et même vivre dans les mêmes endroits. Comment est-ce que ces coexistences s’articulaient ? Pour répondre, il y a encore beaucoup de choses à découvrir sur leurs modes de vie, sur leurs écologies, sur leurs alimentations.

The Conversation

Jean-Renaud Boisserie ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

18.11.2024 à 15:52

Pourquoi les chats ont envahi Internet

Justine Simon, Maître de conférences, Université de Franche-Comté, ELLIADD, Université de Franche-Comté – UBFC

Qu’ils fassent des blagues, des câlins ou des bêtises, les images de chats circulent sans fin sur les réseaux sociaux. Mais pourquoi ces animaux ont-ils envahi nos écrans ?
Texte intégral (1788 mots)
Sur le web, impossible d'échapper aux memes mettant en scène les félins domestiques. Mr Thinktank / Flickr, CC BY

Des chats partout : en dessins, en photos, en vidéos, en GIFs, en mèmes… Ils sont devenus les véritables stars d’Internet. Qu’ils fassent des blagues, des câlins ou des bêtises, leurs images circulent sans fin sur les réseaux sociaux. Mais pourquoi ces animaux ont-ils envahi nos écrans ? Et que nous révèlent-ils sur notre société et sur le fonctionnement des plates-formes que nous utilisons au quotidien ?


Cela fait plusieurs années que j’étudie la propagation des images sur les réseaux sociaux, qu’elles soient humoristiques ou plus sérieuses. C’est dans les années 2000 que le chat est devenu un objet central de la viralité avec des formats comme les « LOLcats » (2007) et cette viralité s’est accentuée avec la montée en puissance des réseaux sociaux (comme Facebook, YouTube, Instagram et TikTok).

Au cours de ma recherche sur les #ChatonsMignons (c’est le terme que j’utilise pour désigner ce phénomène viral), j’ai relevé plusieurs aspects fascinants, comme l’utilisation symbolique du chat en politique ou sa dimension participative, lorsque des internautes créent des mèmes.

Un mème est un élément décliné massivement sur Internet et qui s’inscrit dans une logique de participation. Il peut s’agir d’un texte, d’une image (fixe ou animée), d’un son, d’une musique ou une combinaison de ces différents éléments.


À lire aussi : Le mème : un objet politique


On peut également noter le renforcement des liens sociaux que le partage d’images de chats crée, et enfin, leur capacité à générer des émotions fortes.

Le chat en politique, un symbole multiple

Les chats ne sont pas seulement mignons : ils sont aussi des symboles très puissants. En analysant un total de 4 000 publications sur Twitter, Instagram et TikTok – une veille de contenus et une recherche par mots-clés ont été menées sur une période de quatre mois (d’octobre 2021 à janvier 2022) – il est apparu que le chat pouvait revêtir de nombreux masques.

Parfois, il est un outil de mobilisation collective, parfois une arme pour la propagande politique. Par exemple, un GIF de chat noir effrayé peut symboliser la résistance politique et renvoyer à l’imaginaire anarchiste, dans lequel le chat noir incarne la révolte.

À l’inverse, Marine Le Pen utilise aussi les #ChatonsMignons pour adoucir son image dans une stratégie de dédiabolisation – c’est ce que je nomme le « catwashing » : une stratégie de communication politique qui vise à donner une image trompeuse des valeurs portées par une personnalité politique.

Le chat devient alors un symbole politique, parfois pour défendre des idées de liberté, parfois pour cacher des messages plus inquiétants.

Même Donald Trump a mentionné le félin durant la campagne présidentielle américaine, dans une formule absurde accusant les migrants de manger des chiens et des chats lors du seul débat télévisé l’opposant à Kamala Harris,créant ainsi un buzz monumental.

Cette déclaration a généré une vague de mèmes et de réactions sur les réseaux, au départ pour la tourner au ridicule, puis elle a été récupérée par les pro-Trump. Ce raz-de-marée de mèmes a pris une importance démesurée au point de faire oublier le reste du débat. On peut alors s’interroger : n’était-ce pas une stratégie volontaire de la part du camp républicain ?

La participation des internautes : un jeu collectif

Car les mèmes de chats, en particulier les célèbres « lolcats », sont devenus des éléments clés de la culture Internet participative. Ces images de chats avec des textes souvent absurdes ou mal écrits constituent une façon décalée de s’exprimer en ligne.

En partageant et en réinventant ces mèmes, les internautes s’approprient le phénomène des #ChatonsMignons pour créer une sorte de langage collectif.

L’exemple du « Nyan Cat », un chat pixelisé volant dans l’espace avec une traînée d’arc-en-ciel, montre bien à quel point les chats sont intégrés à la culture participative du web.

Nyan Cat ! [Official].

Ce mème, créé en 2011, est devenu emblématique, avec des vidéos de plusieurs heures sur fond de boucle musicale kitsch et hypnotique.

Plus récemment, le mème « Chipi chipi chapa chapa cat », apparu en 2023, a suivi une ascension virale similaire (28 millions de vues sur ces dix derniers mois pour cette vidéo), prouvant que les chats sont loin de lasser les internautes.

La culture participative pousse ces derniers à relever des défis : créer de nouveaux contenus, utiliser des références cachées et partager ces créations à grande échelle. Avec l’arrivée de plates-formes comme TikTok, ce phénomène s’accélère : chaque vidéo devient un terrain de jeu collectif. Mais ce jeu peut aussi servir des objectifs sérieux, comme dans les cas d’activisme en ligne.

Le chat, un outil de sociabilité

Ils jouent aussi un rôle important dans la manière dont les gens se connectent et interagissent en ligne, et cela ne se réalise pas que dans un registre humoristique, comme pour les mèmes. Le chat favorise ainsi un lien social qui traverse les frontières géographiques et culturelles, rassemblant des individus autour de l’amour des animaux.

Partager une photo de son propre animal domestique devient une façon de se montrer tout en restant en arrière-plan. C’est ce qu’on appelle l’extimité, c’est-à-dire le fait de rendre publics certains aspects de sa vie privée. Le chat sert alors d’intermédiaire, permettant de partager des émotions, des moments de vie, tout en protégeant son identité.

Ainsi, beaucoup de gens publient des photos d’eux en visioconférence avec leur chat sur les genoux. Ce type de contenu met en avant non seulement leur quotidien, mais aussi la relation particulière qu’ils entretiennent avec leur animal. Ces échanges dépassent la simple publication de photos de son chat ou de « selfiecats » (selfies pris avec son chat).

Il s’agit de mettre en valeur une expérience collective, où chaque interaction avec une image de chat contribue à une conversation globale. Le « selfiecat » est ainsi devenu un moyen d’exprimer et de valoriser cette complicité unique, aux yeux de tous.

Dans de nombreux cas, la relation entre l’humain et le chat est mise en avant comme une expérience partagée, créant une sociabilité numérique autour de cette humanité connectée. Les membres des communautés se retrouvent pour commenter, échanger des anecdotes ou des conseils, et ces interactions virtuelles renforcent les liens sociaux.

En ce sens, les chats deviennent plus qu’un simple objet de viralité : ils sont le ciment d’une forme de sociabilité numérique qui permet aux gens de se rassembler, de se comprendre et de se soutenir, même sans se connaître.

Les chats, une machine à émotions

Enfin, si les #ChatonsMignons sont si viraux, c’est parce qu’ils sont capables de provoquer des émotions fortes. Les chats ont un regard, une posture et des mimiques si proches de celles des humains qu’ils nous permettent d’exprimer toute une gamme d’émotions : de la joie à la frustration, en passant par l’étonnement ou la colère.

Cette puissance affective explique pourquoi ils génèrent autant de clics et de partages. Sur les réseaux sociaux, où tout repose sur l’attention et l’engagement, les chats deviennent de véritables machines à clics. Les plates-formes profitent de cette viralité pour capter l’attention des utilisateurs et monétiser leur temps passé en ligne.

Les chats ont envahi le web parce qu’ils sont bien plus que des créatures mignonnes. Ils sont des symboles, des outils de participation, des créateurs de liens sociaux et des déclencheurs d’émotions. Leur succès viral s’explique par leur capacité à s’adapter à toutes ces fonctions à la fois. En fin de compte, les #ChatonsMignons nous apprennent beaucoup sur nous-mêmes, nos besoins d’expression et la manière dont nous interagissons dans un monde hyperconnecté.


Justine Simon est l’autrice de « #ChatonsMignons. Apprivoiser les enjeux de la culture numérique », paru aux éditions de l’Harmattan.

The Conversation

Justine Simon ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

18.11.2024 à 15:52

Harris face à Trump : une femme pouvait-elle gagner ? Quand le leadership se conjugue au masculin

Lucie Gabriel, Docteure en Sciences de Gestion, spécialisée en Management et Leadership, INSEEC Grande École

Donald Trump incarne un leader dominant et autoritaire, des caractéristiques souvent accolées à la masculinité. Le genre de Kamala Harris a-t-il joué en sa défaveur lors de l’élection présidentielle ?
Texte intégral (1699 mots)

Dans un pays en crise et divisé, Donald Trump a incarné un leader dominant et autoritaire, des caractéristiques souvent accolées à la masculinité. Le genre de Kamala Harris a-t-il joué en sa défaveur lors de l’élection présidentielle ?


Donald Trump s’est présenté trois fois comme candidat à la présidentielle des États-Unis. Par deux fois, il a affronté une femme : d’abord Hillary Clinton en 2016, puis Kamala Harris en 2024. Par deux fois, il a gagné contre une femme.

Ce fait n’est ni anodin ni superficiel et pose la question du genre dans la campagne présidentielle états-unienne. Elle a été omniprésente dans le discours de chacun des candidats comme dans le vote des électeurs. Le 5 novembre, le New Yorker titrait « Comment l’élection de 2024 est devenue l’élection genrée » pour parler du gender gap, c’est-à-dire de l’écart de vote entre l’électorat féminin et masculin.

Le fait que le nouveau président des États-Unis ait une forte influence charismatique sur ses électeurs a été souligné dans de nombreuses études depuis 2016. Au-delà des stratégies de campagnes, des ambitions et des questions morales, il semble que Kamala Harris a eu du mal à incarner le même pouvoir d'influence. Le genre est-il un obstacle au charisme en politique ?


À lire aussi : Trump tout-puissant ?


Le charisme au masculin

Au début du XXe siècle, le sociologue Max Weber a décrit le charisme comme une qualité attribuée à un individu « considéré comme extraordinaire et doté de pouvoirs ou de qualités surnaturels, surhumains ou au moins spécifiquement exceptionnels. » Le charisme est un leadership incarné : l’influence du chef est indissociable de sa personne et de l’image qu’il renvoie. Il joue le rôle de symbole communautaire, il représente le « nous » qui agit comme rempart contre le reste du monde. Pour cette raison, le chef charismatique doit susciter l’admiration et la fierté de ceux qui le suivent.

Dans la conception wéberienne, le leader charismatique est un héros qui incarne une force révolutionnaire pour renverser l’ordre établi. Le vocabulaire belliqueux souvent employé par Max Weber pour décrire les qualités de ce chef exclu d’abord implicitement puis explicitement le fait que ces qualités puissent être incarnées par une femme.

Les femmes ont en effet longtemps été exclues de la représentation des chefs charismatiques, en raison de ce que les chercheurs en psychologie sociale Alice Eagly et Steven Karau ont appelé « l’incongruence des rôles ». Selon eux, les comportements attendus par les femmes et les hommes dans une société sont différenciés en fonction de stéréotypes de genre appris dès l’enfance. Ainsi, les femmes sont associées à des qualités d’empathie, de douceur et de considération, à l’opposé de ce qui est attendu du chef charismatique. Au contraire, les rôles sociaux masculins, qui demandent aux hommes d’être forts, autoritaires et dominants, les prédisposent plus naturellement aux rôles de leadership.

La recherche en sociologie semble valider cette hypothèse : parmi les 118 articles sur le sujet publiés dans la principale revue revue scientifique consacrée à l’étude du leadership, The Leadership Quarterly, seuls 8 % des exemples d’individus charismatiques étaient des femmes. Dans les études les plus citées sur le sujet, le charisme est assimilé à un visage aux mâchoires carrées, à la voix grave, à la taille imposante : en somme, à tous les éléments visibles de la masculinité dominante. Est-ce à dire que le genre est un obstacle infranchissable au charisme ?

Le charisme, un objet en évolution ?

Le leader charismatique est la représentation des valeurs du groupe qu’il incarne. Lorsque ces valeurs évoluent, la représentation du leader charismatique évolue également. Or, une étude récente reprenant cinquante ans de recherche sur le leadership dans les organisations montre que, contrairement à l’imaginaire collectif, lorsqu’elles sont en position de pouvoir, les femmes sont globalement évaluées comme plus charismatiques et plus compétentes que les hommes.

De la même façon, dans son essai « He Runs, She Runs : Why Gender Stereotypes Do Not Harm Women Candidates » (« Il se présente, elle se présente : pourquoi les stéréotypes de genre ne nuisent pas aux femmes candidates ») la politologue états-unienne Deborah Jordan Brooks prédit un futur prometteur aux femmes politiques. De fait, le nombre de femmes au Congrès américain a atteint un record en 2022 : 149 élues, soit 27,9 % des représentants.

Deux raisons peuvent expliquer ces résultats : la première est l’évolution des attentes sociales en matière de leadership. Alors que le leader a longtemps été représenté comme un individu dominant et autoritaire, depuis les années 1980 cette représentation évolue vers un nouveau type de leader plus empathique et à l’écoute de ses subordonnés. Pour la psychologue sociale Alice Eagly, « les conceptions contemporaines d’un bon leadership encouragent le travail en équipe et la collaboration et mettent l’accent sur la capacité à responsabiliser, à soutenir et à impliquer les travailleurs ». Elle explique que même si les hommes restent majoritaires en position de pouvoir, dans un monde politique et organisationnel où dominent les stéréotypes de genre, ces changements peuvent constituer un « avantage féminin ».

La seconde raison s’explique par un double standard de compétences masculines et féminines. À compétences égales, il est plus difficile pour une femme d’accéder au même poste à responsabilités qu’un homme. Mais d’un autre côté, les femmes qui accèdent à ces postes sont vues comme plus compétentes que leurs homologues masculins qui ont rencontré moins d’obstacles.

Partant de ce constat, on peut considérer que Kamala Harris, vice-présidente et candidate à l’élection présidentielle, partait sur un pied d’égalité avec Donald Trump : elle aurait donc pu incarner le leadership américain.

Le besoin de héros en contexte de crise

Reste que le leadership est toujours dépendant du contexte dans lequel il naît. Si les représentations du leadership et du charisme tendent à évoluer depuis près de cinquante ans, le contexte international, lui, s’est terni depuis la crise du Covid et la dernière campagne présidentielle. On observe un sentiment de déclassement social et une anxiété grandissante, notamment chez les jeunes hommes américains peu diplômés. Plus touchés par le chômage et moins enclins que leurs parents à atteindre l’indépendance financière au même âge, ce sont eux qui ont constitué la base électorale du parti républicain.

Dans des discours ouvertement misogynes et racistes, Trump dépeint une Amérique apocalyptique, rongée par des ennemis de l’intérieur, tout en promettant que le jour de l’investiture serait un « jour de libération ». Il manie une rhétorique populiste pour incarner l’idéal type du leader charismatique wébérien, un héros révolutionnaire et anticonstitutionnel. Il a également particulièrement marqué la campagne en brandissant le poing, le visage en sang, après une tentative d'assassinat. Dans une période où le futur paraît terrifiant, le leader belliqueux possède une puissance idéalisatrice dans la mesure où il incarne un fantasme de sécurité et de direction, pour le psychologue Kets de Vries.

Par contraste, Kamala Harris a voulu incarner le progrès social, la défense des droits et de la démocratie. Dans le climat de crise actuel, ce choix est apparu décalé.

Son échec à l’élection présidentielle montre que le leader charismatique est surtout un symbole d’une culture et d’une époque. Dans une Amérique en crise, les femmes, perçues comme moins dominantes et fortes que les hommes, peinent à incarner l’image du héros qui est attendu.

Pour autant, l’évolution des attentes sociétales montre une tendance de fond à l’ouverture de ce rôle aux femmes. La défaite de Kamala Harris ne doit pas faire oublier d’autres victoires, comme celle de la très populaire Jacinda Ardern, première ministre néo-zélandaise de 2017 à 2023, ou celles de l’Allemande Angela Merkel, qui a marqué le paysage politique européen pendant près de 20 ans.

The Conversation

Lucie Gabriel ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

18.11.2024 à 15:52

Contre le virus mpox en Afrique : rendre plus sûrs les marchés de viande sauvage, cause originelle de l’épidémie

Steven Lam, Postdoctoral Scientist, CGIAR

Delia Grace, Professor Food Safety Systems at the Natural Resources Institute (UK) and contributing scientist ILRI, International Livestock Research Institute

Les stratégies de lutte contre le mpox doivent aussi s’attaquer à la cause profonde de l’épidémie de variole simienne en Afrique : les conditions de vente de viande sauvage sur les marchés.
Texte intégral (1813 mots)

Les stratégies de lutte contre l’épidémie de mpox (anciennement appelé « variole du singe ») qui sévit en Afrique en 2024 se concentrent sur la prévention de la transmission interhumaine. Elles doivent aussi s’attaquer aux causes profondes, en l’occurrence la viande sauvage vendue sur les marchés « humides » et responsable de la transmission du virus de l’animal à l’humain.


Dans de nombreux pays du monde, les animaux sauvages sont parfois tués pour être mangés, notamment les singes, les rats et les écureuils.

La viande sauvage contribue de manière significative à la nutrition en Afrique et à la satisfaction des préférences alimentaires en Asie.

En Afrique, la récolte annuelle de viande sauvage, estimée entre 1 million et 5 millions de tonnes, est considérable par rapport à la production animale du continent, qui s’élève à environ 14 millions de tonnes par an.

Les chercheurs en santé publique soulignent depuis longtemps le fait que les pratiques non hygiéniques concernant la viande sauvage sont potentiellement dangereuses en raison du risque de transmission d’agents pathogènes des animaux aux humains, notamment par contact étroit lors de la chasse, de la transformation ou de la consommation de viande insuffisamment cuite.

Cette préoccupation a été particulièrement forte lors de l’épidémie d’Ebola de 2014 en République démocratique du Congo. On sait qu’Ebola passe des animaux aux humains et que ces derniers sont probablement infectés en touchant ou en consommant des animaux forestiers infectés, malades ou morts, tels que les chauves-souris frugivores.

La variole simienne mpox est une autre zoonose connue pour passer de l’animal à l’humain.


À lire aussi : Qu’est-ce qu’une zoonose ?


Plus de 1 100 personnes sont mortes du mpox en Afrique, continent où quelque 48 000 cas ont été enregistrés depuis janvier 2024 dans 19 pays.

Jusqu’à présent, les stratégies de lutte contre l’épidémie de mpox de 2024 se sont essentiellement concentrées sur la prévention de la transmission interhumaine.

Mais nous devons également remonter aux causes profondes de la maladie, en particulier lorsque le mpox est transmis des animaux aux humains.

Appliquer les leçons tirées de la sécurité alimentaire est essentielle pour résoudre ce qui est une préoccupation urgente de santé publique.

Les marchés « humides »

La viande sauvage est souvent vendue avec d’autres aliments frais sur les marchés informels, également appelés marchés « humides ». Ces marchés fonctionnent généralement avec peu de réglementation et de normes d’hygiène, ce qui augmente le risque de maladies.

Nous sommes des chercheurs en santé publique spécialisés dans l’expérimentation et l’évaluation de solutions aux zoonoses (lorsque les humains sont infectés par des animaux sauvages), à la résistance antimicrobienne (lorsque les antibiotiques ne sont plus efficaces) et à la sécurité alimentaire.

Dans une nouvelle publication, en collaboration avec des collègues du CGIAR, dans le cadre d’un partenariat mondial visant à relever les défis des systèmes alimentaires, nous examinons des solutions prometteuses pour faire face aux risques liés à la viande sauvage.

L’approche One Health en est la clé. One Health réunit des experts en santé publique, des vétérinaires, des spécialistes de la faune et de la flore sauvages ainsi que des responsables communautaires afin d’élaborer des mesures globales.

Un tabouret à trois pieds

Nos recherches ont montré que la sécurité alimentaire dans les marchés difficiles d’accès peut être améliorée si, et seulement si, trois domaines clés sont pris en compte :

Le renforcement des capacités : le renforcement des capacités permet d’offrir une formation et des technologies simples aux travailleurs des chaînes alimentaires et aux consommateurs.

Les efforts en matière de sécurité alimentaire sur les marchés informels se sont traditionnellement concentrés sur le fait d’encourager les communautés locales à adopter des pratiques plus sûres.

Il est essentiel de comprendre comment les gens perçoivent le risque de maladie et ce qui influence ces perceptions.

En République démocratique du Congo, par exemple, on observait une méfiance à l’égard des institutions officielles et un rejet des messages sanitaires du gouvernement liant Ebola à la viande de brousse.

Dans les communautés où les gens reconnaissent déjà les risques associés à la viande de brousse, les messages sanitaires pourraient se concentrer sur des mesures concrètes de protection.

Dans les endroits où le scepticisme existe, le partage des éléments de preuves concernant les risques pour la santé peut se révéler plus efficace.

Au lieu de promouvoir un programme anti-chasse, une approche plus utile pourrait consister à fournir des moyens afin de réduire le risque de transmission de maladies sans décourager complètement la chasse et la consommation.

Bien que cette approche ne permette pas d’éliminer tous les risques, elle sera probablement plus efficace qu’une campagne qui ne trouve pas d’écho au sein de la communauté.

S’il est important d’avoir les bonnes connaissances pour encourager le changement, il faut aussi des incitations.

La motivation et les incitations : bien que la sécurité alimentaire soit une préoccupation majeure pour les consommateurs du monde entier, elle est souvent reléguée au second plan par rapport à l’accessibilité financière. Pour ceux qui ont du mal à se procurer de la nourriture, la sécurité alimentaire n’est pas une priorité par rapport au coût.

Les gouvernements ont souvent eu recours à des interdictions et à des mesures d’application, notamment des amendes et des inspections, en tant qu’« incitations négatives » au changement.

En juin 2022, le gouvernement nigérian a interdit la vente de viande de brousse, par mesure de précaution, pour arrêter la propagation du virus mpox. Toutefois, ces interdictions peuvent avoir des conséquences inattendues, telles que la clandestinité des pratiques liées à la viande de brousse et l’aggravation des pratiques avec manque d’hygiène.

Il est potentiellement plus efficace de se concentrer sur les avantages économiques, sociaux ou moraux :

  • Les incitations économiques pourraient consister à décrire les gains financiers potentiels qui pourraient survenir en attirant une clientèle plus large, en raison de la confiance acquise grâce à une viande plus sûre.

  • Les incitations sociales pourraient consister à gagner la confiance des membres de la communauté.

  • Les incitations morales pourraient découler de la fierté de s’assurer que la viande de brousse est manipulée et vendue d’une manière qui réduit les risques pour la santé.

Les politiques et réglementations facilitantes : dans certaines communautés pauvres, les lois sur la sécurité alimentaire sont inexistantes ou ne s’appliquent pas aux marchés informels.

Reconnaître les vendeurs qui ont réalisé des améliorations notables en matière de sécurité alimentaire pourrait inciter d’autres personnes à suivre leur exemple.

En outre, la promotion d’autres sources de protéines en donnant accès à des options alimentaires abordables et nutritives et en soutenant des pratiques agricoles durables peut contribuer à réduire la dépendance à l’égard de la viande de brousse.


À lire aussi : Réconcilier engrais minéraux et agroécologie, une piste pour nourrir les populations d’Afrique de l’Ouest


Regarder vers l’avenir

Ainsi, alors que les pays planifient leurs réponses face au mpox, il convient de garder à l’esprit trois considérations essentielles :

  • Premièrement, il est important de reconnaître que la viande de brousse est un élément essentiel de la vie de nombreuses communautés et qu’elle contribue à leur santé et à leur bien-être.

  • Deuxièmement, les réponses doivent être élaborées avec la participation des communautés locales, ce qui augmentera les chances de succès.

  • Enfin, les pays à revenu élevé devraient montrer l’exemple non seulement en partageant leurs connaissances, mais aussi en augmentant le financement des initiatives mondiales en matière de santé, car cela peut réduire considérablement le risque d’épidémies à l’avenir.


À lire aussi : Vaccin contre le mpox : « L’urgence est d’augmenter les capacités de production »


The Conversation

Les travaux de recherche de Steven Lam s'inscrivent dans le cadre de l'initiative « One Health » du CGIAR, soutenue par le CGIAR Trust Fund.

Delia Grace ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

18.11.2024 à 15:51

La diplomatie mondiale, terrain de jeu privilégié des régimes autoritaires

Xavier Carpentier-Tanguy, Indopacifique, Géopolitique des mondes marins, réseaux et acteurs de l'influence, diplomatie publique, Sciences Po

Climat, droits des femmes, décolonisation… Les régimes autoritaires s’emparent volontiers de problématiques majeures pour développer leur soft power.
Texte intégral (2402 mots)

La tenue de la COP dans un pays non démocratique, en l’occurrence l’Azerbaïdjan, n’a rien de nouveau : l’année dernière, l’événement avait eu lieu aux Émirats. Pendant ce temps, la Russie, la Chine ou encore la Syrie siègent au Comité de décolonisation de l’ONU et l’Arabie saoudite se trouve à la tête du Forum de l’ONU sur les droits des femmes. Pour les dirigeants de ces pays, organiser de telles manifestations et participer à de telles plates-formes présente de nombreux avantages.


La COP29, conférence internationale sur les enjeux climatiques, s’est ouverte le 11 novembre à Bakou, Azerbaïdjan. En une seule phrase se trouve condensée une partie conséquente des problèmes de la diplomatie internationale née après-guerre. La lutte contre le changement climatique – sujet capital pour l’ensemble des habitants de la planète – doit, en effet, être débattue sous la houlette d’un pays au régime dictatorial, grand producteur de pétrole et de gaz, et dont le rôle dans plusieurs grands dossiers géopolitiques a dernièrement été pour le moins controversé.

L’intérêt des pays producteurs d’hydrocarbures pour l’organisation des COP

Les enjeux climatiques et la réduction de l’empreinte carbone intéressent au premier chef les producteurs d’hydrocarbures. La COP28 s’est ainsi tenue l’année dernière à Dubaï. Et la prochaine, la COP30, aura lieu à Belém, au Brésil, premier producteur d’hydrocarbures d’Amérique latine, 9e à l’échelle mondiale et potentiellement le 5e à l’horizon 2030.

Afin d’être en mesure de défendre au mieux leurs intérêts et d’anticiper toutes les évolutions envisageables, les pays producteurs cherchent à peser au maximum sur les discussions internationales relatives aux questions environnementales et énergétiques en organisant et en finançant les conférences. Soulignons à cet égard que Moukhtar Babaïev, ministre azerbaïdjanais de l’Écologie, chargé de diriger les travaux de la COP29, est un ancien cadre la compagnie pétrolière nationale, Socar. Le sultan Ahmed Al Jaber, président de la COP28 en sa qualité de ministre de l’Industrie des Émirats arabes unis, est pour sa part surnommé le « prince du pétrole » car il est le PDG de l’Abu Dhabi National Oil Company (ADNOC).

Cela ne peut surprendre : la dénomination même de COP (Conférence des Parties) – implique une approche pragmatique, afin de dépasser toute rigidité structurelle. Dans ce cadre, les parties sont au nombre de 198 : pays regroupés par aire géographique, mais également entités politiques comme l’Union européenne. On ne peut s’attendre à ce que les organisateurs de tels forums se contentent de jouer un rôle d’« honnête courtier » (honest broker) plutôt que piloter l’ensemble du projet. Et cela, d’autant plus que le succès exponentiel des COP est confirmé par le nombre d’intervenants, de journalistes, de lobbyistes et de suiveurs : environ 10 000 personnes en 1997 lors de l’adoption du protocole de Kyoto, plus de 30 000 à Paris en 2015, 45000 pour la COP27, plus 85000 pour la COP28, environ 70000 pour la COP29. Ces sommets constituent des événements d’une ampleur mondiale.

Bakou face à Paris (et pas seulement)

Pour l’Azerbaïdjan, la COP29 représente donc une magnifique occasion de redorer son image. Rappelons que, aux yeux de nombreux acteurs internationaux, ce pays de plus de 10 millions d’habitants se signale avant tout par le non-respect de multiples libertés individuelles, et le Conseil des droits de l’homme (organisme de l’ONU sur lequel nous reviendrons) a examiné son cas dans le cadre de l’Universal Periodic Review (UPR) le 9 novembre 2023.

L’Azerbaïdjan est en outre à l’origine d’un gros scandale de corruption auprès du conseil de l’Europe en 2017, surnommé le « Caviargate », et a été récemment désigné comme étant l’un des soutiens et organisateurs des violentes émeutes qui ont fait 13 morts au printemps dernier en Nouvelle-Calédonie. Le ministre de l’Intérieur de l’époque, Gerald Darmanin, n’a d’ailleurs pas hésité à accuser directement le régime Aliev d’ingérence, à travers l’exploitation du Groupe d’Initiative de Bakou (GIB). Des émeutiers avaient été vus et photographiés avec des t-shirts et des drapeaux aux couleurs de l’Azerbaïdjan et une forte activité Internet en vue d’accroître la diffusion de certaines informations avait également été observée depuis les structures digitales de ce pays.


À lire aussi : En Nouvelle-Calédonie, la France dans le viseur de l’Azerbaïdjan


Rappelons que le GIB, qui a été créé en juillet 2023 à Bakou en présence de représentants de mouvements indépendantistes de Martinique, de Guyane, de Nouvelle-Calédonie et de Polynésie française, a organisé une conférence internationale le 20 juin 2024 au siège des Nations unies à New York, intitulée « Vers l’indépendance et les libertés fondamentales : le rôle du C-24 (Comité spécial de la décolonisation des Nations Unis) dans l’élimination du colonialisme ». Une autre conférence, « La politique française du néocolonialisme en Afrique », toujours organisée par le GIB, le 3 octobre 2024, démontre la continuité de l’effort et indique que Paris est la cible clairement visée.

De telles actions, d’après de nombreux analystes, ont pour objectif de punir la France pour sa condamnation de l’offensive azerbaïdjanaise sur le Haut-Karabakh en 2023, venue à la suite du long blocus du corridor de Latchine (reliant le Karabakh à l’Arménie), qui a permis au régime d’Ilham Aliev de reprendre le contrôle de ce territoire et de mettre fin à la République indépendantiste de l’Artsakh, au prix de violents bombardements et d’une expulsion quasi totale de la population du Karabakh. Le Quai d’Orsay précise la position de Paris sur ce dossier :

« La France est résolument engagée aux côtés de l’Arménie et du peuple arménien, et en soutien aux réfugiés du Haut-Karabakh forcés de fuir par dizaines de milliers leur terre et leur foyer après l’offensive militaire déclenchée par l’Azerbaïdjan et neuf mois de blocus illégal. »

Des parlementaires européens se sont également alarmés de cette situation et ont soumis, le 21 octobre 2024, une proposition de résolution sur la situation en Azerbaïdjan, la violation des droits de l’homme et du droit international, et les relations avec l’Arménie.

Ce contexte tendu a incité les dirigeants français, qu’il s’agisse d’Emmanuel Macron ou de la ministre de la Transition écologique Agnès Pannier-Runacher, à refuser de se rendre à Bakou pour assister à la COP29.

ONU n’est pas synonyme de démocratie

Dans cette confrontation qui se déploie à de multiples niveaux (médiatique, juridique, diplomatique, etc.), notre grille de lecture doit s’adapter. Il est notable et problématique que la quasi-totalité des articles traitant des violences en Nouvelle-Calédonie évoquent de manière presque systématique les interventions et publications du Comité spécial de la décolonisation des Nations unies condamnant la position française – ce qu’il n’est pas question de juger ici –, considérant que le fait que cette instance relève de l’ONU lui confère automatiquement une légitimité indiscutable.

Pourtant, la présence au sein du Comité de la Russie (dont l’invasion militaire en Ukraine est pour le moins éloignée de tout souci de décolonisation) ou de la Chine (aux visées sur Taïwan bien connues, entre autres exemples de comportement agressif dans son voisinage régional), ou encore de la Syrie et de l’Éthiopie, deux pays récemment accusés de massacres à grande échelle contre leur propre population, peuvent et doivent interroger sur les agendas et sur les intérêts de chacun.

Le grand public et une partie des médias semblent observer avec confiance – ou désintérêt – l’action des grands acteurs internationaux quand ceux-ci semblent s’opposer au cadre occidental de gestion des affaires du monde qui a dominé pendant des décennies et est aujourd’hui largement remis en cause.

Or si l’ONU n’est certes pas, par nature, un club de nations démocratiques, il est pour le moins problématique que des États profondément autoritaires se retrouvent régulièrement, du fait du système tournant en vigueur, à la tête ou au sein de Comités chargés de veiller au respect des droits humains – rappelons que le 27 mars dernier, l’Arabie saoudite a été choisie à l’unanimité par l’ONU pour prendre les rênes du Forum sur les droits des femmes et l’égalité des sexes. Et en mai 2023, l’Iran a présidé le Forum social du Conseil des droits de l’homme de l’ONU.

Des sommets, désaccords

L’actualité récente démontre que de nombreux régimes autoritaires sont non seulement pleinement intégrés à l’ONU mais, surtout, se sont emparés de thématiques qui semblaient, voici peu encore, intéresser avant tout les démocraties occidentales, et parviennent à imposer leur agenda lors de multiples sommets internationaux. Naturellement, l’essence de la diplomatie est de pouvoir mettre en présence toutes les parties afin d’obtenir des résultats satisfaisants. Toutefois, ce à quoi nous assistons avec de telles présidences donne lieu, au minimum, à deux constats.

Le premier est le relatif désengagement des démocraties occidentales de ces arènes, que ce soit par manque de moyens financiers, par manque de moyens humains ou par nécessité de se positionner sur d’autres espaces.

Le second constat est celui d’un effort clair et bien pensé visant, pour les régimes autoritaires, à s’emparer, voire à capturer ces thématiques (ainsi de la lutte contre la colonisation, devenue un outil permettant principalement de dénoncer les agissements des pays occidentaux), en jouant des traditions internationales nées de l’après-guerre et de l’état de certaines arènes internationales (ONU, Conseil de l’Europe…), qui apparaissent comme des géants fatigués.

Face à ce double constat, quelles solutions ? En 2008, l’universitaire Jan Aart Scholte proposait de réfléchir à une gouvernance polycentrique, c’est-à-dire décentrée sur un plan social et géographique. Une telle décentralisation est observable aujourd’hui. Mais il semble même que la dynamique post-Seconde Guerre mondiale se soit inversée : une multitude de sommets, de forums, de groupes et de sous-groupes animent des discussions et instrumentalisent certaines questions dont les sensibilités et les émotions sont dûment sélectionnées. Et cela, sous l’égide des grandes plates-formes politiques telles que l’ONU. Ces évolutions sont illustrées par de multiples concepts cherchant à saisir les formes d’action diplomatique (ping-pong diplomatie, panda diplomatie, orang-outan diplomatie ou encore caviar diplomatie). Différentes formes de gouvernance (certains parlent de gouvernance multilatérale, polylatérale, en réseau(x)…), manifestent également ces tentatives de capter la diversité des acteurs et de leurs capacités d’action. Ce qui rend compliqué de prendre la pleine mesure les défis ainsi posés.

Il demeure possible de croire que ce sont ses membres qui vont défendre les valeurs humanistes promues par l’ONU, mais il est également permis d’en douter et de se demander si l’une des étymologies du terme « diplomatie » ne s’est pas imposée : celle qui désigne le visage double et manipulateur d’acteurs qui retournent arguments et idéaux pour leur seul propre intérêt…

The Conversation

Xavier Carpentier-Tanguy ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

18.11.2024 à 15:50

L’Arménie, à la croisée des chemins transcontinentaux, se cherche des alliés

Taline Ter Minassian, Historienne, professeure des universités. Co-directrice de l'Observatoire des États post-soviétiques jusqu'en 2024., Institut national des langues et civilisations orientales (Inalco)

Enserrée entre la Turquie à l’ouest et l’Azerbaïdjan à l’est, l’Arménie regarde vers la Russie au nord, vers l’Iran au sud, et aussi vers la communauté internationale pour assurer son avenir.
Texte intégral (4070 mots)

Un an après l’offensive azerbaïdjanaise qui a permis à Bakou de reprendre par la force la région du Haut-Karabakh, l’Arménie se trouve dans une situation précaire et cherche à valoriser sa position de carrefour stratégique entre les mondes russe et iranien pour tirer son épingle du jeu.


Comme toujours, l’arrivée à l’aéroport de Zvartnots déclenche le mécanisme de la mémoire. Le vieil aéroport soviétique dépeint par Ryszard Kapuscinski dans Imperium (1993) n’est plus qu’une silhouette moderniste en attente de classement patrimonial. Plus de trente ans ont passé depuis la chute de l’URSS, les temps fiévreux de l’indépendance (21 septembre 1991) et la « première guerre » victorieuse du Karabakh.

Trente ans, et même bien plus, depuis les premières manifestations du Comité Karabakh, la révolution de 1988 et le terrible séisme qui frappa la région de Spitak et de Léninakan. Plus de trente ans que j’arpente ce pays, né des décombres du génocide de 1915, confronté au défi de l’indépendance après la Première Guerre mondiale, puis façonné par 70 ans de régime soviétique.

Aujourd’hui, au terme de trois décennies d’indépendance post-soviétique, où en est l’Arménie, ce si petit pays de moins de 3 millions d’habitants meurtri par deux défaites cuisantes infligées par l’Azerbaïdjan lors des guerres de 2020 et de 2023 ?

Le poids silencieux de la défaite

Sur la route qui mène de Zvartnots au centre ville tout proche d’Erevan se tient la colline de Yerablour, le cimetière où sont enterrés la plupart des 3 825 soldats morts au combat durant la guerre des 44 jours (27 septembre – 10 novembre 2020).


À lire aussi : « Il n’est pas mort pour rien » : un an après la défaite au Karabakh, le douloureux travail de deuil des familles arméniennes


Avec ses drapeaux tricolores flottant au vent, ceux de l’Arménie mais aussi ceux, distincts et reconnaissables, de la défunte République d’Artsakh (Haut-Karabakh), l’immense cité des morts s’est encore agrandie récemment d’un nouveau quartier funéraire, semblable par sa conception architecturale au mémorial de Stepanakert (la capitale de l’ex-État de facto de la République d’Artsakh). Ce nouveau carré de tombes est destiné aux hommes tombés lors de la courte guerre de septembre 2023 qui a abouti à la chute de la république d’Artsakh et au nettoyage ethnique de la région. Parmi les milliers de morts et portés disparus côté arménien et azerbaïdjanais, des deux dernières guerres du Karabakh, Albert, Rostam, Soghomon et tous les autres ont établi ici leur campement définitif, face à l’Ararat en majesté.

Détournant le regard de cette funeste colline, je remarque un livreur Yandex en scooter. Spectacle totalement inédit à Erevan. « C’est un livreur indien », me fait remarquer mon chauffeur. « Ils sont désormais nombreux en ville. Tu verras, ils sont partout. » Depuis l’arrivée de la dernière vague de migrants en provenance de l’État communiste du Kerala – l’un des principaux pôles de l’émigration indienne à destination du Moyen-Orient –, les 20 à 30 000 Indiens surpasseraient désormais en nombre la diaspora russe d’Erevan.

Où en est l’Arménie à l’automne 2024 ? La vie politique semble particulièrement atone depuis que le mouvement Tavouche pour la Patrie dirigé par l’archevêque Bagrat Galstanian, qui avait réclamé au printemps dernier la fin des concessions frontalières à l’Azerbaïdjan par le gouvernement de Nikol Pachinian, a cessé meetings et manifestations.

Porté au pouvoir par la révolution de velours en 2018, le premier ministre Nikol Pachinian a survécu à la défaite de 2020 et à la perte de l’Artsakh en 2023 dont les derniers dirigeants (comme Araïk Haroutounian, président de la république d’Artsakh et Rouben Vardanian, ministre d’État d’octobre 2022 à février 2023, liste non exhaustive) sont toujours emprisonnés à Bakou. Interrompant la « kharabakhisation » des élites politiques qui a caractérisé les premières décennies de l’indépendance, la perte de l’Artsakh joue paradoxalement en faveur d’un premier ministre qui, à aucun moment, ne s’est jugé responsable de la défaite de 2020.

Affiche exigeant la libération des prisonniers de guerre arméniens détenus par l’Azerbaïdjan, Erevan, octobre 2024. T. Ter Minassian, Fourni par l'auteur

Sur la scène internationale, Nikol Pachinian mène une diplomatie tous azimuts et, malgré une prise de distance affichée avec la Russie depuis deux ans, est toujours à la recherche d’une orientation.

Située le long de l’arc de la confrontation avec l’Occident, toute proche de nombreux théâtres de guerre (Ukraine, Syrie, Liban), l’Arménie de 2024 est plus que jamais à la croisée des chemins. Entre « lâche soulagement », dépression collective, divisions mais aussi indifférence apparente aux grands enjeux géopolitiques, l’Arménie semble suspendue à la résolution des conflits en cours. Du sommet des BRICS à Kazan (22-24 octobre 2024) à la rencontre de la Communauté politique européenne à Budapest (7 novembre 2024), de sommet en sommet, le premier ministre danse une valse-hésitation entre l’UE et la Russie – deux acteurs dont les propositions de médiations de paix avec l’Azerbaïdjan sont évidemment concurrentes.

Arménie : pays refuge ?

Arrivée en ville, je vais à la rencontre d’une famille de réfugiés du Karabakh arrivée en Arménie en septembre 2023. Comme les 120 000 habitants qui étaient encore enfermés dans l’enclave du Karabakh, Siranouche a veillé sur ses sept enfants et l’ensemble de sa famille dans le corridor routier de Latchine lors du terrible exode-embouteillage qui a débuté le 24 septembre 2023.

Arrivée avec son mari, ses parents, sa sœur et toute la maisonnée originaire de Mardakert, Siranouche se réjouissait en 2023 de n’avoir pas eu de victimes à déplorer. Jeune mère courage, elle avait préparé ses plus jeunes enfants à un exercice d’évacuation en urgence comme s’il s’agissait d’un jeu.

Le 19 septembre 2023, les enfants rentraient de l’école. « Les enfants, vous vous souvenez de ce jeu pour lequel nous nous sommes exercés… ? Et bien voilà, le jeu a maintenant commencé… », a expliqué Siranouche. Un an et deux déménagements plus tard, de la plaine de l’Ararat à un village de la région de l’Aragats, la famille est à présent installée dans un logement modeste pour ne pas dire précaire d’une petite maison individuelle dans le quartier lointain de Karmir Blour, banlieue anciennement industrielle de la capitale arménienne, en partie édifiée par les rapatriés de 1947.

Dans l’entrée, une forme gisant sur le lit-sofa se révèle être celle de l’ancêtre de la famille. Vifs et joyeux, les enfants rentrent un peu plus tard d’une séance de catéchisme – « de l’Église apostolique arménienne ? », je pose la question en ayant à l’esprit l’aide sociale dispensée par certaines sectes –, avec chacun un cahier et quelques gadgets en plastique. La majorité des 120 000-140 000 Arméniens du Karabakh se trouvent aujourd’hui en Arménie, même si une partie d’entre eux ont d’ores et déjà émigré en Russie.

L’État arménien n’a pas la capacité de répondre à la situation économique et sociale de cette population de réfugiés, déracinée, sans emploi et sans logement stable. L’État arménien verse 50 000 drams (c’est-à-dire un peu plus de 115 euros) par mois à chaque réfugié pour l’aider à payer son loyer. Mais selon le défenseur des droits de la République d’Artsakh, dont la représentation existe toujours à Erevan, cette allocation mensuelle pourrait être supprimée dès janvier 2025.

Majoritairement concentrés dans le centre de l’Arménie, à Erevan et dans la plaine de l’Ararat, là où ils ont le plus de chance de trouver un emploi, à peine 4 300 des Arméniens du Karabakh ont acquis la nationalité arménienne. En effet, le passeport de l’ancien État de facto, portant la mention 070, n’étant pas une preuve de citoyenneté arménienne, il demeure un atout essentiel pour d’éventuels candidats à l’émigration internationale avec un statut de réfugié politique. Malgré des mesures incitatives, la plupart des réfugiés, traumatisés par les deux guerres, ne souhaitent pas résider dans les zones frontalières, même si un millier d’Arméniens du Karabakh se sont installés dans le Siounik, la région du sud de l’Arménie sur laquelle se resserre à présent l’étau de l’Azerbaïdjan.

Le complexe monastique de Vorotnavank, dans le Siounik. T. Ter Minassian, Fourni par l'auteur

« Monsieur le président, est-ce la fin d’un cycle ? »

C’est par cette question que j’entame un entretien informel le 30 octobre avec le premier président de la République d’Arménie. Par ces mots, j’entends la fin d’un cycle débuté avec le Comité Karabakh, fondé en 1988. Le mouvement en faveur du rattachement du Karabakh à l’Arménie avait alors été donné lieu à une authentique dynamique politique interne, propulsant sur le devant de la scène l’historien et philologue Levon Ter-Petrossian. Né à Alep en 1946, fils de l’un des fondateurs du parti communiste syrien, Hagop Ter-Petrossian, le premier président de la République d’Arménie me répond que « non, ce n’est pas la fin d’un cycle ». On se souvient en effet que l’administration de Ter-Petrossian avait fait une priorité durant les années 1990 de la nécessité d’une réconciliation arméno-turque et d’un règlement équilibré de la question du Karabakh…

L’Arménie peut-elle encore transformer en facteur de stabilité sa position géographique enclavée entre deux voisins aussi hostiles que l’Azerbaïdjan et la Turquie ? Les termes de l’accord de cessez-le-feu du 10 novembre 2020 signé sous les auspices de Vladimir Poutine l’enjoignent entre autres choses à ouvrir à travers son territoire des voies de communication entre l’Azerbaïdjan et le Nakhitchevan (région appartenant à l’Azerbaïdjan ayant des frontières avec l’Arménie, l’Iran et la Turquie, mais sans continuité territoriale avec la partie principale de l’Azerbaïdjan).

Depuis lors, la question d’un corridor, agencement politico-réticulaire assurant la « connectivité » d’Est en Ouest, est devenue obsessionnelle. Son statut et son tracé sont encore indéterminés car suspendus à la signature d’un traité de paix lui-même dépendant, entre autres choses, des activités conjointes des commissions gouvernementales arménienne et azerbaïdjanaise chargées du processus de délimitation des frontières entre les deux pays dans le respect des Accords d’Alma-Ata (21 décembre 1991).

En attendant, les formats de discussion se multiplient : initiatives de l’UE, format 3+3 avancé par la Russie, rencontre entre Pachinian et Aliev en marge du sommet des BRICS à Kazan… Quant au projet de traité de paix actuellement dans sa onzième version et négocié en bilatéral, l’Arménie vient de recevoir, le 5 novembre 2024, un paquet de contre-propositions azerbaïdjanaises. On sait que l’Azerbaïdjan exige, entre autres, une modification de la Constitution arménienne dont le préambule fait référence à la Déclaration d’indépendance de l’Arménie (1990), laquelle mentionne un acte d’unification adopté en 1989 par les organes législatifs de l’Arménie soviétique et de l’oblast autonome du Haut-Karabakh. Le 13 novembre 2024, Nikol Pachinian a finalement rejeté cette demande de l’Azerbaïdjan, considérée comme une condition préalable au traité de paix.

L’importance de la « ligne de vie » vers l’Iran

Sur le long ruban d’asphalte qui se déroule vers la région du Siounik, je croise en sens inverse sur la route de Yegheknadzor une file de véhicules 4x4, bien reconnaissables avec leurs petits drapeaux portant le sigle de l’UE.

Déployée le long de la frontière arméno-azerbaïdjanaise, la mission d’observation de l’UE subit les critiquées répétées de la Russie et de l’Azerbaïdjan. Bakou y voit une « mission d’espionnage » à ses frontières tandis que Moscou décrédibilise son action en affirmant qu’elle s’inscrit dans la stratégie des États-Unis et de l’UE visant à la concurrencer dans le Sud-Caucase.

Cliquer pour zoomer. Nations Online

Plus au sud encore, on prend la mesure du resserrement du territoire arménien depuis la défaite de 2020. Au plateau de Sissian, on parvient à la « fragile ligne de vie » qui relie l’Arménie à l’Iran. On est désormais sur l’axe nord-sud par lequel transitent, dans les deux sens, des norias de poids lourds iraniens venant du Golfe persique. C’est au cœur du dédale montagneux du Siounik que s’est déroulée « la crise routière » de 2021 lorsqu’il est apparu que l’ancienne route passait en territoire azerbaïdjanais, tranchant par exemple en deux le « célèbre » village de Chournoukh.

Il fallut alors créer, dans l’urgence, des voies de contournement périlleuses, faisant passer un défilé continuel de camions de 40 tonnes à travers le Pont du Diable au fond des gorges de Tatev, dont la descente, exclusivement en première, est décrite par Laurent Fourtune, ingénieur en chef des Ponts et Chaussées, comme digne du Salaire de la Peur. Depuis lors, en dépit des difficultés du terrain, le gouvernement arménien a montré qu’il se préoccupait activement de la restauration de l’axe nord-sud reliant Téhéran à Moscou à travers le territoire de l’Arménie. Et ce sont des intérêts très concrets qui président à la construction rapide de la nouvelle route vers le sud à partir de Sissian.

En Arménie, les Russes détiennent une grande part des intérêts miniers – notamment, tout près de l’Iran, la mine de cuivre et de molybdène de Kadjaran, exploitée par GeoProMining Rep, dont l’actionnaire majoritaire est l’oligarque russe Roman Trotsenko. Une partie du camionnage en provenance de l’Iran transporterait des matériaux ou des équipements nécessaires à l’exploitation de la mine.

Le tracé de la nouvelle route, H 45, contribue désormais à faire de Tatev, où se trouve le célèbre monastère, un nouveau hub routier. La construction de la H 45 avance à un rythme rapide, virage après virage, le long des flancs de montagnes à présent éventrés. D’ici quelques années, un montage de prêts internationaux de deux milliards d’euros devrait aboutir à la construction d’une route directe reliant Sissian à Meghri, porte de la frontière iranienne. Elle va notamment nécessiter le creusement de plusieurs tunnels permettant de court-circuiter le col de Tatev et le dédale montagneux du Zanguezour. Les Européens sont les maitres d’œuvre du tronçon nord de Sissian à Kadjaran grâce au financement de la Banque européenne d'investissement.

Sur la route du Sud, octobre 2024. T. Ter Minassian, Fourni par l'auteur

Quant au tronçon sud, il s’agit d’un projet de tunnel reliant directement la mine de Kadjaran à Meghri. Financé par la Banque eurasiatique de Développement, ce projet est porté par les Russes et les Iraniens. On ne peut mieux illustrer le fait que, contrainte et forcée, l’Arménie, est placée devant un nouveau défi : conjuguer sa situation de citadelle et sa position de carrefour au cœur des voies transcontinentales, en faisant le pari de sa propre survie.

Pour aller plus loin, lire Rouben, « L’Arménie à la croisée des chemins transcontinentaux », Beyrouth, 1948, réédition Erevan, 2023.

The Conversation

Taline Ter Minassian ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

18.11.2024 à 15:50

Protéger un enfant en danger en le confiant à un proche : s’inspirer de l’expérience des départements d’outre-mer

Gilles Séraphin, Professeur des universités en sciences de l'éducation et de la formation, Université Paris Nanterre – Université Paris Lumières

En France, pour protéger un enfant en danger, il est possible de le confier à un proche. Ce type d’accueil, encore minoritaire, est plus développé dans les départements et les territoires d’outre-mer.
Texte intégral (2056 mots)

En France, afin de protéger un enfant en danger, il est possible de le confier à un proche. Ce type d’accueil, encore minoritaire, est plus développé dans les départements et les territoires d’outre-mer et présente un certain nombre d’avantages.


En France, afin de protéger un enfant en danger, il est possible de le confier à un proche. Au niveau judiciaire (une mesure judiciaire en protection de l’enfance est imposée aux détenteurs de l’autorité parentale, avec recherche de leur adhésion), la mesure de « confiage » à un membre de la famille ou à un « tiers digne de confiance » est mise en œuvre depuis 1958 (article 375-3 du code civil).

Au niveau administratif (une prestation administrative en protection de l’enfance repose sur l’accord formalisé des détenteurs de l’autorité parentale), la prestation de « tiers durable et bénévole », est créée en 2016 (article L 221-2-1 du CASF). Les conditions d’application sont précisées par les décrets n° 2016-1352 du 10 octobre 2016 et n° 2023-826 du 28 août 2023.

Aujourd’hui, les pouvoirs publics semblent redécouvrir ce dispositif et favorisent le placement d’un enfant en danger chez un proche bénévole plutôt qu’en établissement ou en famille d’accueil professionnalisée.

Depuis la loi n° 2022-140 du 7 février 2022 relative à la protection des enfants, dans le cadre de l’assistance éducative judiciaire, le magistrat doit préalablement analyser les possibilités de recours à un membre de la famille ou à un tiers avant de confier l’enfant à l’Aide sociale à l’enfance.

Une tradition de confiage dans les départements et régions d’outre-mer

Les raisons de ce regain d’intérêt sont multiples. Selon une revue de littérature conduite par l’Observatoire national de la protection de l’enfance (ONPE) :

« Lorsque les institutions administratives ou judiciaires sont impliquées, plusieurs éléments plaident en faveur du développement de ce dispositif de prise en charge : l’accueil par un proche semble être l’option “préférée” par les enfants, les parents et les proches, lorsque les premiers doivent être retirés du domicile parental ; ce dispositif favorise le maintien de l’enfant dans son environnement, voire dans son cercle familial élargi, en conformité avec le droit international et européen qui garantit le droit de l’enfant à vivre dans sa famille. »

Ce type de dispositif aurait des résultats « au moins équivalents, sinon légèrement meilleurs, que ceux d’autres dispositifs de protection de l’enfance ». En outre, il a l’immense avantage d’être bénévole, donc peu onéreux, le département ne versant qu’une indemnité d’entretien mensuelle pour l’enfant.

Toujours selon l’étude de l’ONPE, fin 2022, « la part des placements chez les tiers dignes de confiance parmi l’ensemble des mineurs accueillis au titre de l’aide sociale à l’enfance (ASE) s’élève ainsi à 8 % – contre 40 % pour les prises en charge en famille d’accueil et 36 % pour les accueils au sein d’établissements habilités. L’accueil par un proche demeure donc très minoritaire.

Cependant, les départements et régions d’outre-mer (DROM) ont davantage recours à cette modalité d’accueil. Les prises en charge par un tiers digne de confiance comptent en effet pour 19 % de l’ensemble des placements de mineurs dans ces territoires (hors Mayotte) ».


À lire aussi : Enfants placés : le numérique, un recours pour « faire famille » ?


Cette surreprésentation semble avoir des raisons historiques puisque ce mode d’accueil y est ancien. À La Réunion, par exemple, il était de tradition de confier le dernier-né à une sœur qui n’avait pas (encore) d’enfants, pour une durée indéterminée. En outre, des enfants pouvaient être éduqués, parfois sur une longue période, par des proches plus aisés, ou vivant dans des lieux favorables à l’éducation de l’enfant, à proximité d’établissements scolaires par exemple.

Enfin, de façon générale, d’autres adultes pouvaient participer à l’éducation des enfants, souvent en vivant la journée au foyer : ce sont les « nénennes », des dames expérimentées équivalant à des « nounous » mais qui prenaient soin des enfants sur de très longues périodes, au foyer des parents, à tel point qu’elles avaient une place dans la vie de la famille.

Ainsi, dans le cadre interprétatif culturel, sur une période donnée, il peut se concevoir qu’un enfant ne vive pas avec ses parents. Une assise culturelle – ou une référence – existe. Alors qu’en France métropolitaine les pratiques de confiage sont progressivement devenues rares et surtout peuvent être incomprises puisqu’assimilées à des formes d’abandon, elles sont encore largement développées en France d’outre-mer puisqu’elles sont culturellement instituées et expliquées. Il ne s’agit pas d’un abandon d’un enfant, mais d’un confiage dans une relation de confiance partagée.

Dans le cadre du confiage en protection de l’enfance en outre-mer, qui sont les enfants, parents et tiers ?

Le questionnaire mené en Guadeloupe, en Martinique, à la Réunion et à Saint-Martin entre 2021 et 2024, dans le cadre du programme de recherche Enfant protégé confié à un proche (EPCP) mené par le laboratoire Cref de l’Université Paris Nanterre, permet de déterminer qui sont les enfants, parents et tiers et quels sont leurs besoins.

De façon générale, les tiers sont des membres de la famille (81 %), souvent des grands-parents (58 %). Ils sont également dans une très large proportion des femmes (91 %), ne vivant pas en couple dans deux tiers des cas. 38 % de ces tiers dont on connaît la situation professionnelle occupent un emploi, la quasi-totalité étant ouvriers ou employés et 62 % sont soit au chômage, soit inactifs. Selon leur déclaration, 44 % perçoivent un des minima sociaux. Il s’agit donc d’une population quasi exclusivement issue de ce que nous pourrions appeler des classes populaires, bénéficiant souvent d’aides, et régulièrement éloignée du marché du travail.

[Déjà plus de 120 000 abonnements aux newsletters The Conversation. Et vous ? Abonnez-vous aujourd’hui pour mieux comprendre les grands enjeux du monde.]

78 % des tiers répondants affirment n’éprouver aucune difficulté. Les rares difficultés mentionnées, et les besoins afférents, sont d’ordre pécuniaire (insuffisance de moyens de subsistance), administratif (manque de soutien pour établir des documents et faire valoir des droits), d’habitat (logement exigu), de conciliation vie professionnelle/vie familiale, voire de carence de soutien individualisé auprès de l’enfant (suivi psychologique ou aide aux devoirs principalement).

Les enfants, pourtant marqués par un parcours de vie caractérisé par de nombreuses violences (physiques et/ou sexuelles et/ou psychologiques et/ou de situation de négligence et/ou de violences conjugales), émettent également un avis globalement positif sur ce mode de protection. Malgré la blessure de la séparation d’avec la famille d’origine, qui revient très souvent dans les témoignages, le tableau dressé paraît assez lumineux. Ces enfants émettent des opinions marquées par l’espérance et semblent bâtir des projets.

Par ailleurs, les quelques parents qui ont répondu les rejoignent globalement dans cet avis positif. Ces proportions, exceptionnelles, sont à souligner.

Des départements qui se distinguent ?

Selon la revue de revue de littérature conduite par l’ONPE :

« Certaines constantes émergent dans les différentes recherches menées en France et à l’international : la fragilité socio-économique des familles concernées par ces situations d’accueil, la plus forte implication des femmes dans les prises en charge, l’obligation morale qui impulse l’engagement des proches, le bouleversement du quotidien des accueillants lors de l’arrivée de l’enfant à leur domicile, la difficulté des familles à gérer la pluriparentalité, les besoins d’accompagnement encore non satisfaits par les services médico-sociaux, ou encore l’impression des parties prenantes de s’inscrire dans une certaine normalité en dépit de la singularité de leur situation familiale. »

Certes, il faut rester prudent sur les comparaisons internationales puisque ces enfants et familles ne vivent pas dans les mêmes cadres juridiques, et ne bénéficient pas des mêmes droits, notamment sociaux. L’expression des besoins n’est donc pas identique.


À lire aussi : À la Réunion, la pandémie aggrave les inégalités sociales


Toutefois, la plupart de ces constats généraux caractérisent fortement la population des tiers ultramarins étudiée, voire sont plus appuyés en ce qui concerne ces territoires (notamment en ce qui concerne la fragilité économique, la surreprésentation des femmes parmi les tiers, les difficultés de recours aux services médico-sociaux…). D’autres semblent moins associés, y compris en comparaison avec la France métropolitaine (notamment la difficulté de gérer la pluriparentalité puisque dans les Drom elle est traditionnellement reconnue et pratiquée).

Des départements qui pourraient inspirer de nouvelles politiques publiques mieux adaptées

Ainsi, dans les DROM comme en France métropolitaine, ce mode de protection est jugé favorablement par une très grande majorité d’acteurs. Ils font toutefois part d’un manque de soutien des autorités, tant au niveau financier, de l’information juridique et administrative qu’en termes de soutien psychologique.

Cette expérience du confiage, beaucoup plus développé dans leurs territoires, les Drom pourraient la mettre à profit de la France entière, quand il s’agit de faire évoluer les politiques publiques, notamment en ce qui concerne l’évaluation des situations. En effet, le référentiel HAS aujourd’hui en vigueur considère peu la disponibilité et la qualité de ces ressources constituées par les proches. Ils pourraient mettre aussi cette expérience à profit pour construire des dispositifs d’accompagnement adaptés, conformément aux nouvelles attentes règlementaires.

En outre, la situation des tiers ultramarins souligne l’extrême urgence d’imaginer des dispositions complémentaires (dans le cadre d’une politique d’aide aux aidants, d’un bénéfice total de tous les droits familiaux engagés par cette parentalité quotidienne pour que les tiers solidaires, principalement des femmes issues de milieux modestes, ne deviennent plus encore victimes de leur solidarité.

The Conversation

Sur ce programme de recherche, Gilles Séraphin a reçu des financements de : Fondation de France, Union européenne (programme Erasmus +), département de Guadeloupe.

18.11.2024 à 15:49

Comment Kate Middleton est devenue le symbole des nouvelles formes de désinformation

Maria Mercanti-Guérin, Maître de conférences en marketing digital, IAE Paris – Sorbonne Business School

La communication chaotique sur l’état de santé de Kate Middleton suite à l’annonce de son cancer a nuit à l’image de la princesse. La royauté doit revoir sa stratégie. Fera-t-elle les bons choix ?
Texte intégral (1952 mots)

La guerre de l’information que se livre la famille royale et la presse anglaise ne date pas d’hier. Mais à l’ère des réseaux sociaux et des deepfakes, la gestion chaotique de la communication autour de l’état de santé de Kate Middleton suite à l’annonce de son cancer a suscité un déluge de rumeurs complotistes et nuit à l’image de la princesse. La royauté est à un tournant en matière de communication.


Le 9 septembre 2024, le compte Instagram officiel du Prince et de la Princesse de Galles diffusait une vidéo annonçant la fin de la chimiothérapie de Kate Middleton. Réalisée par Will Warr, un publicitaire connu pour son travail pour des marques comme Uber Eats, Tesco ou Puma, cette vidéo a immédiatement « cassé » Internet avec plusieurs millions de vues en quelques heures. Au-delà des marques de sympathie, cette communication illustre une vie sous contrainte des réseaux sociaux et des fake news.

Elle dévoile des images très privées de Kate, filmées dans le Norfolk en pleine nature. Kate dans un décor bucolique se présente comme une survivante, un porte-drapeau de la lutte contre le cancer tirant sa force de l’amour de sa famille, de ses fans et de sa connexion privilégiée avec la nature. Bien que Kate soit devenue une figure incontournable sur les réseaux sociaux, avec plus de 54 millions d’abonnés sur ses comptes, la famille royale reste généralement réservée. La maxime « Never explain, never complain » (Ne jamais se plaindre, ne jamais se justifier) est toujours d’usage. Mais à l’ère des fake news et de la surinformation, cette stratégie devient de plus en plus difficile à maintenir et la maladie de Kate a donné lieu à une bataille intense sur les réseaux sociaux.

L’âge de la désinformation et le déclin de la communication institutionnelle

La vidéo où elle annonce son cancer a été vue plus de 5 millions de fois. Après l’annonce, le taux d’engagement sur les publications royales a bondi de 300 %. Parallèlement, des photos de la fête des mères, retouchées par IA, et le silence sur son état de santé ont alimenté toutes sortes de rumeurs complotistes. La disparition prolongée de Kate a été reprise par le hashtag #WhereIsKate. La famille royale a répondu avec #WeLoveYouCatherine, qui a été utilisé plus de 500 000 fois en 24 heures.

Quelles leçons tirer de ce marketing social chaotique où souffrir en privé est vu comme une faute et ne pas révéler son dossier médical un crime de lèse-majesté ?

Dans The Disinformation Age, Bennett et Livingston (2020) décrivent comment les plates-formes numériques ont bouleversé la communication publique, introduisant une ère où la désinformation est devenue omniprésente et particulièrement difficile à contrôler. Ces communications perturbatrices pénètrent dans les sphères publiques dominantes qui étaient autrefois les gardiens institutionnels de toute communication. Pourtant, la guerre de l’information que se livrent la famille royale et la presse anglaise ne date pas d’hier. Du drame de Diana en passant par les déboires d’Harry, de nombreux chercheurs se sont penchés sur cette presse très vite convertie à la dictature du clic et à l’économie de l’attention. Plusieurs étapes dans la dégradation de l’information sont à distinguer :

Étape 1, place au sensationnel

L’étape 1 correspond aux années 1980-1990 où la place réservée à la culture des célébrités et au gossip prend le pas sur le contenu sérieux et documenté. En 1998, seuls 8 % des éditoriaux du Sun et du Mirror pouvaient être considérés comme traitant de la politique ou de l’économie, le reste étant consacré aux potins ou au sport.

Étape 2, la chasse aux clics

L’étape 2 apparaît dans les années 2000 au cours desquelles le contenu généré par les utilisateurs commence à concurrencer celui des paparazzis. Le mobile se généralise et l’économie de l’attention cultivée par le journalisme sur Internet alimente un flot ininterrompu de contenus dont le seul objectif économique est de servir de support à la publicité digitale. Les réseaux sociaux amplifient ce phénomène.

Étape 3, l’ère de l’IA

L’étape 3 a commencé dans les années 2010. La génération d’images de célébrités par IA a pris son essor avec les GANs (generative adversarial networks), une technologie qui oppose un générateur d’images à un discriminateur pour créer des visuels réalistes. Les deepfakes utilisent des GANs, et superposent un visage (souvent celui d’une célébrité) sur une vidéo existante de manière très réaliste. Les expressions faciales, la voix, les mouvements de la personne réelle sont parfaitement imités. La frontière entre le réel et le fabriqué n’existe plus.

L’ère des deepfakes

Cette ère des deepfakes est la dernière étape de la désinformation qui rend presque impossible une stratégie sociale efficace à savoir, comment utiliser au mieux son image pour promouvoir une marque ou une cause, gérer une communauté de fans, obtenir le maximum d’engagements sur ses publications. Les efforts de Kate Middleton pour préserver une image positive se heurtent à ce que Bennett et Livingston appellent « l’architecture de la désinformation », une dynamique systémique où les acteurs malveillants utilisent la technologie pour amplifier le doute, la suspicion, et brouiller les frontières entre le vrai et le faux.

Le problème est que Kate elle-même y a eu recours. La photo de la fête des mères et même la vidéo de son annonce du cancer auraient été retouchées par l’IA. D’anciennes photos de la Reine sont soumises au même processus de vérification grâce à des outils de détection d’IA disponibles sur Internet et accessibles à tous. Cette utilisation par la Famille royale de l’IA marque la fin de la communication institutionnelle et des différents narratifs développés jusque-là avec succès par la monarchie fondés sur la tradition et la famille.

Le « Privacy Paradox » (être vu et rester caché) ou la monétisation inarrêtable de l’image

Le deuxième aspect de la désinformation réside dans une surmonétisation de chaque apparition publique. Le « Privacy Paradox » (être vu et rester caché) est reproché à la monarchie : réclamer une vie privée tout en s’exposant et en tirer avantage en termes de popularité. Le problème est que ce sont les médias, réseaux sociaux, marques et autres plates-formes d’influence qui en tirent le bénéfice le plus important.

Concernant la publicité digitale, une analyse menée sur l’outil de Social Listening TalkWalker montre qu’en une semaine moyenne, le hashtag #KateMiddleton a été utilisé 4 500 fois et a touché presque 130 millions de personnes. Un des signes que l’image de Kate est abîmée par ces multiples polémiques est confirmée par l’analyse de sentiment effectuée, une méthode qui consiste à utiliser des outils d’IA pour identifier et évaluer les émotions ou opinions exprimées dans un texte, comme positif, négatif ou neutre. 438 influenceurs gagnent leur vie grâce à ce hashtag, qui permet de rassembler une communauté autour d’un sujet précis, augmentant ainsi leur visibilité et attirant l’intérêt des marques pour des collaborations.

Parmi eux, 93 % sont actifs sur X et plus de 5 % sur YouTube. C’est sur ce réseau que la monétisation serait la plus forte avec 4 400 euros par mois et par influenceur gagnés grâce à la thématique « Kate Middleton ». Kate est également une influenceuse dont la particularité est de ne rien recevoir en retour.

Reiss, L.K. Bennett et Zara ont vu leurs ventes augmenter de 200 % après que Kate ait porté leurs créations. Les vêtements qu’elle choisit se vendent en moyenne cinq fois plus rapidement. L’impact économique annuel de Kate sur la mode britannique est estimé à 1,2 milliard d’euros. La pression pour qu’elle revienne et continue son travail d’ambassadrice de mode est donc particulièrement forte.

La stratégie sociale de Kate Middleton : un modèle fragile

Sa stratégie sociale reposait jusqu’alors sur 5 piliers : cible populaire, positionnement sur l’univers de la mode, proximité, capacité à générer de l’engagement, adoption de codes tirés de l’industrie du cinéma et du divertissement. Mais une dernière règle avait été oubliée : le contrôle absolu n’existe pas. Son humanité devient un produit comme les autres. Ce n’est pas seulement la mort de la vie privée, c’est la transformation de chaque moment personnel en contenu à consommer, partager, et analyser. Et ce modèle ne tolère ni pause, ni silence.

La royauté est, donc, à un tournant en matière de communication. Sa stratégie doit, désormais, reposer sur une agilité en termes de gestion de crise, une révolution concernant la transparence de l’information, l’attachement à une authenticité non médiatisée par les écrans. Dans un monde où chaque image peut être falsifiée, la sincérité des moments capturés et la véracité des informations partagées deviennent des valeurs cruciales pour redonner de la crédibilité à la communication publique. Un engagement éthique sur son refus d’utiliser des images ou films générés par l’IA pourrait restaurer la confiance perdue. Enfin, le retour sur le terrain et la multiplication de visites authentiques avec de « vrais gens » pourraient, pour un temps, faire taire les rumeurs. Dernière règle, accepter que le silence est un luxe que même les princesses ne peuvent se permettre.

The Conversation

Maria Mercanti-Guérin ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

18.11.2024 à 15:49

Qu’est-ce qui est vraiment « made in France » ? Ce qu’en dit la douane

Frédéric Gauthier, Professeur associé en logistique internationale, Université de Picardie Jules Verne (UPJV)

Définir l’origine d’un produit est plus compliqué qu’il n’y paraît. Le droit, au niveau national ou européen, fixe un certain nombre de règles pour déterminer quelle origine apposer.
Texte intégral (1557 mots)

Définir l’origine d’un produit est plus compliqué qu’il n’y paraît. Le droit, au niveau national ou européen, fixe un certain nombre de règles pour déterminer ce qu’il est autorisé d’apposer comme origine.


On parle beaucoup du made in France, mais de quoi parle-t-on ? Pour définir le made in France il convient de comprendre au préalable les règles d’origine appliquées au sein de l’Union européenne. Le made in EU nous permet en effet de comprendre le made in France. Ces règles définissent ce qui fait qu’un pays est bien celui qui fabrique. La douane et la règlementation douanière avec elle, dans sa mission régalienne de contrôle aux frontières des marchandises, a par nature la crédibilité de définir et de contrôler des produits made in France. Elle nous apporte ainsi une clarification sur la question.

D’où vient un produit ? Ce que dit le droit européen

La règlementation douanière qu’il convient d’appréhender pour comprendre le made in France est celle des règles d’origine définies au niveau de l’Union européenne. Définis dans le Code des douanes de l’Union, les articles 59 à 63 en donnent les caractéristiques. L’article 60 explique la notion fondamentale de produit soit sans transformation soit entièrement obtenu dans un même pays. Le mot entièrement explique le questionnement du made in. En effet, dans le même article, la notion de transformation substantielle est affirmée. À partir de quand peut-on dire qu’une transformation change le pays d’origine d’un produit ?

Cette définition liée à la transformation appelle des précisions que l’acte délégué de l’Union 2015/2446 ne manque pas d’apporter. L’article 31 y précise quel type de marchandise peut être compris dans la notion de transformation. Ainsi, les animaux vivants qui sont nés et ont été élevés dans un pays ne sont pas concernés par la notion de transformation. Suivent dans le même document les transformations permettant aux produits de devenir made in EU. L’article 34 du même règlement précise par contre la liste des opérations sur le produit fini qui sont insuffisantes pour modifier l’origine d’un produit, comme simplement apposer des étiquettes.

L’entreprise qui revendique une origine doit pouvoir le prouver par son processus de production, par la certification de ses fournisseurs et l’identification des produits achetés. On retient de cette base réglementaire que l’origine d’un produit s’intéresse au produit lui-même et à la réalité de son élaboration. Cette origine est ainsi déterminée au cas par cas selon la spécificité de l’industrie et de son organisation, même si des principes généraux président à leur application.

Quelles règles pour établir l’origine d’un produit ?

Pour définir le pays d’origine d’un produit, plusieurs principes peuvent s’appliquer. La douane met en ligne une fiche précieuse pour définir l’origine d’un produit.

Il peut s’agir d’un changement de code de nomenclature du produit que l’on peut consulter dans l’encyclopédie tarifaire en ligne. En effet, chaque produit est repris dans la nomenclature qui est un système de codification des marchandises, où il possède un code. La première règle existante s’appelle le changement de position tarifaire. Dans ce cas, les premiers chiffres du code diffèrent de ceux des produits importés et non originaires de l’Union européenne. À cette condition la transformation sera substantielle et le dernier pays ainsi défini deviendra pays d’origine.

La deuxième règle est le critère de valeur ajoutée que l’on peut trouver dans d’autres cas. À la transformation doit s’ajouter une valeur ajoutée minimum. La troisième règle est celle de l’ouvraison (opération de transformation partielle d’un produit) spécifique que l’on trouve par exemple dans l’industrie textile. Certains produits textiles peuvent être soumis à la règle établissant que la confection complète (c’est-à-dire toutes les opérations qui suivent la coupe de tissus) doit avoir lieu dans le pays qui donne l’origine. L’opération spécifique de transformation permet alors d’acquérir l’origine Union européenne.

Il peut exister des cas particuliers qui font qu’un produit donné ne peut se voir attribuer un pays d’origine selon les règles primaires précédemment citées. Des règles résiduelles permettent d’y remédier. Les enjeux sont nombreux : comment assurer une souveraineté voire une préservation et un essor des industries existantes dans l’Union européenne au sein d’un environnement mondial ? Qu’en est-il par ailleurs de ces règles confrontées aux règles des autres pays ?

Les accords internationaux de l’Union européenne et le reste du monde

Non seulement l’Union européenne n’est pas seule, mais, étant très intégrée au commerce international, elle a établi des accords préférentiels avec un grand nombre de pays dans le monde.

L’origine d’un produit dans l’UE ainsi définie est appelée origine non préférentielle. L’entreprise vérifie alors si elle peut bénéficier d’une origine dite préférentielle. Cette dernière ne concerne pas le seul pays de fabrication du produit mais également le pays où il va être livré.

Par exemple, si une entreprise exporte des produits au Maroc, elle peut se demander s’il existe un accord préférentiel entre l’Union européenne et ce pays. Cet accord peut permettre de réduire les droits de douane qu’une entreprise aurait à payer. L’entreprise peut ainsi bénéficier d’avantages compétitifs à l’achat comme à la vente, car les concurrents d’autres pays auront à les payer. L’achat et la vente peuvent ainsi se trouver liés et avoir des implications stratégiques à considérer : où se fournir, où produire, où vendre…

L’importance des réglementations douanières pour le made in France

Les règles d’origine non préférentielles de l’Union européenne vont s’appliquer pour définir une origine France. À la différence des règles présentées précédemment, les autres pays de l’Union européenne deviennent des pays tiers. Le bureau de douane de Clermont-Ferrand est spécialisé dans les questions liées au made in France. De la même manière, l’utilisation abusive du made in France pour des ventes en France est du ressort de la Direction générale de la concurrence et de la répression des fraudes.

S’il n’est pas si simple d’identifier le made in France, la douane nous donne des outils pour le faire. Les règles applicables sont très finement adaptées à la diversité des situations aussi différentes qu’il existe de produits et de pays. Le made in France se définit dans un environnement concurrentiel où les forces et faiblesses de la production en France s’affichent. Il se pense à l’échelle des consommateurs, de la politique des États, des marchés et des entreprises, ce qui fait de lui une évidence complexe.

La production française est renforcée par la perception des consommateurs, mais également par son empreinte carbone plus faible et la réactivité des entreprises lorsque des chaînes d’approvisionnement plus courtes sont possibles. Sans oublier l’exportation, où le made in France a à faire valoir sa différence dans un monde de contraintes compétitives. Le made in France affiche ce qu’est notre compétitivité et notre attractivité en France, dans l’Union européenne et dans le monde.

The Conversation

Frédéric Gauthier pour l'Université de Picardie Jules Verne - Laboratoire des Technologies Innovantes comme professeur associé

18.11.2024 à 10:56

Le travail évolue, et il va falloir s’y préparer

Fabien Bottini, Professeur des Universités en droit public, Le Mans Université

François Langot, Professeur d'économie, Directeur de l'Observatoire Macro du CEPREMAP, Le Mans Université

Les avancées technologiques provoquent la disparition de certains emplois, mais aussi l’apparition de nouveaux métiers. Comment anticiper ces évolutions pour accompagner au mieux ?
Texte intégral (2110 mots)

Les avancées technologiques provoquent d’une part la disparition de certains emplois, mais aussi l’apparition de nouveaux métiers. Comment anticiper ces évolutions pour accompagner au mieux et éviter les tensions sur le marché du travail ?


En juillet 2024, un rapport public nous apprenait que la réindustrialisation du pays patinait faute notamment de capacités suffisantes de formation. En octobre, des aéroports ont été durement touchés par une grève spontanée. Début novembre, Auchan et Michelin annonçaient respectivement 2400 et 1250 suppressions de postes… Autant d’informations révélatrices des tensions actuelles sur le rapport au travail.

Or, celles-ci vont inévitablement s’accentuer sous le coup des transitions écologique et démographique ou bien encore d’innovations technologiques telles que l’intelligence artificielle. C’est la leçon que l’on peut tirer de la révolution numérique des années 1980, puisque l’adoption des ordinateurs a éliminé de nombreux emplois exécutant des tâches dites routinières dans les bureaux et les usines.

Si la chose est connue, il ne faut toutefois pas perdre de vue que cette révolution a dans le même temps fait naître de nouveaux types de travailleurs, comme les développeurs de logiciels et les spécialistes en informatique. Des jobs inédits à l’époque qui emploient aujourd’hui des millions de personnes. En 2000, il y avait d’ailleurs approximativement 20 millions d’employés en France contre plus de 27 millions aujourd’hui, soit 200 000 nouveaux emplois créés chaque année en moyenne. De sorte que si les transitions entraînent des pertes d’emplois à court terme, elles sont également susceptibles d’en créer à plus long terme.

Des évolutions destructrices et créatrices d’emplois

Comme l’ont expliqué Joseph Schumpeter puis Philippe Aghion, ce phénomène de « destruction créatrice d’emplois », souvent perçu comme anxiogène, peut de ce point de vue constituer des opportunités pour le monde du travail, surtout s’il est accompagné par l’État et les partenaires sociaux.


Que vous soyez dirigeants en quête de stratégies ou salariés qui s'interrogent sur les choix de leur hiérarchie, recevez notre newsletter thématique « Entreprise(s) » : les clés de la recherche pour la vie professionnelle et les conseils de nos experts. Abonnez-vous dès aujourd’hui


D’où l’importance de bien maîtriser ses tenants et aboutissants. D’autant qu’on s’attend à ce que les effets des transitions en cours soient démultipliés par la raréfaction de l’accès à certaines ressources nécessaires aux besoins essentiels de chacun et la fragmentation du marché mondial, dans un contexte géopolitique tendu.

Pour s’approprier ce phénomène, de nombreuses données statistiques nouvelles sont mobilisables, par exemple pour étudier les conséquences de ces mutations sur les inégalités de salaire, mais aussi l’impact des réformes juridiques destinées à accompagner et rendre profitable pour toutes ces futures réallocations d’emplois. Encore faut-il véritablement utiliser ces ressources pour adapter les politiques publiques aux besoins d’accompagnement que ces mutations du travail font naître.

Que mettre en place pour accompagner la réallocation des emplois ?

Si les gouvernants sont aujourd’hui conduits à faire des choix difficiles pour redresser les comptes publics, l’importance de ce travail prospectif ne doit ainsi pas être sous-estimée. Car la transition démographique et le vieillissement de la population qu’elle induit accroissent les besoins de financement de la sécurité sociale, tels que ceux des retraites. Des réformes, comme celle conduisant à un recul de l’âge moyen de départ en retraite, peuvent certes en partie garantir la soutenabilité de ses dépenses. Mais cette dernière sera avant tout assurée par des ressources croissantes venant d’un travail plus efficace. Or, cette réallocation continue des travailleurs vers les emplois les plus productifs est un phénomène complexe, car ils sont exposés de façons hétérogènes au ralentissement d’activités polluantes ou à l’automatisation de certaines tâches, pour ne prendre que ces exemples.

Ceux effectuant des tâches « robotisables » devront en effet effectuer une mobilité, comme ceux employés dans des entreprises carbonées ou trop âgés pour être formés aux nouvelles technologies. Autant de situations qui s’accompagnent potentiellement d’une perte de revenus, en faisant les perdants de ces mutations. Cela confirme l’importance pour les pouvoirs publics d’anticiper finement les mutations du travail, pour absorber ces risques de fortes variations de revenus et éviter de nouvelles tensions sociales.

Surtout que les interrogations sont nombreuses : comment opérer les réallocations d’emploi avant qu’il n’y ait des licenciements ? Quels nouveaux mécanismes inventer pour compenser les pertes de revenu, former tout au long de vie, prévenir les problèmes de santé associés ? Comment, en d’autres termes, penser ces changements pour ne pas avoir à les panser dans le cadre d’une société vieillissante, où la pérennité financière de la protection sociale et son rôle d’« amortisseur social » posent question ?

Des solutions qui doivent passer par l’échelle locale

Évaluer nationalement les systèmes existants d’aide à l’embauche et à la formation, de soutien aux bas revenus, de retraite, d’organisation du travail… pour définir les réformes permettant d’optimiser leurs rendements est un premier élément de réponse.

Mais à condition que ce rendement s’apprécie non seulement du point de vue économique, mais aussi du point de vue social et environnemental, comme devraient par exemple le permettre les nouvelles obligations de reporting extrafinancier pesant sur les entreprises, ou la publication d’un index de l’égalité professionnelle. Une seconde piste à creuser, complémentaire, passe par une nouvelle répartition des compétences entre le niveau national et les échelons locaux, qui renforce les prérogatives de ces derniers pour orienter et accompagner le redéploiement de l’emploi au niveau de leurs territoires.

Ceci suppose d’abord de donner aux élus locaux et chefs d’entreprises de leurs circonscriptions les moyens de cerner les besoins de leurs populations et de leurs travailleurs. Pour ce faire, il leur faudra notamment mettre en place de nouveaux outils de gouvernance pour prendre des décisions concertées et éclairées, par exemple via la constitution de nouveaux réseaux « sentinelle », rendant possible de monitorer, en temps réel et de façon adaptée, les transformations à l’œuvre. De ce point de vue, il serait utile de profiter de l’ancrage territorial des Universités et centres de recherche spécialisés pour créer de nouveaux partenariats public-privé sur ces questions. Ce regard croisé entre élus, employeurs et monde de la recherche pourrait ensuite être mobilisé pour évaluer, de façon indépendante et efficace, au niveau local, les réponses sur-mesure à apporter aux défis propres d’un territoire, à la lumière de leur capacité à s’articuler au mieux avec les initiatives nationales, supranationales, voire internationales.

Repenser l’interaction entre les échelles de l’État et les sphères publiques et privées s’impose d’autant plus que ces transitions changeront la géographie de l’emploi plus vite qu’on ne le croit. Elles font d’ailleurs déjà naître de nouvelles questions, liées à la territorialisation de l’énergie, l’économie circulaire, la souveraineté alimentaire, la relocation résidentielle et industrielle, la planification du care et de l’éducation…

Autant d’évolutions dont l’analyse devrait rester une priorité pour les pouvoirs publics. Cela leur permettra de mobiliser au mieux la boîte à outils juridiques et socio-économiques à leur disposition pour accompagner les destructions créatrices d’emplois, d’une façon qui permette la continuité de la satisfaction des besoins essentiels des habitants, travailleurs et entreprises. Ce n’est qu’à cette condition que ce processus pourra devenir une véritable opportunité.

The Conversation

Fabien Bottini est chargé de mission pour la Fondafip, le think-thank des Finances publiques, membre de l'Observatoire de l'éthique publique (OEP) et de la MSH Ange Guépin. Il a perçu ou perçoit des subventions de la part du LexFEIM et du Thémis-UM, laboratoires de recherche en droit, et de la Mission de recherche Droit & Justice. Il est par ailleurs titulaire de la chaire "Innovation" de l'Institut Universitaire de France et de la chaire "Neutralité Carbone 2040" de Le Mans Université qui financent également en partie ses travaux.

François Langot ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

18.11.2024 à 10:44

Handicap, emploi et inclusivité : vers un « DuoDay » réciproque ?

Eric Dugas, Professeur des universités et chargé de mission handicap (empathie/inclusivité, jeux, handicap/maladie, mise en jeu corporelle, rapport à l'espace/architecture), Université de Bordeaux

Pour rapprocher les personnes de situation de handicap de l’emploi, les DuoDays sont initiatives intéressantes. Mais on pourrait aller encore plus loin.
Texte intégral (2036 mots)

Dans le cadre DuoDay, le Premier ministre, Michel Barnier recevra jeudi 21 novembre son binôme. Cette initiative vise à rapprocher les personnes en situation de handicap du monde du travail l’emploi. Pourtant intéressante que soit cette initiative, il serait nécessaire d'aller plus loin maintenant.


Malgré des progrès notables, de nombreuses incitations, recommandations et obligations ces dernières décennies, le taux de chômage touche actuellement quasiment deux fois plus les personnes en situation de handicap (PSH). Sachant que les représentations et autres préjugés ou discriminations persistent encore de nos jours.

Dans ce contexte contrasté, un évènement tire son épingle du jeu. Il s’agit de « DuoDay ». C’est un évènement national, construit sur une journée, qui permet aux PSH de découvrir des métiers en entreprise en formant un duo avec un professionnel « valide » volontaire. Apparue en Irlande en 2008, cette initiative s’est étendue en Europe, notamment en France avec une septième édition qui se réalise depuis 2018, en novembre, dans le cadre de la « Semaine européenne pour l’emploi » des PSH. En 2023, 27 613 duos ont été ainsi créés et 13 550 employeurs ont participé à cette journée en plein essor.

Une riche expérience pour certains…

Cette initiative originale est intéressante sur plusieurs points. D’une part, elle permet surtout la rencontre avec autrui, l’interaction en face à face, réduisant ainsi la distance physique pour mieux réduire la distance sociale. Car la mise à distance freine le processus dynamique et interactionnel de la participation sociale, ce qui peut conduire à la désaffiliation ou à la disqualification sociale. Sans compréhension, sans éprouver l’autre, guère de reconnaissance in fine ; les PSH vivent alors l’expérience du déni de reconnaissance.


Que vous soyez dirigeants en quête de stratégies ou salariés qui s'interrogent sur les choix de leur hiérarchie, recevez notre newsletter thématique « Entreprise(s) » : les clés de la recherche pour la vie professionnelle et les conseils de nos experts. Abonnez-vous dès aujourd’hui


L’éveil et la préoccupation empathiques se dessinent dans cette rencontre à l’autre. Il s’agit dès lors pour le duo de mieux se connaître, mais surtout pour l’employeur de connaître et comprendre les PSH. Or elles sont dans un perpétuel « entre-deux » dans lequel le regard posé sur eux est parfois ambivalent, entre attirance et rejet. En cette occasion offerte, autant faire pencher la balance du bon côté…

Enfin, ce stage d’une journée non rémunéré peut mettre le pied à l’étrier vers l’emploi, permettre de développer son réseau. Environ un quart des PSH seulement ont obtenu un emploi ou un stage prolongé à l’issue de cette expérience. Ce n’est pas rien… Mais est-ce bien perçu par les PSH ? Le temps fugace d’une rencontre est-il le temps des PSH ?


À lire aussi : Pour les personnes en situation de handicap, l’insertion dans l’emploi demeure une course d’obstacles


Des réticences pour d’autres…

Pourtant, des voix s’élèvent, dont celles des premiers concernés, les PSH. Si le « DuoDay » est très riche, il est toutefois asymétrique dans sa conception. C’est à la PSH de venir chez l’employeur. Une domination symbolique renforcée par la rencontre dans l’espace de travail de l’entreprise ou de la structure d’accueil. Or, les espaces ne sont pas de simples décors, ils conditionnent aussi nos manières d’être et nos comportements.

Pêle-mêle, lit-on sur les réseaux sociaux que des PSH ainsi que des personnes dites « valides/ neurotypiques » n’apprécient guère ce liant unilatéral et médiatique, même si les entreprises sont volontaires et bienveillantes. L’évènement peut être perçu, voire vécu, comme infantilisant, déresponsabilisant ou démonstratif pour la bonne image de l’entreprise, etc. Dès sa première édition, l’initiative DuoDay est loin de faire l’unanimité. Des PSH se sont senties « le stagiaire d’un jour », la figure de proue du « selfie inclusif », celle de « l’assistée »… Alors, « DuoDay, propagande ou opportunité ? » Une opération de communication avant tout ou un levier, parmi d’autres, révélant le potentiel des PSH pour lutter contre les préjugés et favoriser leur employabilité ?

Une autre voie est possible…

Si on considère que l’inclusivité sociale et professionnelle demande un lien de réciprocité - au sens où les PSH revendiquent de s’intégrer selon leurs moyens, et d’être incluses selon leurs besoins – alors la participation active et effective à ces dispositifs doit les situer dans une expérience plus égalitaire. Dit autrement, si la rencontre physique, le face-à-face, le co-éprouvé est un levier essentiel de l’éveil à l’autre et aux altérités, le « aller vers » de l’employeur à l’endroit des PSH qui travaillent est essentiel. L’employeur se rendrait compte qu’ils sont autrement capables en voyant concrètement les adaptations et aménagements qui permettent un environnement de travail propice à la créativité, à l’accomplissement individuel et collectif, à la productivité et performance pour tous (pas seulement les PSH).

C’est ainsi que certaines personnes ont proposé le « DuoDay inversé ». Pour illustration, c’est aux travailleurs/employeurs de consacrer une journée immersive auprès des PSH dans leur environnement de travail, à l’instar du « Duo2 » organisé sur une journée par la Fondation des Amis de l’Atelier.

Vers une troisième voie : le « DuoDays réciproque »

L’empathie, concept multidimensionnel à utiliser avec précaution et mesure, peut se résumer par la capacité à se mettre à la place des autres, tout en sachant que cet autre n’est pas soi, pour comprendre ce qu’il éprouve, ressent et pense. En ce sens, la motivation à se soucier de l’autre puis la prise de perspective vis-à-vis des PSH requièrent par exemple des éléments clés in situ : interagir ensemble, l’observation d’autrui et l’inversion des rôles pour partager et exprimer les ressentis.

France 3.

Ici, l’idée soumise n’est pas une sorte de « vis ma vie », en inversant les rôles, ni un « DuoDay inversé » unilatéral, mais un DuoDay réciproque, bilatéral, symétrique, sur un minimum de 2 jours d’affilé ou sur une période donnée. Ces temps conjugués sont plus longs, mais gagneraient en efficacité en jugeant enfin la PSH non pas sur ses manques, mais sur ses compétences.

Observer et rencontrer une PSH dans son environnement (de travail ou de la vie quotidienne) ne la place pas dans une situation de dominé ou dans une position inconfortable. Elle la place dans une situation permettant de comprendre que si le handicap est présent, la situation de handicap, quant à elle, dépend d’une part, de l’environnement et de l’aménagement du lieu de travail ou de vie et, d’autre part, du regard porté sur la PSH ; car le premier miroir, c’est l’autre.

Ces deux facteurs sont indissociables et, selon la qualité de l’organisation et de la maîtrise de ces deux rencontres, le curseur de la reconnaissance oscillera du côté positif ou négatif. La juste distance demande donc un effort de réciprocité (aller vers et recevoir). D’ailleurs, débuter le premier DuoDay en allant sur le terrain de la PSH rendra plus sereine la seconde rencontre en entreprise (avec le même professionnel, voire un autre de la même entreprise ou du même service), du fait de la mise en confiance au premier rendez-vous. Sachant que la PSH peut être un étudiant, un employé, un entrepreneur, en reconversion professionnelle ou un travailleur en ESAT.

Se rencontrer physiquement, et doublement, permettrait de mieux saisir et d’agir au cœur d’un véritable processus d’inclusivité professionnelle, donc d’employabilité et de recrutement. En somme, l’inclusivité est un mécanisme réciproque, plus horizontal, qui sollicite deux DuoDays indispensables et inséparables, comme les deux faces d’une pièce de monnaie. N’oublions pas, à l’instar du psychosociologue Jacques Salomé, que si c’est dans l’ombre de soi-même que l’on fait les rencontres les plus lumineuses, encore faut-il oser le pas vers l’autre, pour mieux faire le pas de côté, celui de la dignité.

The Conversation

Eric Dugas ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

18.11.2024 à 10:44

Quelle technologie de batterie pour les voitures électriques ? Un dilemme de souveraineté industrielle pour l’Europe

Lucas Miailhes, Doctorant en Science Politique/Relations Internationales, Institut catholique de Lille (ICL)

Pour réduire le prix des véhicules électriques, les constructeurs européens lorgnent sur une technologie de batterie répandue en Chine. Quelles implications en termes de souveraineté industrielle ?
Texte intégral (2890 mots)

Les constructeurs européens envisagent de plus en plus d’opter pour la technologie de batterie lithium-fer-phosphate (LFP), très répandue en Chine, plutôt que la nickel-manganèse-cobalt (NMC) plus répandu en Europe. Un choix technologique important en termes de souveraineté industrielle et de dépendance économique aux producteurs de métaux… mais qui peut aussi les aider à vendre des véhicules électriques plus abordables.


Face à la demande croissante de véhicules électriques plus abordables, les constructeurs européens diversifient de plus en plus leur portefeuille de batteries. Ils commencent à intégrer la technologie LFP (pour lithium, fer, phosphate), un type de batteries lithium-ion qui domine actuellement le marché en Chine du fait de son coût moins élevé que les batteries NMC (pour nickel, manganèse, cobalt), plus fréquentes en Europe.

De quoi questionner la pérennité des investissements européens dans la production de batteries, qui ont jusqu’ici surtout concerné le NMC. Cela pose aussi la question d’une dépendance potentielle envers les fabricants asiatiques, avec des implications différentes en termes de métaux critiques.

Autrement dit, c’est un enjeu de souveraineté industrielle pour le secteur automobile du vieux continent, qui souligne la complexité d’un écosystème où différentes technologies coexistent pour répondre à la multiplicité des usages de la mobilité électrique. Il implique des choix politiques et industriels qui influenceront l’adoption du véhicule électrique et les dépendances futures de l’Europe.

L’état de l’industrie des batteries en Europe

Les batteries lithium-ion sont au cœur de la révolution des véhicules électriques. Elles sont l’élément stratégique essentiel des voitures électriques, dont elles constituent jusqu’à 40 % de leur poids. Leur fabrication nécessite un savoir-faire hautement spécialisé, des investissements importants en capital fixe et l’utilisation de matières premières critiques. Un véhicule électrique utilise environ 200 kg de ces matériaux, soit six fois plus qu’un véhicule à combustion interne.

Le secteur automobile a largement orienté les trajectoires prises par le développement technologique des batteries, notamment pour améliorer leur densité énergétique, leur capacité de charge rapide et leur sécurité d’usage, tout en abaissant les coûts.

Théoriquement, on peut utiliser toutes sortes d’éléments chimiques dans les batteries li-ion. Mais pour l’heure, le marché est dominé par deux technologies : les batteries NMC et LFP. La comparaison entre les batteries LFP et NMC révèle une équation complexe entre prix, accessibilité, sécurité, performance et autonomie.

En 2023, les batteries NMC (nickel, manganèse, cobalt) représentaient près de deux tiers du marché mondial, tandis que les batteries LFP (lithium, fer, phosphate) occupaient 27 % des parts de marché. En Europe, 55 % des véhicules électriques sont équipés de batteries NMC, 40 % utilisent des batteries NCA (nickel, cobalt, aluminium), et seulement 5 % sont dotés de batteries LFP.

De fait, les constructeurs européens ont jusqu’ici privilégié les batteries NMC et NCA pour leur grande autonomie, tandis que les batteries LFP étaient principalement utilisées par les constructeurs chinois. C’est principalement en raison des exigences des consommateurs en termes d’autonomie, de performance et de recharge rapide que l’Europe s’est jusqu’ici engagée dans la voie des batteries NMC à haute teneur en nickel.

Une diversification utile au marché européen

Il n’empêche, les batteries LFP se distinguent par leur coût plus faible, un facteur crucial dans le contexte actuel où le prix élevé des véhicules électriques constitue le principal frein à leur adoption massive.

Ce n’est pas tout : elles offrent également une meilleure sécurité, une durée de vie plus longue et acceptent mieux les charges complètes, ce qui les rend plus pratiques pour une utilisation quotidienne. Cependant, comparées aux batteries NMC, les batteries LFP présentent une densité énergétique inférieure, ce qui se traduit par une autonomie plus limitée à volume égal.

Les constructeurs automobiles européens l’ont bien compris et ont récemment annoncé des changements de stratégie significatifs. ACC (Automotive Cells Company), issue d’une joint venture entre Stellantis, Mercedes-Benz and TotalEnergies, a récemment suspendu la construction de ses gigafactories en Allemagne et en Italie, suite à un changement de sa stratégie d’approvisionnement pour y inclure des batteries LFP.

Depuis 2021, Tesla équipe un certain nombre de ses véhicules avec des batteries LFP. Wilson Lam, CC BY-NC-SA

Tesla a également décidé d’équiper ses modèles Model 3 et la Model Y avec la batterie LFP dès 2021. Volkswagen, enfin, prévoit d’adopter la technologie LFP pour rendre ses voitures électriques plus abordables d’ici deux ans.

[Déjà plus de 120 000 abonnements aux newsletters The Conversation. Et vous ? Abonnez-vous aujourd’hui pour mieux comprendre les grands enjeux du monde.]

Ces annonces ont suscité une certaine inquiétude pour la pérennité des investissements dans les batteries NMC, mais peuvent être vues comme une diversification de la part des constructeurs européens, pour répondre à une variété de besoins et de contraintes tout en limitant les risques économiques.

Cela leur permettra aussi de mieux s’adapter à la segmentation du marché :

  • les batteries LFP pourraient dominer le marché des véhicules électriques d’entrée et de milieu de gamme (véhicules destinés aux petits trajets urbains ou pour des applications nécessitant une autonomie relativement faible),

  • tandis que les NMC pourront se segmenter sur le segment haut de gamme (ou pour les applications nécessitant une plus grande autonomie, comme les véhicules longue distance).

Dilemme industriel et enjeu de souveraineté

Cette diversification, si elle peut rendre les voitures électriques plus abordables en réduisant le coût des batteries, ne va pas sans risque : elle oblige les constructeurs européens à se tourner vers les acteurs asiatiques.

Ampere, la filiale électrique de Renault, intègre déjà la technologie LFP dans sa stratégie de batteries en collaboration avec LG Energy Solutions (Corée du Sud) et CATL (Chine). Même chose pour Stellantis qui a signé un accord stratégique avec le chinois CATL en novembre 2023.

Déjà, environ la moitié des capacités de production de batteries situées sur le sol européen sont rattachées à des entreprises chinoises et sud-coréennes, une tendance qui pourrait s’aggraver avec les batteries LFP. En effet, 95 % des batteries LFP sont fabriqués en Chine avec des constructeurs comme BYD et CATL qui maîtrisent parfaitement les procédés de fabrication.

Ces partenariats ne sont pas un problème en soi. Ils peuvent même représenter une opportunité pour bénéficier de l’expertise technologique de ces acteurs, qui produisent des batteries de haute qualité et compétitives au plan économique.

Le vrai problème de dépendance européenne aux matières premières concerne en réalité le NMC.

En effet, les batteries LFP sont constituées de carbonate de lithium, tandis que les batteries NMC sont faites à partir d’hydroxyde de lithium, dont les chaînes d’approvisionnement sont distinctes. L’Europe importe 78 % du carbonate de lithium du Chili (plutôt que de Chine), et a même signé un accord en ce sens avec le Chili. Dans le même temps, les nouveaux projets d’extraction minière en France et en Europe devraient également permettre de renforcer les approvisionnements européens en lithium.

Le problème de dépendance concerne l’hydroxyde de lithium utilisé pour les batteries NMC. En effet, pour transformer le carbonate de lithium en hydroxyde de lithium, il faut le raffiner. Or, ce sont des acteurs chinois qui raffinent 62 % de la production mondiale de lithium. S’il existe un potentiel pour des projets de raffinage de lithium en Europe, les investissements dans ce maillon de la chaîne de valeur tardent à se matérialiser.

La fabrication des batteries NMC nécessite également du nickel et du cobalt, qui sont des matériaux identifiés comme critiques par la Commission européenne en partie de par le risque géopolitique de leur approvisionnement. Le cobalt est principalement extrait au Congo et raffiné par la Chine à 67 %.

Autrement dit, pour les constructeurs européens, miser davantage sur les batteries LFP permettrait aussi de limiter les risques de dépendances en matière d’approvisionnement en métaux critiques.


À lire aussi : Batteries lithium-ion : l’Europe peut-elle s’extraire de la dépendance chinoise ?


Mais cette diversification du portefeuille des constructeurs européens a des répercussions sur l’ensemble des acteurs de la chaîne de valeur des batteries en Europe, de leur fabrication à leur recyclage.

Les producteurs de matériaux pour batteries NMC comme Axens pourraient faire face à des difficultés de reconversion si le marché devait basculer de façon significative vers le LFP. Umicore, un acteur majeur dans la production de matériaux actifs de cathode, avait délibérément choisi de ne pas intégrer le LFP dans son portefeuille pour se concentrer sur les technologies NMC qu’elle maîtrise. Cela pourrait compromettre leur capacité à s’adapter rapidement à cette nouvelle demande.

Un recyclage des batteries moins rentable

Des questions industrielles se posent également au niveau du recyclage. Le recyclage des batteries usagées est essentiel pour réduire la dépendance à l’importation de matières premières et peut également renforcer la résilience européenne en cas de perturbations de la chaîne d’approvisionnement causées par des tensions géopolitiques.

Or, les matériaux utilisés dans la cathode déterminent l’attrait économique de leur recyclage. Étant donné que les batteries LFP ne contiennent ni cobalt ni nickel, les métaux les plus valorisables, elles remettent en question l’intérêt économique des efforts de recyclage.

Le recyclage des batteries LFP est ainsi beaucoup moins intéressant au plan économique que celui des batteries NMC, d’autant plus que les LFP contiennent environ 20 % de lithium en moins que les NMC.

C’est là tout le paradoxe : le développement des capacités de recyclage de batteries en Europe dépend de la stabilisation future des choix technologiques opérés par les fabricants de voitures électriques. Et ce choix technologique, loin d’être anodin, pose des questions de souveraineté industrielle.

Étant donné les capacités de recyclage européennes actuelles, les batteries NMC peuvent être plus facilement recyclées que les LFP. En effet, les techniques de recyclage dominantes en Europe, basées sur la pyrométallurgie, sont efficaces pour récupérer le nickel et le cobalt, mais moins adaptées pour le lithium.

Cela aurait pu changer au regard des projets qui avaient été annoncés par Orano et Eramet qui proposaient de développer l’hydrométallurgie efficace pour récupérer le lithium. Néanmoins, Eramet a récemment annoncé l’annulation de son projet de recyclage face au recul de la demande pour les véhicules électriques en Europe.


À lire aussi : Peut-on recycler les batteries des véhicules électriques ?


Résumons :

  • le NMC permet une autonomie accrue des véhicules, tout en étant plus coûteux, et entraîne une dépendance accrue à des pays tiers en termes de métaux critiques. Mais son recyclage est rentable, et la filière industrielle déjà là.

  • Le LFP, de son côté, permet une autonomie moindre, mais une meilleure longévité des batteries et moins de défaillances techniques, et permet de limiter la dépendance en métaux critiques. Ce sont toutefois les acteurs chinois qui en maîtrisent pour l’heure la chaîne de valeur, et son recyclage est moins rentable pour les acteurs européens, la filière européenne ne maîtrisant pour l’heure pas les procédés requis.

Dans ces conditions, les constructeurs européens ont-ils raison d’ouvrir prudemment la porte au LFP pour les voitures électriques ? La réponse à cette question tient du dilemme industriel, avec des arbitrages politiques et économiques forts à réaliser tout au long de la chaîne de valeur de la batterie, de la mine jusqu’au recyclage. Une chose est sûre, c’est le bon moment de se poser la question, alors que l’Europe se préoccupe de plus en plus de son approvisionnement en matières premières critiques, dans un contexte de relance minière.

The Conversation

Lucas Miailhes ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

18.11.2024 à 10:43

Les quotas de genre dans les comités de direction ont-ils modifié les perceptions des actionnaires ?

Magnus Blomkvist, Associate professor of finance, EDHEC Business School

Depuis 2011, la loi impose un quota de femmes dans les conseils d’administration des grandes entreprises. Comment a évolué la perception des actionnaires et des dirigeants ?
Texte intégral (1793 mots)

Depuis 2011, la loi impose un quota de femmes dans les conseils d’administration des grandes entreprises. Comment a évolué la perception des actionnaires et des dirigeants ?


L’introduction de quotas obligatoires de femmes dans les conseils d’administration (CA) des entreprises a été un instrument politique clé pour remédier à la sous-représentation de longue date des femmes dans les postes de pouvoir. Bien que ces politiques soient controversées, nous avons voulu analyser comment les quotas de genre pouvaient influencer non seulement la présence et la représentation des femmes, mais aussi les préférences des actionnaires et leur perception des administratrices.

Pour ce faire, nous avons étudié, dans un article récent, les effets des quotas de genre en France. Nous avons pu comparer la manière dont les caractéristiques individuelles des candidats – hommes et femmes – ont été comprises et évaluées, avant et après les quotas.

Nous constatons qu’en termes de diversité de genre, la loi française de 2011, dite Copé-Zimmermann a été, clairement et rapidement, un succès. Plus intéressant encore : nous mettons en lumière le fait que les actionnaires modifient massivement et positivement leurs perceptions des qualifications des (potentielles) administratrices, y compris leur formation et leur expérience antérieure au sein d’autres conseils d’administration. Cela a participé selon nous à une féminisation nette des CA.

Les arguments autour de quotas obligatoires

Les partisans des quotas de genre soutiennent que ces politiques sont nécessaires pour surmonter les obstacles auxquels les femmes sont confrontées pour accéder à des postes de direction. Leur argumentaire repose sur le fait que les conseils d’administration des entreprises ont été dominés par les hommes en raison des cultures organisationnelles et des pratiques de recrutement qui s’appuient fortement sur des réseaux informels, favorisant souvent les candidats masculins.


Que vous soyez dirigeants en quête de stratégies ou salariés qui s'interrogent sur les choix de leur hiérarchie, recevez notre newsletter thématique « Entreprise(s) » : les clés de la recherche pour la vie professionnelle et les conseils de nos experts. Abonnez-vous dès aujourd’hui


Par ailleurs, les critiques affirment que les quotas interfèrent avec la sélection méritocratique des membres des conseils d’administration. Selon eux, la sous-représentation des femmes au sein des CA n’est pas le reflet d’une discrimination, mais plutôt la conséquence d’une offre limitée de femmes qualifiées disponibles pour ces postes. Dans ce cas, imposer des quotas par sexe pourrait contraindre les entreprises à nommer des candidates moins qualifiées, ce qui réduirait en fin de compte l’efficacité du conseil d’administration et la valeur actionnariale.

Pour nous aider en partie à éclaircir ces questions, l’objectif de notre étude a été d’examiner la perception qu’ont les actionnaires des candidates au poste d’administrateur avant et après l’introduction des quotas obligatoires en France.

La loi Copé-Zimmermann en France

En France, la loi Copé-Zimmermann a imposé des quotas de femmes dans les conseils d’administration des entreprises, exigeant qu’elles atteignent des seuils de diversité de 20 % en 2014, qui sont passés à 40 % en 2017. La loi s’applique aux grandes entreprises de plus de 500 salariés ou dont le chiffre d’affaires est supérieur à 50 millions d’euros. Pour les entreprises ne se mettant pas en conformité, la loi imposait des sanctions sévères, y compris des restrictions sur la rémunération des membres des CA.

Si l’on s’en tient aux simples statistiques, la loi a réussi à promouvoir la diversité des genres. La France est passée de l’un des taux de représentation des femmes dans les conseils d’administration les plus bas d’Europe (8,4 %) en 2009 à plus de 43 % en 2021, ce qui fait de la France un leader en matière de diversité des genres dans ces instances.

Comment les actionnaires réagissent aux quotas de genre

Dans ce contexte, nous avons étudié les effets des quotas de genre en France, en utilisant un ensemble de données de plus de 2 700 élections d’administrateurs entre 2007 et 2020 dans les plus grandes entreprises françaises cotées en bourse. Contrairement aux études antérieures qui se concentrent sur les réactions du cours des actions lors de l’adoption des lois sur les quotas, nous évaluons les résultats des élections des administrateurs avant et après l’introduction des quotas. En étudiant la popularité individuelle des administrateurs par le biais des votes à l’assemblée générale annuelle, nous sommes en mesure d’évaluer les préférences des actionnaires liées aux caractéristiques des candidats, avant et après l’instauration des quotas.

Nous constatons que le soutien des actionnaires aux femmes administratrices a augmenté après l’introduction des quotas. Les candidates ont reçu un soutien plus important que leurs homologues masculins après l’instauration du quota, ce qui suggère que les actionnaires ont révisé positivement leur perception des qualifications des administratrices. Nos résultats indiquent que l’offre de candidates qualifiées était suffisante pour répondre à la demande accrue, et que les actionnaires n’ont pas simplement élu des femmes sous la pression de la loi.

Quotas et élimination des frictions antérieures

Les quotas par genre ont également contribué à éliminer les frictions préexistantes sur le marché du travail qui entravaient la nomination de candidates qualifiées. Avant l’introduction des quotas, la sous-représentation des femmes dans les conseils d’administration pouvait être attribuée à des pratiques de recrutement informelles et à des effets de réseau qui limitaient la visibilité des candidates. La gouvernance des entreprises françaises, en particulier, se caractérise par une dépendance à l’égard des réseaux d’élite, de nombreux membres de CA étant recrutés au sein d’un petit groupe issu d’institutions prestigieuses (grandes écoles). Ce processus de recrutement tend à marginaliser les femmes qualifiées.

Potentiellement, les quotas ont incité les entreprises à investir dans de nouvelles technologies de recherche et à élargir leur vivier de talents au-delà des réseaux traditionnels. Le processus de recrutement des membres des conseils d’administration est devenu plus efficace et plus diversifié, et les candidates possédant de solides références ont commencé à être reconnues et nommées en plus grand nombre. Nos résultats suggèrent notamment que le niveau d’études des administratrices et leur expérience antérieure ont été de plus en plus appréciés par les actionnaires après l’introduction du quota. Cela témoigne d’un changement dans la manière dont les candidates sont perçues. Nous ne trouvons pas de preuves que les entreprises sont obligées de nommer des candidates moins qualifiées pour se conformer à la loi. Au contraire, les candidates retenues étaient souvent tout aussi qualifiées que leurs homologues masculins.

Les implications plus larges des quotas de genre

L’expérience française en matière de quotas de représentation de genre est riche d’enseignements pour les autres pays qui envisagent de prendre des mesures similaires. Bien que les conséquences involontaires potentielles des quotas suscitent des inquiétudes légitimes, nos données suggèrent que les quotas peuvent être efficaces pour promouvoir la diversité des genres sans compromettre la qualité et l’efficacité du conseil d’administration telles qu’elles sont perçues par les actionnaires. En fait, les quotas de genre peuvent conduire à une réévaluation des qualifications des candidates et à l’abandon de pratiques d’embauche potentiellement discriminatoires.

En outre, ces quotas peuvent avoir des effets bénéfiques plus larges sur la société en remettant en question les normes traditionnelles en matière de genre. Lorsque davantage de femmes sont nommées dans les conseils d’administration, elles peuvent servir de modèles et de mentors pour les générations futures de femmes dirigeantes, ce qui contribue également à réduire les disparités de genre dans d’autres domaines de l’économie.

The Conversation

Magnus Blomkvist ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

18.11.2024 à 10:38

Femmes dirigeantes et membres du conseil : un frein à l’évasion fiscale ?

Assil Guizani, Enseignant chercheur en Finance, EDC Paris Business School

Faten Lakhal, Professor in Accounting, EMLV Business School , Pôle Léonard de Vinci

La présence de femmes au sein des conseils d’administration ou comme directrice financière influence les pratiques en matière fiscale. Plus de femmes, c’est moins de fraudes.
Texte intégral (1461 mots)

La présence de femmes au sein des conseils d’administration ou comme directrice financière influence les pratiques en matière fiscale. Plus de femmes, c’est moins de fraudes.


La France fait partie des rares pays à avoir adopté un arsenal législatif imposant un quota de femmes dans les conseils d’administration et les équipes de direction. Concrètement, la loi Copé-Zimmermann de 2011 stipule que les sociétés cotées en bourse et celles ayant plus de 500 salariés et un chiffre d’affaires supérieur à 50 millions d’euros doivent porter le nombre de femmes dans leur conseil d’administration à 20 % d’ici 2014 et 40 % d’ici le 1er janvier 2017.

Plus récemment, la loi Rixain adoptée en 2021 impose d’inclure des femmes aux postes de direction des grandes entreprises qui comptent au moins un millier de salariés. La proportion de femmes cadres devra atteindre au moins 30 % d’ici 2026 et 40 % d’ici 2029.

Le risque de l’évasion fiscale

Dans notre étude, nous examinons l’impact de la présence de femmes au sein des conseils d’administration et aux postes de direction dans l’entreprise – que ce soit en tant que dirigeante de l’entreprise ou directrice financière – sur les pratiques d’évasion fiscale des sociétés françaises cotées en bourse. Celle-ci est calculée comme la différence entre l’impôt théorique et l’impôt courant payé par les sociétés. Nous y explorons également l’impact de l’adoption de la loi Copé-Zimmerman sur cette relation.


À lire aussi : Les femmes dirigeantes, un catalyseur des performances environnementales et sociales pour les entreprises


L’évasion fiscale est définie comme la réduction des impôts explicites. Cela couvre un large spectre de pratiques fiscales, allant de la planification fiscale à la fraude fiscale en passant par la gestion ou l’agressivité fiscale. En France, le montant total des impôts non payés a été estimé aux alentours de 80 milliards d’euros par an. De côté des entreprises, les entreprises qui pratiquent l’évasion fiscale prennent un risque considérable de payer de lourdes pénalités et un risque de nuire à leur réputation.

Par rapport aux hommes, les femmes sont réputées avoir des attitudes différentes à l’égard des codes d’éthique et utilisent des règles de décision différentes concernant les évaluations éthiques. En conséquence, il est possible de poser l’hypothèse qu’un leadership éthique des femmes directrices contribuerait à des pratiques plus éthiques et à un meilleur suivi des actions managériales.

Gestion éthique

En utilisant un échantillon de 171 entreprises françaises cotées sur la période de allant de 2007 à 2017, nos résultats révèlent que la nomination de femmes aux postes de haute direction a contribué à réduire les pratiques d’évasion fiscale des entreprises, particulièrement, les femmes occupant le poste de directeur financier. Ces résultats confirment l’hypothèse selon laquelle les femmes dirigeantes auraient un style de gestion éthique et une plus grande aversion au risque.


Que vous soyez dirigeants en quête de stratégies ou salariés qui s'interrogent sur les choix de leur hiérarchie, recevez notre newsletter thématique « Entreprise(s) » : les clés de la recherche pour la vie professionnelle et les conseils de nos experts. Abonnez-vous dès aujourd’hui


De plus, nos résultats montrent que l’évasion fiscale est associée négativement à la présence de femmes au sein du conseil d’administration, ce qui suggère que les femmes remplissent efficacement leur rôle de contrôle dans ce cadre. Cependant, cet effet est plus important préalablement à l’introduction d’un quota obligatoire de femmes administratrices par la loi Copé-Zimmermann. Cela laisse penser que les entreprises qui ont rapidement intégré des femmes au conseil d’administration pour se conformer à cette loi n’ont peut-être pas atteint une composition optimale et performante de leur conseil.

Une particularité française ?

Les résultats de notre étude enrichissent la littérature portant sur la diversité de genre et l’évasion fiscale en analysant l’impact de la présence des femmes au sein des conseils d’administration (rôle de surveillance) et aux postes de direction (rôle décisionnel) sur les pratiques d’évasion fiscale des entreprises.

Ce comportement peut varier, car si les femmes peuvent être efficaces dans leur rôle de contrôle, elles tendent à adopter une approche plus conservatrice que leurs homologues masculins en matière de prise de décisions. Par la suite, notre étude se concentre sur le cas de la France, un pays qui s’illustre par sa lutte active contre l’évasion fiscale et son engagement en faveur de la présence des femmes dans les conseils d’administration. Notre recherche apporte ainsi de nouvelles preuves de l’impact de la diversité de genre dans les conseils d’administration sur les pratiques d’évasion fiscale, dans un contexte où des quotas sont imposés.

Public Sénat.

Plus de femmes

Nos résultats ont plusieurs implications pour les conseils d’administration, les régulateurs et les investisseurs. Les conseils d’administration peuvent continuer à renouveler leur composition pour inclure des femmes administratrices possédant l’expertise adéquate afin de parvenir à une structure efficace. Lors de la nomination des dirigeants et des directeurs financiers, les conseils d’administration devraient non seulement tenir compte des qualifications et de l’expérience, mais également évaluer les caractéristiques individuelles telles que le sexe, l’attachement aux codes éthiques et la propension à prendre des risques.

Les régulateurs devraient encourager les entreprises à recruter davantage de femmes compétentes aux postes de direction en plus du conseil d’administration. Enfin, les investisseurs peuvent être encouragés à prêter davantage attention à la présence de femmes dans les postes de direction et dans les conseils d’administration lorsqu’ils investissent dans les entreprises.

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.

17.11.2024 à 11:38

Telle fille, tel père : comment les filles influencent leurs parents à investir vert

Fabrice Hervé, Professeur en Finance, IAE Dijon - Université de Bourgogne

Sylvain Marsat, Professeur en Finance, Université Clermont Auvergne (UCA)

Qu’est-ce qui pousse les particuliers à investir dans les fonds verts ? La réponse se situe peut-être au sein de la cellule familiale.
Texte intégral (1360 mots)

Qu’est-ce qui pousse les particuliers à investir dans les fonds verts ? La réponse se situe peut-être au sein de la cellule familiale. Une récente étude montre que les hommes ayant des filles sont plus incités par ces dernières à prendre en compte l’impact environnemental de leurs investissements.


Les inquiétudes face au changement climatique sont de plus en plus prégnantes. 93 % des citoyens européens le considèrent comme un problème sérieux et 77 % comme très sérieux. Pour autant, on n’observe pas de traduction de cette inquiétude en espèces sonnantes et trébuchantes du point de vue de l’investissement vert. L’Association française de la gestion financière, dans son enquête annuelle de 2023, observe que les fonds d’investissement durables représentent 59 % des investissements fin 2023.

Mais les montants investis dans les fonds « article 9 », aussi dits « très verts » au sens de la règlementation européenne, les plus vertueux environnementalement parce qu’avec un objectif de durabilité, ont baissé de 24 %. Ils ne constituent que 88 milliards d’euros investis, soit seulement 3 % des fonds d’investissement. Cet apparent paradoxe entre préoccupations environnementales élevées au niveau individuel et faible mobilisation collective dans le domaine de l’investissement financier vert interroge.

Les enfants persuadent-ils leurs parents d’investir plus durable ?

La littérature académique en finance étudie la question de l’investissement vert depuis quelques années désormais. Elle a identifié un certain nombre de motivations des investisseurs, comme les raisons éthiques et financières, les connaissances financières ou encore le rôle de l’altruisme. Les facteurs individuels étudiés jusqu’à présent n’ont cependant jamais analysé l’influence de la sphère familiale. Le domaine des finances personnelles, ou finance des ménages, propose quelques travaux de recherche prenant en compte le contexte familial des décisions financières des investisseurs individuels et, notamment, la présence d’enfants au sein de la famille.

Dans un article de recherche, nous avons tenté de comprendre pour la première fois si la parentalité influence les choix des investisseurs individuels dans le cas spécifique des fonds verts. Notre approche s’inspire de résultats issus d’autres disciplines que la finance qui soulignent l’influence des enfants sur les parents. Par exemple, les pères ayant des filles sont plus susceptibles d’adopter des positions politiques ou des pratiques RH en faveur de l’égalité des sexes, mais aussi des politiques de responsabilité sociales et environnementales plus poussées.

Les filles davantage soucieuses concernant le changement climatique

Concernant l’environnement, les filles semblent plus sensibles aux problématiques environnementales. Une étude récente montre par exemple que 44 % des filles ont un fort niveau d’inquiétude concernant le changement climatique contre 27 % des garçons. On peut ainsi penser que les parents ayant des filles, en raison des préoccupations écologiques plus marquées de leur progéniture, soient plus enclins que leurs homologues n’ayant pas d’enfants ou ayant des garçons à réaliser des investissements alignés avec des valeurs environnementales. Greta Thunberg elle-même illustre cette influence en témoignant : « j’ai commencé mon activisme à la maison en modifiant les habitudes et façons de penser de ma famille et de mes proches ».

Pour tester cette hypothèse dans le domaine de la finance verte, nous avons réalisé une enquête auprès d’un échantillon représentatif d’investisseurs français entre décembre 2021 et janvier 2022. L’échantillon de 2 288 investisseurs comprend 499 investisseurs ayant placé au moins 500 € dans des fonds d’action de type article 9. Ces fonds d’investissement ont pour objectif l’investissement durable dans une activité économique qui contribue à un objectif environnemental : l’atténuation ou l’adaptation au changement climatique, l’utilisation durable des ressources hydriques, la transition vers une économie circulaire, la lutte contre la pollution et la protection de la biodiversité…

L’échantillon comprend des données détaillées sur les caractéristiques personnelles des individus, telles que l’âge, le sexe, les connaissances financières, le niveau d’éducation et la taille du portefeuille d’actions. Par ailleurs, afin de mener notre analyse, nous avons recueilli des informations sur chacun des enfants du foyer, leur âge et leur sexe, permettant ainsi d’examiner l’effet spécifique d’avoir une fille sur les décisions d’investissement des parents.

Un changement de comportement plus marqué avec les nouvelles générations

Nos recherches aboutissent à plusieurs conclusions intéressantes. Tout d’abord, l’analyse montre clairement que le fait d’avoir une fille augmente la probabilité pour un parent d’investir dans des fonds verts d’un peu moins de 4 %. Parallèlement, élever un garçon n’a aucune influence significative sur le fait d’investir dans un fonds vert ce qui démontre que le simple fait d’avoir un enfant n’explique pas cette relation : le sexe de l’enfant est donc important. En outre, en cohérence avec notre hypothèse, les filles n’influencent que leurs pères et non leurs mères qui ont déjà tendance à présenter des valeurs plus environnementales.

L’étude met par ailleurs en lumière le fait que plus les filles sont jeunes, plus leur influence sur les décisions d’investissement de leurs pères est forte. Ceci tient probablement au fait qu’elles ont plus d’influence en étant au sein du foyer, et que les programmes scolaires en France incluant des cours sur le développement durable et les enjeux environnementaux ont été renforcés depuis 2011. Enfin, les résultats montrent que l’influence des filles ne se limite pas à la décision d’investir dans des fonds verts, mais s’étend également au montant investi. Les pères ayant au moins une fille investissent des montants plus importants, ce qui suggère une plus grande adhésion à la cause environnementale.

Ainsi, au-delà de son effet en matière de préoccupations environnementales, nous montrons l’impact surprenant de l’influence intergénérationnelle sur les décisions financières des parents. Cela plaide en faveur de l’intégration des questions liées au changement climatique dans l’éducation pour toucher indirectement les parents. Au-delà de la sensibilisation des enfants, l’éducation des filles en particulier peut également avoir des effets secondaires financiers positifs sur leurs pères en favorisant les flux d’argent vers des investissements verts. Étant donné que l’éducation sur cette question est en développement, on peut espérer que l’apprentissage intergénérationnel influence positivement les décisions d’investissements verts dans les portefeuilles des ménages et contribue ainsi activement au financement de la transition écologique.

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.

17.11.2024 à 11:38

Grèves des chauffeurs VTC : quels droits et quel statut pour les travailleurs des plates-formes ?

Caroline Diard, Professeur associé - Département Droit des Affaires et Ressources Humaines, TBS Education

Les chauffeurs de VTC se mobilisent pour l’amélioration de leurs conditions de travail. Des jugements ont déjà permis de rapprocher leur situation du salariat, mais des droits restent à gagner.
Texte intégral (1644 mots)

Alors que les chauffeurs de VTC se mobilisent pour un meilleur statut et l’amélioration de leurs conditions de travail, où en est la loi ? Si des jugements, en France et à l’étranger, ont déjà permis de rapprocher leur situation du salariat, tout n’est pas encore acquis pour les travailleurs ubérisés.


Depuis quelques jours, les opérations escargots et grèves des chauffeurs VTC se multiplient. Il s’agit pour eux de dénoncer des commissions jugées abusives et de réclamer une meilleure rémunération et un encadrement du nombre de chauffeurs afin de réguler l’activité.

Ces mobilisations surviennent dans un contexte où le salariat est mis à mal par une ubérisation galopante des emplois, qui contribue à une grande précarisation des salariés des plates-formes comme Uber, Deliveroo ou Lyft. En 2022, on recensait 230 000 travailleurs de plates-formes numériques en activité en France, dont 179 200 livreurs à deux roues et 52 700 chauffeurs de voiture de transport avec chauffeur (VTC).

En 2022, 3 % des Européens ont déclaré avoir travaillé sur une plate-forme numérique au cours des 12 derniers mois. 28 millions d’emplois seraient concernés, dont 7 % seulement sont salariés, face à 93 % indépendants. Ces travailleurs effectuent des tâches pour des clients avec lesquels ils sont mis en relation via une plate-forme numérique.

Si ces travailleurs peuvent opter pour différents statuts, c’est celui de micro-entrepreneur qui est le plus largement utilisé, car plus simple et plus souple. D’ailleurs, en France, le nombre de micro-entrepreneurs a bondi. Fin juin 2023, le réseau des Urssaf dénombre 2,7 millions d’autoentrepreneurs administrativement actifs, soit 215 000 de plus sur un an (+8,6 %). Cela arrive après un ralentissement observé depuis le troisième trimestre 2021 (+12,0 % sur un an fin juin 2022) compte tenu du rythme soutenu des radiations. Un rapport du Sénat indique d’ailleurs :

« Le statut très souple d’autoentrepreneur puis de micro-entrepreneur a pu créer une brèche dans laquelle se sont engouffrées les plates-formes pour s’affranchir des contraintes liées au salariat. »

À la frontière du travail dissimulé, les travailleurs des plates-formes subissent à la fois une précarisation de leurs droits et des tâches répétitives et ingrates, assimilables à du « micro-travail ».

La nécessaire protection des travailleurs des plates-formes

Le fonctionnement des plates-formes questionne le lien qui les unit aux travailleurs et la subordination éventuelle qui se met en place. Pour éviter un déséquilibre des droits des travailleurs, le cadre légal, tant en France qu’en Europe, tend de plus en plus vers une protection de ces travailleurs et viser à organiser une présomption de salariat. Le salariat offre en effet des droits sociaux bien plus protecteurs que le statut d’indépendant.

Ainsi, en Espagne, dès 2018 et pour la première fois en Europe, un tribunal requalifie les travailleurs de Deliveroo en salariés et, le 12 août 2021, la loi « Riders » (cavaliers) présume automatiquement salariés tous les coursiers de plates-formes en Espagne.

En France, la Cour de cassation s’est également prononcée en 2018 sur les relations contractuelles existant entre des coursiers et la plate-forme Take Eat Easy en considérant qu’il existe un lien de subordination. Elle retient que la géolocalisation va au-delà de la simple mise en relation et que les retards dans les livraisons sont sanctionnés par la plate-forme.

De même, par une décision du 4 mars 2020, la Cour de cassation a requalifié la relation d’un chauffeur de VTC avec la société Uber en contrat de travail. Dans cet arrêt « Uber », la Cour de cassation avait retenu notamment l’impossibilité pour le chauffeur de constituer sa propre clientèle, de fixer librement ses tarifs et les conditions d’exercice de sa prestation de transport.

La Cour d’appel de Paris est allée dans le même sens en juillet 2022 en condamnant la société Deliveroo pour travail dissimulé et des faits de harcèlement moral du fait de ses méthodes managériales.

En revanche, d’autres décisions n’ont pas été en faveur de la reconnaissance du lien de subordination. Dans cette affaire, il a été retenu notamment par le juge que le travailleur était en mesure de se déconnecter, d’effectuer des courses pour son propre compte, d’organiser ses courses, et que le système de géolocalisation inhérent au fonctionnement d’une plate-forme n’avait pas pour objet de contrôler l’activité du chauffeur, mais de permettre l’attribution du chauffeur le plus proche au client.

Vers un contrôle proportionné ?

Il y a donc la volonté d’évaluer le lien de subordination à travers le prisme du contrôle des salariés. La notion de géolocalisation est particulièrement éclairante dans la mesure où un tel dispositif est possiblement mis en œuvre s’il est légitime et proportionné au but recherché. Dans le cas d’Uber, la géolocalisation imposée par le fonctionnement de la plate-forme ne caractérise pas un lien de subordination juridique des chauffeurs, car ce système n’a pas pour objet de contrôler l’activité des chauffeurs, mais est utilisé à d’autres fins.

Dans l’arrêt Uber de 2020, la Cour de cassation avait été particulièrement attentive à une clause spécifique du contrat qui, d’après la Cour, pouvait conduire les chauffeurs « à rester connectés pour espérer effectuer une course et, ainsi, à se tenir constamment, pendant la durée de la connexion, à la disposition de la société Uber BV, sans pouvoir réellement choisir librement, comme le ferait un chauffeur indépendant ». La question du contrôle est alors clairement soulevée. Dans cet arrêt, le mot contrôle apparaît d’ailleurs à 20 reprises.

Des droits clarifiés

En France, les articles D7342-1 à D7345-27 du code du travail définissent la responsabilité sociale des plates-formes envers leurs travailleurs. Par ailleurs, l’ordonnance no 2022-492 du 6 avril 2022 « renforçant l’autonomie des travailleurs indépendants des plates-formes de mobilité, portant organisation du dialogue social de secteur et complétant les missions de l’Autorité des relations sociales des plates-formes d’emploi » a consolidé les droits de ces travailleurs. Ainsi, il n’est plus possible d’imposer aux travailleurs l’utilisation de matériel ou d’équipement déterminé (sous réserve d’obligations légales ou réglementaires), et ils ont la faculté de recourir à plusieurs intermédiaires, de déterminer leur itinéraire et de choisir leur plage horaire d’activité.

Au niveau européen, les 27 États membres ont, le 14 octobre 2024, adopté de nouvelles règles pour renforcer ces droits, avec l’adoption d’une directive. Ce texte tend à faciliter la requalification des travailleurs en salariés en déterminant une présomption légale d’emploi. Cette présomption pourra être invoquée par les travailleurs des plates-formes, leurs représentants ou les autorités nationales afin de dénoncer un classement dans « la mauvaise catégorie ». À l’inverse, « il incombera à la plate-forme numérique de prouver l’absence de relation de travail ».

L’objectif de la directive est aussi de réglementer la gestion algorithmique, afin que les travailleurs soient informés de l’utilisation de systèmes de surveillance ou de prise de décision automatisés en matière de recrutement, de rémunération et concernant les conditions de travail.

Le combat pour défendre les droits des travailleurs des plates-formes est loin d’être terminé. Malgré une évolution notable des réglementations européennes et nationales, plusieurs questions risquent de continuer à alimenter le débat : la présomption de salariat, le dialogue social, le contrôle et les libertés individuelles de ces travailleurs en marge du salariat. Une structuration de la représentation des travailleurs des plates-formes avec un dialogue social renforcé pourra faciliter une nécessaire évolution.

The Conversation

Caroline Diard ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

17.11.2024 à 11:37

Préhistoire : nos ancêtres étaient-ils de grands sportifs ?

Tony Chevalier, Ingénieur d'étude en paléoanthropologie, Université de Perpignan Via Domitia

L’activité physique finit par modifier la résistance de vos os. Ce qui permet, en retour, de mieux comprendre comment se déplace l’humanité depuis la nuit des temps.
Texte intégral (3001 mots)
Face à cette scène pleine de vie provenant du Tadrart Acacus (Sahara, Libye), lieu où ont été trouvées des peintures rupestres datées de 12&nbsp;000&nbsp;ans jusqu’au I<sup>e</sup>&nbsp;siècle de l’ère chrétienne, on perçoit concrètement une partie du mode de vie de ces populations du passé. Mais comment savoir ce qui se passait à des périodes bien plus anciennes&nbsp;? Luca Galuzzi, Wikipedia, CC BY-SA

Notre vision des modes de vie aux débuts de l’humanité est souvent influencée par les peintures rupestres ; mais les représentations précises et spécifiques d’humains sont en fait relativement récentes. Pour mieux comprendre la manière dont ceux-ci se déplaçaient, il vaut mieux se pencher sur leurs os, et les analyser en regard de ce que l’on sait de l’ossature des sportifs actuels !


Regarder notre passé nous pousse parfois à nous comparer à nos ancêtres, à mesurer la distance qui nous sépare d’eux, que ce soit sur un plan comportemental ou sur un plan physique. De multiples travaux de recherches ont montré qu’avant la généralisation de l’agriculture, les humains étaient très mobiles, c’est-à-dire qu’ils effectuaient des déplacements fréquents et/ou longs afin d’exploiter leur territoire pour se nourrir et trouver des matières premières pour confectionner des outils. Mais auraient-ils pu courir plus vite ou plus longtemps que nos athlètes ? À quel point étaient-ils actifs ? Pouvons-nous quantifier leurs efforts ?

Si répondre directement à certaines questions est difficile, nous pouvons les détourner et nous demander à quel point l’activité physique des hommes et femmes préhistoriques depuis des centaines de milliers d’années a impacté la structure de leurs os, en particulier ceux des jambes. L’os, par son adaptation au cours de la vie, révèle d’une certaine manière les efforts consentis par un individu : plus il se renforce, plus l’activité était importante.

Plus précisément, nous cherchons à savoir comment une « simple » marche, même chez des personnes très mobiles, a pu induire un renforcement des os si remarquable chez certains de nos ancêtres.

Les mouvements d’inversion et d’éversion du pied, qui consistent à soulever la plante du pied vers l’intérieur ou vers l’extérieur, modifient les contraintes s’exerçant sur la fibula lors de la marche. Ces mouvements sont plus marqués lors des déplacements sur des terrains irréguliers et selon les activités sportives pratiquées. Une fibula particulièrement robuste témoigne de déplacements spécifiques qui entraînent une plus grande mobilité de la cheville. Tony Chevalier, Fourni par l'auteur

L’utilisation des scanners permet d’étudier avec précision la structure interne des os des humains actuels et passés. C’est sur le terrain de l’analyse géométrique des os que se jouera cette rencontre à travers le temps. Bien utilisée, la géométrie des sections osseuses, qui intègrent des diamètres internes et externes, permet d’évaluer la robustesse (c’est-à-dire le renforcement) et la forme des os et faire le lien avec la mobilité d’un individu. Voyons cela en détail.

L’activité physique modifie les os

L’ingénierie mécanique enseigne que les propriétés géométriques d’une structure rendent compte des propriétés mécaniques. De fait, les diamètres externes et internes de la section diaphysaire d’un os permettent d’évaluer la rigidité et la résistance de celui-ci. Plus la diaphyse d’un os aura des diamètres externes et une épaisseur corticale élevés plus elle sera résistante.

Les mesures de robustesse pour les os de la jambe (tibia et fibula) se font à partir des sections des os (ici exemple avec le squelette du Paléolithique supérieur de la grotte du Cavillon, ou Caviglione). Nous étudions la géométrie des sections des diaphyses et particulièrement leur taille et la répartition de l’os cortical (l’os compact représenté en plage grise sur la figure) afin d’évaluer la robustesse des os. Différents indices de robustesse rendent compte de la rigidité et de la résistance relatives des os lors de la flexion et de la torsion de la diaphyse. Les formules des indices intègrent la longueur des os et la masse corporelle de l’individu étudié. Tony Chevalier, Fourni par l'auteur

Quand nous imaginons notre squelette, nous sommes tentés de le percevoir comme une structure rigide et stable. Pourtant, l’os est une matière vivante tout au long de la vie, qui se renouvelle et s’adapte aux contraintes habituellement subies. Par exemple, quand nous marchons, nous exerçons une pression sur nos os, nous les fléchissons et les tordons un peu. En conséquence, à la différence de l’acier, l’os réagit aux contraintes en se renforçant ou s’allégeant. Cette adaptation est d’autant plus efficace si vous êtes jeune. L’os ne s’adaptera pas si un type de contraintes se produit rarement ou si les changements d’intensité dans nos activités physiques sont trop faibles.

Les recherches menées sur les sportifs ont été d’une aide précieuse pour savoir si les variations de sollicitations de nos membres induisaient des variations de la structure osseuse au long de la vie.

Dès les années 70, les travaux réalisés sur les bras des joueurs et joueuses de tennis ont montré une asymétrie élevée en faveur de l’humérus du bras dominant, celui qui tient la raquette. L’augmentation du diamètre de la diaphyse entraîne une plus grande robustesse pour l’humérus du bras dominant, c’est-à-dire une plus grande résistance. Le bénéfice osseux dû à des contraintes générées par le sport peut même dans certains cas perdurer encore 30 ans après l’arrêt d’une pratique sportive.

Désormais, nous savons qu’une activité physique régulière va engendrer des contraintes récurrentes sur un os, et que celui-ci va s’adapter en changeant sa géométrie (taille et forme). Ainsi, en faisant le cheminement inverse, l’étude de la géométrie des os de la jambe serait un moyen de nous renseigner sur la manière de se déplacer de leur propriétaire. Bien entendu, il faut être très prudent lors de ce type d’interprétation. Par exemple, au-delà des multiples facteurs qui peuvent influer sur la structure osseuse, la structure observée chez un adulte préhistorique résulterait en partie de son activité à un jeune âge, à une époque où son os était plus réactif aux stimuli mécaniques.

De la structure des os au comportement des Homo heidelbergensis et des Homo sapiens anciens

Lorsque nous nous intéressons aux os des jambes des espèces humaines anciennes appartenant au genre Homo, c’est en particulier pour comprendre leur mobilité : nous voulons savoir s’ils marchaient beaucoup (haut niveau de mobilité), sans toutefois définir une fréquence de déplacement et une distance journalière. Nous évaluons aussi le type de terrain parcouru, sachant qu’un terrain plat ou avec des reliefs impactera différemment les os. Plus la marche est fréquente et intense, plus le terrain pratiqué est irrégulier, et plus les os subiront de fortes contraintes et se renforceront.

En 2023, nous avons publié nos recherches sur la mobilité d’une femme d’une ancienneté de 24 000 ans provenant de la grotte de Caviglione (Ligurie, Italie). D’après la topographie du lieu de la découverte, cette femme Homo sapiens avait la possibilité de se déplacer à la fois sur des terrains à fort dénivelé et sur des terrains plats, le niveau de la mer étant bien plus bas qu’aujourd’hui. Les résultats ont montré le très haut niveau de mobilité pratiqué par cette femme grâce à ses fémurs et tibias et l’adaptation de ses os à des déplacements fréquents en terrain montagneux grâce à ses fibulas.

Plus précisément, nous avons mis en évidence une robustesse extrêmement élevée des fibulas de cette femme par comparaison à ses contemporains, mais aussi au regard des joueurs de hockeys sur gazon, dont la pratique se caractérise par une grande mobilité de la cheville. Ces résultats suggéreraient la présence d’une activité préhistorique très intense sur des terrains irréguliers. Ce type de terrain implique des mouvements variés de la cheville, et notamment des mouvements latéraux fréquents d’une plus grande amplitude que sur terrain plat, amenant la fibula à supporter plus de poids et donc à se renforcer.

La rigidité des os varie selon le niveau de mobilité et le type de terrain sur lequel les Hommes se déplacent. Les hockeyeurs sur gazon ont des fibulas relativement plus renforcées que celles des coureurs à pied en raison des mouvements fréquents, d’une amplitude élevée, d’éversion et d’inversion du pied qui contraignent davantage les fibulas. Ces mouvements de la cheville expliqueraient également la robustesse élevée des fibulas chez les populations nomades, ou pratiquant l’élevage et l’agriculture, et se déplaçant régulièrement en milieu montagneux. Notons les très hautes valeurs de robustesse des fibulas des individus ayant vécu il y a 24 000 ans et 450 000 ans. Les cercles pleins représentent des données moyennes. Fourni par l'auteur

À 450 000 ans, nous observons également une robustesse très élevée des fibulas humaines, associée à un fort étirement de la diaphyse du tibia (Caune de l’Arago, Tautavel). Cela plaide pour un haut niveau de mobilité et des déplacements récurrents des Homo heidelbergensis à la fois dans la plaine et sur les reliefs aux alentours de la grotte de Tautavel.

Une robustesse qui questionne

Les forts renforcements observés chez certains Homo heidelbergensis et Homo sapiens anciens, aussi bien des femmes que des hommes, au regard de sportifs confirmés contemporains, sont très étonnants sachant que les hommes préhistoriques sont avant tout des marcheurs et que les contraintes les plus élevées s’exercent sur les os lors de la course à pied.

La robustesse naturellement plus élevée d’un individu préhistorique, c’est-à-dire acquise génétiquement, pourrait expliquer certains des résultats. En étudiant la robustesse relative de la fibula (qui prend en compte pour chaque individu le rapport de résistance entre sa fibula et son tibia), nous éliminons l’influence de ce type de facteurs génétiques sur nos résultats, partant du postulat qu’une robustesse naturellement élevée toucherait autant ces deux os. Pourtant, ce rapport (fibula versus tibia), déterminant pour comprendre les mouvements de la cheville, donne l’un des résultats les plus remarquables pour le squelette de Caviglione (24 000 ans). Il met en exergue la robustesse relative très élevée de ses fibulas.

L’ensemble des résultats plaide pour une influence multifactorielle sur la structure osseuse et par notamment l’impact significatif d’une activité non négligeable et continue au cours de la vie. Un haut niveau de mobilité dès un très jeune âge, lorsque l’os est particulièrement réactif aux stimuli mécaniques, associé à des déplacements en montagne, ou sur d’autres terrains irréguliers, voire à la pratique de la course à pied, pourrait expliquer une telle robustesse à l’âge adulte chez des individus ayant vécu entre 500 000 ans et 20 000 ans.


Pour en savoir plus, retrouvez l’auteur dans le documentaire d’Emma Baus « Tautavel, vivre en Europe avant Neandertal » le 28 novembre 2024 sur France 5 dans l’émission Science grand format.

The Conversation

Tony Chevalier a reçu des financements de l'université de Perpignan via Domitia (UPVD, Bonus Qualité Recherche) et de la fondation UPVD.

17.11.2024 à 11:37

État et collectivités territoriales : une décentralisation encalminée, des relations dégradées

Jean-Christophe Fromantin, Chercheur-associé Chaire ETI IAE-Paris-Sorbonne, IAE Paris – Sorbonne Business School

Carlos Moreno, Directeur scientifique de la Chaire ''Entrepreneuriat Territoire Innovation'', IAE Paris-Sorbonne, IAE Paris – Sorbonne Business School

Didier Chabaud, Directeur de la Chaire entrepreneuriat Territoire innovation, Professeur en sciences de gestion - SRM/LAB IAE Paris-Sorbonne, IAE Paris – Sorbonne Business School

Le 106ᵉ Congrès des maires de France aura lieu du 18 au 21 novembre. La décentralisation est au point mort et les relations entre l’État et les collectivités se tendent sur les financements.
Texte intégral (1723 mots)

Le 106e Congrès des Maires de France aura lieu du 19 au 21 novembre. Où en est le processus de décentralisation ? Pourquoi les relations entre l’État et les collectivités territoriales sont-elles de plus en plus conflictuelles ?


La France est une République décentralisée, ainsi que l’énonce l’article premier de la Constitution. Pour autant, cette « organisation décentralisée » s’est inscrite dans des mouvements multiples depuis 40 ans, et donne lieu ces dernières années à l’émergence de tensions contradictoires entre l’affichage de la volonté de décentralisation, et des réformes fiscales qui tendent à priver les collectivités locales de la réalité d’une autonomie de décision.

La longue marche vers la décentralisation

En 1947, la macrocéphalie parisienne est dénoncée par le géographe Jean-François Gravier dans un ouvrage qui sonne comme un diagnostic et infuse le débat public : « Paris et le désert français ». Dès les années 60, l’État se dote d’un « bras armé », la DATAR pour impulser une politique d’aménagement du territoire, de rééquilibrage au profit des métropoles régionales, des villes moyennes et de modernisation des transports. Les collectivités participent de cet élan. La loi de décentralisation de 1982 marque le transfert de nombreuses compétences de l’État vers les collectivités. En 2003, l’Acte II de la décentralisation va plus loin : la Constitution inscrit la décentralisation dans son premier article. L’expérimentation dérogatoire devient possible et un nouveau paquet de compétences est transféré aux collectivités comme le développement économique, le tourisme ou le logement.

La décentralisation à l’épreuve des crises

Pourtant, une dizaine d’années plus tard, la décentralisation marque le pas. La promesse se délite sur fond de crises et de tensions budgétaires, de fermetures d’usines et de licenciements : l’objectif prioritaire de l’État est désormais d’endiguer le chômage. Par ailleurs, la désindustrialisation stimule la diagonale du vide, la crise financière de 2008 contracte l’activité économique, la démographie agricole est en chute libre et les premières tensions dans les banlieues signalent les asymétries du modèle territorial. L’idée d’une « entreprise sans usine » lancée en 2001 par le PDG d’Alcatel, la récession des années 2000 ou le concept de ville globale apparaissent comme les marqueurs d’une obsolescence des territoires.

À une vision d’ensemble se substituent alors deux tendances : des approches plus erratiques de l’État dans les territoires, et la fascination pour la mondialisation qui s’incarne dans les métropoles. L’ouvrage à succès de Thomas Friedman, « La terre est plate, une brève histoire du XXIᵉ siècle » convainc les décideurs d’un changement de paradigme dont les grandes villes seront les pivots.

L’effacement de l’État-aménageur fait place à une politique d’appui aux collectivités. Des politiques sectorielles ciblées (création de l’Agence nationale de la rénovation urbaine en 2003) ou de péréquation horizontale (création du Fonds de péréquation intercommunale en 2012) tentent de corriger les asymétries. Pourtant, les inégalités territoriales se creusent, à la fois entre les territoires, mais aussi l’intérieur des aires urbaines. La DATAR s’éteint en 2014 et laisse la place au Commissariat général à l’égalité des territoires pour renaître en 2019 sous la forme de l’Agence nationale pour la cohésion des territoires.

La promesse n’est donc plus celle de l’aménagement mais de la cohésion des territoires. Cette évolution n’est pas neutre : les territoires prennent l’avantage sur le territoire au détriment d’une vision d’ensemble. Il s’agit de compenser les effets collatéraux de la polarisation métropolitaine. La France périphérique de Christophe Guilly (2014) ou l’ouvrage du journaliste britannique David Goodhart The Road to Somewhere (2017) alertent sur les tensions en germe. En 2018, la crise des « Gilets de jaunes » met à jour des fractures béantes. La défiance entre l’État et les élus prospère sur le terreau d’une France à deux vitesses.

L’enlisement progressif de l’action publique territoriale

Déjà affaiblies par la sédimentation des compétences liées à l’enchevêtrement des strates et par un défaut de ressources, les collectivités s’enlisent dans une organisation peu agile. Les lois Maptam (2014) et NOTRe (2015) renforcent les inerties. Elles institutionnalisent le primat métropolitain, diluent l’action régionale dans de grands périmètres géographiques, imposent l’intégration des communes dans des intercommunalités alors même que les effets d’entraînement des métropoles sur leur environnement sont parfois inexistants.

En région parisienne, la Métropole du Grand Paris s’empile dans une gouvernance déjà fortement encombrée (communes, établissements publics territoriaux, départements, région, préfectures, 100 syndicats mixtes). Le système s’alourdit et l’urbanisme, composante centrale du fait communal, échappe finalement aux maires.

La perte d’autonomie fiscale sonne le coup de grâce !

Les réformes fiscales de ces dernières années sonnent le glas de l’indépendance financière des collectivités locales. Après la suppression des leviers fiscaux pour les régions et départements (2004) et le transfert de l’ex-taxe professionnelle aux intercommunalités (2015), la loi de finances de 2020 marque l’abandon de la taxe d’habitation](https://www.vie-publique.fr/parole-dexpert/287097-la-suppression-taxe-dhabitation-quelle-reforme-pour-quels-enjeux). La suppression de la cotisation sur la valeur ajoutée des entreprises se profile à l’horizon 2027.

Certains argueront du caractère secondaire de ces suppressions pour les collectivités locales, l’État s’étant engagé à les compenser « au centime près ». Mais en remplaçant la fiscalité propre des collectivités par des fractions de fiscalité nationale (160 milliards en 2024), l’État devient le premier financeur des politiques territoriales. Il met donc un point d’arrêt à la décentralisation en touchant l’élément crucial de l’autonomie des collectivités, leur budget devenant une composante de l’ajustement du budget de l’État. Cette évolution est doublement ressentie par les élus comme une perte d’autonomie et comme un dommage collatéral des déficits de l’État central.

Aujourd’hui, le risque est grand d’achever la « déconstruction du modèle d’autonomie fiscale locale ». Les élus locaux sont désormais privés d’une grande partie de leurs possibilités d’action : ils se retrouvent dans l’incapacité de retirer les bénéfices de leurs choix politiques. Pourquoi attirer des habitants supplémentaires, ou bien des entreprises, si l’on ne bénéficie pas directement des recettes générées ? Cela est d’autant plus préoccupant que la capacité des collectivités locales à investir dans les infrastructures est déterminante pour favoriser le développement de l’emploi local.

La décentralisation participe de l’efficacité des politiques publiques et d’une attente des Français à renouer avec des échelles humaines. Or les tensions actuelles sont d’autant plus fortes que l’État peine à assumer ses propres compétences et qu’il laisse les collectivités en première ligne face à de nombreuses difficultés. La sécurité est emblématique de ces transferts non compensés : avec 27 000 policiers municipaux, les communes assurent aujourd’hui le cofinancement d’une mission régalienne de l’État.

En 2023, une enquête de l’AMF et du CEVIPOF alertait sur l’accélération des démissions de maires – plus de 1300 depuis les élections de 2020. Le phénomène s’est accentué en 2024 avec plus de 40 démissions chaque mois.

Dans ce contexte de tensions, l'avenir de la décentralisation n'implique-t-il pas un nouvel alignement des échelles, des compétences et des ressources ?

The Conversation

Jean-Christophe Fromantin est délégué général du think-tank ANTICIPATIONS, Maire de Neuilly-sur-Seine, Vice-président du Département des Hauts-de-Seine, Conseiller métropolitain du Grand Paris, Administrateur de l'Établissement public local Paris-La Défense.

Carlos Moreno et Didier Chabaud ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur poste universitaire.

50 / 50
  GÉNÉRALISTES
Ballast
Fakir
Interstices
Lava
La revue des médias
Le Grand Continent
Le Monde Diplomatique
Le Nouvel Obs
Lundi Matin
Mouais
Multitudes
Politis
Regards
Smolny
Socialter
The Conversation
UPMagazine
Usbek & Rica
Le Zéphyr
  CULTURE / IDÉES 1/2
Accattone
Contretemps
A Contretemps
Alter-éditions
CQFD
Comptoir (Le)
Déferlante (La)
Esprit
Frustration
 
  IDÉES 2/2
L'Intimiste
Jef Klak
Lignes de Crêtes
NonFiction
Nouveaux Cahiers du Socialisme
Période
Philo Mag
Terrestres
Vie des Idées
Villa Albertine
 
  THINK-TANKS
Fondation Copernic
Institut La Boétie
Institut Rousseau
 
  TECH
Dans les algorithmes
Goodtech.info
Quadrature du Net
 
  INTERNATIONAL
Alencontre
Alterinfos
CETRI
ESSF
Inprecor
Journal des Alternatives
Guitinews
 
  MULTILINGUES
Kedistan
Quatrième Internationale
Viewpoint Magazine
+972 mag
 
  PODCASTS
Arrêt sur Images
Le Diplo
LSD
Thinkerview
 
  Pas des sites de confiance
Contre-Attaque
Issues
Korii
Positivr
Regain
Slate
Ulyces
🌓