20.11.2024 à 17:10
Djedjiga Kachenoura, Coordinatrice du projet de recherche sur la finance et le climat, Agence française de développement (AFD)
Tandis que les États s’engagent sur des réductions d’émissions de gaz à effet de serre dans le cadre des négociations climatiques internationales, certains domaines d’activité, comme la climatisation ou l’intelligence artificielle (IA), voient leur consommation d’électricité bondir. Comment répercuter les engagements nationaux au niveau des entreprises : selon quelles règles et quelles priorités ? Faudrait-il favoriser les considérations éthiques ou stratégiques ?
Alors que la COP29 sur le climat se déroule ce mois de novembre 2024 à Bakou, en Azerbaïdjan, l’avenir des énergies fossiles se trouve sous le feu des projecteurs.
L’électrification et la décarbonisation de nos économies (l’électricité étant, à condition d’être produite à partir de renouvelables, la plus « propre » des énergies) étaient justement à l’honneur du rapport annuel dévoilé par l’Agence internationale de l’énergie (AIE) en octobre dernier.
Cette édition du rapport, une référence internationale pour décrypter les tendances énergétiques mondiales, les prévisions de consommation et les meilleurs scénarios pour atteindre les objectifs climatiques, aurait pu s’intituler :
« bienvenue dans l’ère contrariée de l’électrique ».
D’ici 2035, la demande mondiale d’électricité devrait augmenter à un rythme annuel équivalent à la consommation électrique d’un pays comme le Japon (1 000 térawattheures). Cette hausse est portée par l’électrification des usages, mais également la demande croissante de climatisation et de dessalement d’eau de mer, en réponse au réchauffement climatique. Et dans une moindre mesure, par l’essor des data centers, en lien avec la croissance des usages liés à l’intelligence artificiel (IA).
De quoi interroger la hiérarchie de ces usages et de leurs finalités : le Financial Times soulignait que l’augmentation du recours à la climatisation constituait l’un des impacts à venir les plus « imprévisible » pour les systèmes électriques mondiaux.
Si l’on replace cela dans le contexte plus général des efforts de la diplomatie climatique pour limiter le réchauffement à 1,5 °C ou 2 °C, ce boom annoncé de l’électrique interpelle. En effet, il interroge la distribution internationale et sectorielle du budget carbone, cette quantité de CO2 que nous pouvons encore émettre sans que le réchauffement ne dépasse la limite souhaitée. Pour réfléchir à cette question, l’AFD a récemment publié une proposition de cadrage comptable et écologique des crédits carbone.
À lire aussi : Combien de tonnes d’émissions de CO₂ pouvons-nous encore nous permettre ?
Comme le rapportait un article publié par le Washington Post en octobre 2024, des centrales à charbon subsistent aux États-Unis dans certaines régions pour répondre aux besoins énergétiques des data centers, ces infrastructures indispensables à l’IA.
En parallèle, les acteurs de l’IA et leurs fournisseurs de solutions de data centers cherchent à répondre à cette demande d’électricité tout en réduisant leur empreinte carbone. Ceci alimente la demande sur les marchés volontaires de la compensation carbone, et plus largement de solutions de décarbonisation, comme celles de capture du CO2 et même le renouveau de l’énergie nucléaire aux États-Unis.
Le cas de l’IA est emblématique car il cristallise des tensions qui peuvent aussi s’appliquer à d’autres secteurs d’activités :
Jusqu’à quel point un acteur ou un secteur économique peut-il augmenter ses émissions de gaz à effet de serre (GES) ? Peut-on définir une « légitimité à émettre » ?
Ces acteurs doivent-ils contribuer au développement et à la préservation des puits de carbone naturels (forêts, océans, sols…) et si oui, comment ?
Faudrait-il des règles ou des grands principes pour allouer au mieux entre les acteurs privés le budget carbone restant et l’accès aux crédits carbone ?
Ou encore, faudrait-il, au minimum, expliciter les règles du jeu pour gagner en transparence ?
Ces questions soulèvent des enjeux techniques, comptables, mais surtout politiques et éthiques.
Une éthique centrée sur l’individu prioriserait les usages de l’électricité pour la climatisation, facteur de confort individuel,
les États qui hébergent des acteurs majeurs de l’IA auraient, de leur côté, tendance à favoriser cet usage en raison de son importance stratégique,
D’autres pays, en revanche, pourraient refuser de limiter l’élevage, secteur très émissif, invoquant des raisons culturelles. Par exemple en Argentine, où la pratique des asados (barbecues) est profondément enracinée dans l’identité nationale.
Répondre aux questions qui précèdent n’est pas trivial : cela impliquerait d’avoir un cadre commun et partagé sur la scène internationale. Celui-ci pourrait s’inspirer de concepts financiers, comme les notions de dette et de remboursement de la dette.
Pour rappel, les États signataires de l’accord de Paris s’engagent déjà sur des réductions d’émissions à travers les contributions déterminées au niveau national (CDN). Mais rien n’est prévu pour répartir les budgets carbone au sein d’un même pays, où les actions de décarbonisation sont, in fine, déléguées aux acteurs.
La notion de budget carbone a été conceptualisé par le GIEC dans son sixième rapport d’évaluation du climat.
Pour limiter le réchauffement à 1,5 °C avec 50 % de probabilité et la neutralité carbone à l’horizon 2050, le budget carbone restant s’élève à 275 milliards de tonnes (Gt) de CO₂ – soit environ 7 ans d’émissions au rythme actuel.
Pour atteindre l’objectif de 2 °C, ce budget grimpe à 625 Gt CO2, ce qui correspond à 15 ans d’émissions au rythme actuel.
Où en sommes-nous ? Les émissions mondiales de gaz à effet de serre s’élèvent actuellement à 40 Gt équivalent CO2 par an, et proviennent approximativement à 90 % des combustibles fossiles (36 Gt) et à 10 % des changements d’usage des sols (4 Gt).
Depuis 1750, l’humanité a émis environ 2 800 Gt équivalent CO2. Heureusement, les écosystèmes terrestres et océaniques ont pu jouer leur rôle de puits de carbone, en divisant par deux la vitesse à laquelle les concentrations atmosphériques de CO2 ont augmenté.
À titre d’exemple, entre 2013 et 2022, les systèmes océaniques ont capté 26 % et les terrestres 31 % des émissions. Cependant, leur efficacité diminue avec la hausse des températures, comme le soulignait le dernier rapport du Global Carbon Budget.
Pourrait-on imaginer, pour mieux distribuer le budget carbone, un système de « débiteurs » du CO2 émis avec une obligation de remboursement ? L’enjeu semble surtout être de fixer les priorités. Un peu comme lors d’un exercice budgétaire, ou tout resserrement budgétaire doit conduire à un meilleur optimum social et/ou économique, et où les arbitrages réalisés doivent être explicités.
À l’échelle globale, aucun cadre universel ne permet actuellement de mesurer précisément la contribution des entreprises aux objectifs des CDN des États ou à la gestion du budget carbone mondial : encore faudrait-il savoir selon quels critères le faire, et sur la base de quelle comptabilité.
Le concept d’« alignement » tente d’y remédier : il qualifie les efforts de décarbonisation des entreprises et autres organisations par rapport à une trajectoire idéalisée de leur secteur de référence compatible avec un scénario net zéro.
Certaines de ces méthodes, comme celle développée par l’emblématique SBTi (Science Based target Initiative), allouent des budgets carbone d’abord par secteur, puis par entreprise.
Ce processus est controversé car il repose sur des scénarios sectoriels. Ces derniers sont donc bâtis sur des compromis politiques, ainsi que sur des hypothèses en matière de développement technologique et d’évolution de la demande.
Ce système favorise souvent les gros émetteurs actuels, selon le principe du « grandfathering », qui attribue les budgets carbone au prorata des émissions actuelles. Il échappe ainsi à toute délibération politique, créant ainsi une répartition implicite du budget carbone pour les entreprises, sans prendre en compte les trajectoires des CDN déclarées par les pays dans lesquels opèrent les acteurs concernés.
En France, la Stratégie nationale bas carbone (SNBC) prévoit de répartir le budget carbone national de la France en plusieurs budgets sectoriels. Cette répartition sectorielle, définie par la loi de transition énergétique pour la croissance verte, est le fruit d’un processus politique.
Concrètement, cette loi
« donne des orientations pour mettre en œuvre, dans tous les secteurs d’activité, la transition vers une économie bas carbone, circulaire et durable. Elle définit une trajectoire de réduction des émissions de gaz à effet de serre jusqu’à 2050 et fixe des objectifs à court-moyen termes : les budgets carbone ».
Les entreprises ne sont toutefois pas tenues de respecter ces budgets carbone sectoriels : la démarche est sur une base volontaire.
À lire aussi : Histoire des crédits carbone : vie et mort d'une fausse bonne idée ?
Faudrait-il aller plus loin et « désagréger » au niveau des entreprises le budget carbone dévolu à un secteur ? Dans un monde idéal avec un prix du carbone approprié, la décarbonisation s’opèrerait naturellement selon un critère optimal coûts-bénéfices. Comme ce n’est pas le cas, il faut descendre au niveau de l’entreprise pour comprendre comment se répartissent les efforts de décarbonisation.
L’entreprise semble être le lieu le plus approprié pour cela : elle a une existence juridique, des comptes financiers, des comptes carbone, et peut être tenue responsable. Elle est le lieu où convergent les investisseurs, les politiques publiques et la société civile.
Dans tous les cas, les méthodes de répartition des budgets au niveau individuel devraient distinguer et expliciter les différents enjeux d’ordre scientifique, technique, économique et politique qui les constituent et les soumettre à des délibérations élargies.
À lire aussi : Le grand flou de la comptabilisation des quotas carbone dans les entreprises
Le dépassement du budget carbone devrait engendrer la reconnaissance d’une dette climatique qu’il serait obligatoire de rembourser. Ce n’est pas le cas à l’heure actuelle.
Les crédits carbone liés aux puits de carbone (par exemple reforestation ou capture du CO2), qui relèvent principalement des marchés volontaires, ne sont en aucun cas liés à une dette climatique. En effet, aucune comptabilité ne reconnaît formellement le budget carbone, et du coup, ne peut enregistrer son dépassement. Bien que la méthode SBTi mentionnée précédemment tente d’introduire des règles, elle ne s’inscrit pas dans une logique de dette climatique.
Le GIEC a malgré tout formulé des recommandations, notamment le fait de réserver les puits de carbone aux secteurs difficiles à décarboniser (comme l’industrie lourde, l’aviation) ou aux émissions résiduelles, sans qu’il existe de consensus clair sur la définition de ces dernières. Le GIEC propose ainsi une tentative de hiérarchisation partielle (merit order) d’accès aux puits de carbone.
Il faut aussi rappeler que si la maintenance des puits de carbone existants est négligée, la création de nouveaux puits deviendra plus difficile, augmentant ainsi la nécessité de réduire ou d’éviter les émissions pour rester dans les limites du budget carbone global.
À ce jour, aucun cadre ne garantit donc la cohérence entre les systèmes de redevabilité ou de comptabilité carbone entre l’échelle de l’entreprise et celle d’un État. Cette absence de coordination empêche d’aligner efficacement les actions des entreprises avec le budget carbone national, et pose un risque clair de voir naître des politiques climatiques biaisées, des subventions captées par les mauvais acteurs voire des réglementations trop sévères pour d’autres.
Djedjiga Kachenoura ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
20.11.2024 à 17:10
Benjamin Blandin, Doctorant en relations internationales, Institut catholique de Paris (ICP)
Voilà plus de cent ans que l’Australie accorde une grande importance à ses capacités sous-marines. En signant en 2021 l’accord AUKUS, elle s’est lancée dans un projet colossal, dont la mise en œuvre rencontre dernièrement de nombreuses difficultés.
En septembre 2021, l’accord AUKUS est annoncé au grand jour. Ce partenariat stratégique entre l’Australie, le Royaume-Uni et les États-Unis (d’où l’acronyme choisi pour le désigner) porte sur l’acquisition par Canberra d’une dizaine de sous-marins à propulsion nucléaire de fabrication américano-britannique – au grand dam de la France.
L’histoire de la force sous-marine australienne n’a été que rarement mentionnée dans cette affaire, alors qu’elle constitue un facteur clé pour comprendre les tenants et les aboutissants de ce partenariat tripartite.
À lire aussi : L’« Indo-Pacifique », au-delà du slogan
L’Australie, en dépit d’une base militaro-industrielle assez limitée, d’un éloignement géographique relatif vis-à-vis de ses alliés occidentaux et d’un territoire faiblement peuplé – trois éléments n’en faisant pas un acteur naturel dans le domaine complexe et coûteux des sous-marins –, dispose de plus d’un siècle d’expérience en la matière.
En 1914, durant la Première Guerre mondiale, qui sévit aussi en Océanie, le pays reçoit sa première capacité sous-marine avec la livraison par le Royaume-Uni de deux sous-marins de type « E-class ».
L’un d’eux disparaît, la même année, lors de la campagne contre la base allemande de Rabaul (aujourd’hui en Papouasie-Nouvelle-Guinée). Le second est rapatrié en Europe et utilisé durant la campagne de Gallipoli.
Une deuxième tentative est initiée en 1919, avec la livraison de six sous-marins britanniques « J-class », mais ces derniers, en mauvais état, passent la plupart du temps en réparation et sont décommissionnés en 1922 après avoir été très peu utilisés. S’ensuit une troisième tentative en 1927 avec trois sous-marins britanniques « O-class », qui ne sont livrés qu’en 1930 et rapatriés en 1931, à nouveau en raison de nombreuses difficultés techniques.
Durant la Seconde Guerre mondiale, l’Australie est dépourvue de force sous-marine, à l’exception d’un submersible néerlandais, le K.IX rebaptisé K9, qui permet de former des hommes à la lutte anti-sous-marine. Cependant, de nombreux marins australiens servent dans la Royal Navy et les ports australiens de Brisbane et de Fremantle voient passer 122 sous-marins américains, 31 britanniques et 11 néerlandais. Entre 1949 et 1969, le Royaume-Uni maintient en Australie une flottille comprenant seulement deux à trois submersibles.
La première force sous-marine australienne véritable remonte donc à l’acquisition de six sous-marins de la classe Oberon, mis en service entre 1967 et 1978. Ces appareils nécessitaient cependant une maintenance très coûteuse (75 % du prix d’achat tous les cinq ans) et près de 85 % des pièces détachées et de soutien ont été fournis par des industriels extérieurs, entravant l’autonomie stratégique du pays.
En 1990, débute la construction des six sous-marins de la classe Collins – premiers sous-marins conçus et fabriqués en Australie dans le chantier naval ASC d’Adélaïde. Exploités entre 1996 et 2003, ces submersibles sont une version améliorée et plus longue du mini sous-marin suédois Västergötland.
Cette initiative était ambitieuse, le pays ne disposant pas à l’époque d’un complexe militaro-industriel naval à proprement parler, et son expérience se limitant à la production de navires de taille moyenne et à l’entretien de la classe Oberon. Canberra, via ce projet, souhaite alors gagner en indépendance dans le domaine des systèmes d’armes complexes. Le pays doit importer de nombreux composants et faire appel à l’expertise étrangère, mais la conception de la classe Collins présente l’avantage d’adapter les ambitions du gouvernement aux capacités industrielles nationales.
Toutefois, cette expérience rencontre de nombreux problèmes techniques, de la phase de conception jusqu’à la phase d’exploitation et de maintenance. À tel point que moins de 25 ans après la mise en service du premier sous-marin, l’entièreté de la flotte a été jugée inapte, alors que sa durée de vie initiale était fixée à 30 ans. Les autorités australiennes pensaient que ces sous-marins ne pourraient être entretenus que pour une dernière période de sept ans avant l’accord AUKUS. Mais la nécessité de les maintenir en mer jusqu’au début des années 2040, en raison de la difficile mise en œuvre du pacte, exigera une modernisation approfondie et un entretien toujours plus coûteux et complexe.
En 2016, pourtant, Canberra avait signé avec le groupe français Naval Group un contrat qui prévoyait la livraison par la France de huit sous-marins Barracuda « Attack-class » (chiffre plus tard réévalué à douze). La livraison de ces sous-marins diesel, adaptés aux besoins stratégiques de l’Australie et à son opposition de longue date à la technologie nucléaire, était prévue pour le début des années 2030.
Étant donné que la conception, la production et la maintenance des sous-marins de la classe Collins constituaient la seule expérience australienne antérieure, ce contrat offrait à Canberra l’occasion d’accroître son expérience, son expertise et sa capacité industrielle et lui octroyait de surcroît un plus large niveau d’autonomie stratégique. Mais le contrat a été annulé en septembre 2021, entraînant une compensation de 555 millions d’euros versée à Paris et la perte de 3,4 milliards de dollars australiens (2 milliards d’euros) d’investissement initial, après sept années de coopération technique, technologique et industrielle entre les deux nations.
À lire aussi : Sous-marins australiens : le modèle français d’exportation d’armes en question
L’Australie a-t-elle fait le bon choix en se détournant de Paris au profit des sous-marins nucléaires promis par Londres et Washington ? Plusieurs éléments permettent d’en douter.
En ce qui concerne l’exploitation de la propulsion nucléaire des sous-marins, l’Australie ne dispose d’aucune installation ni expertise, technicien, ingénieur ou scientifique spécialisés. De plus, sa Constitution interdit la production, l’enrichissement, le stockage, l’usage et le transit d’uranium et/ou de plutonium enrichi.
La construction à Adélaïde des futurs sous-marins prévus dans le cadre du pacte AUKUS doit débuter à partir des années 2040, soit près de 40 ans après la dernière production d’un sous-marin sur le sol australien. Une situation susceptible de générer une perte de compétences significative, des retards et des coûts supplémentaires. Seule la dernière modernisation prévue pour la classe Collins pourra contribuer à un transfert de savoir-faire pour la construction des nouveaux sous-marins.
En outre, le coût financier se révèle exorbitant. Entre 2020 et 2050, le montant devrait s’élever entre 268 et 368 milliards de dollars australiens (164 à 225 milliards d’euros) pour la livraison de trois à cinq sous-marins américains de classe Virginia et environ huit sous-marins SSN-AUKUS. Les douze sous-marins de Naval Group avaient été négociés pour 56 milliards d’euros (100 milliards de dollars australiens) et leur coût aurait probablement été de 150 milliards de dollars australiens s’ils avaient été conçus avec un système de propulsion nucléaire.
De plus, la classe de sous-marins du pacte AUKUS nécessite l’amélioration et l’agrandissement des capacités du chantier naval de Perth, pour un coût estimé à 4,3 milliards de dollars. 1,5 milliard devront aussi être investis dans la base navale de Henderson.
Ajoutons que l’accord AUKUS devrait être conclu entre 2023 et les années 2050. Pour les États-Unis, cette période de 35 ans représente l’équivalent de neuf mandats présidentiels américains qui risquent d’entraîner des changements de politique intérieure et extérieure susceptibles d’entraver la mise en œuvre du pacte, à l’égard duquel le président nouvellement réélu Donald Trump s’est d’ailleurs montré critique.
Sans oublier que l’élaboration d’une politique cohérente avec quatre modèles différents (Collins, Astute, Virginia et AUKUS) est un défi supplémentaire pour Canberra. Comment former et transférer les équipages et les officiers d’une classe à l’autre ? Pour rappel, l’« AUKUS improved visit and onboarding program » prévu à cet effet devait débuter en 2023. Mais le positionnement permanent des sous-marins ne sera pas donné avant 2027, les sous-marins SSN-AUKUS ne doivent être livrés qu’au début des années 2040 et la livraison de la classe Virginia prévue en 2030 a été retardée.
La production des sous-marins Virginia par Washington est effectivement loin d’être terminée. La capacité de production est ralentie et la rivalité grandissante avec la Chine pourrait motiver les États-Unis à exploiter plus longtemps leur plus récent modèle de sous-marin avant de le livrer à l’Australie.
Dès lors, quel intérêt l’Australie trouve-t-elle dans ce partenariat ? Difficile de répondre à cette question, sachant que le pacte AUKUS inflige à Canberra une perte de temps et d’argent considérable, suscite une détérioration de ses relations avec la France et l’Asean, une tension accrue avec la Chine et peu voire aucune autonomie stratégique à l’horizon.
Ainsi, la volonté du gouvernement australien de faire de l’alliance AUKUS l’alpha et l’oméga de sa stratégie de défense et de considérer ce contrat comme « trop gros pour échouer » (« too big to fail ») est pour le moins imprudente. Cet apparent excès de confiance ne correspond pas aux réalités que souligne le Congressional Research Service, un think tank du Congrès américain, dans un rapport portant sur le pacte et mis à jour en octobre 2024. Ce dernier alerte sur la quasi-impossibilité pour Washington de livrer les sous-marins prévus et conseille aux autorités australiennes de réorienter leurs investissements militaires dans la défense aérienne, les drones et les capacités de frappe de précision à longue portée.
Benjamin Blandin ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
20.11.2024 à 17:10
Alice Mesnard, Reader in Economics, City St George's, University of London
Filip Savatic, Chercheur postdoctoral sur le projet Migration Governance and Asylum Crises (MAGYC) au Centre de recherches internationales , Sciences Po
Hélène Thiollet, Chargée de recherche au CNRS, CERI Sciences Po, spécialiste des politiques migratoires, Sciences Po
Jean-Noël Senne, Maître de conférence en Economie, Université Paris-Saclay
Le Pacte sur la migration et l’asile adopté par l’UE en 2024, qui vise à réduire l’immigration irrégulière, consiste notamment à confier le contrôle des frontières aux États d’origine et de transit des migrants. Un examen attentif de la politique d’asile mise en œuvre jusqu’ici par l’Union et, notamment, du fameux accord avec la Turquie de 2016 concernant les Syriens met en évidence les nombreuses failles de ce projet.
Depuis 2014, plus de 30 000 personnes ont péri dans la mer Méditerranée en tentant de rejoindre l’Europe, et des centaines sont mortes en traversant la Manche dans l’espoir de gagner le Royaume-Uni. Ces catastrophes humanitaires récurrentes en Europe ont remis en question la manière dont les pays de destination, de transit et d’origine des migrants gèrent le « contrôle » de leurs frontières.
En réponse, les institutions de l’Union européenne (UE) ont formellement adopté en avril 2024, après environ neuf ans de négociations depuis la « crise » migratoire de 2015, un ensemble de mesures connu sous le nom de Pacte sur la migration et l’asile. Ce texte réforme la manière dont l’UE gère les flux migratoires, avec pour objectif principal de mettre fin à la « migration irrégulière » vers l’Europe.
L’une des principales composantes du Pacte est le renforcement des partenariats internationaux avec les pays d’origine et/ou de transit des migrants dans le but de maîtriser les flux migratoires avant que les individus n’atteignent les frontières extérieures de l’UE. Ces partenariats et les politiques qui en découlent ont été qualifiés d’« externalisation » des contrôles migratoires, car ils représentent des tentatives de la part des États européens et des autres États du Nord de coopter les États d’origine/de transit pour stopper ou décourager les migrations.
À la suite de l’adoption du Pacte, 15 États membres de l’UE ont adressé une lettre commune à la Commission européenne, insistant sur la nécessité de poursuivre l’externalisation et demandant que les demandes d’asile soient traitées et évaluées en amont dans les pays partenaires.
L’externalisation (et l’engagement de l’UE à cet égard) a été largement critiquée par les organisations de la société civile et les défenseurs des migrants, ainsi que par des universitaires de différentes disciplines. Ces critiques soulignent que les politiques d’externalisation limitent la capacité des individus à demander l’asile en Europe et conduisent à de nombreuses violations des droits de l’homme.
De leur côté, les décideurs européens font valoir que les politiques d’externalisation sont compatibles avec les obligations juridiques internationales et nationales de fournir une protection humanitaire à ceux qui en ont besoin. Ils affirment que ces politiques découragent les migrations « irrégulières » tout en garantissant le droit aux personnes fuyant la violence et la persécution de pouvoir continuer de demander l’asile.
Or notre article de recherche récemment publiée montre que les politiques d’externalisation réalisent le contraire de ces objectifs affichés : elles empêchent les demandeurs d’asile de solliciter une protection internationale tout en déplaçant la migration irrégulière vers d’autres itinéraires moins contraints.
Pour évaluer l’impact des politiques d’externalisation, il est d’abord nécessaire de distinguer la migration forcée des individus qui obtiendront probablement le statut de « réfugiés » dans leur pays de destination des autres migrations probablement « irrégulières ».
Cette distinction est controversée en sciences sociales. Loin d’être une description exacte des personnes migrantes ou un fait purement juridique, elle s’ancre dans des pratiques et des politiques de catégorisation et de hiérarchisation des groupes et de leurs droits à entrer ou rester sur un territoire. Ces pratiques et ces politiques varient dans le temps et sont largement déterminées par les dynamiques politiques des gouvernements qui les mettent en place, qui sont le plus souvent ceux des pays de destination ou de circulation des personnes migrantes.
Pour opérer une distinction entre les « réfugiés probables » et les « migrants irréguliers probables », nous avons développé une nouvelle méthode de catégorisation des flux migratoires qui prend en compte les décisions d’octroi ou non de l’asile dans les pays de destination, en fonction de la nationalité des demandeurs et de l’année de la demande.
Alors que les conditions dans les pays d’origine influencent la probabilité que les individus obtiennent le statut de réfugié, les décisions en matière d’asile prises dans les pays de destination sont au terme du processus celles qui déterminent si quelqu’un « est » ou « n’est pas » un réfugié. En outre, bien que les décisions en matière d’asile soient généralement prises au cas par cas, la nationalité des demandeurs d’asile est largement prise en considération. En pratique, le Pacte de l’UE préconise lui-même l’utilisation des taux d’acceptation des demandes d’asile par nationalité pour déterminer si les individus entreront dans une procédure d’asile accélérée plutôt que dans une procédure d’asile standard.
En utilisant les données d’Eurostat sur les décisions d’asile en première instance, nous avons calculé une moyenne pondérée annuelle du taux d’acceptation des demandes d’asile par nationalité des demandeurs dans 31 États européens de destination (l’UE-27, l’Islande, la Norvège, la Suisse et le Royaume-Uni). La pondération tient compte du nombre de décisions prises par nationalité dans chaque pays. Par exemple, le taux d’acceptation du statut de réfugié des ressortissants syriens en Allemagne a un poids plus important car c’est dans ce pays que la plupart des Syriens arrivés sur le territoire de l’UE ont demandé l’asile.
Ensuite, nous avons utilisé cette moyenne pondérée annuelle pour diviser l’enregistrement des flux migratoires non autorisés vers l’Europe en deux catégories : « réfugiés probables » et « migrants irréguliers probables ». Plus précisément, nous avons utilisé les données sur les détections de « franchissement illégal des frontières » (IBC) publiées par Frontex, l’Agence européenne de garde-frontières et de garde-côtes, qui fournit à ce jour les seules données systématiquement disponibles sur les flux migratoires précédemment non autorisés vers l’Europe.
Dans une publication récente, nous avons démontré que l’étiquetage « irrégulier ou illégal » de cet ensemble de données est très problématique étant donné qu’il n’est pas illégal de franchir les frontières des États parties à la Convention sur les réfugiés de 1951 sans autorisation préalable et d’y demander l’asile. Nous montrons dans quelle mesure, depuis 2015, cet ensemble de données a toutefois été fréquemment cité par des sources d’information à destination du grand public à travers l’Europe, ainsi que par des organisations internationales et des chercheurs, comme une mesure objective de la migration « irrégulière » ou « illégale ».
Les données publiées par Frontex indiquent le nombre de passages de frontières sans autorisation préalable identifiés par les États membres de l’UE et de l’espace Schengen et sont organisées en neuf itinéraires types vers l’Europe. La route de la Méditerranée orientale (représentant les passages de la Turquie vers la Grèce) et la route de la Méditerranée centrale (représentant les passages de la Libye et de la Tunisie vers l’Italie et Malte) sont les deux principales routes en termes de nombre de passages. La nationalité de chaque individu identifié lors du passage est indiquée, ce qui nous permet de répartir chaque franchissement dans l’une de nos deux catégories en utilisant le taux moyen pondéré d’octroi de l’asile par nationalité.
Notre nouvelle méthode de catégorisation des migrations nous permet de révéler la nature dite « mixte » des flux migratoires vers l’Europe et d’évaluer les impacts des politiques d’externalisation sur les différentes catégories de migrants.
Tout d’abord, nos résultats montrent que 55,4 % des passages non autorisés de frontières sur la période 2009-2021 représentent des franchissements de « réfugiés probables » – une proportion qui atteint 75,5 % pour l’année de crise de 2015 et un minimum de 20 % les autres années. Les franchissements de frontières dits « irréguliers » représentent donc toujours des migrations « mixtes », tandis que les pics de flux représentent le plus souvent des migrations forcées de réfugiés probables. Cela remet en question la manière dont les données de Frontex sont étiquetées et utilisées.
Deuxièmement, nous avons mené une analyse quantitative approfondie de l’impact de la déclaration UE-Turquie de mars 2016 sur nos deux catégories de migrants. Cette politique est un exemple paradigmatique d’externalisation, souvent présentée par les décideurs politiques comme une avancée majeure qui a permis de mettre un terme à la crise migratoire de 2015.
En nous concentrant sur la période des 12 mois précédant et suivant l’adoption de la déclaration, nous montrons comment cette politique n’a en réalité pas atteint ses objectifs. Certes, sur la route de la Méditerranée orientale, directement ciblée par la politique, le nombre total de franchissements non autorisés a nettement diminué. En revanche, sur la route de la Méditerranée centrale – l’itinéraire alternatif le plus proche – ce nombre a parallèlement grimpé en flèche. Ces deux changements sont presque entièrement dus au nombre de « migrants irréguliers probables » identifiés sur chacune des routes. Sur l’itinéraire de la Méditerranée orientale, la politique n’a précisément pas eu d’effet significatif sur les traversées effectuées par les « réfugiés probables », malgré les dispositions de l’accord qui restreignent considérablement leur accès à l’asile. Dans le même temps, peu d’entre eux ont déplacé leurs trajectoires de migration vers la route de la Méditerranée centrale.
Signé en 2024, le Pacte européen sur la Migration et l’Asile, âprement négocié au sein de l’UE, veut renforcer les partenariats extra-internationaux pour mieux gérer l’immigration et l’asile. Or nos conclusions révèlent que la déclaration UE-Turquie, souvent mis en avant pour favoriser ces partenariats, a été un échec en soi. Elle a largement empêché les personnes susceptibles d’être reconnues comme réfugiés de demander l’asile, tout en détournant les migrants irréguliers vers d’autres routes migratoires. En outre, les promesses de relocalisation de réfugiés syriens en Europe depuis la Turquie ne se sont pas concrétisées, seulement 40 000 personnes ayant été réinstallées depuis 2016 sur plusieurs millions présents en Turquie.
L’analyse que nous avons menée révèle les dangers de l’externalisation et la manière dont les politiques qui y sont liées sont potentiellement incompatibles avec les engagements juridiques pris par les États européens en matière de protection humanitaire, ainsi qu’avec les politiques d’asile qu’ils mettent en œuvre au niveau national. En proposant une analyse quantitative approfondie de son (in) efficacité au regard de son objectif déclaré de stopper la migration irrégulière, notre travail de recherche complète ainsi les critiques existantes de l’externalisation, qui ont mis l’accent sur la menace qu’elle représente pour le droit des individus à demander l’asile, et sur la dangerosité accrue des parcours migratoires du fait de la criminalisation des voies d’accès légales aux pays européens.
À la lumière de ces constats, il apparaît nécessaire que les décideurs politiques au sein de l’UE reconsidèrent leur engagement en faveur de l’externalisation des contrôles migratoires, notamment dans le cadre du Pacte sur la migration et l’asile. D’autres formes de coopération internationale mettant l’accent sur les voies légales de migration ainsi que sur l’organisation de la réinstallation des réfugiés depuis leur pays d’origine ou des premiers pays d’asile dans le Sud global serviraient mieux les intérêts de tous les États tout en protégeant les droits fondamentaux des personnes en déplacement.
Alice Mesnard a reçu des financements de l'Union Européenne (H2020) dans le cadre du projet MAGYC Migration Governance and Asylum Crises https://cordis.europa.eu/project/id/822806 (projet 822806).
Filip Savatic a reçu des financements de l'Union Européenne (H2020) dans le cadre du projet MAGYC Migration Governance and Asylum Crises https://cordis.europa.eu/project/id/822806 (projet 822806).
Hélène Thiollet a reçu des financements de l'Union Européenne (H2020) dans le cadre du projet MAGYC Migration Governance and Asylum Crises https://cordis.europa.eu/project/id/822806 (projet 822806).
Jean-Noël Senne a reçu des financements de l'Union Européenne (H2020) dans le cadre du projet MAGYC "Migration Governance and Asylum Crises": https://cordis.europa.eu/project/id/822806 (projet 822806).
20.11.2024 à 17:10
Stéphanie Tchiombiano, Maitresse de conférence associée dans le département de science politique, Université Paris 1 Panthéon-Sorbonne
Maëlle de Seze, Chercheuse en santé mondiale et science politique, Université de Bordeaux
De nombreux États recrutent des soignants étrangers pour pallier le manque de personnel au sein de leurs systèmes de santé. Au détriment, parfois, des pays d’origine. Pour s’assurer que tous tirent bénéfice de cette situation, diverses solutions sont explorées, entre recommandations éthiques, accords bilatéraux ou mesures incitatives.
La pénurie mondiale de soignants, particulièrement criante pendant le pic de la pandémie de Covid-19 et les discussions sur les lois cherchant à réguler l’immigration, en France comme ailleurs, ont remis à l’agenda la question des mobilités internationales des professionnels de santé.
Pendant la crise Covid, plusieurs pays européens ont sollicité l’aide médicale de Cuba, d’autres ont envoyé des émissaires faire du recrutement actif de soignants dans des pays où la pénurie de professionnels de santé était déjà extrêmement grave, une pratique allant à l’encontre de toutes les recommandations internationales en termes de recrutement de professionnels de santé.
Selon le point de vue que l’on adopte, l’émigration des soignants peut être considérée comme un problème pour les pays d’origine qui voient leurs personnels partir pour l’étranger, ou comme une source d’opportunités, à la fois pour les professionnels de santé concernés, pour les systèmes de santé des pays d’accueil, voire pour les pays originaires, lorsque ces flux sont régulés et encadrés. Quels sont les garde-fous qui existent pour s’en assurer ?
Le nombre de médecins et d’infirmiers nés à l’étranger a augmenté de 20 % dans les années 2010, par rapport à la décennie précédente. Actuellement, on considère qu’un médecin sur six exerçant dans les pays de l’OCDE a été formé à l’étranger.
Les mobilités de ces personnels sont complexes et ne se résument pas à de simples flux « Sud-Nord » qui résulteraient uniquement d’un phénomène de « fuite des cerveaux » (« brain drain » en anglais).
Le cas de l’Afrique du Sud est particulièrement édifiant : les médecins étrangers y représentent plus de 10 % de la main-d’œuvre médicale totale et le gouvernement traite des demandes d’enregistrement de médecins provenant de plus de 60 pays. Si le Nigeria est le principal pays d’origine de ces médecins qui migrent en Afrique du Sud (devant le Royaume-Uni, Cuba et la République démocratique du Congo), il est étonnant de constater qu’à l’inverse, 17 % des médecins exerçant au Nigeria sont étrangers (par ailleurs, 50 % des médecins nés à l’étranger qui y exercent viennent d’Asie, 29 % viennent d’Afrique, 14 % viennent d’Europe et 4 % viennent d’Amérique).
Le Nigéria est donc à la fois un pays « importateur » de médecins et, dans le même temps, un pays « exportateur », puisque certains médecins nigérians font à l’inverse le choix de partir, espérant trouver de meilleures conditions de travail aux États-Unis ou au Canada, par exemple. L’espoir d’un meilleur salaire occupe une place centrale dans leurs choix. L’herbe est souvent plus verte ailleurs, et les dynamiques migratoires délicates à décoder…
La mobilité accrue des professionnels de santé ne s’explique pas uniquement par l’épidémie de Covid-19. Elle est également liée à l’augmentation des échanges mondialisés et à l’internationalisation des formations (facilitée par des dispositifs de reconnaissance des diplômes de plus en plus nombreux, même si leur absence est encore souvent un frein).
Elle est aussi renforcée par les inégalités économiques entre les pays, les différences en termes de conditions d’exercice, de conditions de travail et de conditions de vie.
Les raisons qui poussent les soignants et leurs familles à la migration peuvent être variées, au-delà du salaire : certains décident de migrer pour des raisons sécuritaires, d’autres, car ils ne reçoivent pas leurs attributions de postes, d’autres encore parce qu’ils ne peuvent pas pratiquer la médecine dans de bonnes conditions, etc.
Dans de nombreux pays à revenu faible ou intermédiaire, les professionnels de santé travaillent dans des conditions souvent difficiles, avec des statuts parfois précaires et des systèmes de santé qui n’ont pas toujours les moyens de créer des postes en nombre suffisant ou de retenir les professionnels de santé en zones rurales et reculées.
En comparaison, les perspectives d’emploi dans les pays à revenu plus élevé sont plus attractives, en particulier lorsque des émissaires de ces pays démarchent à l’international pour recruter en période de stress aigu sur les systèmes de santé (comme durant l’épidémie de Covid-19).
Si la pénurie de soignants est mondiale, certaines régions du monde sont plus touchées que d’autres. En 2013, les professionnels de santé manquants dans la région « Afrique » de l’Organisation mondiale de la santé (OMS) représentaient un quart de la pénurie mondiale de soignants.
En 2030, l’OMS estime que ce chiffre augmentera pour atteindre 52 %. Avec la région de la Méditerranée orientale (20 %) et la région de l’Asie du Sud-est (19 %), ces trois régions représenteront 90 % de la pénurie mondiale de personnels de santé en 2030.
Comment atténuer les effets négatifs de ces mobilités sur les systèmes de santé des pays d’origine, en particulier lorsque ces pays sont en situation de pénurie critique de professionnels de santé, sans priver pour autant les individus de leurs droits à migrer ? Plusieurs pistes sont actuellement explorées.
L’OMS a mis en place des dispositifs comme le Code de pratique mondial qui fixe quelques « règles du jeu » éthiques : ne pas nuire aux systèmes de santé des pays d’origine, respecter des principes de transparence, d’équité, de durabilité, tenir compte du droit à la santé des populations, respecter les droits individuels et la liberté des professionnels de santé qui souhaitent migrer, etc.
Une liste d’appui et de sauvegarde des personnels de santé est régulièrement mise à jour, pointant les pays où la pénurie de professionnels de santé est la plus critique et la densité de soignants la plus faible. Le recrutement actif de professionnels de santé de ces pays est théoriquement proscrit et ce sont les pays prioritaires pour les actions de la communauté internationale visant à lutter contre la pénurie de soignants.
Il s’agit aussi, avec les directives opérationnelles de l’OIT (Organisation internationale du travail), de s’assurer que les conditions de recrutement et de travail de ces professionnels de santé étrangers respecteront des normes éthiques.
En France, par exemple, des professionnels de santé sont régulièrement embauchés dans le système hospitalier en dessous de leurs qualifications, avec des salaires inférieurs ou de moins bonnes conditions de travail que leurs collègues nationaux.
La création d’une carte de séjour « talents-professions médicales et de la pharmacie », entrée en vigueur en France en janvier 2024, entretient l’idée de professionnels de santé formés à l’étranger comme variables d’ajustement de la pénurie nationale. Ce type de carte de séjour, qui doit être renouvelé tous les quatre ans, maintient par ailleurs les professionnels de santé dans une précarité relative et nuit à leur intégration durable dans le système de santé.
Pour les pays d’accueil, les mesures mises en place peuvent viser à faciliter les arrivées (via par exemple des procédures spécifiques de visas permettant aux professionnels de santé migrants de se stabiliser plus rapidement dans le pays d’accueil), ou encore à proposer des allègements fiscaux en reconnaissance de l’apport des soignants migrants.
Des accords bilatéraux peuvent être mis en place entre pays d’accueil et pays d’origine, instaurant non seulement des mécanismes compensatoires financiers (au bénéfice des États qui forment massivement des professionnels employés par d’autres États), mais aussi des dispositifs de formation linguistique ou d’aide à l’intégration.
C’est par exemple le cas du programme allemand « Triple win » qui a passé des accords avec sept pays : Inde, Vietnam, Tunisie, Serbie, Bosnie-Herzégovine, Philippines, et Jordanie.
Certains pays d’accueil ont également mis en place des dispositifs de formation et d’enseignement structurés pour les agents de santé migrants, à l’exemple de l’Irlande, dont le système de santé dépend fortement de personnels de santé notamment originaires du Pakistan et du Soudan.
Pour concilier cette nécessité avec son engagement envers le Code de pratique mondial de l’OMS, le gouvernement irlandais a lancé un programme de formation postuniversitaire de deux ans – l’International Medical Graduate Training Initiative (IMGTI) – à l’intention des médecins pakistanais.
L’objectif global est qu’à court terme, ces diplômés acquièrent une expérience de formation clinique qui leur est autrement inaccessible, afin d’améliorer à long terme les services de santé dans leur pays d’origine.
Conscients des enjeux liés à la mobilité des professionnels de santé, de plus en plus de pays mettent en place des politiques spécifiquement dédiées à ces questions. Il peut s’agir pour les pays d’origine de mesures incitatives visant à convaincre les soignants de ne pas partir, ou à faire revenir ceux qui sont partis à l’étranger (comme le programme chinois d’aide au retour « Young Thousand talents »).
Pour les pays d’accueil, les mesures mises en place peuvent viser à faciliter les arrivées (via par exemple des procédures spécifiques de visas permettant aux professionnels de santé migrants de se stabiliser plus rapidement dans le pays d’accueil), ou encore à proposer des allègements fiscaux en reconnaissance de l’apport des soignants migrants.
Toutefois, les pays à revenu élevé, et notamment la France, doivent également « jouer le jeu » et accepter de ne pas pratiquer le recrutement international actif alors qu’ils ont d’autres moyens à leur disposition afin de lutter contre la pénurie relative de professionnels de santé à l’intérieur de leurs frontières (augmentation du nombre de places en formation et en stage, accroissement du nombre de postes de fonctionnaires au sein du service public hospitalier, etc.).
Soulignons que le droit international est non contraignant sauf accord explicite du pays concerné. Le respect des recommandations et bonnes pratiques dépend donc du bon vouloir des États et du risque « réputationnel » qu’ils courent en ne respectant pas ces principes.
Il faut retenir de ces expériences l’idée générale de mettre en place des dispositifs incitatifs plutôt que contraignants pour répondre aux différents déséquilibres (nationaux, régionaux, internationaux). La mobilité des professionnels de santé est un fait, il nous semble qu’elle doit globalement être considérée comme une opportunité (échange de pratiques venant de cultures médicales différentes, mise en place de réseaux internationaux, etc.).
Les soignants migrants traversent souvent de nombreuses difficultés d’ordres administratif, financier, familial, etc. Obtenir une équivalence à la hauteur de leurs diplômes et de leurs qualifications par exemple peut prendre des années, même lorsque les candidats sont excellents.
Il ne s’agit donc pas de mettre en place de nouvelles entraves, de chercher à limiter les mobilités, mais plutôt de les accompagner de mesures incitatives et de mécanismes compensatoires afin de rétablir une forme d’équilibre.
Tant qu’il y aura des situations paradoxales où des pays à revenus faibles financent la formation de nombreux professionnels de santé qui vont ensuite pratiquer ailleurs, ces États ne parviendront pas à diminuer leur propre pénurie nationale de professionnels de santé et les inégalités en matière de densité de soignants continueront à croître.
Le présent article est en lien avec une étude "Les métiers de la santé de demain", réalisée pour le think tank Santé mondiale 2030 (http://santemondiale2030.fr) et financée par l'Agence Française de Développement. Stéphanie Tchiombiano a été la coordinatrice de ce think tank de 2016 à 2023.
Maëlle de Seze était salariée du think tank Santé mondiale 2030 de février 2022 à février 2023 afin de réaliser l'étude "Les métiers de la santé de demain", qui portait en partie sur les données présentées dans l'article.
20.11.2024 à 17:09
Bing Bai, Doctorant en Marketing à l'Université de Montpellier - Attaché d'enseignement à l'EDHEC Business School, Université de Montpellier
Laurie Balbo, Professeure Associée en Marketing _ Directrice des Programmes MSc Marketing et MSc Digital Marketing & Data Analytics, Grenoble École de Management (GEM)
Marie-Christine Lichtlé, Professeur des Universités, Université de Montpellier
The bottled water market has seen explosive growth – up 73% over the last decade – making it one of the fastest-growing industries globally. However, this growth comes at a significant environmental cost. Plastic waste, greenhouse gas emissions from production and distribution, and the overexploitation of water resources all contribute to an escalating ecological crisis. Reducing reliance on bottled water is, therefore, an urgent challenge.
Public awareness of this issue has grown. A 2020 study by Futerra and OnePulse found that 80% of respondents were willing to change their habits to combat climate change, and 50% specifically considered cutting back on plastic use. Despite this, little attention has been given to communication strategies designed to reduce bottled water consumption.
Our research suggests that asking people questions about their future behaviour – a psychological effect known as a self-prophecy – may inspire meaningful change. In a study involving 269 participants in the United States, researchers investigated whether this tactic could reduce bottled water purchases.
Self-prophecies work by prompting individuals to predict their future actions (e.g., “Will you recycle your packaging?”). This triggers cognitive dissonance: the discomfort of recognising a gap between one’s values and behaviours. People often resolve this tension by adjusting their actions to align with their beliefs.
Our study uncovers the emotional mechanism that links self-prophecy prompts to pro-environmental actions, with anticipated guilt serving as the key driver. American social psychologist Leon Festinger, in his seminal work A Theory of Cognitive Dissonance, describes dissonance as a state of psychological discomfort that spurs behavioural change. While Festinger does not explicitly identify the nature of this discomfort, later theorists highlighted guilt as one of the emotions that dissonance can trigger under specific circumstances.
Building on this idea, we hypothesised that people anticipate guilt when they foresee themselves failing to engage in environmentally responsible actions, particularly when such behaviours align with their normative beliefs – social or cultural expectations of what constitutes appropriate behaviour. This anticipated guilt, we argue, motivates individuals to adopt eco-friendly practices to avoid experiencing the negative emotion.
To test this theory, we conducted an experiment measuring guilt in participants exposed to an advertisement featuring a prediction question designed to discourage bottled water purchases. Those who viewed the ad experienced higher levels of anticipated guilt compared to participants in a control group who saw an ad without the prediction element. Crucially, this guilt significantly reduced their intention to buy bottled water, demonstrating how emotional anticipation can influence behaviour.
We investigated two key factors that influence the effectiveness of self-prophecy techniques: normative beliefs and the motivations that drive people to act.
Research has long established the power of normative beliefs in shaping behaviour. People who strongly adhere to their beliefs are not only more likely to predict that they will act in accordance with them but also more likely to follow through. Our study delved into how different types of norms – descriptive (what most people do), injunctive (what is socially expected), and personal (internal moral standards) – affect intentions.
Our findings reveal that these three types of norms significantly influence feelings of anticipated guilt. Participants generally believed that reducing plastic bottle consumption was common, socially expected and aligned with their personal convictions. The stronger these norms, the more intense the anticipated guilt when participants considered non-compliance. However, the act of posing a prediction question did not amplify the salience of these norms during decision-making. This suggests that such questions do not inherently guide participants toward behaviour aligned with their normative beliefs.
We also examined approach motivation, the drive to seek positive experiences or rewards, measured through behavioral approach system (BAS) scores. Individuals with high scores are typically goal-oriented, pursuing both tangible rewards (e.g., acquiring objects) and abstract achievements (e.g., altruism). This heightened drive helps them actively close the gap between their personal objectives and actions.
Surprisingly, our study found that individuals with lower sensitivity to rewards and less drive to seek positive experiences felt greater guilt than their more motivated counterparts. Why? These individuals, while less motivated to act, became acutely aware of the gap between their behaviours and personal norms when prompted by the prediction question. This awareness, despite their inertia, triggered a stronger sense of guilt, which in turn increased their intention to reduce plastic bottle use.
On the other hand, those with higher BAS scores seemed naturally adept at aligning their actions with their norms, minimising cognitive dissonance. Their proactive approach to achieving personal goals reduced the likelihood of experiencing guilt, as they had already taken steps to bridge the gap between their intentions and behaviours.
Our study offers promising insights for environmental awareness efforts, suggesting that prediction-based questions can effectively encourage eco-friendly behaviours. This approach, easily adaptable by government agencies and NGOs, has the potential to make sustainability messaging more impactful.
Interestingly, the study did not find a connection between normative beliefs – what people perceive as socially accepted behaviours – and the success of self-prophecy techniques. Had such a link been observed, individuals with stronger normative beliefs might have adjusted their behaviours more significantly in line with societal norms. However, existing research consistently highlights the pivotal role of personal norms – deeply held beliefs about right and wrong – in shaping intentions and ecological actions.
We therefore recommend designing campaigns that emphasise personal responsibility and the consequences of inaction. For example, messages that underscore the urgency of environmental issues and the importance of individual contributions can amplify the effectiveness of self-prophecy interventions.
While the study primarily examined behavioural intentions rather than actual behaviours, previous research supports the long-term impact of self-prediction techniques on real-world actions. For instance, interventions have been shown to improve recycling rates over four weeks and boost gym attendance for up to six months. These findings underscore the power of a simple question to engage emotional drivers and inspire lasting sustainable practices.
Bing Bai has received funding from the Responsible Marketing and Well-Being Chair at the University of Montpellier.
Laurie Balbo et Marie-Christine Lichtlé ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur poste universitaire.
20.11.2024 à 16:26
Dominic Rohner, Professor of Economics and André Hoffman Chair in Political Economics and Governance, Geneva Graduate Institute, Graduate Institute – Institut de hautes études internationales et du développement (IHEID)
In recent years, armed conflicts have frequently made global headlines, but media coverage has largely focused on just a few highly publicised wars. These conflicts represent only the tip of the iceberg: more than 50 countries are currently suffering from shocking levels of armed violence, many of which receive little to no public attention. These include the ongoing violence in Sudan, Somalia, the Democratic Republic of Congo, Myanmar, the Central African Republic and Yemen.
Many of these “forgotten wars” occur in countries with high poverty, significant interethnic inequalities and fragile states. Often, they are not sites of great power rivalry – one of the reasons they are largely “forgotten” by both the media and policymakers worldwide. Academia has not overlooked them, however: hundreds of recent studies examine policies that can make a real difference in such conflicts. As discussed in my new book, The Peace Formula: Voice, Work and Warranties, three factors have been found to matter most for sustainable peace.
First, a society must guarantee civil liberties and political representation for all regardless of ethnicity, gender, religion or sexual orientation. Excluded or discriminated-against groups are far more likely to form insurgent movements to challenge the state, whereas inclusive, power-sharing institutions are strongly associated with long-term peace and stability.
Second, the presence of a productive economy and a well-educated, healthy population with the means to earn a decent living are key. When opportunities are scarce and large segments of society are impoverished and desperate, they become easier prey for warlords or authoritarian leaders seeking to recruit fighters. Consequently, policies that strengthen education, healthcare and labour market access have a significant impact in promoting peace.
Third, security guarantees and robust state capacity are essential for implementing effective public policies and reducing the risk of coups or organised crime taking advantage of power vacuums. When citizens feel secure, state legitimacy is strengthened, making political and economic progress possible.
But even if one recognises these factors, the question remains: how can the international community enact positive change? Imposing regime change from outside typically backfires. However, when a reform window opens within a country and a well-intentioned government works toward positive change, it creates an opportunity for the international community to help. Substantial financial investment following the Marshall Plan model, along with support for emerging state capacities, can have a significant impact. UN peacekeeping forces have been shown to greatly enhance security, particularly for civilians.
These elements can make a crucial difference on the ground. Take the ongoing war in Sudan: after Omar al-Bashir’s autocratic regime ended in 2019, a window of opportunity for positive change briefly opened, leading to the initiation of a series of reforms under new prime minister Abdallah Hamdok. These included the obtainment of IMF financing, macroeconomic reforms and the removal of fuel subsidies. While the reforms aimed for fiscal stabilisation, they did not bring immediate relief to the economic hardship suffered by wide parts of the population, making it challenging to maintain lasting large-scale support for the government and its reforms. Also, the government never achieved full control over security and remained at the mercy of the military.
This period of transition to civilian rule was cut short in the fall of 2021, when a series of coups ushered in a new era of tension and violence. The situation deteriorated further in April 2023, when full-scale war broke out between the Sudanese Armed Forces and the Rapid Support Forces, the army’s former paramilitary allies. This power struggle has reportedly killed tens of thousands of people, and there are now more than 14 million displaced people in Sudan or across its borders. The war continues with devastating intensity, and in recent days, reports have emerged of mass killings and sexual violence in villages in Al Jazirah state in eastern Sudan.
Stopping the fighting and finding a political solution is the top priority. Once an armistice is reached, a long-term roadmap for sustainable peace will be essential to ensure that the current humanitarian catastrophe never happens again. Ensuring a democratic voice for everyone is vital in any country, but it is especially critical in the context of Sudan, which has severe ethnic divisions and a history of ethnically motivated violence, with, among others, the Masalit people and other non-Arab communities in the Darfur region repeatedly targeted. The state has a duty to protect the lives and rights of all its inhabitants, and it is crucial to put everything possible in place to prevent ethnic cleansing.
An economy that generates sufficient jobs is important everywhere, but particularly in Sudan, where poverty remains high and not everyone benefits equally from natural resource windfalls. While the extraction of fossil fuels poses a significant risk of conflict and rent-seeking – both generally and in oil-rich Sudan – a robust economy that extends beyond the sector is crucial, as it offers important employment opportunities without the same negative side effects as fossil fuel extraction.
Once a future civilian government is established, the international community can provide large-scale financial help. An International Growth Centre report highlights great opportunities for domestically producing a wide range of imported goods, including food and textiles, as well as boosting exports.
In terms of exports, Sudan’s geographical position close to Egypt, Ethiopia and the Gulf States is a major asset. The diversification of exports, such as a range of agricultural commodities and livestock, holds significant potential, and value-added activities could be stepped up. Sudan is the world’s largest producer of gum arabic but only gets a dismal share of the value chain. With more processing activities, a bigger share of this market could be secured.
There must also be strong security guarantees that enable a civilian government to implement reforms and build state capacity without the threat of military coups. Not only could UN peacekeepers protect a civilian government from military takeovers, but they would also help safeguard all civilians, regardless of their ethnicity. Of course, a key challenge for the UN is to obtain large enough contingents of peacekeeping troops from member states. This highlights the paramount importance of international solidarity.
If there is a roadmap to pacifying forgotten wars, why hasn’t it been followed more often? One issue is that many politicians prioritise short-term objectives. Striking an unsustainable deal with a despot or winning the favour of a significant yet unsavoury regime may seem appealing to leaders, especially before an election campaign. It has been argued that al-Bashir, who ruled Sudan for decades, had only been able to cling to power due to foreign support.
In contrast, investing substantial resources to lay the groundwork for long-term peace in a country far from the spotlight may be seen as less politically advantageous. The full benefits of, for example, building schools or improving the health system accrue only after some time. While some leaders may genuinely care about doing good, many are more focused on doing well. To change this dynamic, scrutiny from local and global civil society, as well as public opinion, is essential to realign incentives for our leaders, shifting their focus from short-term gains to sustainable foundations for peace. Independent, high-quality media and engaged citizens can serve as catalysts for such positive change.
Dominic Rohner ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
19.11.2024 à 17:04
Nathalie Devillier, Docteur en droit international, Auteurs historiques The Conversation France
Le procès de l’assassinat de Samuel Paty se poursuit devant la cours d’assise spéciale de Paris. Un certain nombre d’accusés comparaissent pour avoir mené une campagne de haine sur les réseaux sociaux avant le meurtre. Depuis 2020, de nouvelles lois – européennes et françaises – sont entrées en vigueur pour lutter contre les violences en ligne. Que retenir de ces législations ? Sont-elles efficaces ?
Le procès de l’assassinat de Samuel Paty a débuté lundi 4 novembre. Sur le banc des accusés se trouvent notamment ceux qui ont créé la polémique et intentionnellement faussé la réalité d’un des cours de l’enseignant portant sur la liberté d’expression. Dans une vidéo, le père d’une élève qui sera jugé durant le procès avait appelé à écrire à la direction de l’établissement « pour virer ce malade » et livrait publiquement le nom du professeur, son numéro de téléphone portable et l’adresse du collège.
Les insultes, menaces et commentaires haineux contre l’enseignant et la directrice du collège inondèrent les réseaux sociaux Facebook, WhatsApp, Instagram, Twitter, Snapchat, YouTube, TikTok, Google… devenus de véritables tribunaux virtuels.
Suite à l’émoi suscité par ces événements, la France a adopté en 2021 plusieurs lois pour contrer la haine en ligne, notamment l’article surnommé « Samuel Paty » de la loi sur le respect des principes de la République qui criminalise les actes d’intimidation et d’entrave au travail des enseignants par la diffusion de messages haineux.
Plus largement, ces dernières années, de multiples initiatives législatives, à l’échelle française et européenne ont cherché à responsabiliser les plates-formes de contenus, les réseaux sociaux mais aussi les utilisateurs pour limiter les impacts de la violence en ligne.
Entré en vigueur en 2023, le Règlement européen sur les services numériques (Digital Services Act, DSA) a notamment pour objectif d’endiguer la viralité de contenus violents pour éviter d’y exposer les utilisateurs. Il exige aussi la publication de rapports de transparence par les réseaux sociaux et plates-formes de partage tels que Facebook, Google Search, Instagram, LinkedIn, Pinterest, Snapchat, TikTok, X (anciennement Twitter) et YouTube.
En vertu de ce texte, les réseaux sociaux doivent aussi donner des informations sur leurs équipes de modération de contenu, mettre en place des mécanismes de signalement des contenus illicites et fournir des informations sur le fonctionnement de leurs algorithmes de recommandation.
Ce partage d’informations sur le fonctionnement des algorithmes devrait permettre aux utilisateurs de mieux comprendre et contrôler ce qu’ils voient en ligne. Il est surtout utile pour le Centre européen pour la transparence algorithmique qui contrôle l’application du règlement.
Les plates-formes doivent également évaluer et réduire les risques systémiques pour la sécurité publique et les droits fondamentaux liés à leurs algorithmes comme la propagation de la haine en ligne. Ces éléments doivent figurer dans les rapports émis à la disposition de la Commission européenne. Dans le cas contraire, ou si les actions des plates-formes ne reflètent pas suffisamment les attentes du DSA, c’est la Commission européenne qui prendra l’attache de l’entreprise et procédera en cas d’inertie de celle-ci à un rappel à la loi public. C’est précisément ce qu’a fait Thierry Breton en août dernier en s’adressant à Elon Musk.
Un outil de dénonciation permettant aux employés ou autres lanceurs d’alerte de signaler les pratiques nuisibles des très grandes plates-formes en ligne et des moteurs de recherche a été mis en place.
Avant ces nouvelles mesures, ces entreprises n’étaient soumises qu’à un code de conduite non juridiquement contraignant et dont les résultats avaient atteints leurs limites.
Comment évaluer l’efficacité de ces mesures ? Nous le saurons bientôt, la Commission européenne a ouvert, le 18 décembre 2023 une procédure contre X (ex-Twitter) après avoir mené une enquête préliminaire pour non respect de l’obligation de transparence et des défaillances dans la modération de contenus. X interdit aussi aux chercheurs éligibles d’accéder de manière indépendante à ses données conformément au règlement. La société encourt une amende pouvant aller jusqu’à 6 % de son chiffre d’affaires mondial et, en cas de manquements répétés, elle peut voire l’accès à son service restreint dans l’Union européenne.
Aujourd’hui, l’épée de Damoclès des sanctions financières et surtout le blocage du service sur le territoire européen font peser un risque économique et réputationnel que les plates-formes souhaitent éviter. Plusieurs procédures formelles ont été lancées par la Commission européenne contre le réseau social X en 2023, TikTok, AliExpress et Meta cette année.
En France, la loi « Sécuriser et Réguler l’Espace Numérique » (SREN) promulguée en mai 2024 sanctionne les plates-formes qui échouent à retirer les contenus illicites dans un délai rapide (75 000 euros d’amende) et met aussi en place des mécanismes pour mieux sensibiliser et protéger les utilisateurs contre les dangers en ligne.
Cela se traduit par l’information des collégiens en milieu scolaire et des parents en début d’année. Une réserve citoyenne du numérique (rattachée à la réserve civique) est également instaurée avec pour but lutter contre la haine dans l’espace numérique et à des missions d’éducation, d’inclusion et d’amélioration de l’information en ligne. Ce dispositif qui constitue un moyen officiel d’alerte auprès du procureur de la République aurait été le bienvenu il y a 4 ans, au moment de l’affaire Paty. À l’époque, seuls la médiation scolaire et le référent laïcité du rectorat avaient été actionnés, sans effet.
Les plates-formes en ligne ont des obligations légales croissantes issues du règlement européen et de la loi SREN pour prévenir et réagir au cyberharcèlement et aux contenus illicites, avec une responsabilité à plusieurs niveaux.
L’obligation de modération proactive signifie que les plates-formes doivent mettre en place des systèmes pour détecter, signaler et retirer rapidement les contenus haineux, violents, ou incitant au cyberharcèlement. C’est l’ARCOM (Autorité de régulation de la communication audiovisuelle et numérique) qui veille à ce que les éditeurs et fournisseurs de services d’hébergement de sites retirent effectivement ces contenus et conduit des audits pour vérifier la conformité aux règles. Cette obligation, issue du règlement européen sur les services numériques et de la loi SREN, sera mise en œuvre grâce à la publication d’un rapport annuel le nombre de signalements effectués. À ce jour, le premier rapport n’a pas été publié.
Les hébergeurs qui ont connaissance du caractère illicite du contenu et qui n’informent pas les autorités compétentes, par exemple, le procureur de la République, ni bloqué l’accès à cette publication, encourent des sanctions allant jusqu’à 250 000 euros d’amende et un an d’emprisonnement pour le dirigeant.
Les plates-formes doivent également sensibiliser leurs utilisateurs aux risques de cyberharcèlement et fournir des outils pour signaler facilement les contenus et comportements nuisibles. C’est le cas par exemple sur X, Facebook, Instagram.
En France, le cyberharcèlement est un délit sévèrement puni par des lois visant à lutter contre le harcèlement moral et les actes répétés de violence en ligne, notamment sur les réseaux sociaux. Une personne coupable de harcèlement moral encourt jusqu’à deux ans d’emprisonnement et 30 000 € d’amende. Si la victime est mineure, ces peines sont alourdies à trois ans de prison et 45 000 € d’amende. Des peines plus graves peuvent s’appliquer en cas d’incapacité de travail de la victime ou si les actes conduisent au suicide ou à la tentative de suicide, avec une sanction maximale de dix ans d’emprisonnement et 150 000 € d’amende.
Pour protéger les victimes de harcèlement groupé, en 2018 la loi Schiappa avait introduit un délit de « harcèlement en meute » ou raid numérique, visant à pénaliser les attaques concertées de multiples internautes contre une victime, même si chaque participant n’a pas agi de façon répétée.
La loi SREN prévoit également que les personnes reconnues coupables de cyberharcèlement peuvent se voir interdites de réseaux sociaux pendant six mois ou un an en cas de récidive. Ce bannissement inclut la création de nouveaux comptes durant la période d’interdiction. Les plates-formes risquent des amendes allant jusqu’à 75 000 € si elles ne bannissent pas les utilisateurs condamnés pour cyberharcèlement ou ne bloquent pas la création de nouveaux comptes pour les récidivistes.
Nathalie Devillier ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
19.11.2024 à 17:01
Sophie Renault, Professeur des Universités en Sciences de Gestion et du Management, IAE Orléans
Les calendriers de l’avent sont un véritable terrain de jeu pour les marques. Des produits de beauté aux sextoys en passant par les friandises pour chiens ou chats : retour sur un phénomène marketing !
Du latin adventus qui signifie la venue, l’avent fait référence aux quatre dimanches menant jusqu’à la naissance de Jésus. Nés au XIXᵉ siècle, les calendriers de l’avent étaient un moyen d’ajouter un peu de magie à l’impatience des enfants. Leur création est attribuée à une tradition allemande, où les familles placent quatre bougies sur une couronne de sapin, allumant une bougie chaque dimanche de décembre jusqu’à Noël.
Ce rituel a donc progressivement évolué au profit de calendriers illustrés. C’est au début du XXe siècle que les premiers calendriers avec de petites portes ou fenêtres sont apparus. Pendant la Seconde Guerre mondiale, la pénurie de papier impose d’interrompre momentanément leur production. Les calendriers de l’avent sont à nouveau fabriqués à l’après-guerre notamment par les éditions Sellmer avec le fameux modèle « La petite ville » aujourd’hui encore commercialisé. Au fil du temps, des calendriers contenant des douceurs, généralement des chocolats, sont devenus un incontournable des fêtes de fin d’année.
Aujourd’hui, le calendrier de l’avent a évolué en une véritable opération marketing. Il s’agit de capter l’attention des consommateurs bien avant le jour de Noël et de transformer l’attente en un moment de plaisir quotidien. Bien loin de se limiter à la cible des enfants, les marques ont développé une multitude de calendriers destinés aux adultes… et le phénomène prend chaque année davantage d’ampleur. Décliné en thés, bijoux, bougies, semences, outils, sauces piquantes ou bien encore chaussettes de superhéros, le calendrier de l’avent n’est plus seulement une préparation spirituelle et/ou festive, il s’agit d’un produit de consommation s’inscrivant dans une dynamique expérientielle.
Le packaging joue ici un rôle essentiel : en soignant l’esthétique et le design de leur calendrier, les marques maximisent l’impact émotionnel du produit. La perspective de la découverte quotidienne d’un produit fait replonger les cibles dans leurs souvenirs d’enfance. Tandis que l’offre a évolué, le principe, quel que soit l’âge de la cible, reste en effet similaire : créer une attente, offrir une surprise, procurer du plaisir, et ce… quel que soit le budget. On peut ainsi trouver des calendriers à des prix très accessibles, mais aussi des modèles prestigieux comme celui proposé en 2024 par Dior. Baptisé « La malle des rêves », le calendrier est affiché au prix de 2 900 euros.
Du côté des adultes, le marché de l’avent s’avère être un terrain de jeu immensément plus vaste que pour la cible des enfants dominée par les sucreries et les jouets. Parmi les domaines ayant investi le marché, la beauté occupe une place de choix. La plupart des marques de cosmétiques (L’Oréal, Lancôme, Benefit…) dont les marques de distribution spécialisées (Sephora, Yves Rocher, Marionnaud…) ont le ou les leur(s).
Chaque fenêtre renferme une version miniature ou classique de soin, maquillage ou bien encore parfum, permettant aux consommateurs de tester des produits et de se laisser tenter par de futures acquisitions. Afin de mettre en perspective la stratégie de valorisation adoptée par les marques, prenons l’exemple du calendrier proposé en 2024 par L’Oréal. Tandis que ledit calendrier est proposé au prix psychologique de 89,99 euros, la marque met en perspective la valeur dite « réelle » de 256 euros. Le calcul de cette valeur s’appuie sur la somme des prix moyens des produits vendus à l’unité. Par contraste, le prix de 89,99 euros apparait comme une opportunité exceptionnelle générant alors la perception d’une économie significative.
À l’image de L’Oréal, la plupart des marques de cosmétiques adoptent cette stratégie leur permettant d’attirer et/ou de fidéliser une clientèle tout en augmentant leur notoriété. De nombreux consommateurs y voient ce faisant un hymne à la surconsommation. Cet avis en ligne à propos d’un calendrier de produits cosmétiques illustre notre propos : « Encore 4 cases à la poubelle ? Au bout de plusieurs années, je n’achète plus ce calendrier, car je n’utilise jamais les rouges à lèvres rouges ! » La diversité des produits proposés implique en effet un risque de gaspillage.
Si les produits de beauté sont désormais bien établis sur le marché de l’avent, ce sont aussi des produits moins conventionnels, si l’on garde à l’esprit le caractère spirituel originel, qui investissent le marché des calendriers de l’avent. Typiquement, le calendrier de l’avent Bières & découvertes propose aux amateurs la dégustation de nouvelles saveurs. Dans cette mouvance, de multiples autres offres alcoolisées font leur percée sur le marché.
Dans un autre registre, destiné à ceux qui cherchent un cadeau original pour pimenter leurs activités de couple en attendant Noël, Dorcel propose un calendrier avec la promesse suivante : “Chaque jour, le désir s’intensifie, dévoilant des surprises toujours plus audacieuses et captivantes. Case après case, le plaisir monte crescendo, menant à une expérience sensorielle ultime pour un Noël inoubliable”. Attendre Noël n’aura jamais été aussi enivrant ! Et pas question de laisser nos animaux de compagnie en reste : eux aussi peuvent maintenant participer à l’attente fébrile de Noël avec des calendriers dotés de friandises.
Le succès de ces offres repose sur leur aspect ludique, mais aussi sur la sensation de nouveauté et d’expérience offerte à chaque consommateur. Les calendriers de l’avent sont devenus un moyen pour les marques de se démarquer, de créer un lien particulier avec leur clientèle et de proposer une expérience. Le phénomène s’inscrit également dans une tendance plus large, celle des kidults ou adulescents, ces adultes qui conservent des goûts et des intérêts d’enfants, cherchant à retrouver la magie de leur jeunesse à travers des objets ludiques et des expériences nostalgiques.
Les calendriers de jouets, par exemple, ne sont plus seulement réservés aux enfants. Les amateurs de Lego ou de Playmobil adultes sont nombreux, et les marques ont su capter cette demande. Les calendriers Lego Harry Potter ou Star Wars sont ainsi devenus des incontournables pour les fans de ces univers, qu’ils soient petits ou grands. L’engouement des adultes pour ces calendriers s’inscrit dans une quête de nostalgie qui résonne fortement dans une époque marquée par le stress et les incertitudes.
Le marketing d’influence joue un rôle clé dans la mise en avant de ces calendriers. Les unboxing de calendriers de l’avent sont devenus une tradition sur TikTok ou Instagram, créant une véritable attente chez les consommateurs et stimulant ainsi les ventes de ces produits. L’influenceur Cyril Schreiner a par exemple mis en ligne en octobre 2024 deux vidéos successives pour montrer tout d’abord le calendrier de l’avent conçu par Netflix, puis certaines de ses 24 surprises issues de sept séries populaires dont Stranger Things et Bridgerton. La rareté de certaines éditions et l’engouement généré par ces vidéos, souvent diffusées dès la mise sur le marché des calendriers, participent à la création d’un sentiment d’urgence, poussant les consommateurs à acheter au plus vite. Il n’est ainsi pas rare que le contenu des calendriers soit dévoilé dès septembre.
Les influenceurs jouent également sur l’aspect authentique et spontané de ces ouvertures voire renouvellent le genre : c’est le cas de Léna Situations qui en 2020 pour Maybelline n’a pas ouvert les cases du calendrier, mais les a au contraire remplies dans une vidéo vue plus de 1,3 million fois sur YouTube. Voir une personnalité qu’on apprécie s’enthousiasmer devant une « surprise » crée un lien émotionnel fort et donne l’impression que chaque calendrier est une expérience à ne pas manquer. Certains influenceurs déploient en outre leur propre calendrier sous forme de jeux-concours. Il s’agit alors sur la période de l’avent de faire gagner des produits à leur communauté. Les marques profitent de ces mises en scène pour élargir leur audience, susciter des envies et renforcer leur image de marque.
In fine, les calendriers de l’avent s’inscrivent dans une stratégie marketing redoutablement efficace, permettant aux marques d’occuper le terrain avant Noël, de renforcer leur visibilité et de susciter un engouement continu. Qu’il s’agisse de (se) faire plaisir, de découvrir de nouveaux produits ou de participer à une tendance partagée sur les réseaux sociaux, les calendriers de l’avent se réinventent, devenant les incontournables de décembre. Derrière chaque petite porte, c’est bien plus qu’une simple surprise qui attend le consommateur : c’est une stratégie de fidélisation et de séduction qui se déploie. Le phénomène ne s’arrête pas à Noël ! Jouant sur la proximité phonétique entre avent et avant, ce sont également des calendriers de l’après qui sont désormais proposés.
Calendriers de l’avent ou de l’après… les marketers trouvent toujours une case de plus à ouvrir dans nos habitudes de consommation.
Sophie Renault ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
19.11.2024 à 17:01
Pauline Munten, Researcher and Teaching Assistant in Marketing, Université catholique de Louvain (UCLouvain)
Joëlle Vanhamme, Professeur de marketing, EDHEC Business School
Valerie Swaen, Professeure ordinaire, présidente du Louvain Research Institute in Management and Organizations (LouRIM), Université catholique de Louvain (UCLouvain)
Louer des vêtements plutôt que les acheter a tout de la bonne idée pour l’environnement. La réalité est plus complexe car ne pas acheter et avoir un comportement responsable ne sont pas synonymes. Loin de là.
Louer ses vêtements plutôt que les acheter serait meilleur pour la planète ? À l’heure où l’industrie textile est pointée du doigt pour son impact environnemental, des services de location de vêtements promettent aux consommateurs de renouveler constamment leur garde-robe tout en réduisant leur empreinte carbone. Mais cette solution est-elle vraiment aussi écoresponsable qu’elle en a l’air ?
C’est la question que pose notre récent travail de recherche. Nous avons choisi d’examiner les effets cachés des comportements des consommateurs qui utilisent ces services d’économie collaborative basés sur l’accès aux biens (access-based services, ou ABS), et non sur leur possession.
Nos études qualitative et quantitative mettent ainsi en lumière une réalité surprenante : la location de vêtements, loin de toujours réduire l’empreinte écologique, peut en réalité encourager une consommation accrue chez certains types de consommateurs ! En cause ? L’effet rebond, un phénomène qui se produit lorsque les gains environnementaux attendus sont réduits, annulés, voire inversés, par des comportements compensatoires des consommateurs.
Ces enjeux s’inscrivent dans un débat plus large sur les limites des solutions perçues comme écologiques et sur la manière dont consommateurs et entreprises peuvent réagir afin d’éviter les pièges d’une surconsommation qui ne dit pas son nom.
Les services basés sur l’accès reposent sur une idée simple : au lieu de posséder un bien, le consommateur en profite temporairement en échange du paiement d’une contribution monétaire. La possession n’est plus un impératif. Ce changement de paradigme a été rendu possible par la montée en puissance des plates-formes numériques dans les transports (Uber), l’hébergement de loisir (Airbnb), l’électroménager, et plus récemment, la mode.
La location de vêtements, autrefois réservée à des occasions spéciales comme les mariages ou les galas, est désormais accessible pour le quotidien. Des plates-formes comme Le Closet ou Coucou permettent aux consommateurs de louer des vêtements de marque pour quelques jours ou quelques semaines, avant de les retourner pour en louer de nouveaux.
Les consommateurs apprécient particulièrement la flexibilité et la variété qu’offrent ces services. Ils peuvent ainsi suivre les tendances de la mode sans s’engager à long terme, tout en participant à un modèle de consommation présenté comme plus responsable. La production textile est en effet l’une des industries les plus polluantes, en particulier depuis l’avènement de la fast fashion. En principe, s’abonner à un service de location de vêtements devrait avoir pour résultat non seulement de limiter la quantité de vêtements produits, mais aussi d’en prolonger la durée de vie en les proposant à plusieurs utilisateurs successifs.
En interrogeant 31 utilisateurs de plates-formes franco-belges de location de vêtements, nous avons identifié divers effets rebond qui « détricotent » l’idée selon laquelle il est nécessairement plus durable de louer ses vêtements plutôt que de les acheter.
Les effets rebond se produisent lorsque des gains d’efficacité ou des pratiques censées être durables, comme la location de vêtements, mènent paradoxalement à une augmentation de la consommation.
L’accès facilité, la variété et le faible coût des vêtements loués peuvent encourager une utilisation plus fréquente du service, voire des achats impulsifs de vêtements (certains achètent même les vêtements qu’ils ont loués !), ce qui peut annuler les bénéfices environnementaux attendus de la location par rapport à l’achat (effet rebond direct).
D’autre part, une personne qui économise de l’argent en louant des vêtements peut utiliser ces fonds pour acheter d’autres biens ou services dans d’autres catégories de produits (produits high-tech, voyages, équipements pour la maison, etc.), augmentant ainsi sa consommation totale et son empreinte écologique.
Il est crucial de comprendre que ces effets ne sont pas homogènes et varient selon les groupes de consommateurs et leurs motivations psychologiques. C’est ce que montre notre étude quantitative réalisée auprès de 499 utilisateurs.
Ainsi, l’étude révèle deux groupes, parmi les cinq identifiés lors de l’analyse, représentant environ un quart des utilisateurs de services de location de vêtements, qui sont particulièrement enclins à présenter des effets rebond négatifs.
Le groupe des « chercheurs de stimulation et de plaisir » (7 %) est caractérisé par une forte recherche de stimulation et des motivations hédonistes et est principalement composé d’hommes. Pour eux, la location de vêtements ne diminue pas leur consommation globale, mais au contraire, elle peut l’accroître en stimulant leur désir de nouveauté et de diversité.
Le groupe des « jeunes urbains apathiques » (18 %) présente des comportements paradoxaux : bien qu’ils ne soient pas particulièrement motivés par le plaisir ou la stimulation, et diminuent leur consommation de vêtements grâce à la location, ils augmentent leurs achats dans d’autres catégories de produits après avoir loué des vêtements. Ils sont également les moins frugaux, ce qui renforce leur propension à des comportements de rebond indirects. Ce sont plutôt des jeunes hommes urbains, souvent célibataires et hautement éduqués. Ces résultats soulignent la nécessité d’aborder la diversité des comportements de consommation au sein de l’économie du partage, et d’adapter les stratégies pour chaque groupe de consommateurs.
Bien que les services basés sur l’accès aient le potentiel de motiver des habitudes de consommation plus durables, ils peuvent aussi encourager des comportements qui annulent ces bénéfices, voire pire… Cette découverte remet donc en question l’idée selon laquelle la location de vêtement est toujours synonyme de durabilité.
Quelles pistes pour une mode plus responsable ? Alors que les services basés sur l’accès gagnent en popularité, il devient crucial de comprendre comment maximiser leur potentiel écologique tout en minimisant les effets rebond indésirables. Dans ce but, les entreprises comme les consommateurs doivent sans doute repenser leur approche.
Les implications pour les managers et les décideurs politiques sont claires : il ne suffit pas de promouvoir la location de vêtements comme une solution durable. Environ un quart des utilisateurs de services de location de vêtements étant susceptibles de présenter des comportements de rebond négatifs, il est essentiel d’identifier ces consommateurs et de leur fournir des informations et des incitations adaptées pour limiter ces effets.
Les stratégies de communication des entreprises de location doivent être différenciées en fonction des segments de consommateurs. Pour les personnes en quête de stimulation et de plaisir, des incitations de type hédonique non liées aux vêtements loués, telles que des concours, jeux, récompenses ou cadeaux peuvent être efficaces. Pour les consommateurs apathiques, des rappels sur les conséquences négatives de leurs comportements peuvent les amener à réfléchir davantage à leurs choix.
Les entreprises doivent veiller à ne pas seulement mettre en avant les aspects hédoniques intrinsèquement liés la location de vêtements, car cela peut involontairement renforcer les effets rebond négatifs. Au lieu de cela, elles pourraient mettre l’accent sur les avantages écologiques et encourager la co-création de valeur avec les consommateurs pour répondre à leurs besoins tout en réduisant l’impact environnemental.
Les services de location de vêtements pourraient ainsi encourager la location à long terme, plus responsable, de produits éco-conçus par des marques qui partagent les mêmes valeurs écologiques. Au lieu de promouvoir la rotation rapide des articles, ils pourraient inciter les utilisateurs à réduire la fréquence des échanges et limiter le nombre de pièces que l’on peut louer en même temps.
Les entreprises pourraient aussi sensibiliser les consommateurs à l’impact environnemental de leurs choix, en fournissant par exemple des données sur l’empreinte carbone des vêtements loués, ou bien sur le nombre de fois qu’un vêtement loué a déjà pu être porté en plus que s’il avait été acheté.
Les entreprises du secteur de la location de vêtements devraient collaborer pour partager des informations et développer une compréhension plus approfondie des impacts environnementaux de leurs pratiques. En travaillant ensemble, elles peuvent mieux cibler les segments de consommateurs et promouvoir des pratiques de consommation plus responsables.
[Déjà plus de 120 000 abonnements aux newsletters The Conversation. Et vous ? Abonnez-vous aujourd’hui pour mieux comprendre les grands enjeux du monde.]
De leur côté, les clients jouent aussi un rôle essentiel dans la transformation de la mode vers une consommation plus réfléchie. Pour ce faire, ils doivent repenser leur relation avec la mode et la consommation. Un premier pas serait d’adopter une approche minimaliste, en privilégiant les vêtements de qualité plutôt que la quantité.
Les consommateurs peuvent aussi opter pour des pièces « éthiques », fabriquées de manière responsable, qui allient style et durabilité. Et se poser la question avant de louer un vêtement : « En ai-je vraiment besoin ? », « Le porterai-je plusieurs fois ? » Cette réflexion peut aider à éviter les locations impulsives et donc à réduire l’impact environnemental.
Transformer les plates-formes de location de vêtements en de véritables leviers de durabilité implique donc une volonté partagée des consommateurs et des entreprises. Ce n’est qu’au prix d’efforts combinés que ces services basés sur l’accès pourront réaliser leur promesse initiale : réduire l’empreinte carbone de la mode tout en répondant aux aspirations des consommateurs.
Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.
19.11.2024 à 17:00
Madlen Sobkowiak, Associate Professor in Social and Environmental Accounting, EDHEC Business School
En matière de RSE et de préservation de la nature, l’accent est surtout mis sur la transparence des actions. D’où une multiplication des informations qui n’est peut-être pas le meilleur levier pour atteindre les objectifs annoncés. Bonne nouvelle : des moyens pertinents existent.
La transparence des entreprises pourrait-elle être l’une des solutions pour limiter le changement climatique ? Ou, à tout le moins, serait-elle un moyen de tenir les entreprises responsables de leur impact sur l’environnement ? 94 % des investisseurs eux-mêmes doutent de la validité des rapports sur le développement durable des entreprises, qui utilisent quantité d’affirmations non étayées selon le « Global Investor Survey 2023 » de PwC. Et leur scepticisme n’est pas infondé, selon l’étude que nous avons menée et récemment publiée.
En effet, si la transparence des entreprises est une première étape stratégique vers une économie plus durable, elle ne suffira pas à elle seule à obtenir des résultats positifs en matière d’impact des entreprises sur nos écosystèmes. Pour que le changement se produise réellement, trois conditions sont nécessaires : lier les actions des entreprises à leur impact sur l’environnement, prendre en compte les effets des opérations quotidiennes sur la nature et aligner les incitations financières et les objectifs écologiques.
Même si l’on observe une pression croissante en faveur des réglementations relatives à la prise en compte des écosystèmes naturels – en particulier sur les déclarations (disclosures) s’y rapportant – les entreprises commencent tout juste à fournir des informations sur leurs performances, leurs impacts et leurs risques en lien avec la nature. C’est l’essence même de la règlementation SFDR – Sustainable Finance Disclosure Regulation qui est entrée en vigueur en 2021 et de la directive CSRD – Corporate Sustainability Reporting Directive qui entre en vigueur en 2024 et vise à renforcer les obligations de transparence des entreprises sur les questions ESG au sein de l’Union européenne. Ces mesures sont caractéristiques d’un certain type d’approche, qui utilise la déclaration obligatoire d’informations comme moyen de réguler les comportements.
À lire aussi : Pourquoi la RSE ne suffit pas à rendre nos sociétés plus durables
Cela fonctionne-t-il ? Pas comme levier unique, car les entreprises ont encore du mal à comprendre pleinement leurs propres impacts ou les impacts de leur chaîne d’approvisionnement sur la nature. De plus, elles manquent souvent de connaissances et d’expertise pour naviguer dans le paysage complexe et en constante évolution des exigences nationales et internationales en matière de rapports sur le développement durable, et encore moins pour prendre des mesures significatives. Cela pourrait entraîner une dilution du concept de transparence et une augmentation de l’écoblanchiment.
Que vous soyez dirigeants en quête de stratégies ou salariés qui s’interrogent sur les choix de leur hiérarchie, recevez notre newsletter thématique « Entreprise(s) » : les clés de la recherche pour la vie professionnelle et les conseils de nos experts.
L’écoblanchiment consiste à faire des déclarations environnementales fausses ou trompeuses. Ceci peut fausser les informations pertinentes dont un investisseur (un consommateur) a besoin pour prendre des décisions et, en fin de compte, éroder sa confiance dans les produits et/ou les pratiques liés au développement durable.
Une étude commandée par l’Union européenne en 2023 a révélé que 53 % des allégations environnementales sur les produits et services sont vagues, trompeuses, voire infondées. 40 % ne s’appuient sur aucune preuve. Aux États-Unis, 68 % des dirigeants ont admis s’être rendus coupables d’écoblanchiment. La normalisation des rapports sur le développement durable dans l’UE est donc nécessaire et attendue depuis longtemps.
Cependant, au lieu de demander aux entreprises de réduire leur impact environnemental en soi, les politiques actuelles se concentrent sur les informations à fournir, ce qui est nécessaire mais loin d’être suffisant en soi. Mes coauteurs et moi-même avons identifié trois conditions pour que les informations publiées puissent potentiellement influencer positivement les effets des activités des entreprises sur la nature :
établir un lien entre les entreprises et les écosystèmes ;
traduire les aspirations en opération ;
améliorer la réactivité et les réponses du système financier.
Notre approche actuelle, qui utilise les exigences en matière de déclaration pour modifier le comportement des entreprises, pourrait être limitée, car la fourniture d’informations n’encourage pas en soi les entreprises à atteindre pleinement des impacts positifs sur la nature. Comment changer cela ? Comment les informations publiées peuvent-elles donner lieu à des résultats tangibles ? Trois pistes doivent être étudiées.
Le premier moyen intéressant à explorer consiste à relier les entreprises et les écosystèmes. Cela implique la mise en place d’une traçabilité radicale qui relie les actions des entreprises aux résultats obtenus dans des environnements particuliers. Cela permettrait de responsabiliser les entreprises, qu’elles publient ou non des données, et de les inciter à produire leurs propres données plutôt que de devoir répondre à des exigences créées par des tiers.
Cargill, fournisseur du secteur alimentaire, en est un exemple. Dans son rapport sur le soja en Amérique du Sud, l’entreprise trace le soja qu’elle produit et achète tout au long de sa chaîne d’approvisionnement, avec des sites situés dans des pays d’Amérique du Sud. Ces lieux sont géolocalisés et des données sur le degré de déforestation dans chaque parcelle sont obtenues à partir d’images satellites. Ainsi la traçabilité permet d’enrichir les déclarations de Cargill en lien avec les écosystèmes concernés par ses activités.
La deuxième approche consiste à traduire les aspirations en opération. Pour cela, les entreprises doivent veiller à développer des outils et des « habitudes » qui traduisent l’intention stratégique en comportement sur le terrain. En d’autres termes, il s’agit d’établir un lien entre la connaissance et l’action. Même si les entreprises sont bien informées de leur impact sur la nature, il peut s’avérer difficile de traduire les stratégies de réduction de l’impact et de restauration de la nature en objectifs opérationnels. À cet égard, il peut être utile de traduire les ambitions en mesures spécifiques qui, une fois intégrées dans les entreprises, créent des actions (visibles et récurrentes) axées sur le changement.
Par exemple, LafargeHolcim Espagne, un producteur de granulat et de ciment, a développé un système de suivi pour évaluer les processus de restauration en étudiant les actifs naturels. Il a également analysé les ressources disponibles à partir d’échantillons de terrain en cataloguant la flore, en identifiant la végétation, en déterminant la répartition des oiseaux et des insectes, en évaluant l’état de la biodiversité dans la carrière et en élaborant des stratégies et des plans d’action. Le suivi des activités a été effectué à l’aide d’un indice de biodiversité développé en collaboration avec le WWF et le système d’indicateurs et de rapports sur la biodiversité de l’UICN.
La dernière condition consiste à améliorer la réactivité des acteurs financiers, ainsi que leurs réponses. Cela nécessite de déterminer comment les acteurs du système financier peuvent favoriser les actions des entreprises. En d’autres termes, il s’agit d’aligner les incitations financières sur les objectifs environnementaux.
Pour cela, les propriétaires des entreprises et ceux qui les financent sont les acteurs les plus puissants. La stabilité financière repose sur le bon fonctionnement des écosystèmes (des études récentes ont montré que le changement climatique constitue une menace pour la stabilité du système financier). Les modalités de publication d’information pourraient donc être utilisées pour attirer l’attention des investisseurs sur les impacts sur la nature, à l’image d’autres reportings existants plus développés.
Un exemple de ce type de mécanisme est le SFDR de l’Union européenne, qui exige des banques, des assureurs et des gestionnaires d’actifs qu’ils fournissent des informations sur la manière dont ils traitent les risques liés au développement durable. Prenons le cas de la société ASN Bank, spécialisée dans les produits bancaires durables, qui a développé un outil d’empreinte de biodiversité pour les institutions financières afin d’estimer les impacts d’un portefeuille d’investissement et d’identifier les points chauds de ce portefeuille.
Plus les informations déclarées sur le développement durable par les entreprises seront solides, normalisées et transparentes, plus nous pourrons lutter contre l’écoblanchiment qui sape la crédibilité des efforts. Mais si les déclarations sont essentielles, il est temps de prendre en compte leurs limites. Cela implique, pour les entreprises, d’adopter des approches de gouvernance qui façonnent l’action, et de cesser de s’appuyer uniquement sur les rapports existants.
Madlen Sobkowiak ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
19.11.2024 à 16:59
Olivier Simonin, Maître de conférences en linguistique anglaise , Université de Perpignan Via Domitia
Les fictions qui évoquent le Moyen Âge ont tendance à perpétuer des clichés sur la barbarie d’une époque sombre et rustre. Pourtant, Sire Gauvain et le Chevalier Vert, roman anonyme de la fin du XIVe siècle qui se déroule à la cour du Roi Arthur, nous démontre tout l’inverse.
Si le Moyen Âge passionne, il est souvent représenté comme une période obscure, marquée par la sauvagerie. En témoignent divers clichés, portant entre autres sur un recours barbare à la torture, dont une réplique culte de Pulp Fiction de Tarantino se fait plaisamment l’écho : « Je vais me la jouer médiéval sur ton gros cul » (I’m gonna go medieval on your ass).
Il en est de même pour l’esthétique sombre de séries médiévales-fantastiques comme Game of Thrones et de films tels que The Green Knight de David Lowery, inspiré du joyau de la littérature médiévale anglaise qu’est Sire Gauvain et le Chevalier Vert (Sir Gawain and the Green Knight en anglais), qui a tant inspiré Tolkien : le philologue qu’il était lui consacra une édition scientifique, qu’il co-signa avec E. V. Gordon, ainsi qu’une traduction qui reproduit le mètre d’origine.
Œuvre anonyme, Sire Gauvain et le Chevalier Vert est un des romans de chevalerie les plus aboutis du corpus occidental, qui laisse entrevoir un univers aux couleurs vives, d’un grand raffinement, conforme au goût aristocratique de la fin du XIVe siècle.
L’histoire s’ouvre sur des divertissements de cour à Camelot, où fait irruption un mystérieux chevalier paré de vert, qui vient lancer un défi au roi Arthur : que quelqu’un s’essaie à le décapiter avec la hache qu’il tient et, si lui-même survit à cette tentative, qu’il lui soit donné de rendre pareil coup un an plus tard. Gauvain tranchera la tête du Chevalier Vert, qui se relèvera pour la saisir de ses mains par quelque enchantement et engagera l’illustre chevalier à le retrouver dans un an.
Le Chevalier Vert est un être éminemment paradoxal, qui relève du merveilleux. Le poète et les témoins de l’épisode s’interrogent sur sa nature, son origine : est-ce un homme, un demi-géant, ou bien provient-il du monde des fées ? Le vert qu’il arbore sur ses habits et son équipement, jusqu’à sa barbe et ses cheveux, est éclatant et lumineux. Comme l’a si bien montré Umberto Eco (Art et beauté dans l’esthétique médiévale), l’homme médiéval est fasciné par les couleurs, et le vert intense, saturé, qui caractérise le chevalier ne pouvait que susciter l’étonnement en tant que signe extérieur de grande richesse (voire de magie), aux antipodes du vert sale, triste, délavé, que l’on peut voir dans des adaptations filmiques.
[Déjà plus de 120 000 abonnements aux newsletters The Conversation. Et vous ? Abonnez-vous aujourd’hui pour mieux comprendre les grands enjeux du monde.]
Michel Pastoureau (Vert. Histoire d’une couleur) a très justement insisté sur la difficulté d’obtenir des teintes vertes stables et vives, qui demeuraient l’apanage des puissants à cette époque, tout en soulignant l’ambivalence sémiotique de la couleur, qui combine des aspects positifs (le vert gai, associé à la jeunesse, au printemps…) et négatifs (le vert « perdu », qui connote la traîtrise, l’infidélité…). Or il se trouve que Chevalier Vert brouille les pistes en portant un vert éclatant, qui pourrait signifier beaucoup des choses que véhiculent habituellement le mauvais vert.
Gauvain, quant à lui, apparaît non moins resplendissant dans une armure rutilante, avec un blason nouvellement apposé sur sa cotte et son bouclier au moment de son départ : un pentacle d’or sur fond rouge vif. Ce symbole représente un idéal de perfection morale longuement développé dans le poème (2 strophes sur 101), que tous s’accordent à voir en Gauvain à ce stade de sa carrière, et qu’il affiche aux yeux du monde.
Champion de la courtoisie, soucieux du respect des usages et des engagements pris, tenant toujours des propos prévenants et délicats, il incarne l’opposé du Chevalier Vert, aux manières globalement frustes. Toutefois, même le meilleur des chevaliers d’Arthur qu’est (dans ce roman) Gauvain ne peut prétendre être exempt de toute faute ou souillure. C’est d’ailleurs ce que s’emploie à montrer le poète à travers cette aventure, que l’on pourrait considérer comme une démonstration sans appel qui consiste en une illustration par un cas extrême. Le simple fait de vouloir atteindre une authentique perfection trahit un grand orgueil, péché jugé mortel, et le roman de chevalerie plaide de fait pour une humilité lucide.
Dans le contexte religieux de l’époque, la perfection morale étant d’essence divine, on ne pouvait pas mériter le salut sans l’aide de Dieu, par le biais de sa grâce. On apprend en outre, plus tard, que l’envoi du Chevalier Vert à la cour d’Arthur avait notamment pour but de lui faire perdre de sa superbe, d’émousser son hubris, ses prétentions démesurées. Ainsi, le roman courtois (autre nom donné au roman de chevalerie, mais qui insiste moins sur ses aspects guerriers) flirte ici avec le genre tragique, par la hauteur de son propos et surtout par sa trame.
L’œuvre ne manque cependant pas d’ironie, et même d’effronterie, que le poète Simon Armitage – auteur d’une traduction récente en anglais moderne – estime typiquement nordique : le poème est écrit dans un dialecte du nord-ouest des Midlands, où se déroule d’ailleurs l’essentiel de l’action.
L’humour dont fait preuve le Chevalier Vert et, plus tard, le seigneur du château où réside Gauvain, est volontiers sarcastique. Tout cela va de pair avec l’aspect carnavalesque particulièrement marqué lors de l’irruption du Chevalier : il paraît devant la Cour le jour de l’ancienne fête des fous (le jour de l’an), dans un accoutrement qui pourrait rappeler un bouffon (le vert est aussi la couleur de la folie) ou un homme sauvage en lequel des mimes pouvaient se déguiser pour divertir les puissants.
Un des grands thèmes de l’œuvre est le jeu, le loisir, et la façon dont il convient de s’y adonner. Par exemple, on peut se demander s’il est légitime pour un chevalier de se présenter devant une cour et de requérir, par jeu, un échange de coups visant la décollation, la décapitation, tout en sachant pertinemment que cela n’aura pas de conséquences pour lui (comme il se trouve protégé par magie). Le grandiose et la légèreté se côtoient dans un véritable élan pré-shakespearien.
Le poète de Gauvain déploie non seulement son génie en sublimant le genre du roman courtois, mais il innove également en employant à la fois des vers allitérés, qui reposent sur un principe de répétition de consonnes sur des syllabes accentuées, et des vers rimés, qui viennent clore par groupes de cinq chaque strophe, donnant par là même une structure singulière au poème, dont il est le seul modèle parvenu jusqu’à nous. Pour reprendre les termes d’Ad Putter et Myra Stokes, dans The Works of the Gawain Poet :
« De même, les vers allitérés qui constituent l’essentiel du roman présentent des variations par rapport aux schémas attendus, détournés avec bonheur. »
Qui plus est, ce maître de l’art poétique de la fin du XIVe siècle se livre à la production de ce que l’on appelle aujourd’hui de la métafiction : alors qu’il décrit un Gauvain dans sa prime jeunesse, il convoque par l’intermédiaire d’une avenante châtelaine la littérature chevaleresque dont Gauvain est le protagoniste, et qui est souvent peu flatteuse à son égard, faisant de lui un galant plutôt libertin : elle cherche à le convaincre de lui apprendre les délices de l’amour courtois, dont elle a une vision bien prosaïque, sensuelle. Le poète oppose ainsi le véritable raffinement de la courtoisie, des bonnes manières et de l’art d’aimer, à ce qui pourrait être son prolongement voire son travestissement littéraire, son interprétation purement physique. Il se rapproche également de la modernité par un geste final d’ouverture, laissant de toute apparence le lecteur (ou auditeur) décider par lui-même si la quête de Gauvain est un succès ou un échec, pour lui et pour la cour d’Arthur.
Sire Gauvain et le Chevalier Vert est peut-être la meilleure illustration de l’inanité d’une perception plus ou moins fantasmée d’un Moyen Âge terne et morne au propre et au figuré, tout à la fois lugubre, rustre, et résolument rétrograde d’un point de vue littéraire.
Ma traduction bilingue de l'oeuvre médiévale est parue au Livre de Poche, auquel je suis de fait lié.
19.11.2024 à 16:59
Colineaux H, Post-doctorant en epidemiologie sociale, Medecin de sante publique, Methodologiste, Université de Toulouse III - Paul Sabatier, Inserm
Prendre davantage en compte les mécanismes sociaux et, en particulier le genre, dans la recherche biomédicale permettrait d’éviter des biais méthodologiques et interprétatifs et ainsi de mieux appréhender les enjeux actuels de santé, explique Colineaux H (Université de Toulouse III – Paul Sabatier, Inserm) dans Déconstruire les différences de sexe/Le sexe biologique et le genre à l’épreuve de la méthode scientifique aux éditions Double ponctuation.
Même si le champ du « genre en biologie/santé » a rapidement évolué ces dernières années, il me semble que les questions liées au genre et les questions liées à la biologie sont encore très cloisonnées disciplinairement. À quelques exceptions près, les sciences humaines et sociales se sont saisies du « genre » sans tellement s’approcher des questions de la dimorphie sexuelle (qui désigne le fait que les mâles et femelles d’une espèce sexuée se distinguent, en moyenne, morphologiquement et physiologiquement), de la physiologie reproductive, etc.
Et la recherche biomédicale pour sa part n’articule que très rarement ses objets avec les phénomènes sociaux, tels que le genre. Ce travail prend justement son point de départ dans les pratiques de la recherche biomédicale, et dans les biais méthodologiques et interprétatifs que peuvent produire la non-prise en compte des facteurs et mécanismes sociaux. C’est donc de ce point de vue que je l’aborde.
Dans la littérature biomédicale, on peut constater que les différences biologiques observées entre les catégories de sexe ont été fréquemment expliquées par des mécanismes eux-mêmes biologiques, sans réelle base scientifique.
Par exemple, si la distribution du taux d’une protéine sanguine X montre un taux en moyenne plus élevé chez les femmes par rapport aux hommes, cette différence est souvent expliquée en premier lieu par des mécanismes liés à la dimorphie sexuelle.
On fait, par exemple, l’hypothèse d’une différence de calibre et d’élasticité des vaisseaux sanguins pour expliquer les différences de tension artérielle, on décrit l’interaction des œstrogènes ou de la testostérone avec le système physiologique de tel ou tel biomarqueur sanguin pour expliquer les différences de taux, etc.
Ces facteurs, bien sûr, peuvent être impliqués et nécessitent d’être explorés, mais des mécanismes sociaux peuvent aussi être en jeu pour expliquer ces différences, et ceux-ci ont été souvent négligés. Ils sont mobilisés plus souvent lorsque l’objet d’étude est de près ou de loin « social » (tel que le tabagisme, l’accès aux soins, voire l’obésité, etc.), mais plus rarement lorsqu’il est biologique (typiquement tous les biomarqueurs allant de la fréquence cardiaque au taux de cortisol).
Ce raccourci est parfois explicite. Par exemple, dans un cours en ligne portant sur « Le sexe et le genre dans l’analyse des données » (consulté en mars 2022 sur le Canadian Institutes of Health Research, NDLR), l’hémoglobine, la fonction rénale, la taille, la masse maigre sont catégorisées comme des « variables liées au sexe », définies comme « des paramètres biologiques ou physiologiques qui diffèrent systématiquement entre les hommes et les femmes en raison de facteurs génétiques ou hormonaux ». Les facteurs génétiques ou hormonaux sont en effet probablement en jeu, et peut-être même pour une large part, mais expliquent-ils vraiment toute cette variabilité ?
Ce raccourci est aussi parfois, et même plus souvent, implicite, par exemple lorsque des seuils biologiques spécifiques par catégorie de sexe sont fixés pour prendre en compte un dimorphisme sexuel présumé. L’utilisation de seuils biologiques sexe-spécifiques pour établir un « score allostatique » en épidémiologie est d’ailleurs le point de départ de cette thèse. En épidémiologie sociale, nous utilisons en effet une mesure de la « charge allostatique », qui représente l’usure biologique du corps liée à l’ensemble des stress que nous traversons au cours de nos vies.
Cette mesure est calculée à partir de plusieurs biomarqueurs (un biomarqueur est une caractéristique biologique mesurable, par exemple la tension artérielle, le taux de cholestérol, etc.), tels que la tension artérielle, le taux de cholestérol, la CRP (il s’agit d’une protéine présente dans le sang et utilisée pour mesurer le niveau d’inflammation), etc.
Chez un individu donné, si un biomarqueur a une valeur « élevée », on le dit « à risque » et plus cet individu a de biomarqueurs « à risque », plus sa charge allostatique, c’est-à-dire son usure physiologique, sera considérée comme forte.
Mais qu’est-ce qu’une « valeur élevée » ? À partir de quel seuil la considère-t-on « à risque » ? Ce seuil est-il le même selon l’âge ? Selon la catégorie de sexe ? Nous avons observé dans la littérature que beaucoup ne prenaient pas les mêmes seuils selon le sexe.
Souvent, en effet, un biomarqueur est considéré comme « à risque » si sa valeur fait partie des 20 % ou 25 % des valeurs les plus hautes, non pas de toute la population, mais de sa catégorie de sexe. Ce choix n’est pas anodin et a des conséquences sur les analyses.
Par exemple, on prend un biomarqueur fictif X dont l’ensemble des valeurs possibles dans la population totale et par catégorie de sexe sont représentées sur la figure ci-dessous par une barre horizontale, et les seuils séparant les 25 % des valeurs les plus élevées par un trait vertical.
Si un individu catégorisé « homme » a un biomarqueur X avec une valeur de 70, cette valeur sera considérée comme « à risque » si le seuil est fixé dans toute la population (seuil du biomarqueur X égal à 65) mais pas s’il est fixé dans chaque catégorie de sexe (seuil du biomarqueur à 80 chez les hommes).
De même, si un individu catégorisé « femme » a un biomarqueur X avec une valeur de 60, cette valeur sera considérée comme « à risque » si le seuil est fixé par catégorie de sexe (seuil du biomarqueur X à 50 chez les femmes) mais pas s’il est fixé dans toute la population (seuil du biomarqueur à 65).
Pourquoi faire le choix de seuils différents selon la catégorie de sexe ? La justification, souvent non explicitée, repose sur l’observation de distributions statistiquement différentes en fonction de la catégorie de sexe, comme représentées sur la figure.
En effet si, dans cet exemple, les personnes catégorisées « femmes » n’atteignent jamais ou très rarement la valeur 80, alors que 25 % de la population catégorisée « hommes » la dépasse, il semble logique d’envisager qu’une même valeur n’a pas la même signification d’une catégorie à l’autre et ne doit donc pas être considérée de la même façon. Il y a plusieurs façons de prendre en compte cela avec des méthodes statistiques, dont la possibilité de fixer des seuils différents en fonction des catégories, comme décrit précédemment.
L’inconvénient de cette méthode est qu’elle neutralise les causes de ces différences. On ne peut plus mesurer ni observer leurs effets, elles sont comme effacées. Si cet inconvénient est accepté, c’est que l’hypothèse implicite est faite que ces différences de distribution ne s’expliquent que par le dimorphisme sexuel. Dans ce cas donc, fixer des seuils différents réalignerait en quelque sorte les hommes et les femmes, en « effaçant » ce dimorphisme, les rendant sur les autres plans comparables ou analysables ensemble.
Mais ces différences de distribution sont-elles réellement et uniquement liées au dimorphisme sexuel ? Des facteurs sociaux peuvent aussi, en théorie et jusqu’à preuve du contraire, expliquer une partie des différences de distribution des biomarqueurs entre les deux catégories de sexe.
En utilisant des scores sexe-spécifiques, on ne fait donc pas qu’effacer l’effet du dimorphisme sexuel, mais aussi de toutes ces autres causes. Or, si on utilise ces mesures pour étudier l’effet de facteurs tels que le niveau d’éducation, la classe sociale, les revenus, etc. sur la charge allostatique (ce qui est souvent le cas), cette approche sexe-spécifique peut potentiellement biaiser les résultats des analyses en sur ou sous-estimant l’impact des facteurs étudiés dans l’une ou l’autre des catégories de sexe.
Il nous semblait donc important d’explorer les causes, ou mécanismes, de ces différences biologiques. Sont-elles effectivement uniquement physiologiques, liées au dimorphisme sexuel, ou s’expliquent-elles, au moins en partie, par des mécanismes sociaux, liés au genre ? C’est cette question de départ qui a guidé mon travail de thèse.
Colineaux H est associé au groupe de recherche Gendhi et membre de la Society for Longitudinal and Lifecourse Studies (Interdisciplinary Health Research Group). Colineaux H a bénéficié de prises en charge de déplacements professionnels dans le cadre de son travail de thèse par le projet Gendhi (financement ERC) et de rémunérations au cours de ses dernières années de thèse par le projet GINCO (financement ANR).
19.11.2024 à 16:58
Laurent Gautier, Professeur des Universités en linguistique allemande et appliquée, Université de Bourgogne
En novembre 1989, la chute du mur de Berlin a mis fin en l’espace de quelques heures seulement à près de quarante années de séparation entre les parties est et ouest de la ville, aboutissant à la réunification des deux Allemagnes. Les divisions entre ces deux sociétés étaient multiples, mais certaines demeurent encore peu connues, notamment sur le plan linguistique.
Il y a 35 ans, la chute du mur de Berlin, érigé en 1961, marque la réunion d’une ville divisée – Berlin-Ouest, sorte d’île à l’intérieur du territoire est-allemand d’un côté, Berlin-Est de l’autre – et d’un État divisé, partagé depuis la fin de la Seconde Guerre mondiale entre la République fédérale d’Allemagne (RFA) et la République démocratique allemande (RDA).
Les analyses ne manquent pas sur les processus ayant conduit à la disparition du mur et à la naissance, un an plus tard, d’un État allemand unifié. Les dimensions entre autres politiques, institutionnelles, économiques ou culturelles ont ainsi été étudiées, avec une attention particulière portée à la ville de Berlin. Toutefois, un aspect concernant cette séparation de quarante années reste moins connu, surtout en dehors des territoires allemands : l’évolution qu’a subie au cours de ces quatre décennies et demie la langue allemande en RDA.
La langue évolue au fil du temps : c’est une évidence. Mais, souvent, cette variation est abordée sur le temps long à l’échelle d’un ou de plusieurs siècles ; ou bien sur un temps extrêmement court avec l’apparition de néologismes sous la pression du besoin que nous avons de nommer de nouveaux concepts (découvertes scientifiques, inventions, etc.). Dans ce contexte, les quarante années de division de l’Allemagne représentent un laboratoire intéressant.
À un premier niveau, les divergences de fond entre les systèmes des deux États ont entraîné de grandes divergences lexicales, illustrant la manière dont un lexique peut donner à lire l’évolution d’une société. Deux séries de mots nouveaux sont ainsi apparues en RDA.
D’une part, des mots qui dénommaient des réalités est-allemandes n’existant pas sous une forme identique en RFA. Par exemple, le Dispatcher emprunté au russe, qui désigne un employé chargé de contrôler le processus de production et la bonne réalisation des objectifs imposés par la planification économique du régime.
D’autre part, des mots désignant des réalités partagées mais pour lesquelles des dénominations particulières permettaient de marquer la spécificité est-allemande et, ainsi, de mieux se « démarquer » de l’Allemagne de l’Ouest – octroyant de fait une marque idéologique au concept nommé.
C’est le cas de la formule Antifaschistischer Schutzwall employée pour désigner le mur de Berlin – une dénomination qui cherche à opérer une redéfinition politique au service de l’idéologie en place. Elle ne fait pas du mur un élément de division, mais lui attribue un rôle protecteur pour les citoyens de RDA face à une Europe occidentale ennemie qualifiée de fasciste. Il s’agit là d’un leitmotiv dans le discours officiel de RDA, bien analysé dans les travaux de recherche allemands, en particulier ceux de la linguiste Heidrun Kämper.
Berlin est aussi l’objet d’une intéressante paraphrase désignant la partie Est de la ville : Berlin Hauptstadt der DDR (littéralement : « Berlin, capitale de la RDA »). La non-utilisation du mot Est permet de faire passer la partition de la ville au second plan.
L’autre forme par laquelle le lexique reflète les évolutions divergentes des deux sociétés allemandes relève des « néologismes de sens », c’est-à-dire de l’apparition de nouveaux sens donnés à des mots existants.
Le terme Brigade désignait en allemand (et désigne d’ailleurs toujours) une « brigade » dans les deux sens principaux du terme existant aussi en français, pour l’armée et en cuisine. En RDA, un sens supplémentaire, emprunté au russe, lui a été attribué : celui de la plus petite unité d’ouvriers dans une entreprise de production.
À lire aussi : Et si on réunifiait enfin l’Allemagne…
Le lexique n’est toutefois pas le seul niveau linguistique touché par ces changements. La syntaxe – le mode de construction des phrases – l’est également, par exemple à travers l’utilisation accrue de formes passives qui permettaient d’exprimer les contenus, en particulier dans le domaine politique, de façon dépersonnalisée et sans jamais citer les agents des actions. Donnant le sentiment que ces décisions s’imposaient d’elles-mêmes à la population sans que personne ne soit désigné pour en avoir été à l’origine.
Les formules de routine, rythmant les interactions quotidiennes, se sont aussi « teintées de RDA ». À l’instar de Freundschaft (« amitié ») qui était la formule de salutation lors des rencontres de l’organisation de jeunesse Freie Deutsche Jugend (« jeunesse libre allemande »), ou mit sozialistischen Grüssen (« avec des salutations socialistes »), expression utilisée comme formule de clôture dans les lettres.
Les textes et les discours n’étaient pas en reste, avec deux types de textes emblématiques : les « blagues de RDA » (DDR-Witze), mettant généralement en scène le régime, le parti unique ou les conditions de vie ; et les lettres de réclamation, dites Eingaben, un type de texte inventé par le régime et à la structure très figée.
Le film Good Bye Lenin ! en présente un exemple parfait. Le personnage de Christiane Kerner – la mère du protagoniste – aidait, du temps de la RDA, des personnes dans l’écriture de leurs Eingaben. Sur un mode ironique, le film met ainsi en évidence la façon dont cette variété d’allemand était sclérosée, reposant sur des fossilisations de formules « prêtes à l’emploi » et le plus souvent vides de sens.
À lire aussi : L’Allemagne de l’Est est-elle la grande perdante de l’unification ?
Avant ce film devenu culte, des écrivains de RDA s’employaient déjà à montrer le ridicule de cette langue largement artificielle (incarnée en particulier par le quotidien Neues Deutschland). Ils dé-construisaient ces formules pour en faire tomber les masques linguistiques.
L’état des lieux de l’allemand en RDA, décrit plus haut, doit être contextualisé d’abord sur le plan linguistique. Les années 1960-1970 sont marquées dans l’espace germanophone par un large débat sur la question des variétés de la langue. La question était de savoir si l’allemand n’existait que sous une seule forme, celle de l’Allemagne – le plus souvent réduite de manière implicite à la RFA –, et si les variétés autrichienne ou suisse devaient être considérées comme des « déviances » par rapport à cette unique norme de référence ; ou s’il fallait considérer l’allemand, à l’instar notamment de l’anglais, comme une langue dotée de différents centres légitimes (ici, l’Allemagne, l’Autriche et la Suisse) caractérisés par des variétés propres historiquement constituées et sources d’identification pour les locuteurs locaux.
Or dans le cadre de cette discussion sur la langue, la RDA voit une carte à jouer sur le plan politique. En 1969-1970, une rupture survient dans le discours officiel est-allemand : les officiels postulent l’existence d’une « langue » différente de celle pratiquée en RFA, appuyant la revendication d’une nation est-allemande. Cela s’est traduit concrètement et au premier chef dans le travail lexicographique de « fabrication » des dictionnaires. Depuis 1952, un groupe de travail à l’Académie des Sciences de Berlin (Est) élabore un dictionnaire de référence produit en RDA, le Wörterbuch der deutschen Gegenwartssprache (dictionnaire de la langue allemande contemporaine), aujourd’hui accessible en ligne.
Après la parution des trois premiers tomes, le travail de cette commission connaît une inflexion afin de mettre en œuvre le programme de politique linguistique du régime. Stigmatisation systématique des mots propres à la RFA et plus généralement à l’Europe occidentale tels que Faschismus (fascisme) ou bürgerlich (bourgeois), révision des définitions et des exemples pour les rendre conformes à l’idéologie du régime, attention accrue portée aux mots et aux expressions propres à la RDA. Cette inflexion a non seulement concerné les tomes encore en cours d’élaboration (4 à 6) mais a aussi débouché sur une refonte des trois premiers pour les rendre plus « conformes ».
Toutefois, peu de sources permettent de mesurer aujourd’hui le véritable degré de pénétration de cette politique linguistique dans la pratique réelle des locuteurs est-allemands. Les sources les plus accessibles relèvent toutes du discours officiel, public ou médiatique, qui appliquait scrupuleusement les préconisations du régime. Afin de contourner ce biais, il faut donc aussi consulter les égo-documents (correspondances privées, journaux intimes, biographies linguistiques) qui permettent d’accéder à une part d’intime – dimension essentielle pour étudier les usages d’une langue.
Aujourd’hui, l’emploi de termes propres à l’ancienne RDA n’est jamais dû au hasard. Ils peuvent avoir une valeur documentaire car relevant de réalités désormais historiques, ou être utilisés de façon ironique pour marquer une forme de distanciation. L’attention de la recherche sur la langue allemande – comme pour d’autres idiomes – porte davantage sur les évolutions récentes : néologismes, par exemple liés à la pandémie ou aux questions climatiques, évolution des modes d’écriture liés aux dispositifs sociotechniques, places des emojis, etc.
Laurent Gautier ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
19.11.2024 à 16:57
Cathy Grosjean, Enseignante-chercheuse sur la transition écologique, UCLy (Lyon Catholic University)
Comment s’inspirer des principes du vivant tout en respectant la biosphère ? Le biomimétisme nous invite à replacer l’homme comme une espèce vivante parmi les autres espèces vivantes. Explications.
Quel point commun entre les vitrages auto-nettoyants, les verres fabriquées par chimie douce et le traitement des eaux usées ECOSTP ? Tous relèvent du biomimétisme, une démarche visant à résoudre des problèmes et concevoir des solutions en s’inspirant des principes du vivant tout en respectant la biosphère et les limites planétaires.
Ainsi, les vitrages auto-nettoyants reproduisent l’effet superhydrophobe observé à la surface des feuilles de Lotus : une surface microtexturée et très hydrophobe qui ne retient ni la saleté ni l’eau. La chimie douce fabrique du verre à température ambiante en s’inspirant des processus biologiques identifiés chez les Diatomées, des microalgues qui fabriquent des « carapaces » transparentes en verre de silice. Quant au procédé ECOSTP, il s’inspire du fonctionnement de l’estomac à plusieurs chambres des vaches pour purifier l’eau sans alimentation électrique.
Les solutions identifiées par cette démarche sont ainsi par essence même économes en matière et en énergie, robustes et résilientes, elles s’insèrent dans leur milieu sans le dégrader et elles ne génèrent pas de déchets non réutilisables, au même titre que les processus développés par l’ensemble des êtres vivants au long des 3,8 milliards d’années d’évolution de la vie sur Terre.
Cette démarche de biomimétisme a toujours existé spontanément dans les populations humaines mais elle s’est structurée et théorisée récemment. Le terme lui-même de biomimétisme a été proposé pour la première fois en 1969 par le biophysicien américain Otto Herbert Schmitt dans le titre de son article Some interesting and useful biomimetic transforms.
Une étape majeure dans la structuration du concept a été la publication en 1997 du livre de l’Américaine diplômée en gestion des ressources naturelles Janine Benuys Biomimétisme : quand la nature inspire des innovations durables (Biomimicry : Innovation Inspired by Nature). L’auteure a regroupé et structuré de nombreuses approches hétérogènes comme la permaculture, la symbiose industrielle, l’écoconception… et a proposé de quitter la vision très technique de la bionique (démarche qui crée des systèmes technologiques inspirés du vivant) pour construire la vision systémique du biomimétisme, qui prend en compte les conditions d’équilibre et les interactions entre les différents éléments du système vivant étudié.
Qu’est-ce que le biomimétisme ?
Comment s’inspirer des principes du vivant tout en respectant la biosphère ? Le biomimétisme nous invite à replacer l’homme comme une espèce vivante parmi les autres espèces vivantes. Explications.
Sous l’impulsion de ce livre, des think tanks et des cabinets de conseil se sont ensuite créés, tels que Biomimicry 3.8 et le Biomimicry Institute aux États-Unis, ou le CEEBIOS (Centre d’excellence en biomimétisme de Senlis) en France.
Ainsi le biomimétisme s’est développé et installé dans le paysage mondial ces vingt-cinq dernières années : la mise en œuvre technologique du concept s’est accompagnée d’une définition par une norme ISO, les politiques s’en sont également emparés et les chercheurs ont commencé à livrer des analyses critiques, notamment sous l’angle de la philosophie et de l’éthique.
Le biomimétisme doit désormais faire ses preuves. Se contenter de reproduire des concepts techniques ne suffira pas, seule l’intégration d’une dimension systémique peut répondre aux enjeux environnementaux de manière réellement soutenable. Quelques réalisations indiquent que c’est possible, comme celles relevant de l’écologie industrielle et territoriale ou encore les démarches de type permaentreprise.
Cette dimension systémique est rendue visible par le terme d’écomimétisme parfois utilisé à la place de biomimétisme : il enjoint de nous inspirer non pas seulement des fonctions biologiques mais des propriétés des écosystèmes, donc de prendre en compte les interrelations entre les espèces et les populations, la circularité des flux de matière et d’énergie, la frugalité dans l’utilisation des ressources… : des propriétés des écosystèmes garantes du respect de la biosphère et des limites planétaires.
Le biomimétisme et l’écomimétisme doivent également faire leurs preuves dans leur capacité à intégrer une réflexion éthique : imiter la nature pour des applications purement techniques n’est qu’une instrumentalisation de plus de la nature.
De nombreux auteurs invitent au contraire à un changement de paradigme philosophique : replacer l’homme comme une espèce vivante parmi les autres espèces vivantes. Car c’est la position dominante de l’homme vis-à-vis de la nature qui a abouti à notre économie extractiviste, linéaire et mondialisée, destructrice de nos milieux de vie et des conditions d’habitabilité de la Terre.
Cathy Grosjean ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
19.11.2024 à 16:55
Kelly R. MacGregor, Professor of Geology, Macalester College
Depuis que les Grecs de l’Antiquité ont fait des observations de la Lune et du ciel, les scientifiques savent que la Terre est une sphère. Nous avons tous vu de magnifiques images de la Terre depuis l’espace, certaines photographiées par des astronautes et d’autres collectées par des satellites en orbite. Alors pourquoi notre planète ne semble-t-elle pas ronde lorsque nous nous trouvons dans un parc ou que nous regardons par la fenêtre ?
La réponse est une question de perspective. Les êtres humains sont de minuscules créatures vivant sur une très grande sphère.
Imaginez que vous êtes un acrobate de cirque debout sur une boule d’environ 1 mètre de large. Du haut de la boule, vous la voyez s’éloigner de vos pieds dans toutes les directions.
Imaginez maintenant une petite mouche sur cette boule de cirque. Son point de vue se situerait probablement à un millimètre ou moins au-dessus de la surface. Comme la mouche est beaucoup plus petite que la balle et que son point de vue est proche de la surface, elle ne peut pas voir toute la balle.
Chaque semaine, nos scientifiques répondent à vos questions.
N’hésitez pas à nous écrire pour poser la vôtre et nous trouverons la meilleure personne pour vous répondre.
Et bien sûr, les questions bêtes, ça n’existe pas !
La Terre mesure environ 12,8 millions de mètres de large, et même le regard d’un adulte de grande taille ne culmine qu’à environ 2 mètres au-dessus de sa surface. Il est impossible pour nos yeux de saisir la taille de la Terre sphérique lorsque nous nous trouvons dessus. Vous ne pourriez pas visualiser que la Terre est une sphère même en montant au sommet du mont Everest, qui se trouve à 8 850 mètres au-dessus du niveau de la mer.
La seule façon de voir la courbe de la Terre est de s’envoler à plus de 10 kilomètres au-dessus de sa surface. En effet, la longueur de l’horizon que nous voyons dépend de la hauteur à laquelle nous nous trouvons au-dessus de la surface de la Terre.
Debout sur le sol, sans rien qui bloque notre vision, nos yeux peuvent voir environ 4,8 kilomètres de l’horizon. Ce n’est pas assez pour que la ligne d’horizon commence à montrer sa courbe. Comme une mouche sur une boule de cirque, nous ne voyons pas assez le bord où la Terre rencontre le ciel.
Pour voir l’ensemble de la sphère planétaire, il faudrait voyager avec avec un astronaute ou à bord d’un satellite. Vous auriez ainsi une vue complète de la Terre à une distance beaucoup plus grande.
Les gros avions de ligne peuvent également voler suffisamment haut pour donner un aperçu de la courbure de la Terre, bien que les pilotes aient une bien meilleure vue depuis l’avant de l’avion que les passagers depuis les fenêtres latérales.
Même depuis l’espace, vous ne pourriez pas déceler quelque chose d’important à propos de la forme de la Terre : elle n’est pas parfaitement ronde. Il s’agit en fait d’un sphéroïde légèrement aplati ou d’un ellipsoïde. Cela signifie qu’autour de l’équateur, elle est un peu plus large que haute, comme une sphère sur laquelle on se serait assis et qu’on aurait un peu écrasée.
Ce phénomène est dû à la rotation de la Terre, qui crée une force centrifuge. Cette force produit un léger renflement au niveau de la taille de la planète.
Les caractéristiques topographiques de la surface de la Terre, telles que les montagnes et les fosses sous-marines, déforment également légèrement sa forme. Elles provoquent de légères variations dans l’intensité du champ gravitationnel terrestre.
Les sciences de la Terre, le domaine que j’étudie, comportent une branche appelée géodésie qui se consacre à l’étude de la forme de la Terre et de sa position dans l’espace. La géodésie sert à tout, de la construction d’égouts à l’établissement de cartes précises de l’élévation du niveau de la mer, en passant par le lancement et le suivi d’engins spatiaux.
Kelly R. MacGregor reçoit des fonds de la National Science Foundation, du Keck Geology Consortium et du Minnesota Environment and Natural Resources Trust Fund (ENRTF).
19.11.2024 à 15:57
Magali Bigey, Maîtresse de conférences en SIC, sémiolinguiste spécialiste de la réception de publics populaires, Laboratoire ELLIADD, Université de Franche-Comté – UBFC
A literary subgenre that emerged in the 2010s and gained widespread popularity in the 2020s, dark romance falls under the umbrella of unhealthy love stories. These novels often depict relationships that challenge moral and legal boundaries, raising questions about their growing appeal. What does the success of these provocative stories, frequently marked by violence and complex power dynamics, reveal about contemporary society?
Fueled by social media platforms such as TikTok – particularly under the hashtag #BookTok – the meteoric rise of dark romance underscores a shift in how narratives about love and desire are consumed. The genre’s ability to provoke intense emotional responses has captivated a predominantly young, female, and highly engaged audience. While controversial, these novels allow readers to explore forbidden or complex emotions within a controlled, fictional environment. How can society better understand this phenomenon, and more importantly, guide young readers toward critical engagement without dismissing their preferences?
The success of Fifty Shades of Grey by E.L. James in the early 2010s helped establish new romance as a dominant force in publishing, paving the way for subgenres like dark romance. Series such as 365 Days by Blanka Lipińska and Captive by Sarah Rivens have garnered millions of readers, cementing dark romance as a popular niche.
By 2023, romance accounted for 7% of the French book market, with dark romance representing a significant portion. Once relegated to the fringes, the genre is now widely available in bookstores, libraries, and even boasts its own event – the Festival New Romance in Lyon.
Central to dark romance’s success is the role of online literary communities. Platforms such as TikTok amplify these novels’ visibility through thousands of videos featuring recommendations, excerpts, and emotional analyses. Enthusiastic readers become influencers, driving interest and propelling titles to success – sometimes even before official publication. Viral sensations like Captive owe much of their popularity to this digital word-of-mouth model.
Dark romance explores the murky areas of love and desire, often characterised by fraught power dynamics and implicit or explicit violence between protagonists. Yet, these stories typically have a positive, albeit complicated, conclusion.
Protagonists in these novels are often young women in submissive roles paired with dominant male characters. Despite frequent criticism for their portrayal of toxic relationships, these narratives resonate with readers by offering an emotional intensity unmatched by other romance subgenres.
For many, the appeal lies in the safe exploration of extreme emotions within a fictional framework. Similar to the thrill of horror movies, readers can experience fear, tension, or desire, knowing they remain in control of the story. This emotional catharsis may reflect broader societal unease, particularly among young people navigating conversations around gender equality, consent, and power dynamics in the post-#MeToo era.
Contrary to fears that dark romance promotes violence or unhealthy relationships, many readers engage critically with these narratives. A 2024 study of high school students revealed that young readers often interpret such content through a lens of awareness, acknowledging the troubling dynamics while recognising their fictional nature. “It’s good to show readers the violence of these acts so they can understand how absurd it is,” one student told Arnaud Genon, a professor at INSPÉ in Strasbourg. This sentiment underscores the idea that reading these novels can foster a critical awareness of harmful behaviours rather than normalising them.
Far from being a mere incitement to violence, dark romance can serve as a tool for introspection and emotional processing – though its impact varies significantly based on the reader’s maturity and age. Concerns often arise regarding very young readers, particularly girls who may lack the emotional tools to process such content effectively. This underscores the importance of providing guidance and fostering environments where young people can discuss these narratives openly, whether with trusted individuals or within critical reading communities. Such approaches mitigate risks of superficial interpretations or unchecked immersion, especially on platforms like Wattpad, a collaborative storytelling site where moderation can be minimal.
Dark romance often serves as a form of catharsis, allowing readers to engage with powerful and conflicting emotions in a controlled and safe environment. The genre enables readers to navigate themes of control, freedom, and submission – concepts many young women grapple with amid societal pressures. Within these fictional realms, readers remain in control of the narrative, creating a boundary that separates fantasy from reality.
This exploration is particularly relevant in a society where young women are often subjected to paradoxical expectations. Dark romance provides a space to examine these tensions without real-world repercussions, making emotional engagement the cornerstone of the reader’s experience.
One of the reasons dark romance maintains its popularity is its ability to offer a sense of reassurance amid the complexities of real-world relationships. The recurring theme of the heroine “healing” her abuser or gaining control over the relationship provides a redemptive arc that appeals to readers seeking resolution. While the initial depictions of violence may be troubling, the eventual mastery and closure provide a controlled space for readers to explore challenging emotions without endorsing such behaviours in real life.
In many households, the introduction to dark romance comes from familial connections, such as mothers or older sisters sharing their own discoveries. These shared experiences often lead to discussions, fostering critical thinking and reflection on the content. In more open-minded environments, such exchanges transform reading into a communal and analytical activity, steering readers away from simplistic or potentially harmful interpretations.
Rather than condemning dark romance, society should focus on guiding its readership. Demonising the genre risks alienating young readers, while fostering open dialogue encourages critical reflection.
Teenagers often engage with these stories as a form of experimentation, rather than a desire to emulate the characters or relationships depicted. Social media reactions like “Oh, Ash is so handsome; I’d love a guy like that” are frequently playful provocations rather than genuine aspirations.
As Hervé Glevarec, a CNRS sociologist specialising in contemporary cultural practices, observes: “Cultural tastes cannot be understood independently of the context in which they are expressed; they are shaped by social situations and networks of sociability.” Dark romance, in this light, becomes an emotional playground where readers can safely explore desires, frustrations, and fantasies while remaining grounded in the understanding that these stories are fictional.
The challenge lies in ensuring young readers encounter dark romance within frameworks that encourage thoughtful engagement. When supported by open discussions and critical analysis, this provocative genre can serve as a space for readers to confront complex emotions on their terms – and ultimately dominate the narrative.
I advise library staff and middle and high school teachers regarding Dark Romance for young audiences
19.11.2024 à 12:36
Joëlle Micallef, Service de pharmacologie clinique et pharmacosurveillance, AP-HM Centre d'Évaluation et d'Information sur la Pharmacodépendance – Addictovigilance PACA-Corse Institut de Neurosciences des Systèmes (U1106), Aix-Marseille Université (AMU)
Thomas Soeiro, Service de pharmacologie clinique et pharmacosurveillance, AP-HM Centre d'Évaluation et d'Information sur la Pharmacodépendance – Addictovigilance PACA-Corse Institut de Neurosciences des Systèmes (U1106), Aix-Marseille Université (AMU)
L’usage détourné de la kétamine, un médicament anesthésique, comme hallucinogène s’installe dans la population, même chez les jeunes. Ce produit peut entraîner des comportements addictifs, avec toutes les conséquences que cela implique, et peut aussi conduire à des complications sévères, notamment urinaires. Il fait l’objet de suivis par des dispositifs de surveillance spécialisés.
La kétamine est un médicament anesthésique général pour usage humain et vétérinaire, dont la première spécialité a été commercialisée en France en 1970.
Plus de 50 ans après, ce produit est aussi de plus en plus présent dans les faits divers en France ou à l’étranger pour son usage détourné. Il en a par exemple été question suite au décès de Matthew Perry, l’un des protagonistes de la célèbre série Friends. L’ampleur que prend l’usage détourné de la kétamine comme hallucinogène, bien loin de son utilisation médicale pourtant essentielle, est sans équivalents. Comment et pourquoi en est-on arrivé à une telle situation ?
Chaque mardi, notre newsletter « Et surtout la santé ! » vous donne les clés afin de prendre les meilleures décisions pour votre santé (sommeil, alimentation, psychologie, activité physique, nouveaux traitements…)
Aux États-Unis puis en Europe, les premiers cas de déviation de son usage médical vers un usage récréatif ont été décrits notamment chez des professionnels de santé (anesthésistes) ayant accès aux produits. À la fin des années 90, son usage en France gagne l’espace festif techno, où elle est proposée sous différentes appellations (Kéta, K, Kate, Spécial K, la Golden, la vétérinaire…) et consommée essentiellement par voie nasale (60-100 mg) ou orale, pour ses effets hallucinatoires.
L’usage détourné de la kétamine va également atteindre l’Asie. Elle y prendra une ampleur considérable, en particulier dans les night-clubs de Taiwan et de Hong Kong. En 2006 à Hong Kong, la kétamine est la deuxième substance psychoactive la plus consommé après l’héroïne.
En France, depuis de nombreuses années, la kétamine fait l’objet de rapports nationaux d’expertise d’addictovigilance, permettant ainsi de détecter, repérer et caractériser de nouvelles pratiques d’utilisations ainsi que leurs conséquences sur la santé.
Il faut dire que la France est le seul pays en Europe à avoir mis en place depuis 1990 un dispositif de veille spécifique sur les substances psychoactives et leurs conséquences sur la santé, grâce aux treize Centres d’Évaluation et d’Information sur la Pharmacodépendance-Addictovigilance (CEIP-A) qui constituent le Réseau français d’addictovigilance.
Cette analyse s’appuie sur la triangulation de plusieurs sources de données françaises, dont les déclarations de cas graves avec la kétamine (qui sont une obligation légale pour les professionnels de santé) et les données issues d’un dispositif de pharmacosurveillance appelé OPPIDUM (Observation des produits psychotropes Illicites ou détournés de leur Utilisation Médicamenteuse).
Ce dispositif permet de connaître les substances psychoactives consommées par les patients pris en charge en France dans les structures spécialisées en addictologie, grâce à un recueil effectué chaque année durant le mois d’octobre. Sur le mois d’octobre 2012, 35 patients (0,7 %) étaient des consommateurs de kétamine. Ce chiffre ne cesse de croire depuis jusqu’à attendre 107 consommateurs (2 %) lors du recueil en octobre 2023.
La proportion d’usagers réguliers de kétamine est aussi en constante progression. C’est également le cas pour ceux qui augmentent les doses de kétamine et présentent des troubles de l’usage, c’est-à-dire une addiction avec la kétamine.
Cette problématique des troubles de l’usage avec la kétamine se retrouve dans les déclarations d’addictovigilance avec des usagers qui se retrouvent en difficulté avec leur consommation. Cela se manifeste par des augmentations des doses, du craving qui décrit le besoin irrépressible de consommer, des complications dans le domaine de la santé (complications urinaires, complications sur le foie, complications psychiatriques…), des conséquences financières… ce qui amène les usagers à consulter ou à être hospitalisés.
À noter dans ce contexte de troubles de l’usage avec la kétamine, des situations cliniques qui rapportent un comportement de recherche de kétamine pharmaceutique, par des passages via les services d’urgences pour obtenir de la kétamine. Ceci témoigne des passerelles qui peuvent exister entre la kétamine dite « illicite » et la kétamine pharmaceutique.
Quant au profil des usagers, il se diversifie. Certains continuent d’utiliser la kétamine dans un contexte festif ou récréatif, d’autres pour une finalité « auto-thérapeutique » (réduction de l’anxiété, bien-être, antidouleur, amélioration de l’humeur, sevrage alcoolique…) sans que l’efficacité de la kétamine dans ces indications ait été démontrée et hors de tout accompagnement médical, ce qui les expose à des effets indésirables possiblement graves et enfin, d’autres encore à visée sexuelle, notamment dans un contexte de chemsex.
À lire aussi : Du chemsex aux fêtes… La 3-MMC, cette drogue de synthèse qui gagne du terrain chez les jeunes
De façon intéressante, trois récentes études réalisées en France sur les niveaux d’expérimentation des substances psychoactives ont inclus spécifiquement la kétamine. Leurs chiffres témoignent notamment de l’installation de l’expérimentation de kétamine en population générale mais aussi chez les jeunes.
On observe ainsi en France :
en 2023, une prévalence d’expérimentation de la kétamine au cours de la vie de 2,6 % (3,3 % chez les 18-24 ans, 4,8 % chez les 25-34 ans, 3,2 % chez les 35-44 ans ; sur un échantillon représentatif de 14 984 personnes âgées de 18 à 64 ans), d’après l’Observatoire français des drogues et des tendances addictives OFTH.
une prévalence d’usage de la kétamine de 0,9 % (allant de 0,6 % à 4,7 % en fonction de la situation scolaire) quand on interroge de jeunes gens âgés de 17 ans lors de la journée défense et citoyenneté (sur un échantillon représentatif de 23 701 filles et garçons âgés de 17,4 ans), selon les données ESCAPAD 2022.
une prévalence d’expérimentation de la kétamine de 1,1 % (1,4 % garçons, 0,9 % filles) chez des élèves de la sixième à la terminale, d’après les données d2022 du dispositif EnCLASS.
À lire aussi : Cocaïne, ecstasy, hallucinogènes… Quels sont les comportements des jeunes face aux drogues illicites ?
Et il ne s’agit pas d’une spécificité française. Au Royaume-Uni,par exemple, l’expérimentation de la kétamine est passée de 0,5 % en 2010 à 0,8 % en 2020. Parmi les 16-24 ans, cet usage a doublé durant la même période, de 1,7 % à 3,2 %.
Une abondante littérature scientifique caractérise des complications liées à la consommation de kétamine, en particulier des complications urinaires sévères (à type de cystites interstitielles) chez des consommateurs réguliers de kétamine souvent par voie nasale.
Pourtant au début, comme souvent pour tout évènement nouveau, le lien avec la kétamine fut débattu et même critiqué, avec des arguments évoquant d’autres hypothèses comme l’existence d’un produit adultérant dans la kétamine, ses modalités de préparation (chauffage de la kétamine) ou encore la synthèse d’un métabolite toxique de la kétamine par les usagers asiatiques qui présente souvent des polymorphismes génétiques.
C’est en 2007 que paraîtront les deux premiers articles scientifiques sur les complications urinaires chez des usagers réguliers de kétamine, à Hong Kong et au Canada, battant en brèche l’hypothèse du métabolite toxique liée à la population asiatique.
De façon intéressante, cette publication canadienne donnera lieu à d’autres publications par des équipes utilisant la kétamine à but médical, de façon répétée, pour traiter des douleurs complexes et relatant dans ce cadre-là également des complications urinaires.
Des études expérimentales chez l’animal amèneront un éclairage utile pour établir ce lien avec notamment la mise au point d’un modèle animal de cystites induites par l’administration répétée de fortes doses de kétamine ou encore la mise en évidence d’anomalies urinaires symptomatiques chez le rat après l’administration de la méthoxétamine, une puissante drogue de synthèse et un antagoniste des récepteurs de la NMDA comme… la kétamine.
Ces cystites se manifestent par des difficultés à uriner (dysurie), la présence de sang dans les urines (hématurie) et des mictions très fréquentes en lien avec une capacité réduite de la vessie. Elles peuvent entraîner un retentissement sur le haut appareil urinaire donc au niveau des reins, conduisant à ce que l’on appelle des hydronéphroses.
Des tableaux cliniques sévères et invalidants peuvent nécessiter des interventions chirurgicales. Ces complications sont observées en cas de poursuite de la consommation de kétamine. Dès les premiers symptômes urinaires, l’arrêt constitue pourtant le meilleur traitement.
En France, toutes ces complications cliniques en lien avec les substances psychoactives à risque d’abus (médicamenteuses ou non) sont suivies de près par les pharmacologues du Réseau français d’addictovigilance, piloté par l’Agence National de Sécurité du Médicament et des produits de santé (ANSM).
La kétamine est un produit qui circule davantage. En 2022, près de 3 000 saisies ont été réalisées en Europe, pour un total de près de 2,79 tonnes de kétamine. Elles s’inscrivent dans une dynamique croissante.
Cet usage est facilité par une diffusion accentuée de la kétamine (comme en témoignent les niveaux de saisies en augmentation au niveau européen et mondial) et une accessibilité facilitée (deal, dématérialisation par le recours aux outils numériques…).
Cette situation explique les chiffres d’exposition en population générale, ou plus spécifiquement chez les collégiens et lycéens scolarisés, et également l’augmentation des complications sanitaires liées à la kétamine en France ou ailleurs.
Joëlle Micallef a reçu des financements dans le cadre d'appels à projets de l'Institut pour la Recherche en Santé Publique (IReSP) et de l’Institut National du Cancer (INCa).
Thomas Soeiro a reçu des financements dans le cadre d’appels à projets du GIS EPI-PHARE.
18.11.2024 à 15:56
Jean-Renaud Boisserie, Directeur de recherche au CNRS, paléontologue, Université de Poitiers
Ce dimanche 24 novembre marque le cinquantième anniversaire de la découverte du fossile de l’australopithèque Lucy. Jean-Renaud Boisserie dirige un programme de recherche interdisciplinaire travaillant dans la basse vallée de l’Omo en Éthiopie et ayant pour objectif de comprendre les interactions entre les changements environnementaux et l’évolution des organismes (humains inclus) de cette vallée au cours des quatre derniers millions d’années. Spécialiste des faunes fossiles de la région où à été découvert le fossile de Lucy, il nous renseigne sur l’importance de cette découverte et sur toutes les questions qu’elle soulève encore.
The Conversation : Lucy fait partie du genre Australopithecus et notre espèce du genre Homo : quelles sont les principales différences et ressemblances et notre lien de parenté ?
Jean-Renaud Boisserie : Le genre Homo est caractérisé à la fois par un volume cérébral généralement de grande taille (plus de 600 cm3), même s’il existe des exceptions, par une bipédie obligatoire marquée par diverses adaptations (par exemple jambes longues, bras courts) qui améliore l’endurance et la rapidité des déplacements bipèdes, et par une denture relativement réduite. Bien qu’également bipèdes, Australopithecus gardait une morphologie compatible avec une bonne aptitude aux déplacements arboricoles, présentait une denture le plus souvent « mégadonte » – c’est-à-dire des dents grosses à l’émail très épais (en particulier chez les australopithèques dits « robustes », et un cerveau de taille peu différente de celle des chimpanzés et des gorilles. On sait cela notamment grâce à la découverte d’Australopithecus afarensis.
T.C. : Quelle importance a eu la découverte de Lucy, la plus célèbre représentante de cette espèce ?
J.-R. B. : Cette découverte est un jalon dans notre compréhension de l’évolution humaine en Afrique, puisqu’on se posait un certain nombre de questions avant la découverte de Lucy sur l’ancienneté du genre Homo et le rôle des australopithèques dans l’ascendance de notre genre. Avec Australopithecus africanus en Afrique du Sud, on savait qu’il existait des formes bipèdes avec un cerveau relativement réduit, mais sans dates bien établies dans les années 1970, ce qui était assez problématique.
Côté Afrique orientale, Louis et Mary Leakey avaient mis au jour des australopithèques robustes à partir de la fin des années 1950, assez bien datés vers 1,8 million d’années, ainsi que les restes d’Homo habilis, alors le plus ancien représentant du genre Homo. À partir de 1967, les travaux menés dans la vallée de l’Omo, qui pour la première fois mobilisaient des équipes importantes et pluridisciplinaires, ont permis de découvrir des restes d’australopithèques datant de plus de 2,5 millions d’années, et des restes du genre Homo à peine plus récents.
Au début des années 1970, la découverte sur les rives du lac Turkana du crâne d’Homo rudolfensis – un représentant indubitable de notre genre avec sa capacité cérébrale de près de 800 cm3 – suggérait initialement l’âge très ancien (jusqu’à 2,6 millions d’années) de notre genre et d’une capacité cérébrale importante. Une partie de la communauté scientifique, notamment la famille Leakey, pensait donc que le genre Homo constituait une branche parallèle à celle des australopithèques, qui auraient donc été des cousins éteints, mais pas nos ancêtres.
La découverte d’Australopithecus afarensis, et notamment de Lucy, a clarifié ce débat. Non seulement l’âge de ces nouveaux fossiles était clairement plus ancien que 3 millions d’années, mais surtout ils incluaient des fossiles bien préservés, en particulier l’exceptionnelle Lucy. Avec 42 os, représentés par 52 fragments, à peu près 40 % du squelette est représenté. Des fossiles humains aussi complets n’étaient alors connus qu’à des périodes beaucoup plus récentes (moins de 400 000 ans).
Avec Lucy, de nombreux autres spécimens ont été découverts dans les années 1970 à Hadar, ainsi qu’à Laetoli en Tanzanie, où ces derniers étaient associés à des empreintes de pas bipèdes dans des cendres volcaniques datées de 3,7 millions d’années.
Tous ces éléments montraient qu’Australopithecus afarensis, bipède à petit cerveau, était nettement plus ancienne qu’Homo (l’âge d’Homo rudolfensis fut d’ailleurs ultérieurement réévalué à moins de 2 millions d’années). Cette espèce pouvait donc être considérée comme ancêtre commun des toutes les espèces humaines ultérieures, notre espèce, Homo sapiens, comprise. C’est devenu l’hypothèse dominante pour décrire l’évolution humaine pendant pour plusieurs décennies.
T.C. : Quelle importance a eu Lucy dans le monde ? La connaît-on partout comme en France ?
J.-R. B. : En France, c’est vrai qu’on la connaît bien parce qu’elle a été très bien présentée par Yves Coppens, un des codirecteurs de l’International Afar Research Expedition, l’équipe qui a découvert Lucy. Avec son immense talent de vulgarisateur, il a réussi à la faire adopter par le public français tout en montrant bien son importance scientifique.
Ce fut la même chose aux États-Unis, où d’autres membres de l’équipe ont mené le même travail de vulgarisation, ainsi qu’en Éthiopie. Mais cela dépasse ce cadre géographique : ailleurs en Europe, en Asie et en Afrique, elle est extrêmement connue. C’est réellement un fossile extrêmement important pour la science internationale en général.
T.C. : Lucy a été présentée comme « grand-mère de l’humanité », cela a été vrai combien de temps ?
J.-R. B. : Après cette découverte d’Austrolopitecus Afarensis qui a conduit à la considérer comme l’ancêtre commun à toutes les espèces humaines plus récentes, il y a tout d’abord eu des espèces plus anciennes qui ont été mises au jour. On connaissait dès le début des années 1970 des fossiles plus anciens, mais ils étaient rares, très fragmentaires et mal conservés.
À partir des années 1990, de nouveaux travaux dans l’Afar, à quelques dizaines de kilomètres au sud de Hadar dans la moyenne vallée de l’Awash, ont révélé la présence d’une espèce plus ancienne qui a été baptisée initialement Australopithecus ramidus, puis Ardipitecus ramidus parce qu’elle a été jugée suffisamment différente pour définir un nouveau genre. Ces restes de 4,4 millions d’années montraient qu’il y avait eu quelque chose avant Lucy et les siens, qui ne représentaient plus le stade évolutionnaire le plus ancien de l’humanité.
D’autres découvertes sont intervenues au tout début des années 2000, avec Orrorin tugenensis au Kenya, daté à 6 millions d’années ; puis Ardipithecus kadabba, de nouveau dans le Moyen Awash, daté de 5,8 à 5,2 millions d’années ; et enfin, Sahelanthropus tchadensis (Toumaï), cette fois en Afrique centrale, au Tchad, plus près de 7 millions d’années.
Australopithecus afarensis n’était donc plus l’espèce la plus ancienne, mais devint potentiellement un jalon au sein d’une lignée évolutionnaire beaucoup plus ancienne.
En parallèle, il y a eu la découverte de formes contemporaines de Lucy, attribuées cette fois à des espèces contemporaines mais différentes. Ça a été par exemple le cas d’Australopithecus bahrelghazali au Tchad, daté entre 3,5 et 3 millions d’années. Dès 1995, ces restes assez fragmentaires montraient un certain nombre de caractères qui suggèrent qu’il s’agit d’une espèce différente de celle de Lucy. D’autres ont suivi, notamment Australopithecus deyiremeda, ou encore une forme non nommée connue par un pied très primitif (« le pied de Burtele »), tous deux contemporains d’Australopithecus afarensis, et issu d’un site voisin de celui de Hadar, Woranso-Mille.
T.C. : Comment détermine-t-on qu’un fossile appartient à telle espèce ou à tel genre ?
J.-R. B. : C’est un degré d’appréciation de la part des scientifiques qui est assez difficile à tester en paléontologie. Prenez par exemple les chimpanzés : il en existe deux espèces légèrement différentes dans leur comportement et dans leur morphologie. Elles sont néanmoins beaucoup plus semblables entre elles qu’avec n’importe quelle autre espèce de grands singes et sont donc toutes deux placées au sein du genre Pan. Les données génétiques confirment largement cela.
En paléontologie, c’est plus compliqué parce qu’on a affaire à des informations qui sont parcellaires, avec la plupart du temps la morphologie pas toujours bien préservée, et finalement peu de données sur les comportements passés. On peut caractériser une partie de l’écologie de ces formes fossiles avec des approximations, et sur cette base, les informations morphologiques et une vision souvent incomplète de la diversité alors existante, on tâche de déduire des critères similaires à ceux observés dans l’actuel pour classer des espèces fossiles au sein d’un même genre.
Pour définir Ardipithecus par rapport à Australopithecus, ce qui a primé, c’est la morphologie des dents, puisque par rapport aux grosses dents à émail épais des australopithèques, Ardipithecus présentait des dents qui sont relativement plus petites, un émail plus fin et des canines relativement plus grosses.
En matière de locomotion, il y a également des différences, bien décrites en 2009. Le bassin de Lucy est très similaire au nôtre, la bipédie est bien ancrée chez Australopithecus. Par contre, chez Ardipitecus, le développement de certaines parties du bassin rappelle ce qu’on voit chez des quadrupèdes grimpeurs, par exemple les chimpanzés. Surtout, on observe un gros orteil (hallux) opposable.
Par contre, les critères sont parfois beaucoup moins objectifs. En dehors de détails mineurs des incisives et des canines, ce qui a conduit à placer Orrorin et Sahelanthropus dans des genres différents d’Ardipithecus est davantage lié au fait que ces restes ont été découverts dans d’autres régions par des équipes différentes.
T.C. : Qu’est-ce qui a changé entre notre connaissance de Lucy au moment de sa découverte et aujourd’hui ?
J.-R. B. : Les grandes lignes de la morphologie des australopithèques n’ont pas fondamentalement changé depuis cette époque-là. Australopithecus afarensis et Lucy ont permis de définir des bases qui sont toujours extrêmement solides. Par contre, même s’il y des débats sur certains fossiles, il est très probable qu’il y avait une plus grande diversité d’espèces entre 4 et 3 millions d’années que ce qu’on pensait à l’époque. Avec le fait qu’il y a également des fossiles humains beaucoup plus anciens relativement bien documentés, c’est un changement majeur par rapport à la vision acquise dans les années 1970.
T.C. :Que savons-nous du régime alimentaire de Lucy ?
L’alimentation d’Australopithecus afarensis était certainement assez diversifiée, pouvant incorporer des fruits, mais également des herbacées et peut-être des matières animales. Australopithecus afarensis a vécu au moins entre 3,8 et 3 millions d’années, soit une très longue durée, beaucoup plus importante que les possibles 300 000 ans d’existence proposés pour Homo sapiens. Il a donc fallu une bonne dose d’opportunisme pour pouvoir faire face à des changements environnementaux qui ont parfois été relativement importants au Pliocène.
Il y a diverses techniques qui s’intéressent aux dents parce que ce sont des objets complexes, constitués de plusieurs tissus et incluant des éléments chimiques dont les concentrations peuvent être liées à l’alimentation. Il y a donc des approches qui utilisent ces contenus chimiques, ainsi que d’autres qui sont réalisés sur les types d’usures liées à l’alimentation. Ces méthodes et d’autres permettront d’avoir une meilleure compréhension de l’alimentation de ces espèces anciennes.
Australopithecus afarensis, connu par plusieurs centaines de spécimens, rarement aussi complets que Lucy même si certains s’en approchent, comprenant néanmoins beaucoup de restes dentaires, de mâchoires et d’os des membres, nous offre un véritable trésor sur lequel s’appuyer pour développer de nouvelles approches et répondre aux questions en suspens.
T.C. : Quelles sont les grandes questions qui restent à étudier ?
J.-R. B. : Lucy a encore un bel avenir scientifique devant elle car elle aidera certainement à répondre à plein de questions. Ainsi la caractérisation de la locomotion et les transitions entre les différentes formes de locomotion sont toujours l’objet d’un débat.
Lucy était bipède quand elle était au sol mais son membre supérieur suggère un également une locomotion arboricole. On ne sait toujours pas, néanmoins, combien de temps passait-elle réellement dans les arbres. Et comment et à quel moment se font les transitions entre les formes aux locomotions versatiles (par exemple Sahelanthropus, à la fois bipède au sol et sans doute fréquemment arboricole) et la bipédie plus systématique des australopithèques, puis avec la bipédie obligatoire d’Homo ? Ou encore entre un cerveau de taille similaire à celui des grands singes non humains actuels et le cerveau plus développé du genre Homo ?
Car finalement, les premiers représentants du genre Homo sont surtout bien connus après 2 millions d’années. Avant 2 millions d’années, les spécimens attribués au genre Homo sont essentiellement fragmentaires et donc assez peu connus. Cette transition n’est toujours pas bien comprise, et c’est un de nos objectifs de recherche dans la basse vallée de l’Omo.
Il y a d’autres questions qui se posent au sujet des australopithèques. Comment se développaient-ils ? Est-ce qu’ils présentaient des caractéristiques du développement similaire à celle des chimpanzés, ou plus similaire à celle d’Homo sapiens, c’est-à-dire avec une croissance plus lente, plus étalée dans le temps, et donc avec des jeunes qui naissent avec des capacités amoindries, nécessitant que l’on s’en occupe beaucoup plus.
La question de la naissance est de ce point de vue très importante. Est-ce que les bébés australopithèques avaient un cerveau relativement développé par rapport à la taille finale, comme ce qu’on peut observer chez les chimpanzés, ou est-ce qu’ils avaient un cerveau plus petit comme chez nous, permettant de se faufiler dans le canal pelvien ? Avec la bipédie, le bassin a été modifié et le canal pelvien, par où les naissances doivent s’effectuer, est devenu plus étroit et tortueux. Dans cette configuration, un cerveau trop gros à la naissance coince, et ça ne marche plus. Des travaux en cours sur Lucy et d’autres spécimens apportent des éléments de réponse importants sur ce type de questions.
D’autre part, si toutes les espèces d’australopithèques contemporaines au Pliocène récent sont bien avérées, comment tout ce petit monde coexistait ? À partir de Lucy et jusqu’à relativement récemment, on a toujours eu plusieurs espèces humaines qui ont pu exister de manière contemporaine et même vivre dans les mêmes endroits. Comment est-ce que ces coexistences s’articulaient ? Pour répondre, il y a encore beaucoup de choses à découvrir sur leurs modes de vie, sur leurs écologies, sur leurs alimentations.
Jean-Renaud Boisserie ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
18.11.2024 à 15:52
Justine Simon, Maître de conférences, Université de Franche-Comté, ELLIADD, Université de Franche-Comté – UBFC
Des chats partout : en dessins, en photos, en vidéos, en GIFs, en mèmes… Ils sont devenus les véritables stars d’Internet. Qu’ils fassent des blagues, des câlins ou des bêtises, leurs images circulent sans fin sur les réseaux sociaux. Mais pourquoi ces animaux ont-ils envahi nos écrans ? Et que nous révèlent-ils sur notre société et sur le fonctionnement des plates-formes que nous utilisons au quotidien ?
Cela fait plusieurs années que j’étudie la propagation des images sur les réseaux sociaux, qu’elles soient humoristiques ou plus sérieuses. C’est dans les années 2000 que le chat est devenu un objet central de la viralité avec des formats comme les « LOLcats » (2007) et cette viralité s’est accentuée avec la montée en puissance des réseaux sociaux (comme Facebook, YouTube, Instagram et TikTok).
Au cours de ma recherche sur les #ChatonsMignons (c’est le terme que j’utilise pour désigner ce phénomène viral), j’ai relevé plusieurs aspects fascinants, comme l’utilisation symbolique du chat en politique ou sa dimension participative, lorsque des internautes créent des mèmes.
Un mème est un élément décliné massivement sur Internet et qui s’inscrit dans une logique de participation. Il peut s’agir d’un texte, d’une image (fixe ou animée), d’un son, d’une musique ou une combinaison de ces différents éléments.
À lire aussi : Le mème : un objet politique
On peut également noter le renforcement des liens sociaux que le partage d’images de chats crée, et enfin, leur capacité à générer des émotions fortes.
Les chats ne sont pas seulement mignons : ils sont aussi des symboles très puissants. En analysant un total de 4 000 publications sur Twitter, Instagram et TikTok – une veille de contenus et une recherche par mots-clés ont été menées sur une période de quatre mois (d’octobre 2021 à janvier 2022) – il est apparu que le chat pouvait revêtir de nombreux masques.
Parfois, il est un outil de mobilisation collective, parfois une arme pour la propagande politique. Par exemple, un GIF de chat noir effrayé peut symboliser la résistance politique et renvoyer à l’imaginaire anarchiste, dans lequel le chat noir incarne la révolte.
À l’inverse, Marine Le Pen utilise aussi les #ChatonsMignons pour adoucir son image dans une stratégie de dédiabolisation – c’est ce que je nomme le « catwashing » : une stratégie de communication politique qui vise à donner une image trompeuse des valeurs portées par une personnalité politique.
Le chat devient alors un symbole politique, parfois pour défendre des idées de liberté, parfois pour cacher des messages plus inquiétants.
Même Donald Trump a mentionné le félin durant la campagne présidentielle américaine, dans une formule absurde accusant les migrants de manger des chiens et des chats lors du seul débat télévisé l’opposant à Kamala Harris,créant ainsi un buzz monumental.
Cette déclaration a généré une vague de mèmes et de réactions sur les réseaux, au départ pour la tourner au ridicule, puis elle a été récupérée par les pro-Trump. Ce raz-de-marée de mèmes a pris une importance démesurée au point de faire oublier le reste du débat. On peut alors s’interroger : n’était-ce pas une stratégie volontaire de la part du camp républicain ?
Car les mèmes de chats, en particulier les célèbres « lolcats », sont devenus des éléments clés de la culture Internet participative. Ces images de chats avec des textes souvent absurdes ou mal écrits constituent une façon décalée de s’exprimer en ligne.
En partageant et en réinventant ces mèmes, les internautes s’approprient le phénomène des #ChatonsMignons pour créer une sorte de langage collectif.
L’exemple du « Nyan Cat », un chat pixelisé volant dans l’espace avec une traînée d’arc-en-ciel, montre bien à quel point les chats sont intégrés à la culture participative du web.
Ce mème, créé en 2011, est devenu emblématique, avec des vidéos de plusieurs heures sur fond de boucle musicale kitsch et hypnotique.
Plus récemment, le mème « Chipi chipi chapa chapa cat », apparu en 2023, a suivi une ascension virale similaire (28 millions de vues sur ces dix derniers mois pour cette vidéo), prouvant que les chats sont loin de lasser les internautes.
La culture participative pousse ces derniers à relever des défis : créer de nouveaux contenus, utiliser des références cachées et partager ces créations à grande échelle. Avec l’arrivée de plates-formes comme TikTok, ce phénomène s’accélère : chaque vidéo devient un terrain de jeu collectif. Mais ce jeu peut aussi servir des objectifs sérieux, comme dans les cas d’activisme en ligne.
Ils jouent aussi un rôle important dans la manière dont les gens se connectent et interagissent en ligne, et cela ne se réalise pas que dans un registre humoristique, comme pour les mèmes. Le chat favorise ainsi un lien social qui traverse les frontières géographiques et culturelles, rassemblant des individus autour de l’amour des animaux.
Partager une photo de son propre animal domestique devient une façon de se montrer tout en restant en arrière-plan. C’est ce qu’on appelle l’extimité, c’est-à-dire le fait de rendre publics certains aspects de sa vie privée. Le chat sert alors d’intermédiaire, permettant de partager des émotions, des moments de vie, tout en protégeant son identité.
Ainsi, beaucoup de gens publient des photos d’eux en visioconférence avec leur chat sur les genoux. Ce type de contenu met en avant non seulement leur quotidien, mais aussi la relation particulière qu’ils entretiennent avec leur animal. Ces échanges dépassent la simple publication de photos de son chat ou de « selfiecats » (selfies pris avec son chat).
Il s’agit de mettre en valeur une expérience collective, où chaque interaction avec une image de chat contribue à une conversation globale. Le « selfiecat » est ainsi devenu un moyen d’exprimer et de valoriser cette complicité unique, aux yeux de tous.
Dans de nombreux cas, la relation entre l’humain et le chat est mise en avant comme une expérience partagée, créant une sociabilité numérique autour de cette humanité connectée. Les membres des communautés se retrouvent pour commenter, échanger des anecdotes ou des conseils, et ces interactions virtuelles renforcent les liens sociaux.
En ce sens, les chats deviennent plus qu’un simple objet de viralité : ils sont le ciment d’une forme de sociabilité numérique qui permet aux gens de se rassembler, de se comprendre et de se soutenir, même sans se connaître.
Enfin, si les #ChatonsMignons sont si viraux, c’est parce qu’ils sont capables de provoquer des émotions fortes. Les chats ont un regard, une posture et des mimiques si proches de celles des humains qu’ils nous permettent d’exprimer toute une gamme d’émotions : de la joie à la frustration, en passant par l’étonnement ou la colère.
Cette puissance affective explique pourquoi ils génèrent autant de clics et de partages. Sur les réseaux sociaux, où tout repose sur l’attention et l’engagement, les chats deviennent de véritables machines à clics. Les plates-formes profitent de cette viralité pour capter l’attention des utilisateurs et monétiser leur temps passé en ligne.
Les chats ont envahi le web parce qu’ils sont bien plus que des créatures mignonnes. Ils sont des symboles, des outils de participation, des créateurs de liens sociaux et des déclencheurs d’émotions. Leur succès viral s’explique par leur capacité à s’adapter à toutes ces fonctions à la fois. En fin de compte, les #ChatonsMignons nous apprennent beaucoup sur nous-mêmes, nos besoins d’expression et la manière dont nous interagissons dans un monde hyperconnecté.
Justine Simon est l’autrice de « #ChatonsMignons. Apprivoiser les enjeux de la culture numérique », paru aux éditions de l’Harmattan.
Justine Simon ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
18.11.2024 à 15:52
Lucie Gabriel, Docteure en Sciences de Gestion, spécialisée en Management et Leadership, INSEEC Grande École
Dans un pays en crise et divisé, Donald Trump a incarné un leader dominant et autoritaire, des caractéristiques souvent accolées à la masculinité. Le genre de Kamala Harris a-t-il joué en sa défaveur lors de l’élection présidentielle ?
Donald Trump s’est présenté trois fois comme candidat à la présidentielle des États-Unis. Par deux fois, il a affronté une femme : d’abord Hillary Clinton en 2016, puis Kamala Harris en 2024. Par deux fois, il a gagné contre une femme.
Ce fait n’est ni anodin ni superficiel et pose la question du genre dans la campagne présidentielle états-unienne. Elle a été omniprésente dans le discours de chacun des candidats comme dans le vote des électeurs. Le 5 novembre, le New Yorker titrait « Comment l’élection de 2024 est devenue l’élection genrée » pour parler du gender gap, c’est-à-dire de l’écart de vote entre l’électorat féminin et masculin.
Le fait que le nouveau président des États-Unis ait une forte influence charismatique sur ses électeurs a été souligné dans de nombreuses études depuis 2016. Au-delà des stratégies de campagnes, des ambitions et des questions morales, il semble que Kamala Harris a eu du mal à incarner le même pouvoir d'influence. Le genre est-il un obstacle au charisme en politique ?
À lire aussi : Trump tout-puissant ?
Au début du XXe siècle, le sociologue Max Weber a décrit le charisme comme une qualité attribuée à un individu « considéré comme extraordinaire et doté de pouvoirs ou de qualités surnaturels, surhumains ou au moins spécifiquement exceptionnels. » Le charisme est un leadership incarné : l’influence du chef est indissociable de sa personne et de l’image qu’il renvoie. Il joue le rôle de symbole communautaire, il représente le « nous » qui agit comme rempart contre le reste du monde. Pour cette raison, le chef charismatique doit susciter l’admiration et la fierté de ceux qui le suivent.
Dans la conception wéberienne, le leader charismatique est un héros qui incarne une force révolutionnaire pour renverser l’ordre établi. Le vocabulaire belliqueux souvent employé par Max Weber pour décrire les qualités de ce chef exclu d’abord implicitement puis explicitement le fait que ces qualités puissent être incarnées par une femme.
Les femmes ont en effet longtemps été exclues de la représentation des chefs charismatiques, en raison de ce que les chercheurs en psychologie sociale Alice Eagly et Steven Karau ont appelé « l’incongruence des rôles ». Selon eux, les comportements attendus par les femmes et les hommes dans une société sont différenciés en fonction de stéréotypes de genre appris dès l’enfance. Ainsi, les femmes sont associées à des qualités d’empathie, de douceur et de considération, à l’opposé de ce qui est attendu du chef charismatique. Au contraire, les rôles sociaux masculins, qui demandent aux hommes d’être forts, autoritaires et dominants, les prédisposent plus naturellement aux rôles de leadership.
La recherche en sociologie semble valider cette hypothèse : parmi les 118 articles sur le sujet publiés dans la principale revue revue scientifique consacrée à l’étude du leadership, The Leadership Quarterly, seuls 8 % des exemples d’individus charismatiques étaient des femmes. Dans les études les plus citées sur le sujet, le charisme est assimilé à un visage aux mâchoires carrées, à la voix grave, à la taille imposante : en somme, à tous les éléments visibles de la masculinité dominante. Est-ce à dire que le genre est un obstacle infranchissable au charisme ?
Le leader charismatique est la représentation des valeurs du groupe qu’il incarne. Lorsque ces valeurs évoluent, la représentation du leader charismatique évolue également. Or, une étude récente reprenant cinquante ans de recherche sur le leadership dans les organisations montre que, contrairement à l’imaginaire collectif, lorsqu’elles sont en position de pouvoir, les femmes sont globalement évaluées comme plus charismatiques et plus compétentes que les hommes.
De la même façon, dans son essai « He Runs, She Runs : Why Gender Stereotypes Do Not Harm Women Candidates » (« Il se présente, elle se présente : pourquoi les stéréotypes de genre ne nuisent pas aux femmes candidates ») la politologue états-unienne Deborah Jordan Brooks prédit un futur prometteur aux femmes politiques. De fait, le nombre de femmes au Congrès américain a atteint un record en 2022 : 149 élues, soit 27,9 % des représentants.
Deux raisons peuvent expliquer ces résultats : la première est l’évolution des attentes sociales en matière de leadership. Alors que le leader a longtemps été représenté comme un individu dominant et autoritaire, depuis les années 1980 cette représentation évolue vers un nouveau type de leader plus empathique et à l’écoute de ses subordonnés. Pour la psychologue sociale Alice Eagly, « les conceptions contemporaines d’un bon leadership encouragent le travail en équipe et la collaboration et mettent l’accent sur la capacité à responsabiliser, à soutenir et à impliquer les travailleurs ». Elle explique que même si les hommes restent majoritaires en position de pouvoir, dans un monde politique et organisationnel où dominent les stéréotypes de genre, ces changements peuvent constituer un « avantage féminin ».
La seconde raison s’explique par un double standard de compétences masculines et féminines. À compétences égales, il est plus difficile pour une femme d’accéder au même poste à responsabilités qu’un homme. Mais d’un autre côté, les femmes qui accèdent à ces postes sont vues comme plus compétentes que leurs homologues masculins qui ont rencontré moins d’obstacles.
Partant de ce constat, on peut considérer que Kamala Harris, vice-présidente et candidate à l’élection présidentielle, partait sur un pied d’égalité avec Donald Trump : elle aurait donc pu incarner le leadership américain.
Reste que le leadership est toujours dépendant du contexte dans lequel il naît. Si les représentations du leadership et du charisme tendent à évoluer depuis près de cinquante ans, le contexte international, lui, s’est terni depuis la crise du Covid et la dernière campagne présidentielle. On observe un sentiment de déclassement social et une anxiété grandissante, notamment chez les jeunes hommes américains peu diplômés. Plus touchés par le chômage et moins enclins que leurs parents à atteindre l’indépendance financière au même âge, ce sont eux qui ont constitué la base électorale du parti républicain.
Dans des discours ouvertement misogynes et racistes, Trump dépeint une Amérique apocalyptique, rongée par des ennemis de l’intérieur, tout en promettant que le jour de l’investiture serait un « jour de libération ». Il manie une rhétorique populiste pour incarner l’idéal type du leader charismatique wébérien, un héros révolutionnaire et anticonstitutionnel. Il a également particulièrement marqué la campagne en brandissant le poing, le visage en sang, après une tentative d'assassinat. Dans une période où le futur paraît terrifiant, le leader belliqueux possède une puissance idéalisatrice dans la mesure où il incarne un fantasme de sécurité et de direction, pour le psychologue Kets de Vries.
Par contraste, Kamala Harris a voulu incarner le progrès social, la défense des droits et de la démocratie. Dans le climat de crise actuel, ce choix est apparu décalé.
Son échec à l’élection présidentielle montre que le leader charismatique est surtout un symbole d’une culture et d’une époque. Dans une Amérique en crise, les femmes, perçues comme moins dominantes et fortes que les hommes, peinent à incarner l’image du héros qui est attendu.
Pour autant, l’évolution des attentes sociétales montre une tendance de fond à l’ouverture de ce rôle aux femmes. La défaite de Kamala Harris ne doit pas faire oublier d’autres victoires, comme celle de la très populaire Jacinda Ardern, première ministre néo-zélandaise de 2017 à 2023, ou celles de l’Allemande Angela Merkel, qui a marqué le paysage politique européen pendant près de 20 ans.
Lucie Gabriel ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
18.11.2024 à 15:52
Steven Lam, Postdoctoral Scientist, CGIAR
Delia Grace, Professor Food Safety Systems at the Natural Resources Institute (UK) and contributing scientist ILRI, International Livestock Research Institute
Les stratégies de lutte contre l’épidémie de mpox (anciennement appelé « variole du singe ») qui sévit en Afrique en 2024 se concentrent sur la prévention de la transmission interhumaine. Elles doivent aussi s’attaquer aux causes profondes, en l’occurrence la viande sauvage vendue sur les marchés « humides » et responsable de la transmission du virus de l’animal à l’humain.
Dans de nombreux pays du monde, les animaux sauvages sont parfois tués pour être mangés, notamment les singes, les rats et les écureuils.
La viande sauvage contribue de manière significative à la nutrition en Afrique et à la satisfaction des préférences alimentaires en Asie.
En Afrique, la récolte annuelle de viande sauvage, estimée entre 1 million et 5 millions de tonnes, est considérable par rapport à la production animale du continent, qui s’élève à environ 14 millions de tonnes par an.
Les chercheurs en santé publique soulignent depuis longtemps le fait que les pratiques non hygiéniques concernant la viande sauvage sont potentiellement dangereuses en raison du risque de transmission d’agents pathogènes des animaux aux humains, notamment par contact étroit lors de la chasse, de la transformation ou de la consommation de viande insuffisamment cuite.
Cette préoccupation a été particulièrement forte lors de l’épidémie d’Ebola de 2014 en République démocratique du Congo. On sait qu’Ebola passe des animaux aux humains et que ces derniers sont probablement infectés en touchant ou en consommant des animaux forestiers infectés, malades ou morts, tels que les chauves-souris frugivores.
La variole simienne mpox est une autre zoonose connue pour passer de l’animal à l’humain.
À lire aussi : Qu’est-ce qu’une zoonose ?
Plus de 1 100 personnes sont mortes du mpox en Afrique, continent où quelque 48 000 cas ont été enregistrés depuis janvier 2024 dans 19 pays.
Jusqu’à présent, les stratégies de lutte contre l’épidémie de mpox de 2024 se sont essentiellement concentrées sur la prévention de la transmission interhumaine.
Mais nous devons également remonter aux causes profondes de la maladie, en particulier lorsque le mpox est transmis des animaux aux humains.
Appliquer les leçons tirées de la sécurité alimentaire est essentielle pour résoudre ce qui est une préoccupation urgente de santé publique.
La viande sauvage est souvent vendue avec d’autres aliments frais sur les marchés informels, également appelés marchés « humides ». Ces marchés fonctionnent généralement avec peu de réglementation et de normes d’hygiène, ce qui augmente le risque de maladies.
Nous sommes des chercheurs en santé publique spécialisés dans l’expérimentation et l’évaluation de solutions aux zoonoses (lorsque les humains sont infectés par des animaux sauvages), à la résistance antimicrobienne (lorsque les antibiotiques ne sont plus efficaces) et à la sécurité alimentaire.
Dans une nouvelle publication, en collaboration avec des collègues du CGIAR, dans le cadre d’un partenariat mondial visant à relever les défis des systèmes alimentaires, nous examinons des solutions prometteuses pour faire face aux risques liés à la viande sauvage.
L’approche One Health en est la clé. One Health réunit des experts en santé publique, des vétérinaires, des spécialistes de la faune et de la flore sauvages ainsi que des responsables communautaires afin d’élaborer des mesures globales.
Nos recherches ont montré que la sécurité alimentaire dans les marchés difficiles d’accès peut être améliorée si, et seulement si, trois domaines clés sont pris en compte :
Le renforcement des capacités : le renforcement des capacités permet d’offrir une formation et des technologies simples aux travailleurs des chaînes alimentaires et aux consommateurs.
Les efforts en matière de sécurité alimentaire sur les marchés informels se sont traditionnellement concentrés sur le fait d’encourager les communautés locales à adopter des pratiques plus sûres.
Il est essentiel de comprendre comment les gens perçoivent le risque de maladie et ce qui influence ces perceptions.
En République démocratique du Congo, par exemple, on observait une méfiance à l’égard des institutions officielles et un rejet des messages sanitaires du gouvernement liant Ebola à la viande de brousse.
Dans les communautés où les gens reconnaissent déjà les risques associés à la viande de brousse, les messages sanitaires pourraient se concentrer sur des mesures concrètes de protection.
Dans les endroits où le scepticisme existe, le partage des éléments de preuves concernant les risques pour la santé peut se révéler plus efficace.
Au lieu de promouvoir un programme anti-chasse, une approche plus utile pourrait consister à fournir des moyens afin de réduire le risque de transmission de maladies sans décourager complètement la chasse et la consommation.
Bien que cette approche ne permette pas d’éliminer tous les risques, elle sera probablement plus efficace qu’une campagne qui ne trouve pas d’écho au sein de la communauté.
S’il est important d’avoir les bonnes connaissances pour encourager le changement, il faut aussi des incitations.
La motivation et les incitations : bien que la sécurité alimentaire soit une préoccupation majeure pour les consommateurs du monde entier, elle est souvent reléguée au second plan par rapport à l’accessibilité financière. Pour ceux qui ont du mal à se procurer de la nourriture, la sécurité alimentaire n’est pas une priorité par rapport au coût.
Les gouvernements ont souvent eu recours à des interdictions et à des mesures d’application, notamment des amendes et des inspections, en tant qu’« incitations négatives » au changement.
En juin 2022, le gouvernement nigérian a interdit la vente de viande de brousse, par mesure de précaution, pour arrêter la propagation du virus mpox. Toutefois, ces interdictions peuvent avoir des conséquences inattendues, telles que la clandestinité des pratiques liées à la viande de brousse et l’aggravation des pratiques avec manque d’hygiène.
Il est potentiellement plus efficace de se concentrer sur les avantages économiques, sociaux ou moraux :
Les incitations économiques pourraient consister à décrire les gains financiers potentiels qui pourraient survenir en attirant une clientèle plus large, en raison de la confiance acquise grâce à une viande plus sûre.
Les incitations sociales pourraient consister à gagner la confiance des membres de la communauté.
Les incitations morales pourraient découler de la fierté de s’assurer que la viande de brousse est manipulée et vendue d’une manière qui réduit les risques pour la santé.
Les politiques et réglementations facilitantes : dans certaines communautés pauvres, les lois sur la sécurité alimentaire sont inexistantes ou ne s’appliquent pas aux marchés informels.
Reconnaître les vendeurs qui ont réalisé des améliorations notables en matière de sécurité alimentaire pourrait inciter d’autres personnes à suivre leur exemple.
En outre, la promotion d’autres sources de protéines en donnant accès à des options alimentaires abordables et nutritives et en soutenant des pratiques agricoles durables peut contribuer à réduire la dépendance à l’égard de la viande de brousse.
À lire aussi : Réconcilier engrais minéraux et agroécologie, une piste pour nourrir les populations d’Afrique de l’Ouest
Ainsi, alors que les pays planifient leurs réponses face au mpox, il convient de garder à l’esprit trois considérations essentielles :
Premièrement, il est important de reconnaître que la viande de brousse est un élément essentiel de la vie de nombreuses communautés et qu’elle contribue à leur santé et à leur bien-être.
Deuxièmement, les réponses doivent être élaborées avec la participation des communautés locales, ce qui augmentera les chances de succès.
Enfin, les pays à revenu élevé devraient montrer l’exemple non seulement en partageant leurs connaissances, mais aussi en augmentant le financement des initiatives mondiales en matière de santé, car cela peut réduire considérablement le risque d’épidémies à l’avenir.
À lire aussi : Vaccin contre le mpox : « L’urgence est d’augmenter les capacités de production »
Les travaux de recherche de Steven Lam s'inscrivent dans le cadre de l'initiative « One Health » du CGIAR, soutenue par le CGIAR Trust Fund.
Delia Grace ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
18.11.2024 à 15:51
Xavier Carpentier-Tanguy, Indopacifique, Géopolitique des mondes marins, réseaux et acteurs de l'influence, diplomatie publique, Sciences Po
La tenue de la COP dans un pays non démocratique, en l’occurrence l’Azerbaïdjan, n’a rien de nouveau : l’année dernière, l’événement avait eu lieu aux Émirats. Pendant ce temps, la Russie, la Chine ou encore la Syrie siègent au Comité de décolonisation de l’ONU et l’Arabie saoudite se trouve à la tête du Forum de l’ONU sur les droits des femmes. Pour les dirigeants de ces pays, organiser de telles manifestations et participer à de telles plates-formes présente de nombreux avantages.
La COP29, conférence internationale sur les enjeux climatiques, s’est ouverte le 11 novembre à Bakou, Azerbaïdjan. En une seule phrase se trouve condensée une partie conséquente des problèmes de la diplomatie internationale née après-guerre. La lutte contre le changement climatique – sujet capital pour l’ensemble des habitants de la planète – doit, en effet, être débattue sous la houlette d’un pays au régime dictatorial, grand producteur de pétrole et de gaz, et dont le rôle dans plusieurs grands dossiers géopolitiques a dernièrement été pour le moins controversé.
Les enjeux climatiques et la réduction de l’empreinte carbone intéressent au premier chef les producteurs d’hydrocarbures. La COP28 s’est ainsi tenue l’année dernière à Dubaï. Et la prochaine, la COP30, aura lieu à Belém, au Brésil, premier producteur d’hydrocarbures d’Amérique latine, 9e à l’échelle mondiale et potentiellement le 5e à l’horizon 2030.
Afin d’être en mesure de défendre au mieux leurs intérêts et d’anticiper toutes les évolutions envisageables, les pays producteurs cherchent à peser au maximum sur les discussions internationales relatives aux questions environnementales et énergétiques en organisant et en finançant les conférences. Soulignons à cet égard que Moukhtar Babaïev, ministre azerbaïdjanais de l’Écologie, chargé de diriger les travaux de la COP29, est un ancien cadre la compagnie pétrolière nationale, Socar. Le sultan Ahmed Al Jaber, président de la COP28 en sa qualité de ministre de l’Industrie des Émirats arabes unis, est pour sa part surnommé le « prince du pétrole » car il est le PDG de l’Abu Dhabi National Oil Company (ADNOC).
Cela ne peut surprendre : la dénomination même de COP (Conférence des Parties) – implique une approche pragmatique, afin de dépasser toute rigidité structurelle. Dans ce cadre, les parties sont au nombre de 198 : pays regroupés par aire géographique, mais également entités politiques comme l’Union européenne. On ne peut s’attendre à ce que les organisateurs de tels forums se contentent de jouer un rôle d’« honnête courtier » (honest broker) plutôt que piloter l’ensemble du projet. Et cela, d’autant plus que le succès exponentiel des COP est confirmé par le nombre d’intervenants, de journalistes, de lobbyistes et de suiveurs : environ 10 000 personnes en 1997 lors de l’adoption du protocole de Kyoto, plus de 30 000 à Paris en 2015, 45000 pour la COP27, plus 85000 pour la COP28, environ 70000 pour la COP29. Ces sommets constituent des événements d’une ampleur mondiale.
Pour l’Azerbaïdjan, la COP29 représente donc une magnifique occasion de redorer son image. Rappelons que, aux yeux de nombreux acteurs internationaux, ce pays de plus de 10 millions d’habitants se signale avant tout par le non-respect de multiples libertés individuelles, et le Conseil des droits de l’homme (organisme de l’ONU sur lequel nous reviendrons) a examiné son cas dans le cadre de l’Universal Periodic Review (UPR) le 9 novembre 2023.
L’Azerbaïdjan est en outre à l’origine d’un gros scandale de corruption auprès du conseil de l’Europe en 2017, surnommé le « Caviargate », et a été récemment désigné comme étant l’un des soutiens et organisateurs des violentes émeutes qui ont fait 13 morts au printemps dernier en Nouvelle-Calédonie. Le ministre de l’Intérieur de l’époque, Gerald Darmanin, n’a d’ailleurs pas hésité à accuser directement le régime Aliev d’ingérence, à travers l’exploitation du Groupe d’Initiative de Bakou (GIB). Des émeutiers avaient été vus et photographiés avec des t-shirts et des drapeaux aux couleurs de l’Azerbaïdjan et une forte activité Internet en vue d’accroître la diffusion de certaines informations avait également été observée depuis les structures digitales de ce pays.
À lire aussi : En Nouvelle-Calédonie, la France dans le viseur de l’Azerbaïdjan
Rappelons que le GIB, qui a été créé en juillet 2023 à Bakou en présence de représentants de mouvements indépendantistes de Martinique, de Guyane, de Nouvelle-Calédonie et de Polynésie française, a organisé une conférence internationale le 20 juin 2024 au siège des Nations unies à New York, intitulée « Vers l’indépendance et les libertés fondamentales : le rôle du C-24 (Comité spécial de la décolonisation des Nations Unis) dans l’élimination du colonialisme ». Une autre conférence, « La politique française du néocolonialisme en Afrique », toujours organisée par le GIB, le 3 octobre 2024, démontre la continuité de l’effort et indique que Paris est la cible clairement visée.
De telles actions, d’après de nombreux analystes, ont pour objectif de punir la France pour sa condamnation de l’offensive azerbaïdjanaise sur le Haut-Karabakh en 2023, venue à la suite du long blocus du corridor de Latchine (reliant le Karabakh à l’Arménie), qui a permis au régime d’Ilham Aliev de reprendre le contrôle de ce territoire et de mettre fin à la République indépendantiste de l’Artsakh, au prix de violents bombardements et d’une expulsion quasi totale de la population du Karabakh. Le Quai d’Orsay précise la position de Paris sur ce dossier :
« La France est résolument engagée aux côtés de l’Arménie et du peuple arménien, et en soutien aux réfugiés du Haut-Karabakh forcés de fuir par dizaines de milliers leur terre et leur foyer après l’offensive militaire déclenchée par l’Azerbaïdjan et neuf mois de blocus illégal. »
Des parlementaires européens se sont également alarmés de cette situation et ont soumis, le 21 octobre 2024, une proposition de résolution sur la situation en Azerbaïdjan, la violation des droits de l’homme et du droit international, et les relations avec l’Arménie.
Ce contexte tendu a incité les dirigeants français, qu’il s’agisse d’Emmanuel Macron ou de la ministre de la Transition écologique Agnès Pannier-Runacher, à refuser de se rendre à Bakou pour assister à la COP29.
Dans cette confrontation qui se déploie à de multiples niveaux (médiatique, juridique, diplomatique, etc.), notre grille de lecture doit s’adapter. Il est notable et problématique que la quasi-totalité des articles traitant des violences en Nouvelle-Calédonie évoquent de manière presque systématique les interventions et publications du Comité spécial de la décolonisation des Nations unies condamnant la position française – ce qu’il n’est pas question de juger ici –, considérant que le fait que cette instance relève de l’ONU lui confère automatiquement une légitimité indiscutable.
Pourtant, la présence au sein du Comité de la Russie (dont l’invasion militaire en Ukraine est pour le moins éloignée de tout souci de décolonisation) ou de la Chine (aux visées sur Taïwan bien connues, entre autres exemples de comportement agressif dans son voisinage régional), ou encore de la Syrie et de l’Éthiopie, deux pays récemment accusés de massacres à grande échelle contre leur propre population, peuvent et doivent interroger sur les agendas et sur les intérêts de chacun.
Le grand public et une partie des médias semblent observer avec confiance – ou désintérêt – l’action des grands acteurs internationaux quand ceux-ci semblent s’opposer au cadre occidental de gestion des affaires du monde qui a dominé pendant des décennies et est aujourd’hui largement remis en cause.
Or si l’ONU n’est certes pas, par nature, un club de nations démocratiques, il est pour le moins problématique que des États profondément autoritaires se retrouvent régulièrement, du fait du système tournant en vigueur, à la tête ou au sein de Comités chargés de veiller au respect des droits humains – rappelons que le 27 mars dernier, l’Arabie saoudite a été choisie à l’unanimité par l’ONU pour prendre les rênes du Forum sur les droits des femmes et l’égalité des sexes. Et en mai 2023, l’Iran a présidé le Forum social du Conseil des droits de l’homme de l’ONU.
L’actualité récente démontre que de nombreux régimes autoritaires sont non seulement pleinement intégrés à l’ONU mais, surtout, se sont emparés de thématiques qui semblaient, voici peu encore, intéresser avant tout les démocraties occidentales, et parviennent à imposer leur agenda lors de multiples sommets internationaux. Naturellement, l’essence de la diplomatie est de pouvoir mettre en présence toutes les parties afin d’obtenir des résultats satisfaisants. Toutefois, ce à quoi nous assistons avec de telles présidences donne lieu, au minimum, à deux constats.
Le premier est le relatif désengagement des démocraties occidentales de ces arènes, que ce soit par manque de moyens financiers, par manque de moyens humains ou par nécessité de se positionner sur d’autres espaces.
Le second constat est celui d’un effort clair et bien pensé visant, pour les régimes autoritaires, à s’emparer, voire à capturer ces thématiques (ainsi de la lutte contre la colonisation, devenue un outil permettant principalement de dénoncer les agissements des pays occidentaux), en jouant des traditions internationales nées de l’après-guerre et de l’état de certaines arènes internationales (ONU, Conseil de l’Europe…), qui apparaissent comme des géants fatigués.
Face à ce double constat, quelles solutions ? En 2008, l’universitaire Jan Aart Scholte proposait de réfléchir à une gouvernance polycentrique, c’est-à-dire décentrée sur un plan social et géographique. Une telle décentralisation est observable aujourd’hui. Mais il semble même que la dynamique post-Seconde Guerre mondiale se soit inversée : une multitude de sommets, de forums, de groupes et de sous-groupes animent des discussions et instrumentalisent certaines questions dont les sensibilités et les émotions sont dûment sélectionnées. Et cela, sous l’égide des grandes plates-formes politiques telles que l’ONU. Ces évolutions sont illustrées par de multiples concepts cherchant à saisir les formes d’action diplomatique (ping-pong diplomatie, panda diplomatie, orang-outan diplomatie ou encore caviar diplomatie). Différentes formes de gouvernance (certains parlent de gouvernance multilatérale, polylatérale, en réseau(x)…), manifestent également ces tentatives de capter la diversité des acteurs et de leurs capacités d’action. Ce qui rend compliqué de prendre la pleine mesure les défis ainsi posés.
Il demeure possible de croire que ce sont ses membres qui vont défendre les valeurs humanistes promues par l’ONU, mais il est également permis d’en douter et de se demander si l’une des étymologies du terme « diplomatie » ne s’est pas imposée : celle qui désigne le visage double et manipulateur d’acteurs qui retournent arguments et idéaux pour leur seul propre intérêt…
Xavier Carpentier-Tanguy ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
18.11.2024 à 15:50
Taline Ter Minassian, Historienne, professeure des universités. Co-directrice de l'Observatoire des États post-soviétiques jusqu'en 2024., Institut national des langues et civilisations orientales (Inalco)
Un an après l’offensive azerbaïdjanaise qui a permis à Bakou de reprendre par la force la région du Haut-Karabakh, l’Arménie se trouve dans une situation précaire et cherche à valoriser sa position de carrefour stratégique entre les mondes russe et iranien pour tirer son épingle du jeu.
Comme toujours, l’arrivée à l’aéroport de Zvartnots déclenche le mécanisme de la mémoire. Le vieil aéroport soviétique dépeint par Ryszard Kapuscinski dans Imperium (1993) n’est plus qu’une silhouette moderniste en attente de classement patrimonial. Plus de trente ans ont passé depuis la chute de l’URSS, les temps fiévreux de l’indépendance (21 septembre 1991) et la « première guerre » victorieuse du Karabakh.
Trente ans, et même bien plus, depuis les premières manifestations du Comité Karabakh, la révolution de 1988 et le terrible séisme qui frappa la région de Spitak et de Léninakan. Plus de trente ans que j’arpente ce pays, né des décombres du génocide de 1915, confronté au défi de l’indépendance après la Première Guerre mondiale, puis façonné par 70 ans de régime soviétique.
Aujourd’hui, au terme de trois décennies d’indépendance post-soviétique, où en est l’Arménie, ce si petit pays de moins de 3 millions d’habitants meurtri par deux défaites cuisantes infligées par l’Azerbaïdjan lors des guerres de 2020 et de 2023 ?
Sur la route qui mène de Zvartnots au centre ville tout proche d’Erevan se tient la colline de Yerablour, le cimetière où sont enterrés la plupart des 3 825 soldats morts au combat durant la guerre des 44 jours (27 septembre – 10 novembre 2020).
À lire aussi : « Il n’est pas mort pour rien » : un an après la défaite au Karabakh, le douloureux travail de deuil des familles arméniennes
Avec ses drapeaux tricolores flottant au vent, ceux de l’Arménie mais aussi ceux, distincts et reconnaissables, de la défunte République d’Artsakh (Haut-Karabakh), l’immense cité des morts s’est encore agrandie récemment d’un nouveau quartier funéraire, semblable par sa conception architecturale au mémorial de Stepanakert (la capitale de l’ex-État de facto de la République d’Artsakh). Ce nouveau carré de tombes est destiné aux hommes tombés lors de la courte guerre de septembre 2023 qui a abouti à la chute de la république d’Artsakh et au nettoyage ethnique de la région. Parmi les milliers de morts et portés disparus côté arménien et azerbaïdjanais, des deux dernières guerres du Karabakh, Albert, Rostam, Soghomon et tous les autres ont établi ici leur campement définitif, face à l’Ararat en majesté.
Détournant le regard de cette funeste colline, je remarque un livreur Yandex en scooter. Spectacle totalement inédit à Erevan. « C’est un livreur indien », me fait remarquer mon chauffeur. « Ils sont désormais nombreux en ville. Tu verras, ils sont partout. » Depuis l’arrivée de la dernière vague de migrants en provenance de l’État communiste du Kerala – l’un des principaux pôles de l’émigration indienne à destination du Moyen-Orient –, les 20 à 30 000 Indiens surpasseraient désormais en nombre la diaspora russe d’Erevan.
Où en est l’Arménie à l’automne 2024 ? La vie politique semble particulièrement atone depuis que le mouvement Tavouche pour la Patrie dirigé par l’archevêque Bagrat Galstanian, qui avait réclamé au printemps dernier la fin des concessions frontalières à l’Azerbaïdjan par le gouvernement de Nikol Pachinian, a cessé meetings et manifestations.
Porté au pouvoir par la révolution de velours en 2018, le premier ministre Nikol Pachinian a survécu à la défaite de 2020 et à la perte de l’Artsakh en 2023 dont les derniers dirigeants (comme Araïk Haroutounian, président de la république d’Artsakh et Rouben Vardanian, ministre d’État d’octobre 2022 à février 2023, liste non exhaustive) sont toujours emprisonnés à Bakou. Interrompant la « kharabakhisation » des élites politiques qui a caractérisé les premières décennies de l’indépendance, la perte de l’Artsakh joue paradoxalement en faveur d’un premier ministre qui, à aucun moment, ne s’est jugé responsable de la défaite de 2020.
Sur la scène internationale, Nikol Pachinian mène une diplomatie tous azimuts et, malgré une prise de distance affichée avec la Russie depuis deux ans, est toujours à la recherche d’une orientation.
Située le long de l’arc de la confrontation avec l’Occident, toute proche de nombreux théâtres de guerre (Ukraine, Syrie, Liban), l’Arménie de 2024 est plus que jamais à la croisée des chemins. Entre « lâche soulagement », dépression collective, divisions mais aussi indifférence apparente aux grands enjeux géopolitiques, l’Arménie semble suspendue à la résolution des conflits en cours. Du sommet des BRICS à Kazan (22-24 octobre 2024) à la rencontre de la Communauté politique européenne à Budapest (7 novembre 2024), de sommet en sommet, le premier ministre danse une valse-hésitation entre l’UE et la Russie – deux acteurs dont les propositions de médiations de paix avec l’Azerbaïdjan sont évidemment concurrentes.
Arrivée en ville, je vais à la rencontre d’une famille de réfugiés du Karabakh arrivée en Arménie en septembre 2023. Comme les 120 000 habitants qui étaient encore enfermés dans l’enclave du Karabakh, Siranouche a veillé sur ses sept enfants et l’ensemble de sa famille dans le corridor routier de Latchine lors du terrible exode-embouteillage qui a débuté le 24 septembre 2023.
Arrivée avec son mari, ses parents, sa sœur et toute la maisonnée originaire de Mardakert, Siranouche se réjouissait en 2023 de n’avoir pas eu de victimes à déplorer. Jeune mère courage, elle avait préparé ses plus jeunes enfants à un exercice d’évacuation en urgence comme s’il s’agissait d’un jeu.
Le 19 septembre 2023, les enfants rentraient de l’école. « Les enfants, vous vous souvenez de ce jeu pour lequel nous nous sommes exercés… ? Et bien voilà, le jeu a maintenant commencé… », a expliqué Siranouche. Un an et deux déménagements plus tard, de la plaine de l’Ararat à un village de la région de l’Aragats, la famille est à présent installée dans un logement modeste pour ne pas dire précaire d’une petite maison individuelle dans le quartier lointain de Karmir Blour, banlieue anciennement industrielle de la capitale arménienne, en partie édifiée par les rapatriés de 1947.
Dans l’entrée, une forme gisant sur le lit-sofa se révèle être celle de l’ancêtre de la famille. Vifs et joyeux, les enfants rentrent un peu plus tard d’une séance de catéchisme – « de l’Église apostolique arménienne ? », je pose la question en ayant à l’esprit l’aide sociale dispensée par certaines sectes –, avec chacun un cahier et quelques gadgets en plastique. La majorité des 120 000-140 000 Arméniens du Karabakh se trouvent aujourd’hui en Arménie, même si une partie d’entre eux ont d’ores et déjà émigré en Russie.
L’État arménien n’a pas la capacité de répondre à la situation économique et sociale de cette population de réfugiés, déracinée, sans emploi et sans logement stable. L’État arménien verse 50 000 drams (c’est-à-dire un peu plus de 115 euros) par mois à chaque réfugié pour l’aider à payer son loyer. Mais selon le défenseur des droits de la République d’Artsakh, dont la représentation existe toujours à Erevan, cette allocation mensuelle pourrait être supprimée dès janvier 2025.
Majoritairement concentrés dans le centre de l’Arménie, à Erevan et dans la plaine de l’Ararat, là où ils ont le plus de chance de trouver un emploi, à peine 4 300 des Arméniens du Karabakh ont acquis la nationalité arménienne. En effet, le passeport de l’ancien État de facto, portant la mention 070, n’étant pas une preuve de citoyenneté arménienne, il demeure un atout essentiel pour d’éventuels candidats à l’émigration internationale avec un statut de réfugié politique. Malgré des mesures incitatives, la plupart des réfugiés, traumatisés par les deux guerres, ne souhaitent pas résider dans les zones frontalières, même si un millier d’Arméniens du Karabakh se sont installés dans le Siounik, la région du sud de l’Arménie sur laquelle se resserre à présent l’étau de l’Azerbaïdjan.
C’est par cette question que j’entame un entretien informel le 30 octobre avec le premier président de la République d’Arménie. Par ces mots, j’entends la fin d’un cycle débuté avec le Comité Karabakh, fondé en 1988. Le mouvement en faveur du rattachement du Karabakh à l’Arménie avait alors été donné lieu à une authentique dynamique politique interne, propulsant sur le devant de la scène l’historien et philologue Levon Ter-Petrossian. Né à Alep en 1946, fils de l’un des fondateurs du parti communiste syrien, Hagop Ter-Petrossian, le premier président de la République d’Arménie me répond que « non, ce n’est pas la fin d’un cycle ». On se souvient en effet que l’administration de Ter-Petrossian avait fait une priorité durant les années 1990 de la nécessité d’une réconciliation arméno-turque et d’un règlement équilibré de la question du Karabakh…
L’Arménie peut-elle encore transformer en facteur de stabilité sa position géographique enclavée entre deux voisins aussi hostiles que l’Azerbaïdjan et la Turquie ? Les termes de l’accord de cessez-le-feu du 10 novembre 2020 signé sous les auspices de Vladimir Poutine l’enjoignent entre autres choses à ouvrir à travers son territoire des voies de communication entre l’Azerbaïdjan et le Nakhitchevan (région appartenant à l’Azerbaïdjan ayant des frontières avec l’Arménie, l’Iran et la Turquie, mais sans continuité territoriale avec la partie principale de l’Azerbaïdjan).
Depuis lors, la question d’un corridor, agencement politico-réticulaire assurant la « connectivité » d’Est en Ouest, est devenue obsessionnelle. Son statut et son tracé sont encore indéterminés car suspendus à la signature d’un traité de paix lui-même dépendant, entre autres choses, des activités conjointes des commissions gouvernementales arménienne et azerbaïdjanaise chargées du processus de délimitation des frontières entre les deux pays dans le respect des Accords d’Alma-Ata (21 décembre 1991).
En attendant, les formats de discussion se multiplient : initiatives de l’UE, format 3+3 avancé par la Russie, rencontre entre Pachinian et Aliev en marge du sommet des BRICS à Kazan… Quant au projet de traité de paix actuellement dans sa onzième version et négocié en bilatéral, l’Arménie vient de recevoir, le 5 novembre 2024, un paquet de contre-propositions azerbaïdjanaises. On sait que l’Azerbaïdjan exige, entre autres, une modification de la Constitution arménienne dont le préambule fait référence à la Déclaration d’indépendance de l’Arménie (1990), laquelle mentionne un acte d’unification adopté en 1989 par les organes législatifs de l’Arménie soviétique et de l’oblast autonome du Haut-Karabakh. Le 13 novembre 2024, Nikol Pachinian a finalement rejeté cette demande de l’Azerbaïdjan, considérée comme une condition préalable au traité de paix.
Sur le long ruban d’asphalte qui se déroule vers la région du Siounik, je croise en sens inverse sur la route de Yegheknadzor une file de véhicules 4x4, bien reconnaissables avec leurs petits drapeaux portant le sigle de l’UE.
Déployée le long de la frontière arméno-azerbaïdjanaise, la mission d’observation de l’UE subit les critiquées répétées de la Russie et de l’Azerbaïdjan. Bakou y voit une « mission d’espionnage » à ses frontières tandis que Moscou décrédibilise son action en affirmant qu’elle s’inscrit dans la stratégie des États-Unis et de l’UE visant à la concurrencer dans le Sud-Caucase.
Plus au sud encore, on prend la mesure du resserrement du territoire arménien depuis la défaite de 2020. Au plateau de Sissian, on parvient à la « fragile ligne de vie » qui relie l’Arménie à l’Iran. On est désormais sur l’axe nord-sud par lequel transitent, dans les deux sens, des norias de poids lourds iraniens venant du Golfe persique. C’est au cœur du dédale montagneux du Siounik que s’est déroulée « la crise routière » de 2021 lorsqu’il est apparu que l’ancienne route passait en territoire azerbaïdjanais, tranchant par exemple en deux le « célèbre » village de Chournoukh.
Il fallut alors créer, dans l’urgence, des voies de contournement périlleuses, faisant passer un défilé continuel de camions de 40 tonnes à travers le Pont du Diable au fond des gorges de Tatev, dont la descente, exclusivement en première, est décrite par Laurent Fourtune, ingénieur en chef des Ponts et Chaussées, comme digne du Salaire de la Peur. Depuis lors, en dépit des difficultés du terrain, le gouvernement arménien a montré qu’il se préoccupait activement de la restauration de l’axe nord-sud reliant Téhéran à Moscou à travers le territoire de l’Arménie. Et ce sont des intérêts très concrets qui président à la construction rapide de la nouvelle route vers le sud à partir de Sissian.
En Arménie, les Russes détiennent une grande part des intérêts miniers – notamment, tout près de l’Iran, la mine de cuivre et de molybdène de Kadjaran, exploitée par GeoProMining Rep, dont l’actionnaire majoritaire est l’oligarque russe Roman Trotsenko. Une partie du camionnage en provenance de l’Iran transporterait des matériaux ou des équipements nécessaires à l’exploitation de la mine.
Le tracé de la nouvelle route, H 45, contribue désormais à faire de Tatev, où se trouve le célèbre monastère, un nouveau hub routier. La construction de la H 45 avance à un rythme rapide, virage après virage, le long des flancs de montagnes à présent éventrés. D’ici quelques années, un montage de prêts internationaux de deux milliards d’euros devrait aboutir à la construction d’une route directe reliant Sissian à Meghri, porte de la frontière iranienne. Elle va notamment nécessiter le creusement de plusieurs tunnels permettant de court-circuiter le col de Tatev et le dédale montagneux du Zanguezour. Les Européens sont les maitres d’œuvre du tronçon nord de Sissian à Kadjaran grâce au financement de la Banque européenne d'investissement.
Quant au tronçon sud, il s’agit d’un projet de tunnel reliant directement la mine de Kadjaran à Meghri. Financé par la Banque eurasiatique de Développement, ce projet est porté par les Russes et les Iraniens. On ne peut mieux illustrer le fait que, contrainte et forcée, l’Arménie, est placée devant un nouveau défi : conjuguer sa situation de citadelle et sa position de carrefour au cœur des voies transcontinentales, en faisant le pari de sa propre survie.
Pour aller plus loin, lire Rouben, « L’Arménie à la croisée des chemins transcontinentaux », Beyrouth, 1948, réédition Erevan, 2023.
Taline Ter Minassian ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
18.11.2024 à 15:50
Gilles Séraphin, Professeur des universités en sciences de l'éducation et de la formation, Université Paris Nanterre – Université Paris Lumières
En France, afin de protéger un enfant en danger, il est possible de le confier à un proche. Ce type d’accueil, encore minoritaire, est plus développé dans les départements et les territoires d’outre-mer et présente un certain nombre d’avantages.
En France, afin de protéger un enfant en danger, il est possible de le confier à un proche. Au niveau judiciaire (une mesure judiciaire en protection de l’enfance est imposée aux détenteurs de l’autorité parentale, avec recherche de leur adhésion), la mesure de « confiage » à un membre de la famille ou à un « tiers digne de confiance » est mise en œuvre depuis 1958 (article 375-3 du code civil).
Au niveau administratif (une prestation administrative en protection de l’enfance repose sur l’accord formalisé des détenteurs de l’autorité parentale), la prestation de « tiers durable et bénévole », est créée en 2016 (article L 221-2-1 du CASF). Les conditions d’application sont précisées par les décrets n° 2016-1352 du 10 octobre 2016 et n° 2023-826 du 28 août 2023.
Aujourd’hui, les pouvoirs publics semblent redécouvrir ce dispositif et favorisent le placement d’un enfant en danger chez un proche bénévole plutôt qu’en établissement ou en famille d’accueil professionnalisée.
Depuis la loi n° 2022-140 du 7 février 2022 relative à la protection des enfants, dans le cadre de l’assistance éducative judiciaire, le magistrat doit préalablement analyser les possibilités de recours à un membre de la famille ou à un tiers avant de confier l’enfant à l’Aide sociale à l’enfance.
Les raisons de ce regain d’intérêt sont multiples. Selon une revue de littérature conduite par l’Observatoire national de la protection de l’enfance (ONPE) :
« Lorsque les institutions administratives ou judiciaires sont impliquées, plusieurs éléments plaident en faveur du développement de ce dispositif de prise en charge : l’accueil par un proche semble être l’option “préférée” par les enfants, les parents et les proches, lorsque les premiers doivent être retirés du domicile parental ; ce dispositif favorise le maintien de l’enfant dans son environnement, voire dans son cercle familial élargi, en conformité avec le droit international et européen qui garantit le droit de l’enfant à vivre dans sa famille. »
Ce type de dispositif aurait des résultats « au moins équivalents, sinon légèrement meilleurs, que ceux d’autres dispositifs de protection de l’enfance ». En outre, il a l’immense avantage d’être bénévole, donc peu onéreux, le département ne versant qu’une indemnité d’entretien mensuelle pour l’enfant.
Toujours selon l’étude de l’ONPE, fin 2022, « la part des placements chez les tiers dignes de confiance parmi l’ensemble des mineurs accueillis au titre de l’aide sociale à l’enfance (ASE) s’élève ainsi à 8 % – contre 40 % pour les prises en charge en famille d’accueil et 36 % pour les accueils au sein d’établissements habilités. L’accueil par un proche demeure donc très minoritaire.
Cependant, les départements et régions d’outre-mer (DROM) ont davantage recours à cette modalité d’accueil. Les prises en charge par un tiers digne de confiance comptent en effet pour 19 % de l’ensemble des placements de mineurs dans ces territoires (hors Mayotte) ».
À lire aussi : Enfants placés : le numérique, un recours pour « faire famille » ?
Cette surreprésentation semble avoir des raisons historiques puisque ce mode d’accueil y est ancien. À La Réunion, par exemple, il était de tradition de confier le dernier-né à une sœur qui n’avait pas (encore) d’enfants, pour une durée indéterminée. En outre, des enfants pouvaient être éduqués, parfois sur une longue période, par des proches plus aisés, ou vivant dans des lieux favorables à l’éducation de l’enfant, à proximité d’établissements scolaires par exemple.
Enfin, de façon générale, d’autres adultes pouvaient participer à l’éducation des enfants, souvent en vivant la journée au foyer : ce sont les « nénennes », des dames expérimentées équivalant à des « nounous » mais qui prenaient soin des enfants sur de très longues périodes, au foyer des parents, à tel point qu’elles avaient une place dans la vie de la famille.
Ainsi, dans le cadre interprétatif culturel, sur une période donnée, il peut se concevoir qu’un enfant ne vive pas avec ses parents. Une assise culturelle – ou une référence – existe. Alors qu’en France métropolitaine les pratiques de confiage sont progressivement devenues rares et surtout peuvent être incomprises puisqu’assimilées à des formes d’abandon, elles sont encore largement développées en France d’outre-mer puisqu’elles sont culturellement instituées et expliquées. Il ne s’agit pas d’un abandon d’un enfant, mais d’un confiage dans une relation de confiance partagée.
Le questionnaire mené en Guadeloupe, en Martinique, à la Réunion et à Saint-Martin entre 2021 et 2024, dans le cadre du programme de recherche Enfant protégé confié à un proche (EPCP) mené par le laboratoire Cref de l’Université Paris Nanterre, permet de déterminer qui sont les enfants, parents et tiers et quels sont leurs besoins.
De façon générale, les tiers sont des membres de la famille (81 %), souvent des grands-parents (58 %). Ils sont également dans une très large proportion des femmes (91 %), ne vivant pas en couple dans deux tiers des cas. 38 % de ces tiers dont on connaît la situation professionnelle occupent un emploi, la quasi-totalité étant ouvriers ou employés et 62 % sont soit au chômage, soit inactifs. Selon leur déclaration, 44 % perçoivent un des minima sociaux. Il s’agit donc d’une population quasi exclusivement issue de ce que nous pourrions appeler des classes populaires, bénéficiant souvent d’aides, et régulièrement éloignée du marché du travail.
[Déjà plus de 120 000 abonnements aux newsletters The Conversation. Et vous ? Abonnez-vous aujourd’hui pour mieux comprendre les grands enjeux du monde.]
78 % des tiers répondants affirment n’éprouver aucune difficulté. Les rares difficultés mentionnées, et les besoins afférents, sont d’ordre pécuniaire (insuffisance de moyens de subsistance), administratif (manque de soutien pour établir des documents et faire valoir des droits), d’habitat (logement exigu), de conciliation vie professionnelle/vie familiale, voire de carence de soutien individualisé auprès de l’enfant (suivi psychologique ou aide aux devoirs principalement).
Les enfants, pourtant marqués par un parcours de vie caractérisé par de nombreuses violences (physiques et/ou sexuelles et/ou psychologiques et/ou de situation de négligence et/ou de violences conjugales), émettent également un avis globalement positif sur ce mode de protection. Malgré la blessure de la séparation d’avec la famille d’origine, qui revient très souvent dans les témoignages, le tableau dressé paraît assez lumineux. Ces enfants émettent des opinions marquées par l’espérance et semblent bâtir des projets.
Par ailleurs, les quelques parents qui ont répondu les rejoignent globalement dans cet avis positif. Ces proportions, exceptionnelles, sont à souligner.
Selon la revue de revue de littérature conduite par l’ONPE :
« Certaines constantes émergent dans les différentes recherches menées en France et à l’international : la fragilité socio-économique des familles concernées par ces situations d’accueil, la plus forte implication des femmes dans les prises en charge, l’obligation morale qui impulse l’engagement des proches, le bouleversement du quotidien des accueillants lors de l’arrivée de l’enfant à leur domicile, la difficulté des familles à gérer la pluriparentalité, les besoins d’accompagnement encore non satisfaits par les services médico-sociaux, ou encore l’impression des parties prenantes de s’inscrire dans une certaine normalité en dépit de la singularité de leur situation familiale. »
Certes, il faut rester prudent sur les comparaisons internationales puisque ces enfants et familles ne vivent pas dans les mêmes cadres juridiques, et ne bénéficient pas des mêmes droits, notamment sociaux. L’expression des besoins n’est donc pas identique.
À lire aussi : À la Réunion, la pandémie aggrave les inégalités sociales
Toutefois, la plupart de ces constats généraux caractérisent fortement la population des tiers ultramarins étudiée, voire sont plus appuyés en ce qui concerne ces territoires (notamment en ce qui concerne la fragilité économique, la surreprésentation des femmes parmi les tiers, les difficultés de recours aux services médico-sociaux…). D’autres semblent moins associés, y compris en comparaison avec la France métropolitaine (notamment la difficulté de gérer la pluriparentalité puisque dans les Drom elle est traditionnellement reconnue et pratiquée).
Ainsi, dans les DROM comme en France métropolitaine, ce mode de protection est jugé favorablement par une très grande majorité d’acteurs. Ils font toutefois part d’un manque de soutien des autorités, tant au niveau financier, de l’information juridique et administrative qu’en termes de soutien psychologique.
Cette expérience du confiage, beaucoup plus développé dans leurs territoires, les Drom pourraient la mettre à profit de la France entière, quand il s’agit de faire évoluer les politiques publiques, notamment en ce qui concerne l’évaluation des situations. En effet, le référentiel HAS aujourd’hui en vigueur considère peu la disponibilité et la qualité de ces ressources constituées par les proches. Ils pourraient mettre aussi cette expérience à profit pour construire des dispositifs d’accompagnement adaptés, conformément aux nouvelles attentes règlementaires.
En outre, la situation des tiers ultramarins souligne l’extrême urgence d’imaginer des dispositions complémentaires (dans le cadre d’une politique d’aide aux aidants, d’un bénéfice total de tous les droits familiaux engagés par cette parentalité quotidienne pour que les tiers solidaires, principalement des femmes issues de milieux modestes, ne deviennent plus encore victimes de leur solidarité.
Sur ce programme de recherche, Gilles Séraphin a reçu des financements de : Fondation de France, Union européenne (programme Erasmus +), département de Guadeloupe.
18.11.2024 à 15:49
Maria Mercanti-Guérin, Maître de conférences en marketing digital, IAE Paris – Sorbonne Business School
La guerre de l’information que se livre la famille royale et la presse anglaise ne date pas d’hier. Mais à l’ère des réseaux sociaux et des deepfakes, la gestion chaotique de la communication autour de l’état de santé de Kate Middleton suite à l’annonce de son cancer a suscité un déluge de rumeurs complotistes et nuit à l’image de la princesse. La royauté est à un tournant en matière de communication.
Le 9 septembre 2024, le compte Instagram officiel du Prince et de la Princesse de Galles diffusait une vidéo annonçant la fin de la chimiothérapie de Kate Middleton. Réalisée par Will Warr, un publicitaire connu pour son travail pour des marques comme Uber Eats, Tesco ou Puma, cette vidéo a immédiatement « cassé » Internet avec plusieurs millions de vues en quelques heures. Au-delà des marques de sympathie, cette communication illustre une vie sous contrainte des réseaux sociaux et des fake news.
Elle dévoile des images très privées de Kate, filmées dans le Norfolk en pleine nature. Kate dans un décor bucolique se présente comme une survivante, un porte-drapeau de la lutte contre le cancer tirant sa force de l’amour de sa famille, de ses fans et de sa connexion privilégiée avec la nature. Bien que Kate soit devenue une figure incontournable sur les réseaux sociaux, avec plus de 54 millions d’abonnés sur ses comptes, la famille royale reste généralement réservée. La maxime « Never explain, never complain » (Ne jamais se plaindre, ne jamais se justifier) est toujours d’usage. Mais à l’ère des fake news et de la surinformation, cette stratégie devient de plus en plus difficile à maintenir et la maladie de Kate a donné lieu à une bataille intense sur les réseaux sociaux.
La vidéo où elle annonce son cancer a été vue plus de 5 millions de fois. Après l’annonce, le taux d’engagement sur les publications royales a bondi de 300 %. Parallèlement, des photos de la fête des mères, retouchées par IA, et le silence sur son état de santé ont alimenté toutes sortes de rumeurs complotistes. La disparition prolongée de Kate a été reprise par le hashtag #WhereIsKate. La famille royale a répondu avec #WeLoveYouCatherine, qui a été utilisé plus de 500 000 fois en 24 heures.
Quelles leçons tirer de ce marketing social chaotique où souffrir en privé est vu comme une faute et ne pas révéler son dossier médical un crime de lèse-majesté ?
Dans The Disinformation Age, Bennett et Livingston (2020) décrivent comment les plates-formes numériques ont bouleversé la communication publique, introduisant une ère où la désinformation est devenue omniprésente et particulièrement difficile à contrôler. Ces communications perturbatrices pénètrent dans les sphères publiques dominantes qui étaient autrefois les gardiens institutionnels de toute communication. Pourtant, la guerre de l’information que se livrent la famille royale et la presse anglaise ne date pas d’hier. Du drame de Diana en passant par les déboires d’Harry, de nombreux chercheurs se sont penchés sur cette presse très vite convertie à la dictature du clic et à l’économie de l’attention. Plusieurs étapes dans la dégradation de l’information sont à distinguer :
Étape 1, place au sensationnel
L’étape 1 correspond aux années 1980-1990 où la place réservée à la culture des célébrités et au gossip prend le pas sur le contenu sérieux et documenté. En 1998, seuls 8 % des éditoriaux du Sun et du Mirror pouvaient être considérés comme traitant de la politique ou de l’économie, le reste étant consacré aux potins ou au sport.
Étape 2, la chasse aux clics
L’étape 2 apparaît dans les années 2000 au cours desquelles le contenu généré par les utilisateurs commence à concurrencer celui des paparazzis. Le mobile se généralise et l’économie de l’attention cultivée par le journalisme sur Internet alimente un flot ininterrompu de contenus dont le seul objectif économique est de servir de support à la publicité digitale. Les réseaux sociaux amplifient ce phénomène.
Étape 3, l’ère de l’IA
L’étape 3 a commencé dans les années 2010. La génération d’images de célébrités par IA a pris son essor avec les GANs (generative adversarial networks), une technologie qui oppose un générateur d’images à un discriminateur pour créer des visuels réalistes. Les deepfakes utilisent des GANs, et superposent un visage (souvent celui d’une célébrité) sur une vidéo existante de manière très réaliste. Les expressions faciales, la voix, les mouvements de la personne réelle sont parfaitement imités. La frontière entre le réel et le fabriqué n’existe plus.
Cette ère des deepfakes est la dernière étape de la désinformation qui rend presque impossible une stratégie sociale efficace à savoir, comment utiliser au mieux son image pour promouvoir une marque ou une cause, gérer une communauté de fans, obtenir le maximum d’engagements sur ses publications. Les efforts de Kate Middleton pour préserver une image positive se heurtent à ce que Bennett et Livingston appellent « l’architecture de la désinformation », une dynamique systémique où les acteurs malveillants utilisent la technologie pour amplifier le doute, la suspicion, et brouiller les frontières entre le vrai et le faux.
Le problème est que Kate elle-même y a eu recours. La photo de la fête des mères et même la vidéo de son annonce du cancer auraient été retouchées par l’IA. D’anciennes photos de la Reine sont soumises au même processus de vérification grâce à des outils de détection d’IA disponibles sur Internet et accessibles à tous. Cette utilisation par la Famille royale de l’IA marque la fin de la communication institutionnelle et des différents narratifs développés jusque-là avec succès par la monarchie fondés sur la tradition et la famille.
Le deuxième aspect de la désinformation réside dans une surmonétisation de chaque apparition publique. Le « Privacy Paradox » (être vu et rester caché) est reproché à la monarchie : réclamer une vie privée tout en s’exposant et en tirer avantage en termes de popularité. Le problème est que ce sont les médias, réseaux sociaux, marques et autres plates-formes d’influence qui en tirent le bénéfice le plus important.
Concernant la publicité digitale, une analyse menée sur l’outil de Social Listening TalkWalker montre qu’en une semaine moyenne, le hashtag #KateMiddleton a été utilisé 4 500 fois et a touché presque 130 millions de personnes. Un des signes que l’image de Kate est abîmée par ces multiples polémiques est confirmée par l’analyse de sentiment effectuée, une méthode qui consiste à utiliser des outils d’IA pour identifier et évaluer les émotions ou opinions exprimées dans un texte, comme positif, négatif ou neutre. 438 influenceurs gagnent leur vie grâce à ce hashtag, qui permet de rassembler une communauté autour d’un sujet précis, augmentant ainsi leur visibilité et attirant l’intérêt des marques pour des collaborations.
Parmi eux, 93 % sont actifs sur X et plus de 5 % sur YouTube. C’est sur ce réseau que la monétisation serait la plus forte avec 4 400 euros par mois et par influenceur gagnés grâce à la thématique « Kate Middleton ». Kate est également une influenceuse dont la particularité est de ne rien recevoir en retour.
Reiss, L.K. Bennett et Zara ont vu leurs ventes augmenter de 200 % après que Kate ait porté leurs créations. Les vêtements qu’elle choisit se vendent en moyenne cinq fois plus rapidement. L’impact économique annuel de Kate sur la mode britannique est estimé à 1,2 milliard d’euros. La pression pour qu’elle revienne et continue son travail d’ambassadrice de mode est donc particulièrement forte.
Sa stratégie sociale reposait jusqu’alors sur 5 piliers : cible populaire, positionnement sur l’univers de la mode, proximité, capacité à générer de l’engagement, adoption de codes tirés de l’industrie du cinéma et du divertissement. Mais une dernière règle avait été oubliée : le contrôle absolu n’existe pas. Son humanité devient un produit comme les autres. Ce n’est pas seulement la mort de la vie privée, c’est la transformation de chaque moment personnel en contenu à consommer, partager, et analyser. Et ce modèle ne tolère ni pause, ni silence.
La royauté est, donc, à un tournant en matière de communication. Sa stratégie doit, désormais, reposer sur une agilité en termes de gestion de crise, une révolution concernant la transparence de l’information, l’attachement à une authenticité non médiatisée par les écrans. Dans un monde où chaque image peut être falsifiée, la sincérité des moments capturés et la véracité des informations partagées deviennent des valeurs cruciales pour redonner de la crédibilité à la communication publique. Un engagement éthique sur son refus d’utiliser des images ou films générés par l’IA pourrait restaurer la confiance perdue. Enfin, le retour sur le terrain et la multiplication de visites authentiques avec de « vrais gens » pourraient, pour un temps, faire taire les rumeurs. Dernière règle, accepter que le silence est un luxe que même les princesses ne peuvent se permettre.
Maria Mercanti-Guérin ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
18.11.2024 à 15:49
Frédéric Gauthier, Professeur associé en logistique internationale, Université de Picardie Jules Verne (UPJV)
Définir l’origine d’un produit est plus compliqué qu’il n’y paraît. Le droit, au niveau national ou européen, fixe un certain nombre de règles pour déterminer ce qu’il est autorisé d’apposer comme origine.
On parle beaucoup du made in France, mais de quoi parle-t-on ? Pour définir le made in France il convient de comprendre au préalable les règles d’origine appliquées au sein de l’Union européenne. Le made in EU nous permet en effet de comprendre le made in France. Ces règles définissent ce qui fait qu’un pays est bien celui qui fabrique. La douane et la règlementation douanière avec elle, dans sa mission régalienne de contrôle aux frontières des marchandises, a par nature la crédibilité de définir et de contrôler des produits made in France. Elle nous apporte ainsi une clarification sur la question.
La règlementation douanière qu’il convient d’appréhender pour comprendre le made in France est celle des règles d’origine définies au niveau de l’Union européenne. Définis dans le Code des douanes de l’Union, les articles 59 à 63 en donnent les caractéristiques. L’article 60 explique la notion fondamentale de produit soit sans transformation soit entièrement obtenu dans un même pays. Le mot entièrement explique le questionnement du made in. En effet, dans le même article, la notion de transformation substantielle est affirmée. À partir de quand peut-on dire qu’une transformation change le pays d’origine d’un produit ?
Cette définition liée à la transformation appelle des précisions que l’acte délégué de l’Union 2015/2446 ne manque pas d’apporter. L’article 31 y précise quel type de marchandise peut être compris dans la notion de transformation. Ainsi, les animaux vivants qui sont nés et ont été élevés dans un pays ne sont pas concernés par la notion de transformation. Suivent dans le même document les transformations permettant aux produits de devenir made in EU. L’article 34 du même règlement précise par contre la liste des opérations sur le produit fini qui sont insuffisantes pour modifier l’origine d’un produit, comme simplement apposer des étiquettes.
L’entreprise qui revendique une origine doit pouvoir le prouver par son processus de production, par la certification de ses fournisseurs et l’identification des produits achetés. On retient de cette base réglementaire que l’origine d’un produit s’intéresse au produit lui-même et à la réalité de son élaboration. Cette origine est ainsi déterminée au cas par cas selon la spécificité de l’industrie et de son organisation, même si des principes généraux président à leur application.
Pour définir le pays d’origine d’un produit, plusieurs principes peuvent s’appliquer. La douane met en ligne une fiche précieuse pour définir l’origine d’un produit.
Il peut s’agir d’un changement de code de nomenclature du produit que l’on peut consulter dans l’encyclopédie tarifaire en ligne. En effet, chaque produit est repris dans la nomenclature qui est un système de codification des marchandises, où il possède un code. La première règle existante s’appelle le changement de position tarifaire. Dans ce cas, les premiers chiffres du code diffèrent de ceux des produits importés et non originaires de l’Union européenne. À cette condition la transformation sera substantielle et le dernier pays ainsi défini deviendra pays d’origine.
La deuxième règle est le critère de valeur ajoutée que l’on peut trouver dans d’autres cas. À la transformation doit s’ajouter une valeur ajoutée minimum. La troisième règle est celle de l’ouvraison (opération de transformation partielle d’un produit) spécifique que l’on trouve par exemple dans l’industrie textile. Certains produits textiles peuvent être soumis à la règle établissant que la confection complète (c’est-à-dire toutes les opérations qui suivent la coupe de tissus) doit avoir lieu dans le pays qui donne l’origine. L’opération spécifique de transformation permet alors d’acquérir l’origine Union européenne.
Il peut exister des cas particuliers qui font qu’un produit donné ne peut se voir attribuer un pays d’origine selon les règles primaires précédemment citées. Des règles résiduelles permettent d’y remédier. Les enjeux sont nombreux : comment assurer une souveraineté voire une préservation et un essor des industries existantes dans l’Union européenne au sein d’un environnement mondial ? Qu’en est-il par ailleurs de ces règles confrontées aux règles des autres pays ?
Non seulement l’Union européenne n’est pas seule, mais, étant très intégrée au commerce international, elle a établi des accords préférentiels avec un grand nombre de pays dans le monde.
L’origine d’un produit dans l’UE ainsi définie est appelée origine non préférentielle. L’entreprise vérifie alors si elle peut bénéficier d’une origine dite préférentielle. Cette dernière ne concerne pas le seul pays de fabrication du produit mais également le pays où il va être livré.
Par exemple, si une entreprise exporte des produits au Maroc, elle peut se demander s’il existe un accord préférentiel entre l’Union européenne et ce pays. Cet accord peut permettre de réduire les droits de douane qu’une entreprise aurait à payer. L’entreprise peut ainsi bénéficier d’avantages compétitifs à l’achat comme à la vente, car les concurrents d’autres pays auront à les payer. L’achat et la vente peuvent ainsi se trouver liés et avoir des implications stratégiques à considérer : où se fournir, où produire, où vendre…
Les règles d’origine non préférentielles de l’Union européenne vont s’appliquer pour définir une origine France. À la différence des règles présentées précédemment, les autres pays de l’Union européenne deviennent des pays tiers. Le bureau de douane de Clermont-Ferrand est spécialisé dans les questions liées au made in France. De la même manière, l’utilisation abusive du made in France pour des ventes en France est du ressort de la Direction générale de la concurrence et de la répression des fraudes.
S’il n’est pas si simple d’identifier le made in France, la douane nous donne des outils pour le faire. Les règles applicables sont très finement adaptées à la diversité des situations aussi différentes qu’il existe de produits et de pays. Le made in France se définit dans un environnement concurrentiel où les forces et faiblesses de la production en France s’affichent. Il se pense à l’échelle des consommateurs, de la politique des États, des marchés et des entreprises, ce qui fait de lui une évidence complexe.
La production française est renforcée par la perception des consommateurs, mais également par son empreinte carbone plus faible et la réactivité des entreprises lorsque des chaînes d’approvisionnement plus courtes sont possibles. Sans oublier l’exportation, où le made in France a à faire valoir sa différence dans un monde de contraintes compétitives. Le made in France affiche ce qu’est notre compétitivité et notre attractivité en France, dans l’Union européenne et dans le monde.
Frédéric Gauthier pour l'Université de Picardie Jules Verne - Laboratoire des Technologies Innovantes comme professeur associé
18.11.2024 à 10:56
Fabien Bottini, Professeur des Universités en droit public, Le Mans Université
François Langot, Professeur d'économie, Directeur de l'Observatoire Macro du CEPREMAP, Le Mans Université
Les avancées technologiques provoquent d’une part la disparition de certains emplois, mais aussi l’apparition de nouveaux métiers. Comment anticiper ces évolutions pour accompagner au mieux et éviter les tensions sur le marché du travail ?
En juillet 2024, un rapport public nous apprenait que la réindustrialisation du pays patinait faute notamment de capacités suffisantes de formation. En octobre, des aéroports ont été durement touchés par une grève spontanée. Début novembre, Auchan et Michelin annonçaient respectivement 2400 et 1250 suppressions de postes… Autant d’informations révélatrices des tensions actuelles sur le rapport au travail.
Or, celles-ci vont inévitablement s’accentuer sous le coup des transitions écologique et démographique ou bien encore d’innovations technologiques telles que l’intelligence artificielle. C’est la leçon que l’on peut tirer de la révolution numérique des années 1980, puisque l’adoption des ordinateurs a éliminé de nombreux emplois exécutant des tâches dites routinières dans les bureaux et les usines.
Si la chose est connue, il ne faut toutefois pas perdre de vue que cette révolution a dans le même temps fait naître de nouveaux types de travailleurs, comme les développeurs de logiciels et les spécialistes en informatique. Des jobs inédits à l’époque qui emploient aujourd’hui des millions de personnes. En 2000, il y avait d’ailleurs approximativement 20 millions d’employés en France contre plus de 27 millions aujourd’hui, soit 200 000 nouveaux emplois créés chaque année en moyenne. De sorte que si les transitions entraînent des pertes d’emplois à court terme, elles sont également susceptibles d’en créer à plus long terme.
Comme l’ont expliqué Joseph Schumpeter puis Philippe Aghion, ce phénomène de « destruction créatrice d’emplois », souvent perçu comme anxiogène, peut de ce point de vue constituer des opportunités pour le monde du travail, surtout s’il est accompagné par l’État et les partenaires sociaux.
Que vous soyez dirigeants en quête de stratégies ou salariés qui s'interrogent sur les choix de leur hiérarchie, recevez notre newsletter thématique « Entreprise(s) » : les clés de la recherche pour la vie professionnelle et les conseils de nos experts. Abonnez-vous dès aujourd’hui
D’où l’importance de bien maîtriser ses tenants et aboutissants. D’autant qu’on s’attend à ce que les effets des transitions en cours soient démultipliés par la raréfaction de l’accès à certaines ressources nécessaires aux besoins essentiels de chacun et la fragmentation du marché mondial, dans un contexte géopolitique tendu.
Pour s’approprier ce phénomène, de nombreuses données statistiques nouvelles sont mobilisables, par exemple pour étudier les conséquences de ces mutations sur les inégalités de salaire, mais aussi l’impact des réformes juridiques destinées à accompagner et rendre profitable pour toutes ces futures réallocations d’emplois. Encore faut-il véritablement utiliser ces ressources pour adapter les politiques publiques aux besoins d’accompagnement que ces mutations du travail font naître.
Si les gouvernants sont aujourd’hui conduits à faire des choix difficiles pour redresser les comptes publics, l’importance de ce travail prospectif ne doit ainsi pas être sous-estimée. Car la transition démographique et le vieillissement de la population qu’elle induit accroissent les besoins de financement de la sécurité sociale, tels que ceux des retraites. Des réformes, comme celle conduisant à un recul de l’âge moyen de départ en retraite, peuvent certes en partie garantir la soutenabilité de ses dépenses. Mais cette dernière sera avant tout assurée par des ressources croissantes venant d’un travail plus efficace. Or, cette réallocation continue des travailleurs vers les emplois les plus productifs est un phénomène complexe, car ils sont exposés de façons hétérogènes au ralentissement d’activités polluantes ou à l’automatisation de certaines tâches, pour ne prendre que ces exemples.
Ceux effectuant des tâches « robotisables » devront en effet effectuer une mobilité, comme ceux employés dans des entreprises carbonées ou trop âgés pour être formés aux nouvelles technologies. Autant de situations qui s’accompagnent potentiellement d’une perte de revenus, en faisant les perdants de ces mutations. Cela confirme l’importance pour les pouvoirs publics d’anticiper finement les mutations du travail, pour absorber ces risques de fortes variations de revenus et éviter de nouvelles tensions sociales.
Surtout que les interrogations sont nombreuses : comment opérer les réallocations d’emploi avant qu’il n’y ait des licenciements ? Quels nouveaux mécanismes inventer pour compenser les pertes de revenu, former tout au long de vie, prévenir les problèmes de santé associés ? Comment, en d’autres termes, penser ces changements pour ne pas avoir à les panser dans le cadre d’une société vieillissante, où la pérennité financière de la protection sociale et son rôle d’« amortisseur social » posent question ?
Évaluer nationalement les systèmes existants d’aide à l’embauche et à la formation, de soutien aux bas revenus, de retraite, d’organisation du travail… pour définir les réformes permettant d’optimiser leurs rendements est un premier élément de réponse.
Mais à condition que ce rendement s’apprécie non seulement du point de vue économique, mais aussi du point de vue social et environnemental, comme devraient par exemple le permettre les nouvelles obligations de reporting extrafinancier pesant sur les entreprises, ou la publication d’un index de l’égalité professionnelle. Une seconde piste à creuser, complémentaire, passe par une nouvelle répartition des compétences entre le niveau national et les échelons locaux, qui renforce les prérogatives de ces derniers pour orienter et accompagner le redéploiement de l’emploi au niveau de leurs territoires.
Ceci suppose d’abord de donner aux élus locaux et chefs d’entreprises de leurs circonscriptions les moyens de cerner les besoins de leurs populations et de leurs travailleurs. Pour ce faire, il leur faudra notamment mettre en place de nouveaux outils de gouvernance pour prendre des décisions concertées et éclairées, par exemple via la constitution de nouveaux réseaux « sentinelle », rendant possible de monitorer, en temps réel et de façon adaptée, les transformations à l’œuvre. De ce point de vue, il serait utile de profiter de l’ancrage territorial des Universités et centres de recherche spécialisés pour créer de nouveaux partenariats public-privé sur ces questions. Ce regard croisé entre élus, employeurs et monde de la recherche pourrait ensuite être mobilisé pour évaluer, de façon indépendante et efficace, au niveau local, les réponses sur-mesure à apporter aux défis propres d’un territoire, à la lumière de leur capacité à s’articuler au mieux avec les initiatives nationales, supranationales, voire internationales.
Repenser l’interaction entre les échelles de l’État et les sphères publiques et privées s’impose d’autant plus que ces transitions changeront la géographie de l’emploi plus vite qu’on ne le croit. Elles font d’ailleurs déjà naître de nouvelles questions, liées à la territorialisation de l’énergie, l’économie circulaire, la souveraineté alimentaire, la relocation résidentielle et industrielle, la planification du care et de l’éducation…
Autant d’évolutions dont l’analyse devrait rester une priorité pour les pouvoirs publics. Cela leur permettra de mobiliser au mieux la boîte à outils juridiques et socio-économiques à leur disposition pour accompagner les destructions créatrices d’emplois, d’une façon qui permette la continuité de la satisfaction des besoins essentiels des habitants, travailleurs et entreprises. Ce n’est qu’à cette condition que ce processus pourra devenir une véritable opportunité.
Fabien Bottini est chargé de mission pour la Fondafip, le think-thank des Finances publiques, membre de l'Observatoire de l'éthique publique (OEP) et de la MSH Ange Guépin. Il a perçu ou perçoit des subventions de la part du LexFEIM et du Thémis-UM, laboratoires de recherche en droit, et de la Mission de recherche Droit & Justice. Il est par ailleurs titulaire de la chaire "Innovation" de l'Institut Universitaire de France et de la chaire "Neutralité Carbone 2040" de Le Mans Université qui financent également en partie ses travaux.
François Langot ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
18.11.2024 à 10:44
Eric Dugas, Professeur des universités et chargé de mission handicap (empathie/inclusivité, jeux, handicap/maladie, mise en jeu corporelle, rapport à l'espace/architecture), Université de Bordeaux
Dans le cadre DuoDay, le Premier ministre, Michel Barnier recevra jeudi 21 novembre son binôme. Cette initiative vise à rapprocher les personnes en situation de handicap du monde du travail l’emploi. Pourtant intéressante que soit cette initiative, il serait nécessaire d'aller plus loin maintenant.
Malgré des progrès notables, de nombreuses incitations, recommandations et obligations ces dernières décennies, le taux de chômage touche actuellement quasiment deux fois plus les personnes en situation de handicap (PSH). Sachant que les représentations et autres préjugés ou discriminations persistent encore de nos jours.
Dans ce contexte contrasté, un évènement tire son épingle du jeu. Il s’agit de « DuoDay ». C’est un évènement national, construit sur une journée, qui permet aux PSH de découvrir des métiers en entreprise en formant un duo avec un professionnel « valide » volontaire. Apparue en Irlande en 2008, cette initiative s’est étendue en Europe, notamment en France avec une septième édition qui se réalise depuis 2018, en novembre, dans le cadre de la « Semaine européenne pour l’emploi » des PSH. En 2023, 27 613 duos ont été ainsi créés et 13 550 employeurs ont participé à cette journée en plein essor.
Cette initiative originale est intéressante sur plusieurs points. D’une part, elle permet surtout la rencontre avec autrui, l’interaction en face à face, réduisant ainsi la distance physique pour mieux réduire la distance sociale. Car la mise à distance freine le processus dynamique et interactionnel de la participation sociale, ce qui peut conduire à la désaffiliation ou à la disqualification sociale. Sans compréhension, sans éprouver l’autre, guère de reconnaissance in fine ; les PSH vivent alors l’expérience du déni de reconnaissance.
Que vous soyez dirigeants en quête de stratégies ou salariés qui s'interrogent sur les choix de leur hiérarchie, recevez notre newsletter thématique « Entreprise(s) » : les clés de la recherche pour la vie professionnelle et les conseils de nos experts. Abonnez-vous dès aujourd’hui
L’éveil et la préoccupation empathiques se dessinent dans cette rencontre à l’autre. Il s’agit dès lors pour le duo de mieux se connaître, mais surtout pour l’employeur de connaître et comprendre les PSH. Or elles sont dans un perpétuel « entre-deux » dans lequel le regard posé sur eux est parfois ambivalent, entre attirance et rejet. En cette occasion offerte, autant faire pencher la balance du bon côté…
Enfin, ce stage d’une journée non rémunéré peut mettre le pied à l’étrier vers l’emploi, permettre de développer son réseau. Environ un quart des PSH seulement ont obtenu un emploi ou un stage prolongé à l’issue de cette expérience. Ce n’est pas rien… Mais est-ce bien perçu par les PSH ? Le temps fugace d’une rencontre est-il le temps des PSH ?
À lire aussi : Pour les personnes en situation de handicap, l’insertion dans l’emploi demeure une course d’obstacles
Pourtant, des voix s’élèvent, dont celles des premiers concernés, les PSH. Si le « DuoDay » est très riche, il est toutefois asymétrique dans sa conception. C’est à la PSH de venir chez l’employeur. Une domination symbolique renforcée par la rencontre dans l’espace de travail de l’entreprise ou de la structure d’accueil. Or, les espaces ne sont pas de simples décors, ils conditionnent aussi nos manières d’être et nos comportements.
Pêle-mêle, lit-on sur les réseaux sociaux que des PSH ainsi que des personnes dites « valides/ neurotypiques » n’apprécient guère ce liant unilatéral et médiatique, même si les entreprises sont volontaires et bienveillantes. L’évènement peut être perçu, voire vécu, comme infantilisant, déresponsabilisant ou démonstratif pour la bonne image de l’entreprise, etc. Dès sa première édition, l’initiative DuoDay est loin de faire l’unanimité. Des PSH se sont senties « le stagiaire d’un jour », la figure de proue du « selfie inclusif », celle de « l’assistée »… Alors, « DuoDay, propagande ou opportunité ? » Une opération de communication avant tout ou un levier, parmi d’autres, révélant le potentiel des PSH pour lutter contre les préjugés et favoriser leur employabilité ?
Si on considère que l’inclusivité sociale et professionnelle demande un lien de réciprocité - au sens où les PSH revendiquent de s’intégrer selon leurs moyens, et d’être incluses selon leurs besoins – alors la participation active et effective à ces dispositifs doit les situer dans une expérience plus égalitaire. Dit autrement, si la rencontre physique, le face-à-face, le co-éprouvé est un levier essentiel de l’éveil à l’autre et aux altérités, le « aller vers » de l’employeur à l’endroit des PSH qui travaillent est essentiel. L’employeur se rendrait compte qu’ils sont autrement capables en voyant concrètement les adaptations et aménagements qui permettent un environnement de travail propice à la créativité, à l’accomplissement individuel et collectif, à la productivité et performance pour tous (pas seulement les PSH).
C’est ainsi que certaines personnes ont proposé le « DuoDay inversé ». Pour illustration, c’est aux travailleurs/employeurs de consacrer une journée immersive auprès des PSH dans leur environnement de travail, à l’instar du « Duo2 » organisé sur une journée par la Fondation des Amis de l’Atelier.
L’empathie, concept multidimensionnel à utiliser avec précaution et mesure, peut se résumer par la capacité à se mettre à la place des autres, tout en sachant que cet autre n’est pas soi, pour comprendre ce qu’il éprouve, ressent et pense. En ce sens, la motivation à se soucier de l’autre puis la prise de perspective vis-à-vis des PSH requièrent par exemple des éléments clés in situ : interagir ensemble, l’observation d’autrui et l’inversion des rôles pour partager et exprimer les ressentis.
Ici, l’idée soumise n’est pas une sorte de « vis ma vie », en inversant les rôles, ni un « DuoDay inversé » unilatéral, mais un DuoDay réciproque, bilatéral, symétrique, sur un minimum de 2 jours d’affilé ou sur une période donnée. Ces temps conjugués sont plus longs, mais gagneraient en efficacité en jugeant enfin la PSH non pas sur ses manques, mais sur ses compétences.
Observer et rencontrer une PSH dans son environnement (de travail ou de la vie quotidienne) ne la place pas dans une situation de dominé ou dans une position inconfortable. Elle la place dans une situation permettant de comprendre que si le handicap est présent, la situation de handicap, quant à elle, dépend d’une part, de l’environnement et de l’aménagement du lieu de travail ou de vie et, d’autre part, du regard porté sur la PSH ; car le premier miroir, c’est l’autre.
Ces deux facteurs sont indissociables et, selon la qualité de l’organisation et de la maîtrise de ces deux rencontres, le curseur de la reconnaissance oscillera du côté positif ou négatif. La juste distance demande donc un effort de réciprocité (aller vers et recevoir). D’ailleurs, débuter le premier DuoDay en allant sur le terrain de la PSH rendra plus sereine la seconde rencontre en entreprise (avec le même professionnel, voire un autre de la même entreprise ou du même service), du fait de la mise en confiance au premier rendez-vous. Sachant que la PSH peut être un étudiant, un employé, un entrepreneur, en reconversion professionnelle ou un travailleur en ESAT.
Se rencontrer physiquement, et doublement, permettrait de mieux saisir et d’agir au cœur d’un véritable processus d’inclusivité professionnelle, donc d’employabilité et de recrutement. En somme, l’inclusivité est un mécanisme réciproque, plus horizontal, qui sollicite deux DuoDays indispensables et inséparables, comme les deux faces d’une pièce de monnaie. N’oublions pas, à l’instar du psychosociologue Jacques Salomé, que si c’est dans l’ombre de soi-même que l’on fait les rencontres les plus lumineuses, encore faut-il oser le pas vers l’autre, pour mieux faire le pas de côté, celui de la dignité.
Eric Dugas ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
18.11.2024 à 10:44
Lucas Miailhes, Doctorant en Science Politique/Relations Internationales, Institut catholique de Lille (ICL)
Les constructeurs européens envisagent de plus en plus d’opter pour la technologie de batterie lithium-fer-phosphate (LFP), très répandue en Chine, plutôt que la nickel-manganèse-cobalt (NMC) plus répandu en Europe. Un choix technologique important en termes de souveraineté industrielle et de dépendance économique aux producteurs de métaux… mais qui peut aussi les aider à vendre des véhicules électriques plus abordables.
Face à la demande croissante de véhicules électriques plus abordables, les constructeurs européens diversifient de plus en plus leur portefeuille de batteries. Ils commencent à intégrer la technologie LFP (pour lithium, fer, phosphate), un type de batteries lithium-ion qui domine actuellement le marché en Chine du fait de son coût moins élevé que les batteries NMC (pour nickel, manganèse, cobalt), plus fréquentes en Europe.
De quoi questionner la pérennité des investissements européens dans la production de batteries, qui ont jusqu’ici surtout concerné le NMC. Cela pose aussi la question d’une dépendance potentielle envers les fabricants asiatiques, avec des implications différentes en termes de métaux critiques.
Autrement dit, c’est un enjeu de souveraineté industrielle pour le secteur automobile du vieux continent, qui souligne la complexité d’un écosystème où différentes technologies coexistent pour répondre à la multiplicité des usages de la mobilité électrique. Il implique des choix politiques et industriels qui influenceront l’adoption du véhicule électrique et les dépendances futures de l’Europe.
Les batteries lithium-ion sont au cœur de la révolution des véhicules électriques. Elles sont l’élément stratégique essentiel des voitures électriques, dont elles constituent jusqu’à 40 % de leur poids. Leur fabrication nécessite un savoir-faire hautement spécialisé, des investissements importants en capital fixe et l’utilisation de matières premières critiques. Un véhicule électrique utilise environ 200 kg de ces matériaux, soit six fois plus qu’un véhicule à combustion interne.
Le secteur automobile a largement orienté les trajectoires prises par le développement technologique des batteries, notamment pour améliorer leur densité énergétique, leur capacité de charge rapide et leur sécurité d’usage, tout en abaissant les coûts.
Théoriquement, on peut utiliser toutes sortes d’éléments chimiques dans les batteries li-ion. Mais pour l’heure, le marché est dominé par deux technologies : les batteries NMC et LFP. La comparaison entre les batteries LFP et NMC révèle une équation complexe entre prix, accessibilité, sécurité, performance et autonomie.
En 2023, les batteries NMC (nickel, manganèse, cobalt) représentaient près de deux tiers du marché mondial, tandis que les batteries LFP (lithium, fer, phosphate) occupaient 27 % des parts de marché. En Europe, 55 % des véhicules électriques sont équipés de batteries NMC, 40 % utilisent des batteries NCA (nickel, cobalt, aluminium), et seulement 5 % sont dotés de batteries LFP.
De fait, les constructeurs européens ont jusqu’ici privilégié les batteries NMC et NCA pour leur grande autonomie, tandis que les batteries LFP étaient principalement utilisées par les constructeurs chinois. C’est principalement en raison des exigences des consommateurs en termes d’autonomie, de performance et de recharge rapide que l’Europe s’est jusqu’ici engagée dans la voie des batteries NMC à haute teneur en nickel.
Il n’empêche, les batteries LFP se distinguent par leur coût plus faible, un facteur crucial dans le contexte actuel où le prix élevé des véhicules électriques constitue le principal frein à leur adoption massive.
Ce n’est pas tout : elles offrent également une meilleure sécurité, une durée de vie plus longue et acceptent mieux les charges complètes, ce qui les rend plus pratiques pour une utilisation quotidienne. Cependant, comparées aux batteries NMC, les batteries LFP présentent une densité énergétique inférieure, ce qui se traduit par une autonomie plus limitée à volume égal.
Les constructeurs automobiles européens l’ont bien compris et ont récemment annoncé des changements de stratégie significatifs. ACC (Automotive Cells Company), issue d’une joint venture entre Stellantis, Mercedes-Benz and TotalEnergies, a récemment suspendu la construction de ses gigafactories en Allemagne et en Italie, suite à un changement de sa stratégie d’approvisionnement pour y inclure des batteries LFP.
Tesla a également décidé d’équiper ses modèles Model 3 et la Model Y avec la batterie LFP dès 2021. Volkswagen, enfin, prévoit d’adopter la technologie LFP pour rendre ses voitures électriques plus abordables d’ici deux ans.
[Déjà plus de 120 000 abonnements aux newsletters The Conversation. Et vous ? Abonnez-vous aujourd’hui pour mieux comprendre les grands enjeux du monde.]
Ces annonces ont suscité une certaine inquiétude pour la pérennité des investissements dans les batteries NMC, mais peuvent être vues comme une diversification de la part des constructeurs européens, pour répondre à une variété de besoins et de contraintes tout en limitant les risques économiques.
Cela leur permettra aussi de mieux s’adapter à la segmentation du marché :
les batteries LFP pourraient dominer le marché des véhicules électriques d’entrée et de milieu de gamme (véhicules destinés aux petits trajets urbains ou pour des applications nécessitant une autonomie relativement faible),
tandis que les NMC pourront se segmenter sur le segment haut de gamme (ou pour les applications nécessitant une plus grande autonomie, comme les véhicules longue distance).
Cette diversification, si elle peut rendre les voitures électriques plus abordables en réduisant le coût des batteries, ne va pas sans risque : elle oblige les constructeurs européens à se tourner vers les acteurs asiatiques.
Ampere, la filiale électrique de Renault, intègre déjà la technologie LFP dans sa stratégie de batteries en collaboration avec LG Energy Solutions (Corée du Sud) et CATL (Chine). Même chose pour Stellantis qui a signé un accord stratégique avec le chinois CATL en novembre 2023.
Déjà, environ la moitié des capacités de production de batteries situées sur le sol européen sont rattachées à des entreprises chinoises et sud-coréennes, une tendance qui pourrait s’aggraver avec les batteries LFP. En effet, 95 % des batteries LFP sont fabriqués en Chine avec des constructeurs comme BYD et CATL qui maîtrisent parfaitement les procédés de fabrication.
Ces partenariats ne sont pas un problème en soi. Ils peuvent même représenter une opportunité pour bénéficier de l’expertise technologique de ces acteurs, qui produisent des batteries de haute qualité et compétitives au plan économique.
Le vrai problème de dépendance européenne aux matières premières concerne en réalité le NMC.
En effet, les batteries LFP sont constituées de carbonate de lithium, tandis que les batteries NMC sont faites à partir d’hydroxyde de lithium, dont les chaînes d’approvisionnement sont distinctes. L’Europe importe 78 % du carbonate de lithium du Chili (plutôt que de Chine), et a même signé un accord en ce sens avec le Chili. Dans le même temps, les nouveaux projets d’extraction minière en France et en Europe devraient également permettre de renforcer les approvisionnements européens en lithium.
Le problème de dépendance concerne l’hydroxyde de lithium utilisé pour les batteries NMC. En effet, pour transformer le carbonate de lithium en hydroxyde de lithium, il faut le raffiner. Or, ce sont des acteurs chinois qui raffinent 62 % de la production mondiale de lithium. S’il existe un potentiel pour des projets de raffinage de lithium en Europe, les investissements dans ce maillon de la chaîne de valeur tardent à se matérialiser.
La fabrication des batteries NMC nécessite également du nickel et du cobalt, qui sont des matériaux identifiés comme critiques par la Commission européenne en partie de par le risque géopolitique de leur approvisionnement. Le cobalt est principalement extrait au Congo et raffiné par la Chine à 67 %.
Autrement dit, pour les constructeurs européens, miser davantage sur les batteries LFP permettrait aussi de limiter les risques de dépendances en matière d’approvisionnement en métaux critiques.
À lire aussi : Batteries lithium-ion : l’Europe peut-elle s’extraire de la dépendance chinoise ?
Mais cette diversification du portefeuille des constructeurs européens a des répercussions sur l’ensemble des acteurs de la chaîne de valeur des batteries en Europe, de leur fabrication à leur recyclage.
Les producteurs de matériaux pour batteries NMC comme Axens pourraient faire face à des difficultés de reconversion si le marché devait basculer de façon significative vers le LFP. Umicore, un acteur majeur dans la production de matériaux actifs de cathode, avait délibérément choisi de ne pas intégrer le LFP dans son portefeuille pour se concentrer sur les technologies NMC qu’elle maîtrise. Cela pourrait compromettre leur capacité à s’adapter rapidement à cette nouvelle demande.
Des questions industrielles se posent également au niveau du recyclage. Le recyclage des batteries usagées est essentiel pour réduire la dépendance à l’importation de matières premières et peut également renforcer la résilience européenne en cas de perturbations de la chaîne d’approvisionnement causées par des tensions géopolitiques.
Or, les matériaux utilisés dans la cathode déterminent l’attrait économique de leur recyclage. Étant donné que les batteries LFP ne contiennent ni cobalt ni nickel, les métaux les plus valorisables, elles remettent en question l’intérêt économique des efforts de recyclage.
Le recyclage des batteries LFP est ainsi beaucoup moins intéressant au plan économique que celui des batteries NMC, d’autant plus que les LFP contiennent environ 20 % de lithium en moins que les NMC.
C’est là tout le paradoxe : le développement des capacités de recyclage de batteries en Europe dépend de la stabilisation future des choix technologiques opérés par les fabricants de voitures électriques. Et ce choix technologique, loin d’être anodin, pose des questions de souveraineté industrielle.
Étant donné les capacités de recyclage européennes actuelles, les batteries NMC peuvent être plus facilement recyclées que les LFP. En effet, les techniques de recyclage dominantes en Europe, basées sur la pyrométallurgie, sont efficaces pour récupérer le nickel et le cobalt, mais moins adaptées pour le lithium.
Cela aurait pu changer au regard des projets qui avaient été annoncés par Orano et Eramet qui proposaient de développer l’hydrométallurgie efficace pour récupérer le lithium. Néanmoins, Eramet a récemment annoncé l’annulation de son projet de recyclage face au recul de la demande pour les véhicules électriques en Europe.
À lire aussi : Peut-on recycler les batteries des véhicules électriques ?
Résumons :
le NMC permet une autonomie accrue des véhicules, tout en étant plus coûteux, et entraîne une dépendance accrue à des pays tiers en termes de métaux critiques. Mais son recyclage est rentable, et la filière industrielle déjà là.
Le LFP, de son côté, permet une autonomie moindre, mais une meilleure longévité des batteries et moins de défaillances techniques, et permet de limiter la dépendance en métaux critiques. Ce sont toutefois les acteurs chinois qui en maîtrisent pour l’heure la chaîne de valeur, et son recyclage est moins rentable pour les acteurs européens, la filière européenne ne maîtrisant pour l’heure pas les procédés requis.
Dans ces conditions, les constructeurs européens ont-ils raison d’ouvrir prudemment la porte au LFP pour les voitures électriques ? La réponse à cette question tient du dilemme industriel, avec des arbitrages politiques et économiques forts à réaliser tout au long de la chaîne de valeur de la batterie, de la mine jusqu’au recyclage. Une chose est sûre, c’est le bon moment de se poser la question, alors que l’Europe se préoccupe de plus en plus de son approvisionnement en matières premières critiques, dans un contexte de relance minière.
Lucas Miailhes ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
18.11.2024 à 10:43
Magnus Blomkvist, Associate professor of finance, EDHEC Business School
Depuis 2011, la loi impose un quota de femmes dans les conseils d’administration des grandes entreprises. Comment a évolué la perception des actionnaires et des dirigeants ?
L’introduction de quotas obligatoires de femmes dans les conseils d’administration (CA) des entreprises a été un instrument politique clé pour remédier à la sous-représentation de longue date des femmes dans les postes de pouvoir. Bien que ces politiques soient controversées, nous avons voulu analyser comment les quotas de genre pouvaient influencer non seulement la présence et la représentation des femmes, mais aussi les préférences des actionnaires et leur perception des administratrices.
Pour ce faire, nous avons étudié, dans un article récent, les effets des quotas de genre en France. Nous avons pu comparer la manière dont les caractéristiques individuelles des candidats – hommes et femmes – ont été comprises et évaluées, avant et après les quotas.
Nous constatons qu’en termes de diversité de genre, la loi française de 2011, dite Copé-Zimmermann a été, clairement et rapidement, un succès. Plus intéressant encore : nous mettons en lumière le fait que les actionnaires modifient massivement et positivement leurs perceptions des qualifications des (potentielles) administratrices, y compris leur formation et leur expérience antérieure au sein d’autres conseils d’administration. Cela a participé selon nous à une féminisation nette des CA.
Les partisans des quotas de genre soutiennent que ces politiques sont nécessaires pour surmonter les obstacles auxquels les femmes sont confrontées pour accéder à des postes de direction. Leur argumentaire repose sur le fait que les conseils d’administration des entreprises ont été dominés par les hommes en raison des cultures organisationnelles et des pratiques de recrutement qui s’appuient fortement sur des réseaux informels, favorisant souvent les candidats masculins.
Que vous soyez dirigeants en quête de stratégies ou salariés qui s'interrogent sur les choix de leur hiérarchie, recevez notre newsletter thématique « Entreprise(s) » : les clés de la recherche pour la vie professionnelle et les conseils de nos experts. Abonnez-vous dès aujourd’hui
Par ailleurs, les critiques affirment que les quotas interfèrent avec la sélection méritocratique des membres des conseils d’administration. Selon eux, la sous-représentation des femmes au sein des CA n’est pas le reflet d’une discrimination, mais plutôt la conséquence d’une offre limitée de femmes qualifiées disponibles pour ces postes. Dans ce cas, imposer des quotas par sexe pourrait contraindre les entreprises à nommer des candidates moins qualifiées, ce qui réduirait en fin de compte l’efficacité du conseil d’administration et la valeur actionnariale.
Pour nous aider en partie à éclaircir ces questions, l’objectif de notre étude a été d’examiner la perception qu’ont les actionnaires des candidates au poste d’administrateur avant et après l’introduction des quotas obligatoires en France.
En France, la loi Copé-Zimmermann a imposé des quotas de femmes dans les conseils d’administration des entreprises, exigeant qu’elles atteignent des seuils de diversité de 20 % en 2014, qui sont passés à 40 % en 2017. La loi s’applique aux grandes entreprises de plus de 500 salariés ou dont le chiffre d’affaires est supérieur à 50 millions d’euros. Pour les entreprises ne se mettant pas en conformité, la loi imposait des sanctions sévères, y compris des restrictions sur la rémunération des membres des CA.
Si l’on s’en tient aux simples statistiques, la loi a réussi à promouvoir la diversité des genres. La France est passée de l’un des taux de représentation des femmes dans les conseils d’administration les plus bas d’Europe (8,4 %) en 2009 à plus de 43 % en 2021, ce qui fait de la France un leader en matière de diversité des genres dans ces instances.
Dans ce contexte, nous avons étudié les effets des quotas de genre en France, en utilisant un ensemble de données de plus de 2 700 élections d’administrateurs entre 2007 et 2020 dans les plus grandes entreprises françaises cotées en bourse. Contrairement aux études antérieures qui se concentrent sur les réactions du cours des actions lors de l’adoption des lois sur les quotas, nous évaluons les résultats des élections des administrateurs avant et après l’introduction des quotas. En étudiant la popularité individuelle des administrateurs par le biais des votes à l’assemblée générale annuelle, nous sommes en mesure d’évaluer les préférences des actionnaires liées aux caractéristiques des candidats, avant et après l’instauration des quotas.
Nous constatons que le soutien des actionnaires aux femmes administratrices a augmenté après l’introduction des quotas. Les candidates ont reçu un soutien plus important que leurs homologues masculins après l’instauration du quota, ce qui suggère que les actionnaires ont révisé positivement leur perception des qualifications des administratrices. Nos résultats indiquent que l’offre de candidates qualifiées était suffisante pour répondre à la demande accrue, et que les actionnaires n’ont pas simplement élu des femmes sous la pression de la loi.
Les quotas par genre ont également contribué à éliminer les frictions préexistantes sur le marché du travail qui entravaient la nomination de candidates qualifiées. Avant l’introduction des quotas, la sous-représentation des femmes dans les conseils d’administration pouvait être attribuée à des pratiques de recrutement informelles et à des effets de réseau qui limitaient la visibilité des candidates. La gouvernance des entreprises françaises, en particulier, se caractérise par une dépendance à l’égard des réseaux d’élite, de nombreux membres de CA étant recrutés au sein d’un petit groupe issu d’institutions prestigieuses (grandes écoles). Ce processus de recrutement tend à marginaliser les femmes qualifiées.
Potentiellement, les quotas ont incité les entreprises à investir dans de nouvelles technologies de recherche et à élargir leur vivier de talents au-delà des réseaux traditionnels. Le processus de recrutement des membres des conseils d’administration est devenu plus efficace et plus diversifié, et les candidates possédant de solides références ont commencé à être reconnues et nommées en plus grand nombre. Nos résultats suggèrent notamment que le niveau d’études des administratrices et leur expérience antérieure ont été de plus en plus appréciés par les actionnaires après l’introduction du quota. Cela témoigne d’un changement dans la manière dont les candidates sont perçues. Nous ne trouvons pas de preuves que les entreprises sont obligées de nommer des candidates moins qualifiées pour se conformer à la loi. Au contraire, les candidates retenues étaient souvent tout aussi qualifiées que leurs homologues masculins.
L’expérience française en matière de quotas de représentation de genre est riche d’enseignements pour les autres pays qui envisagent de prendre des mesures similaires. Bien que les conséquences involontaires potentielles des quotas suscitent des inquiétudes légitimes, nos données suggèrent que les quotas peuvent être efficaces pour promouvoir la diversité des genres sans compromettre la qualité et l’efficacité du conseil d’administration telles qu’elles sont perçues par les actionnaires. En fait, les quotas de genre peuvent conduire à une réévaluation des qualifications des candidates et à l’abandon de pratiques d’embauche potentiellement discriminatoires.
En outre, ces quotas peuvent avoir des effets bénéfiques plus larges sur la société en remettant en question les normes traditionnelles en matière de genre. Lorsque davantage de femmes sont nommées dans les conseils d’administration, elles peuvent servir de modèles et de mentors pour les générations futures de femmes dirigeantes, ce qui contribue également à réduire les disparités de genre dans d’autres domaines de l’économie.
Magnus Blomkvist ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
18.11.2024 à 10:38
Assil Guizani, Enseignant chercheur en Finance, EDC Paris Business School
Faten Lakhal, Professor in Accounting, EMLV Business School , Pôle Léonard de Vinci
La présence de femmes au sein des conseils d’administration ou comme directrice financière influence les pratiques en matière fiscale. Plus de femmes, c’est moins de fraudes.
La France fait partie des rares pays à avoir adopté un arsenal législatif imposant un quota de femmes dans les conseils d’administration et les équipes de direction. Concrètement, la loi Copé-Zimmermann de 2011 stipule que les sociétés cotées en bourse et celles ayant plus de 500 salariés et un chiffre d’affaires supérieur à 50 millions d’euros doivent porter le nombre de femmes dans leur conseil d’administration à 20 % d’ici 2014 et 40 % d’ici le 1er janvier 2017.
Plus récemment, la loi Rixain adoptée en 2021 impose d’inclure des femmes aux postes de direction des grandes entreprises qui comptent au moins un millier de salariés. La proportion de femmes cadres devra atteindre au moins 30 % d’ici 2026 et 40 % d’ici 2029.
Dans notre étude, nous examinons l’impact de la présence de femmes au sein des conseils d’administration et aux postes de direction dans l’entreprise – que ce soit en tant que dirigeante de l’entreprise ou directrice financière – sur les pratiques d’évasion fiscale des sociétés françaises cotées en bourse. Celle-ci est calculée comme la différence entre l’impôt théorique et l’impôt courant payé par les sociétés. Nous y explorons également l’impact de l’adoption de la loi Copé-Zimmerman sur cette relation.
À lire aussi : Les femmes dirigeantes, un catalyseur des performances environnementales et sociales pour les entreprises
L’évasion fiscale est définie comme la réduction des impôts explicites. Cela couvre un large spectre de pratiques fiscales, allant de la planification fiscale à la fraude fiscale en passant par la gestion ou l’agressivité fiscale. En France, le montant total des impôts non payés a été estimé aux alentours de 80 milliards d’euros par an. De côté des entreprises, les entreprises qui pratiquent l’évasion fiscale prennent un risque considérable de payer de lourdes pénalités et un risque de nuire à leur réputation.
Par rapport aux hommes, les femmes sont réputées avoir des attitudes différentes à l’égard des codes d’éthique et utilisent des règles de décision différentes concernant les évaluations éthiques. En conséquence, il est possible de poser l’hypothèse qu’un leadership éthique des femmes directrices contribuerait à des pratiques plus éthiques et à un meilleur suivi des actions managériales.
En utilisant un échantillon de 171 entreprises françaises cotées sur la période de allant de 2007 à 2017, nos résultats révèlent que la nomination de femmes aux postes de haute direction a contribué à réduire les pratiques d’évasion fiscale des entreprises, particulièrement, les femmes occupant le poste de directeur financier. Ces résultats confirment l’hypothèse selon laquelle les femmes dirigeantes auraient un style de gestion éthique et une plus grande aversion au risque.
Que vous soyez dirigeants en quête de stratégies ou salariés qui s'interrogent sur les choix de leur hiérarchie, recevez notre newsletter thématique « Entreprise(s) » : les clés de la recherche pour la vie professionnelle et les conseils de nos experts. Abonnez-vous dès aujourd’hui
De plus, nos résultats montrent que l’évasion fiscale est associée négativement à la présence de femmes au sein du conseil d’administration, ce qui suggère que les femmes remplissent efficacement leur rôle de contrôle dans ce cadre. Cependant, cet effet est plus important préalablement à l’introduction d’un quota obligatoire de femmes administratrices par la loi Copé-Zimmermann. Cela laisse penser que les entreprises qui ont rapidement intégré des femmes au conseil d’administration pour se conformer à cette loi n’ont peut-être pas atteint une composition optimale et performante de leur conseil.
Les résultats de notre étude enrichissent la littérature portant sur la diversité de genre et l’évasion fiscale en analysant l’impact de la présence des femmes au sein des conseils d’administration (rôle de surveillance) et aux postes de direction (rôle décisionnel) sur les pratiques d’évasion fiscale des entreprises.
Ce comportement peut varier, car si les femmes peuvent être efficaces dans leur rôle de contrôle, elles tendent à adopter une approche plus conservatrice que leurs homologues masculins en matière de prise de décisions. Par la suite, notre étude se concentre sur le cas de la France, un pays qui s’illustre par sa lutte active contre l’évasion fiscale et son engagement en faveur de la présence des femmes dans les conseils d’administration. Notre recherche apporte ainsi de nouvelles preuves de l’impact de la diversité de genre dans les conseils d’administration sur les pratiques d’évasion fiscale, dans un contexte où des quotas sont imposés.
Nos résultats ont plusieurs implications pour les conseils d’administration, les régulateurs et les investisseurs. Les conseils d’administration peuvent continuer à renouveler leur composition pour inclure des femmes administratrices possédant l’expertise adéquate afin de parvenir à une structure efficace. Lors de la nomination des dirigeants et des directeurs financiers, les conseils d’administration devraient non seulement tenir compte des qualifications et de l’expérience, mais également évaluer les caractéristiques individuelles telles que le sexe, l’attachement aux codes éthiques et la propension à prendre des risques.
Les régulateurs devraient encourager les entreprises à recruter davantage de femmes compétentes aux postes de direction en plus du conseil d’administration. Enfin, les investisseurs peuvent être encouragés à prêter davantage attention à la présence de femmes dans les postes de direction et dans les conseils d’administration lorsqu’ils investissent dans les entreprises.
Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.
17.11.2024 à 11:38
Fabrice Hervé, Professeur en Finance, IAE Dijon - Université de Bourgogne
Sylvain Marsat, Professeur en Finance, Université Clermont Auvergne (UCA)
Qu’est-ce qui pousse les particuliers à investir dans les fonds verts ? La réponse se situe peut-être au sein de la cellule familiale. Une récente étude montre que les hommes ayant des filles sont plus incités par ces dernières à prendre en compte l’impact environnemental de leurs investissements.
Les inquiétudes face au changement climatique sont de plus en plus prégnantes. 93 % des citoyens européens le considèrent comme un problème sérieux et 77 % comme très sérieux. Pour autant, on n’observe pas de traduction de cette inquiétude en espèces sonnantes et trébuchantes du point de vue de l’investissement vert. L’Association française de la gestion financière, dans son enquête annuelle de 2023, observe que les fonds d’investissement durables représentent 59 % des investissements fin 2023.
Mais les montants investis dans les fonds « article 9 », aussi dits « très verts » au sens de la règlementation européenne, les plus vertueux environnementalement parce qu’avec un objectif de durabilité, ont baissé de 24 %. Ils ne constituent que 88 milliards d’euros investis, soit seulement 3 % des fonds d’investissement. Cet apparent paradoxe entre préoccupations environnementales élevées au niveau individuel et faible mobilisation collective dans le domaine de l’investissement financier vert interroge.
La littérature académique en finance étudie la question de l’investissement vert depuis quelques années désormais. Elle a identifié un certain nombre de motivations des investisseurs, comme les raisons éthiques et financières, les connaissances financières ou encore le rôle de l’altruisme. Les facteurs individuels étudiés jusqu’à présent n’ont cependant jamais analysé l’influence de la sphère familiale. Le domaine des finances personnelles, ou finance des ménages, propose quelques travaux de recherche prenant en compte le contexte familial des décisions financières des investisseurs individuels et, notamment, la présence d’enfants au sein de la famille.
Dans un article de recherche, nous avons tenté de comprendre pour la première fois si la parentalité influence les choix des investisseurs individuels dans le cas spécifique des fonds verts. Notre approche s’inspire de résultats issus d’autres disciplines que la finance qui soulignent l’influence des enfants sur les parents. Par exemple, les pères ayant des filles sont plus susceptibles d’adopter des positions politiques ou des pratiques RH en faveur de l’égalité des sexes, mais aussi des politiques de responsabilité sociales et environnementales plus poussées.
Concernant l’environnement, les filles semblent plus sensibles aux problématiques environnementales. Une étude récente montre par exemple que 44 % des filles ont un fort niveau d’inquiétude concernant le changement climatique contre 27 % des garçons. On peut ainsi penser que les parents ayant des filles, en raison des préoccupations écologiques plus marquées de leur progéniture, soient plus enclins que leurs homologues n’ayant pas d’enfants ou ayant des garçons à réaliser des investissements alignés avec des valeurs environnementales. Greta Thunberg elle-même illustre cette influence en témoignant : « j’ai commencé mon activisme à la maison en modifiant les habitudes et façons de penser de ma famille et de mes proches ».
Pour tester cette hypothèse dans le domaine de la finance verte, nous avons réalisé une enquête auprès d’un échantillon représentatif d’investisseurs français entre décembre 2021 et janvier 2022. L’échantillon de 2 288 investisseurs comprend 499 investisseurs ayant placé au moins 500 € dans des fonds d’action de type article 9. Ces fonds d’investissement ont pour objectif l’investissement durable dans une activité économique qui contribue à un objectif environnemental : l’atténuation ou l’adaptation au changement climatique, l’utilisation durable des ressources hydriques, la transition vers une économie circulaire, la lutte contre la pollution et la protection de la biodiversité…
L’échantillon comprend des données détaillées sur les caractéristiques personnelles des individus, telles que l’âge, le sexe, les connaissances financières, le niveau d’éducation et la taille du portefeuille d’actions. Par ailleurs, afin de mener notre analyse, nous avons recueilli des informations sur chacun des enfants du foyer, leur âge et leur sexe, permettant ainsi d’examiner l’effet spécifique d’avoir une fille sur les décisions d’investissement des parents.
Nos recherches aboutissent à plusieurs conclusions intéressantes. Tout d’abord, l’analyse montre clairement que le fait d’avoir une fille augmente la probabilité pour un parent d’investir dans des fonds verts d’un peu moins de 4 %. Parallèlement, élever un garçon n’a aucune influence significative sur le fait d’investir dans un fonds vert ce qui démontre que le simple fait d’avoir un enfant n’explique pas cette relation : le sexe de l’enfant est donc important. En outre, en cohérence avec notre hypothèse, les filles n’influencent que leurs pères et non leurs mères qui ont déjà tendance à présenter des valeurs plus environnementales.
L’étude met par ailleurs en lumière le fait que plus les filles sont jeunes, plus leur influence sur les décisions d’investissement de leurs pères est forte. Ceci tient probablement au fait qu’elles ont plus d’influence en étant au sein du foyer, et que les programmes scolaires en France incluant des cours sur le développement durable et les enjeux environnementaux ont été renforcés depuis 2011. Enfin, les résultats montrent que l’influence des filles ne se limite pas à la décision d’investir dans des fonds verts, mais s’étend également au montant investi. Les pères ayant au moins une fille investissent des montants plus importants, ce qui suggère une plus grande adhésion à la cause environnementale.
Ainsi, au-delà de son effet en matière de préoccupations environnementales, nous montrons l’impact surprenant de l’influence intergénérationnelle sur les décisions financières des parents. Cela plaide en faveur de l’intégration des questions liées au changement climatique dans l’éducation pour toucher indirectement les parents. Au-delà de la sensibilisation des enfants, l’éducation des filles en particulier peut également avoir des effets secondaires financiers positifs sur leurs pères en favorisant les flux d’argent vers des investissements verts. Étant donné que l’éducation sur cette question est en développement, on peut espérer que l’apprentissage intergénérationnel influence positivement les décisions d’investissements verts dans les portefeuilles des ménages et contribue ainsi activement au financement de la transition écologique.
Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.
17.11.2024 à 11:38
Caroline Diard, Professeur associé - Département Droit des Affaires et Ressources Humaines, TBS Education
Alors que les chauffeurs de VTC se mobilisent pour un meilleur statut et l’amélioration de leurs conditions de travail, où en est la loi ? Si des jugements, en France et à l’étranger, ont déjà permis de rapprocher leur situation du salariat, tout n’est pas encore acquis pour les travailleurs ubérisés.
Depuis quelques jours, les opérations escargots et grèves des chauffeurs VTC se multiplient. Il s’agit pour eux de dénoncer des commissions jugées abusives et de réclamer une meilleure rémunération et un encadrement du nombre de chauffeurs afin de réguler l’activité.
Ces mobilisations surviennent dans un contexte où le salariat est mis à mal par une ubérisation galopante des emplois, qui contribue à une grande précarisation des salariés des plates-formes comme Uber, Deliveroo ou Lyft. En 2022, on recensait 230 000 travailleurs de plates-formes numériques en activité en France, dont 179 200 livreurs à deux roues et 52 700 chauffeurs de voiture de transport avec chauffeur (VTC).
En 2022, 3 % des Européens ont déclaré avoir travaillé sur une plate-forme numérique au cours des 12 derniers mois. 28 millions d’emplois seraient concernés, dont 7 % seulement sont salariés, face à 93 % indépendants. Ces travailleurs effectuent des tâches pour des clients avec lesquels ils sont mis en relation via une plate-forme numérique.
Si ces travailleurs peuvent opter pour différents statuts, c’est celui de micro-entrepreneur qui est le plus largement utilisé, car plus simple et plus souple. D’ailleurs, en France, le nombre de micro-entrepreneurs a bondi. Fin juin 2023, le réseau des Urssaf dénombre 2,7 millions d’autoentrepreneurs administrativement actifs, soit 215 000 de plus sur un an (+8,6 %). Cela arrive après un ralentissement observé depuis le troisième trimestre 2021 (+12,0 % sur un an fin juin 2022) compte tenu du rythme soutenu des radiations. Un rapport du Sénat indique d’ailleurs :
« Le statut très souple d’autoentrepreneur puis de micro-entrepreneur a pu créer une brèche dans laquelle se sont engouffrées les plates-formes pour s’affranchir des contraintes liées au salariat. »
À la frontière du travail dissimulé, les travailleurs des plates-formes subissent à la fois une précarisation de leurs droits et des tâches répétitives et ingrates, assimilables à du « micro-travail ».
Le fonctionnement des plates-formes questionne le lien qui les unit aux travailleurs et la subordination éventuelle qui se met en place. Pour éviter un déséquilibre des droits des travailleurs, le cadre légal, tant en France qu’en Europe, tend de plus en plus vers une protection de ces travailleurs et viser à organiser une présomption de salariat. Le salariat offre en effet des droits sociaux bien plus protecteurs que le statut d’indépendant.
Ainsi, en Espagne, dès 2018 et pour la première fois en Europe, un tribunal requalifie les travailleurs de Deliveroo en salariés et, le 12 août 2021, la loi « Riders » (cavaliers) présume automatiquement salariés tous les coursiers de plates-formes en Espagne.
En France, la Cour de cassation s’est également prononcée en 2018 sur les relations contractuelles existant entre des coursiers et la plate-forme Take Eat Easy en considérant qu’il existe un lien de subordination. Elle retient que la géolocalisation va au-delà de la simple mise en relation et que les retards dans les livraisons sont sanctionnés par la plate-forme.
De même, par une décision du 4 mars 2020, la Cour de cassation a requalifié la relation d’un chauffeur de VTC avec la société Uber en contrat de travail. Dans cet arrêt « Uber », la Cour de cassation avait retenu notamment l’impossibilité pour le chauffeur de constituer sa propre clientèle, de fixer librement ses tarifs et les conditions d’exercice de sa prestation de transport.
La Cour d’appel de Paris est allée dans le même sens en juillet 2022 en condamnant la société Deliveroo pour travail dissimulé et des faits de harcèlement moral du fait de ses méthodes managériales.
En revanche, d’autres décisions n’ont pas été en faveur de la reconnaissance du lien de subordination. Dans cette affaire, il a été retenu notamment par le juge que le travailleur était en mesure de se déconnecter, d’effectuer des courses pour son propre compte, d’organiser ses courses, et que le système de géolocalisation inhérent au fonctionnement d’une plate-forme n’avait pas pour objet de contrôler l’activité du chauffeur, mais de permettre l’attribution du chauffeur le plus proche au client.
Il y a donc la volonté d’évaluer le lien de subordination à travers le prisme du contrôle des salariés. La notion de géolocalisation est particulièrement éclairante dans la mesure où un tel dispositif est possiblement mis en œuvre s’il est légitime et proportionné au but recherché. Dans le cas d’Uber, la géolocalisation imposée par le fonctionnement de la plate-forme ne caractérise pas un lien de subordination juridique des chauffeurs, car ce système n’a pas pour objet de contrôler l’activité des chauffeurs, mais est utilisé à d’autres fins.
Dans l’arrêt Uber de 2020, la Cour de cassation avait été particulièrement attentive à une clause spécifique du contrat qui, d’après la Cour, pouvait conduire les chauffeurs « à rester connectés pour espérer effectuer une course et, ainsi, à se tenir constamment, pendant la durée de la connexion, à la disposition de la société Uber BV, sans pouvoir réellement choisir librement, comme le ferait un chauffeur indépendant ». La question du contrôle est alors clairement soulevée. Dans cet arrêt, le mot contrôle apparaît d’ailleurs à 20 reprises.
En France, les articles D7342-1 à D7345-27 du code du travail définissent la responsabilité sociale des plates-formes envers leurs travailleurs. Par ailleurs, l’ordonnance no 2022-492 du 6 avril 2022 « renforçant l’autonomie des travailleurs indépendants des plates-formes de mobilité, portant organisation du dialogue social de secteur et complétant les missions de l’Autorité des relations sociales des plates-formes d’emploi » a consolidé les droits de ces travailleurs. Ainsi, il n’est plus possible d’imposer aux travailleurs l’utilisation de matériel ou d’équipement déterminé (sous réserve d’obligations légales ou réglementaires), et ils ont la faculté de recourir à plusieurs intermédiaires, de déterminer leur itinéraire et de choisir leur plage horaire d’activité.
Au niveau européen, les 27 États membres ont, le 14 octobre 2024, adopté de nouvelles règles pour renforcer ces droits, avec l’adoption d’une directive. Ce texte tend à faciliter la requalification des travailleurs en salariés en déterminant une présomption légale d’emploi. Cette présomption pourra être invoquée par les travailleurs des plates-formes, leurs représentants ou les autorités nationales afin de dénoncer un classement dans « la mauvaise catégorie ». À l’inverse, « il incombera à la plate-forme numérique de prouver l’absence de relation de travail ».
L’objectif de la directive est aussi de réglementer la gestion algorithmique, afin que les travailleurs soient informés de l’utilisation de systèmes de surveillance ou de prise de décision automatisés en matière de recrutement, de rémunération et concernant les conditions de travail.
Le combat pour défendre les droits des travailleurs des plates-formes est loin d’être terminé. Malgré une évolution notable des réglementations européennes et nationales, plusieurs questions risquent de continuer à alimenter le débat : la présomption de salariat, le dialogue social, le contrôle et les libertés individuelles de ces travailleurs en marge du salariat. Une structuration de la représentation des travailleurs des plates-formes avec un dialogue social renforcé pourra faciliter une nécessaire évolution.
Caroline Diard ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
17.11.2024 à 11:37
Tony Chevalier, Ingénieur d'étude en paléoanthropologie, Université de Perpignan Via Domitia
Notre vision des modes de vie aux débuts de l’humanité est souvent influencée par les peintures rupestres ; mais les représentations précises et spécifiques d’humains sont en fait relativement récentes. Pour mieux comprendre la manière dont ceux-ci se déplaçaient, il vaut mieux se pencher sur leurs os, et les analyser en regard de ce que l’on sait de l’ossature des sportifs actuels !
Regarder notre passé nous pousse parfois à nous comparer à nos ancêtres, à mesurer la distance qui nous sépare d’eux, que ce soit sur un plan comportemental ou sur un plan physique. De multiples travaux de recherches ont montré qu’avant la généralisation de l’agriculture, les humains étaient très mobiles, c’est-à-dire qu’ils effectuaient des déplacements fréquents et/ou longs afin d’exploiter leur territoire pour se nourrir et trouver des matières premières pour confectionner des outils. Mais auraient-ils pu courir plus vite ou plus longtemps que nos athlètes ? À quel point étaient-ils actifs ? Pouvons-nous quantifier leurs efforts ?
Si répondre directement à certaines questions est difficile, nous pouvons les détourner et nous demander à quel point l’activité physique des hommes et femmes préhistoriques depuis des centaines de milliers d’années a impacté la structure de leurs os, en particulier ceux des jambes. L’os, par son adaptation au cours de la vie, révèle d’une certaine manière les efforts consentis par un individu : plus il se renforce, plus l’activité était importante.
Plus précisément, nous cherchons à savoir comment une « simple » marche, même chez des personnes très mobiles, a pu induire un renforcement des os si remarquable chez certains de nos ancêtres.
L’utilisation des scanners permet d’étudier avec précision la structure interne des os des humains actuels et passés. C’est sur le terrain de l’analyse géométrique des os que se jouera cette rencontre à travers le temps. Bien utilisée, la géométrie des sections osseuses, qui intègrent des diamètres internes et externes, permet d’évaluer la robustesse (c’est-à-dire le renforcement) et la forme des os et faire le lien avec la mobilité d’un individu. Voyons cela en détail.
L’ingénierie mécanique enseigne que les propriétés géométriques d’une structure rendent compte des propriétés mécaniques. De fait, les diamètres externes et internes de la section diaphysaire d’un os permettent d’évaluer la rigidité et la résistance de celui-ci. Plus la diaphyse d’un os aura des diamètres externes et une épaisseur corticale élevés plus elle sera résistante.
Quand nous imaginons notre squelette, nous sommes tentés de le percevoir comme une structure rigide et stable. Pourtant, l’os est une matière vivante tout au long de la vie, qui se renouvelle et s’adapte aux contraintes habituellement subies. Par exemple, quand nous marchons, nous exerçons une pression sur nos os, nous les fléchissons et les tordons un peu. En conséquence, à la différence de l’acier, l’os réagit aux contraintes en se renforçant ou s’allégeant. Cette adaptation est d’autant plus efficace si vous êtes jeune. L’os ne s’adaptera pas si un type de contraintes se produit rarement ou si les changements d’intensité dans nos activités physiques sont trop faibles.
Les recherches menées sur les sportifs ont été d’une aide précieuse pour savoir si les variations de sollicitations de nos membres induisaient des variations de la structure osseuse au long de la vie.
Dès les années 70, les travaux réalisés sur les bras des joueurs et joueuses de tennis ont montré une asymétrie élevée en faveur de l’humérus du bras dominant, celui qui tient la raquette. L’augmentation du diamètre de la diaphyse entraîne une plus grande robustesse pour l’humérus du bras dominant, c’est-à-dire une plus grande résistance. Le bénéfice osseux dû à des contraintes générées par le sport peut même dans certains cas perdurer encore 30 ans après l’arrêt d’une pratique sportive.
Désormais, nous savons qu’une activité physique régulière va engendrer des contraintes récurrentes sur un os, et que celui-ci va s’adapter en changeant sa géométrie (taille et forme). Ainsi, en faisant le cheminement inverse, l’étude de la géométrie des os de la jambe serait un moyen de nous renseigner sur la manière de se déplacer de leur propriétaire. Bien entendu, il faut être très prudent lors de ce type d’interprétation. Par exemple, au-delà des multiples facteurs qui peuvent influer sur la structure osseuse, la structure observée chez un adulte préhistorique résulterait en partie de son activité à un jeune âge, à une époque où son os était plus réactif aux stimuli mécaniques.
Lorsque nous nous intéressons aux os des jambes des espèces humaines anciennes appartenant au genre Homo, c’est en particulier pour comprendre leur mobilité : nous voulons savoir s’ils marchaient beaucoup (haut niveau de mobilité), sans toutefois définir une fréquence de déplacement et une distance journalière. Nous évaluons aussi le type de terrain parcouru, sachant qu’un terrain plat ou avec des reliefs impactera différemment les os. Plus la marche est fréquente et intense, plus le terrain pratiqué est irrégulier, et plus les os subiront de fortes contraintes et se renforceront.
En 2023, nous avons publié nos recherches sur la mobilité d’une femme d’une ancienneté de 24 000 ans provenant de la grotte de Caviglione (Ligurie, Italie). D’après la topographie du lieu de la découverte, cette femme Homo sapiens avait la possibilité de se déplacer à la fois sur des terrains à fort dénivelé et sur des terrains plats, le niveau de la mer étant bien plus bas qu’aujourd’hui. Les résultats ont montré le très haut niveau de mobilité pratiqué par cette femme grâce à ses fémurs et tibias et l’adaptation de ses os à des déplacements fréquents en terrain montagneux grâce à ses fibulas.
Plus précisément, nous avons mis en évidence une robustesse extrêmement élevée des fibulas de cette femme par comparaison à ses contemporains, mais aussi au regard des joueurs de hockeys sur gazon, dont la pratique se caractérise par une grande mobilité de la cheville. Ces résultats suggéreraient la présence d’une activité préhistorique très intense sur des terrains irréguliers. Ce type de terrain implique des mouvements variés de la cheville, et notamment des mouvements latéraux fréquents d’une plus grande amplitude que sur terrain plat, amenant la fibula à supporter plus de poids et donc à se renforcer.
À 450 000 ans, nous observons également une robustesse très élevée des fibulas humaines, associée à un fort étirement de la diaphyse du tibia (Caune de l’Arago, Tautavel). Cela plaide pour un haut niveau de mobilité et des déplacements récurrents des Homo heidelbergensis à la fois dans la plaine et sur les reliefs aux alentours de la grotte de Tautavel.
Les forts renforcements observés chez certains Homo heidelbergensis et Homo sapiens anciens, aussi bien des femmes que des hommes, au regard de sportifs confirmés contemporains, sont très étonnants sachant que les hommes préhistoriques sont avant tout des marcheurs et que les contraintes les plus élevées s’exercent sur les os lors de la course à pied.
La robustesse naturellement plus élevée d’un individu préhistorique, c’est-à-dire acquise génétiquement, pourrait expliquer certains des résultats. En étudiant la robustesse relative de la fibula (qui prend en compte pour chaque individu le rapport de résistance entre sa fibula et son tibia), nous éliminons l’influence de ce type de facteurs génétiques sur nos résultats, partant du postulat qu’une robustesse naturellement élevée toucherait autant ces deux os. Pourtant, ce rapport (fibula versus tibia), déterminant pour comprendre les mouvements de la cheville, donne l’un des résultats les plus remarquables pour le squelette de Caviglione (24 000 ans). Il met en exergue la robustesse relative très élevée de ses fibulas.
L’ensemble des résultats plaide pour une influence multifactorielle sur la structure osseuse et par notamment l’impact significatif d’une activité non négligeable et continue au cours de la vie. Un haut niveau de mobilité dès un très jeune âge, lorsque l’os est particulièrement réactif aux stimuli mécaniques, associé à des déplacements en montagne, ou sur d’autres terrains irréguliers, voire à la pratique de la course à pied, pourrait expliquer une telle robustesse à l’âge adulte chez des individus ayant vécu entre 500 000 ans et 20 000 ans.
Pour en savoir plus, retrouvez l’auteur dans le documentaire d’Emma Baus « Tautavel, vivre en Europe avant Neandertal » le 28 novembre 2024 sur France 5 dans l’émission Science grand format.
Tony Chevalier a reçu des financements de l'université de Perpignan via Domitia (UPVD, Bonus Qualité Recherche) et de la fondation UPVD.