19.11.2024 à 16:59
Colineaux H, Post-doctorant en epidemiologie sociale, Medecin de sante publique, Methodologiste, Université de Toulouse III - Paul Sabatier, Inserm
Prendre davantage en compte les mécanismes sociaux et, en particulier le genre, dans la recherche biomédicale permettrait d’éviter des biais méthodologiques et interprétatifs et ainsi de mieux appréhender les enjeux actuels de santé, explique Colineaux H (Université de Toulouse III – Paul Sabatier, Inserm) dans Déconstruire les différences de sexe/Le sexe biologique et le genre à l’épreuve de la méthode scientifique aux éditions Double ponctuation.
Même si le champ du « genre en biologie/santé » a rapidement évolué ces dernières années, il me semble que les questions liées au genre et les questions liées à la biologie sont encore très cloisonnées disciplinairement. À quelques exceptions près, les sciences humaines et sociales se sont saisies du « genre » sans tellement s’approcher des questions de la dimorphie sexuelle (qui désigne le fait que les mâles et femelles d’une espèce sexuée se distinguent, en moyenne, morphologiquement et physiologiquement), de la physiologie reproductive, etc.
Et la recherche biomédicale pour sa part n’articule que très rarement ses objets avec les phénomènes sociaux, tels que le genre. Ce travail prend justement son point de départ dans les pratiques de la recherche biomédicale, et dans les biais méthodologiques et interprétatifs que peuvent produire la non-prise en compte des facteurs et mécanismes sociaux. C’est donc de ce point de vue que je l’aborde.
Dans la littérature biomédicale, on peut constater que les différences biologiques observées entre les catégories de sexe ont été fréquemment expliquées par des mécanismes eux-mêmes biologiques, sans réelle base scientifique.
Par exemple, si la distribution du taux d’une protéine sanguine X montre un taux en moyenne plus élevé chez les femmes par rapport aux hommes, cette différence est souvent expliquée en premier lieu par des mécanismes liés à la dimorphie sexuelle.
On fait, par exemple, l’hypothèse d’une différence de calibre et d’élasticité des vaisseaux sanguins pour expliquer les différences de tension artérielle, on décrit l’interaction des œstrogènes ou de la testostérone avec le système physiologique de tel ou tel biomarqueur sanguin pour expliquer les différences de taux, etc.
Ces facteurs, bien sûr, peuvent être impliqués et nécessitent d’être explorés, mais des mécanismes sociaux peuvent aussi être en jeu pour expliquer ces différences, et ceux-ci ont été souvent négligés. Ils sont mobilisés plus souvent lorsque l’objet d’étude est de près ou de loin « social » (tel que le tabagisme, l’accès aux soins, voire l’obésité, etc.), mais plus rarement lorsqu’il est biologique (typiquement tous les biomarqueurs allant de la fréquence cardiaque au taux de cortisol).
Ce raccourci est parfois explicite. Par exemple, dans un cours en ligne portant sur « Le sexe et le genre dans l’analyse des données » (consulté en mars 2022 sur le Canadian Institutes of Health Research, NDLR), l’hémoglobine, la fonction rénale, la taille, la masse maigre sont catégorisées comme des « variables liées au sexe », définies comme « des paramètres biologiques ou physiologiques qui diffèrent systématiquement entre les hommes et les femmes en raison de facteurs génétiques ou hormonaux ». Les facteurs génétiques ou hormonaux sont en effet probablement en jeu, et peut-être même pour une large part, mais expliquent-ils vraiment toute cette variabilité ?
Ce raccourci est aussi parfois, et même plus souvent, implicite, par exemple lorsque des seuils biologiques spécifiques par catégorie de sexe sont fixés pour prendre en compte un dimorphisme sexuel présumé. L’utilisation de seuils biologiques sexe-spécifiques pour établir un « score allostatique » en épidémiologie est d’ailleurs le point de départ de cette thèse. En épidémiologie sociale, nous utilisons en effet une mesure de la « charge allostatique », qui représente l’usure biologique du corps liée à l’ensemble des stress que nous traversons au cours de nos vies.
Cette mesure est calculée à partir de plusieurs biomarqueurs (un biomarqueur est une caractéristique biologique mesurable, par exemple la tension artérielle, le taux de cholestérol, etc.), tels que la tension artérielle, le taux de cholestérol, la CRP (il s’agit d’une protéine présente dans le sang et utilisée pour mesurer le niveau d’inflammation), etc.
Chez un individu donné, si un biomarqueur a une valeur « élevée », on le dit « à risque » et plus cet individu a de biomarqueurs « à risque », plus sa charge allostatique, c’est-à-dire son usure physiologique, sera considérée comme forte.
Mais qu’est-ce qu’une « valeur élevée » ? À partir de quel seuil la considère-t-on « à risque » ? Ce seuil est-il le même selon l’âge ? Selon la catégorie de sexe ? Nous avons observé dans la littérature que beaucoup ne prenaient pas les mêmes seuils selon le sexe.
Souvent, en effet, un biomarqueur est considéré comme « à risque » si sa valeur fait partie des 20 % ou 25 % des valeurs les plus hautes, non pas de toute la population, mais de sa catégorie de sexe. Ce choix n’est pas anodin et a des conséquences sur les analyses.
Par exemple, on prend un biomarqueur fictif X dont l’ensemble des valeurs possibles dans la population totale et par catégorie de sexe sont représentées sur la figure ci-dessous par une barre horizontale, et les seuils séparant les 25 % des valeurs les plus élevées par un trait vertical.
Si un individu catégorisé « homme » a un biomarqueur X avec une valeur de 70, cette valeur sera considérée comme « à risque » si le seuil est fixé dans toute la population (seuil du biomarqueur X égal à 65) mais pas s’il est fixé dans chaque catégorie de sexe (seuil du biomarqueur à 80 chez les hommes).
De même, si un individu catégorisé « femme » a un biomarqueur X avec une valeur de 60, cette valeur sera considérée comme « à risque » si le seuil est fixé par catégorie de sexe (seuil du biomarqueur X à 50 chez les femmes) mais pas s’il est fixé dans toute la population (seuil du biomarqueur à 65).
Pourquoi faire le choix de seuils différents selon la catégorie de sexe ? La justification, souvent non explicitée, repose sur l’observation de distributions statistiquement différentes en fonction de la catégorie de sexe, comme représentées sur la figure.
En effet si, dans cet exemple, les personnes catégorisées « femmes » n’atteignent jamais ou très rarement la valeur 80, alors que 25 % de la population catégorisée « hommes » la dépasse, il semble logique d’envisager qu’une même valeur n’a pas la même signification d’une catégorie à l’autre et ne doit donc pas être considérée de la même façon. Il y a plusieurs façons de prendre en compte cela avec des méthodes statistiques, dont la possibilité de fixer des seuils différents en fonction des catégories, comme décrit précédemment.
L’inconvénient de cette méthode est qu’elle neutralise les causes de ces différences. On ne peut plus mesurer ni observer leurs effets, elles sont comme effacées. Si cet inconvénient est accepté, c’est que l’hypothèse implicite est faite que ces différences de distribution ne s’expliquent que par le dimorphisme sexuel. Dans ce cas donc, fixer des seuils différents réalignerait en quelque sorte les hommes et les femmes, en « effaçant » ce dimorphisme, les rendant sur les autres plans comparables ou analysables ensemble.
Mais ces différences de distribution sont-elles réellement et uniquement liées au dimorphisme sexuel ? Des facteurs sociaux peuvent aussi, en théorie et jusqu’à preuve du contraire, expliquer une partie des différences de distribution des biomarqueurs entre les deux catégories de sexe.
En utilisant des scores sexe-spécifiques, on ne fait donc pas qu’effacer l’effet du dimorphisme sexuel, mais aussi de toutes ces autres causes. Or, si on utilise ces mesures pour étudier l’effet de facteurs tels que le niveau d’éducation, la classe sociale, les revenus, etc. sur la charge allostatique (ce qui est souvent le cas), cette approche sexe-spécifique peut potentiellement biaiser les résultats des analyses en sur ou sous-estimant l’impact des facteurs étudiés dans l’une ou l’autre des catégories de sexe.
Il nous semblait donc important d’explorer les causes, ou mécanismes, de ces différences biologiques. Sont-elles effectivement uniquement physiologiques, liées au dimorphisme sexuel, ou s’expliquent-elles, au moins en partie, par des mécanismes sociaux, liés au genre ? C’est cette question de départ qui a guidé mon travail de thèse.
Colineaux H est associé au groupe de recherche Gendhi et membre de la Society for Longitudinal and Lifecourse Studies (Interdisciplinary Health Research Group). Colineaux H a bénéficié de prises en charge de déplacements professionnels dans le cadre de son travail de thèse par le projet Gendhi (financement ERC) et de rémunérations au cours de ses dernières années de thèse par le projet GINCO (financement ANR).
19.11.2024 à 16:58
Laurent Gautier, Professeur des Universités en linguistique allemande et appliquée, Université de Bourgogne
En novembre 1989, la chute du mur de Berlin a mis fin en l’espace de quelques heures seulement à près de quarante années de séparation entre les parties est et ouest de la ville, aboutissant à la réunification des deux Allemagnes. Les divisions entre ces deux sociétés étaient multiples, mais certaines demeurent encore peu connues, notamment sur le plan linguistique.
Il y a 35 ans, la chute du mur de Berlin, érigé en 1961, marque la réunion d’une ville divisée – Berlin-Ouest, sorte d’île à l’intérieur du territoire est-allemand d’un côté, Berlin-Est de l’autre – et d’un État divisé, partagé depuis la fin de la Seconde Guerre mondiale entre la République fédérale d’Allemagne (RFA) et la République démocratique allemande (RDA).
Les analyses ne manquent pas sur les processus ayant conduit à la disparition du mur et à la naissance, un an plus tard, d’un État allemand unifié. Les dimensions entre autres politiques, institutionnelles, économiques ou culturelles ont ainsi été étudiées, avec une attention particulière portée à la ville de Berlin. Toutefois, un aspect concernant cette séparation de quarante années reste moins connu, surtout en dehors des territoires allemands : l’évolution qu’a subie au cours de ces quatre décennies et demie la langue allemande en RDA.
La langue évolue au fil du temps : c’est une évidence. Mais, souvent, cette variation est abordée sur le temps long à l’échelle d’un ou de plusieurs siècles ; ou bien sur un temps extrêmement court avec l’apparition de néologismes sous la pression du besoin que nous avons de nommer de nouveaux concepts (découvertes scientifiques, inventions, etc.). Dans ce contexte, les quarante années de division de l’Allemagne représentent un laboratoire intéressant.
À un premier niveau, les divergences de fond entre les systèmes des deux États ont entraîné de grandes divergences lexicales, illustrant la manière dont un lexique peut donner à lire l’évolution d’une société. Deux séries de mots nouveaux sont ainsi apparues en RDA.
D’une part, des mots qui dénommaient des réalités est-allemandes n’existant pas sous une forme identique en RFA. Par exemple, le Dispatcher emprunté au russe, qui désigne un employé chargé de contrôler le processus de production et la bonne réalisation des objectifs imposés par la planification économique du régime.
D’autre part, des mots désignant des réalités partagées mais pour lesquelles des dénominations particulières permettaient de marquer la spécificité est-allemande et, ainsi, de mieux se « démarquer » de l’Allemagne de l’Ouest – octroyant de fait une marque idéologique au concept nommé.
C’est le cas de la formule Antifaschistischer Schutzwall employée pour désigner le mur de Berlin – une dénomination qui cherche à opérer une redéfinition politique au service de l’idéologie en place. Elle ne fait pas du mur un élément de division, mais lui attribue un rôle protecteur pour les citoyens de RDA face à une Europe occidentale ennemie qualifiée de fasciste. Il s’agit là d’un leitmotiv dans le discours officiel de RDA, bien analysé dans les travaux de recherche allemands, en particulier ceux de la linguiste Heidrun Kämper.
Berlin est aussi l’objet d’une intéressante paraphrase désignant la partie Est de la ville : Berlin Hauptstadt der DDR (littéralement : « Berlin, capitale de la RDA »). La non-utilisation du mot Est permet de faire passer la partition de la ville au second plan.
L’autre forme par laquelle le lexique reflète les évolutions divergentes des deux sociétés allemandes relève des « néologismes de sens », c’est-à-dire de l’apparition de nouveaux sens donnés à des mots existants.
Le terme Brigade désignait en allemand (et désigne d’ailleurs toujours) une « brigade » dans les deux sens principaux du terme existant aussi en français, pour l’armée et en cuisine. En RDA, un sens supplémentaire, emprunté au russe, lui a été attribué : celui de la plus petite unité d’ouvriers dans une entreprise de production.
À lire aussi : Et si on réunifiait enfin l’Allemagne…
Le lexique n’est toutefois pas le seul niveau linguistique touché par ces changements. La syntaxe – le mode de construction des phrases – l’est également, par exemple à travers l’utilisation accrue de formes passives qui permettaient d’exprimer les contenus, en particulier dans le domaine politique, de façon dépersonnalisée et sans jamais citer les agents des actions. Donnant le sentiment que ces décisions s’imposaient d’elles-mêmes à la population sans que personne ne soit désigné pour en avoir été à l’origine.
Les formules de routine, rythmant les interactions quotidiennes, se sont aussi « teintées de RDA ». À l’instar de Freundschaft (« amitié ») qui était la formule de salutation lors des rencontres de l’organisation de jeunesse Freie Deutsche Jugend (« jeunesse libre allemande »), ou mit sozialistischen Grüssen (« avec des salutations socialistes »), expression utilisée comme formule de clôture dans les lettres.
Les textes et les discours n’étaient pas en reste, avec deux types de textes emblématiques : les « blagues de RDA » (DDR-Witze), mettant généralement en scène le régime, le parti unique ou les conditions de vie ; et les lettres de réclamation, dites Eingaben, un type de texte inventé par le régime et à la structure très figée.
Le film Good Bye Lenin ! en présente un exemple parfait. Le personnage de Christiane Kerner – la mère du protagoniste – aidait, du temps de la RDA, des personnes dans l’écriture de leurs Eingaben. Sur un mode ironique, le film met ainsi en évidence la façon dont cette variété d’allemand était sclérosée, reposant sur des fossilisations de formules « prêtes à l’emploi » et le plus souvent vides de sens.
À lire aussi : L’Allemagne de l’Est est-elle la grande perdante de l’unification ?
Avant ce film devenu culte, des écrivains de RDA s’employaient déjà à montrer le ridicule de cette langue largement artificielle (incarnée en particulier par le quotidien Neues Deutschland). Ils dé-construisaient ces formules pour en faire tomber les masques linguistiques.
L’état des lieux de l’allemand en RDA, décrit plus haut, doit être contextualisé d’abord sur le plan linguistique. Les années 1960-1970 sont marquées dans l’espace germanophone par un large débat sur la question des variétés de la langue. La question était de savoir si l’allemand n’existait que sous une seule forme, celle de l’Allemagne – le plus souvent réduite de manière implicite à la RFA –, et si les variétés autrichienne ou suisse devaient être considérées comme des « déviances » par rapport à cette unique norme de référence ; ou s’il fallait considérer l’allemand, à l’instar notamment de l’anglais, comme une langue dotée de différents centres légitimes (ici, l’Allemagne, l’Autriche et la Suisse) caractérisés par des variétés propres historiquement constituées et sources d’identification pour les locuteurs locaux.
Or dans le cadre de cette discussion sur la langue, la RDA voit une carte à jouer sur le plan politique. En 1969-1970, une rupture survient dans le discours officiel est-allemand : les officiels postulent l’existence d’une « langue » différente de celle pratiquée en RFA, appuyant la revendication d’une nation est-allemande. Cela s’est traduit concrètement et au premier chef dans le travail lexicographique de « fabrication » des dictionnaires. Depuis 1952, un groupe de travail à l’Académie des Sciences de Berlin (Est) élabore un dictionnaire de référence produit en RDA, le Wörterbuch der deutschen Gegenwartssprache (dictionnaire de la langue allemande contemporaine), aujourd’hui accessible en ligne.
Après la parution des trois premiers tomes, le travail de cette commission connaît une inflexion afin de mettre en œuvre le programme de politique linguistique du régime. Stigmatisation systématique des mots propres à la RFA et plus généralement à l’Europe occidentale tels que Faschismus (fascisme) ou bürgerlich (bourgeois), révision des définitions et des exemples pour les rendre conformes à l’idéologie du régime, attention accrue portée aux mots et aux expressions propres à la RDA. Cette inflexion a non seulement concerné les tomes encore en cours d’élaboration (4 à 6) mais a aussi débouché sur une refonte des trois premiers pour les rendre plus « conformes ».
Toutefois, peu de sources permettent de mesurer aujourd’hui le véritable degré de pénétration de cette politique linguistique dans la pratique réelle des locuteurs est-allemands. Les sources les plus accessibles relèvent toutes du discours officiel, public ou médiatique, qui appliquait scrupuleusement les préconisations du régime. Afin de contourner ce biais, il faut donc aussi consulter les égo-documents (correspondances privées, journaux intimes, biographies linguistiques) qui permettent d’accéder à une part d’intime – dimension essentielle pour étudier les usages d’une langue.
Aujourd’hui, l’emploi de termes propres à l’ancienne RDA n’est jamais dû au hasard. Ils peuvent avoir une valeur documentaire car relevant de réalités désormais historiques, ou être utilisés de façon ironique pour marquer une forme de distanciation. L’attention de la recherche sur la langue allemande – comme pour d’autres idiomes – porte davantage sur les évolutions récentes : néologismes, par exemple liés à la pandémie ou aux questions climatiques, évolution des modes d’écriture liés aux dispositifs sociotechniques, places des emojis, etc.
Laurent Gautier ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
19.11.2024 à 16:57
Cathy Grosjean, Enseignante-chercheuse sur la transition écologique, UCLy (Lyon Catholic University)
Comment s’inspirer des principes du vivant tout en respectant la biosphère ? Le biomimétisme nous invite à replacer l’homme comme une espèce vivante parmi les autres espèces vivantes. Explications.
Quel point commun entre les vitrages auto-nettoyants, les verres fabriquées par chimie douce et le traitement des eaux usées ECOSTP ? Tous relèvent du biomimétisme, une démarche visant à résoudre des problèmes et concevoir des solutions en s’inspirant des principes du vivant tout en respectant la biosphère et les limites planétaires.
Ainsi, les vitrages auto-nettoyants reproduisent l’effet superhydrophobe observé à la surface des feuilles de Lotus : une surface microtexturée et très hydrophobe qui ne retient ni la saleté ni l’eau. La chimie douce fabrique du verre à température ambiante en s’inspirant des processus biologiques identifiés chez les Diatomées, des microalgues qui fabriquent des « carapaces » transparentes en verre de silice. Quant au procédé ECOSTP, il s’inspire du fonctionnement de l’estomac à plusieurs chambres des vaches pour purifier l’eau sans alimentation électrique.
Les solutions identifiées par cette démarche sont ainsi par essence même économes en matière et en énergie, robustes et résilientes, elles s’insèrent dans leur milieu sans le dégrader et elles ne génèrent pas de déchets non réutilisables, au même titre que les processus développés par l’ensemble des êtres vivants au long des 3,8 milliards d’années d’évolution de la vie sur Terre.
Cette démarche de biomimétisme a toujours existé spontanément dans les populations humaines mais elle s’est structurée et théorisée récemment. Le terme lui-même de biomimétisme a été proposé pour la première fois en 1969 par le biophysicien américain Otto Herbert Schmitt dans le titre de son article Some interesting and useful biomimetic transforms.
Une étape majeure dans la structuration du concept a été la publication en 1997 du livre de l’Américaine diplômée en gestion des ressources naturelles Janine Benuys Biomimétisme : quand la nature inspire des innovations durables (Biomimicry : Innovation Inspired by Nature). L’auteure a regroupé et structuré de nombreuses approches hétérogènes comme la permaculture, la symbiose industrielle, l’écoconception… et a proposé de quitter la vision très technique de la bionique (démarche qui crée des systèmes technologiques inspirés du vivant) pour construire la vision systémique du biomimétisme, qui prend en compte les conditions d’équilibre et les interactions entre les différents éléments du système vivant étudié.
Qu’est-ce que le biomimétisme ?
Comment s’inspirer des principes du vivant tout en respectant la biosphère ? Le biomimétisme nous invite à replacer l’homme comme une espèce vivante parmi les autres espèces vivantes. Explications.
Sous l’impulsion de ce livre, des think tanks et des cabinets de conseil se sont ensuite créés, tels que Biomimicry 3.8 et le Biomimicry Institute aux États-Unis, ou le CEEBIOS (Centre d’excellence en biomimétisme de Senlis) en France.
Ainsi le biomimétisme s’est développé et installé dans le paysage mondial ces vingt-cinq dernières années : la mise en œuvre technologique du concept s’est accompagnée d’une définition par une norme ISO, les politiques s’en sont également emparés et les chercheurs ont commencé à livrer des analyses critiques, notamment sous l’angle de la philosophie et de l’éthique.
Le biomimétisme doit désormais faire ses preuves. Se contenter de reproduire des concepts techniques ne suffira pas, seule l’intégration d’une dimension systémique peut répondre aux enjeux environnementaux de manière réellement soutenable. Quelques réalisations indiquent que c’est possible, comme celles relevant de l’écologie industrielle et territoriale ou encore les démarches de type permaentreprise.
Cette dimension systémique est rendue visible par le terme d’écomimétisme parfois utilisé à la place de biomimétisme : il enjoint de nous inspirer non pas seulement des fonctions biologiques mais des propriétés des écosystèmes, donc de prendre en compte les interrelations entre les espèces et les populations, la circularité des flux de matière et d’énergie, la frugalité dans l’utilisation des ressources… : des propriétés des écosystèmes garantes du respect de la biosphère et des limites planétaires.
Le biomimétisme et l’écomimétisme doivent également faire leurs preuves dans leur capacité à intégrer une réflexion éthique : imiter la nature pour des applications purement techniques n’est qu’une instrumentalisation de plus de la nature.
De nombreux auteurs invitent au contraire à un changement de paradigme philosophique : replacer l’homme comme une espèce vivante parmi les autres espèces vivantes. Car c’est la position dominante de l’homme vis-à-vis de la nature qui a abouti à notre économie extractiviste, linéaire et mondialisée, destructrice de nos milieux de vie et des conditions d’habitabilité de la Terre.
Cathy Grosjean ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
19.11.2024 à 16:55
Kelly R. MacGregor, Professor of Geology, Macalester College
Depuis que les Grecs de l’Antiquité ont fait des observations de la Lune et du ciel, les scientifiques savent que la Terre est une sphère. Nous avons tous vu de magnifiques images de la Terre depuis l’espace, certaines photographiées par des astronautes et d’autres collectées par des satellites en orbite. Alors pourquoi notre planète ne semble-t-elle pas ronde lorsque nous nous trouvons dans un parc ou que nous regardons par la fenêtre ?
La réponse est une question de perspective. Les êtres humains sont de minuscules créatures vivant sur une très grande sphère.
Imaginez que vous êtes un acrobate de cirque debout sur une boule d’environ 1 mètre de large. Du haut de la boule, vous la voyez s’éloigner de vos pieds dans toutes les directions.
Imaginez maintenant une petite mouche sur cette boule de cirque. Son point de vue se situerait probablement à un millimètre ou moins au-dessus de la surface. Comme la mouche est beaucoup plus petite que la balle et que son point de vue est proche de la surface, elle ne peut pas voir toute la balle.
Chaque semaine, nos scientifiques répondent à vos questions.
N’hésitez pas à nous écrire pour poser la vôtre et nous trouverons la meilleure personne pour vous répondre.
Et bien sûr, les questions bêtes, ça n’existe pas !
La Terre mesure environ 12,8 millions de mètres de large, et même le regard d’un adulte de grande taille ne culmine qu’à environ 2 mètres au-dessus de sa surface. Il est impossible pour nos yeux de saisir la taille de la Terre sphérique lorsque nous nous trouvons dessus. Vous ne pourriez pas visualiser que la Terre est une sphère même en montant au sommet du mont Everest, qui se trouve à 8 850 mètres au-dessus du niveau de la mer.
La seule façon de voir la courbe de la Terre est de s’envoler à plus de 10 kilomètres au-dessus de sa surface. En effet, la longueur de l’horizon que nous voyons dépend de la hauteur à laquelle nous nous trouvons au-dessus de la surface de la Terre.
Debout sur le sol, sans rien qui bloque notre vision, nos yeux peuvent voir environ 4,8 kilomètres de l’horizon. Ce n’est pas assez pour que la ligne d’horizon commence à montrer sa courbe. Comme une mouche sur une boule de cirque, nous ne voyons pas assez le bord où la Terre rencontre le ciel.
Pour voir l’ensemble de la sphère planétaire, il faudrait voyager avec avec un astronaute ou à bord d’un satellite. Vous auriez ainsi une vue complète de la Terre à une distance beaucoup plus grande.
Les gros avions de ligne peuvent également voler suffisamment haut pour donner un aperçu de la courbure de la Terre, bien que les pilotes aient une bien meilleure vue depuis l’avant de l’avion que les passagers depuis les fenêtres latérales.
Même depuis l’espace, vous ne pourriez pas déceler quelque chose d’important à propos de la forme de la Terre : elle n’est pas parfaitement ronde. Il s’agit en fait d’un sphéroïde légèrement aplati ou d’un ellipsoïde. Cela signifie qu’autour de l’équateur, elle est un peu plus large que haute, comme une sphère sur laquelle on se serait assis et qu’on aurait un peu écrasée.
Ce phénomène est dû à la rotation de la Terre, qui crée une force centrifuge. Cette force produit un léger renflement au niveau de la taille de la planète.
Les caractéristiques topographiques de la surface de la Terre, telles que les montagnes et les fosses sous-marines, déforment également légèrement sa forme. Elles provoquent de légères variations dans l’intensité du champ gravitationnel terrestre.
Les sciences de la Terre, le domaine que j’étudie, comportent une branche appelée géodésie qui se consacre à l’étude de la forme de la Terre et de sa position dans l’espace. La géodésie sert à tout, de la construction d’égouts à l’établissement de cartes précises de l’élévation du niveau de la mer, en passant par le lancement et le suivi d’engins spatiaux.
Kelly R. MacGregor reçoit des fonds de la National Science Foundation, du Keck Geology Consortium et du Minnesota Environment and Natural Resources Trust Fund (ENRTF).
19.11.2024 à 15:57
Magali Bigey, Maîtresse de conférences en SIC, sémiolinguiste spécialiste de la réception de publics populaires, Laboratoire ELLIADD, Université de Franche-Comté – UBFC
A literary subgenre that emerged in the 2010s and gained widespread popularity in the 2020s, dark romance falls under the umbrella of unhealthy love stories. These novels often depict relationships that challenge moral and legal boundaries, raising questions about their growing appeal. What does the success of these provocative stories, frequently marked by violence and complex power dynamics, reveal about contemporary society?
Fueled by social media platforms such as TikTok – particularly under the hashtag #BookTok – the meteoric rise of dark romance underscores a shift in how narratives about love and desire are consumed. The genre’s ability to provoke intense emotional responses has captivated a predominantly young, female, and highly engaged audience. While controversial, these novels allow readers to explore forbidden or complex emotions within a controlled, fictional environment. How can society better understand this phenomenon, and more importantly, guide young readers toward critical engagement without dismissing their preferences?
The success of Fifty Shades of Grey by E.L. James in the early 2010s helped establish new romance as a dominant force in publishing, paving the way for subgenres like dark romance. Series such as 365 Days by Blanka Lipińska and Captive by Sarah Rivens have garnered millions of readers, cementing dark romance as a popular niche.
By 2023, romance accounted for 7% of the French book market, with dark romance representing a significant portion. Once relegated to the fringes, the genre is now widely available in bookstores, libraries, and even boasts its own event – the Festival New Romance in Lyon.
Central to dark romance’s success is the role of online literary communities. Platforms such as TikTok amplify these novels’ visibility through thousands of videos featuring recommendations, excerpts, and emotional analyses. Enthusiastic readers become influencers, driving interest and propelling titles to success – sometimes even before official publication. Viral sensations like Captive owe much of their popularity to this digital word-of-mouth model.
Dark romance explores the murky areas of love and desire, often characterised by fraught power dynamics and implicit or explicit violence between protagonists. Yet, these stories typically have a positive, albeit complicated, conclusion.
Protagonists in these novels are often young women in submissive roles paired with dominant male characters. Despite frequent criticism for their portrayal of toxic relationships, these narratives resonate with readers by offering an emotional intensity unmatched by other romance subgenres.
For many, the appeal lies in the safe exploration of extreme emotions within a fictional framework. Similar to the thrill of horror movies, readers can experience fear, tension, or desire, knowing they remain in control of the story. This emotional catharsis may reflect broader societal unease, particularly among young people navigating conversations around gender equality, consent, and power dynamics in the post-#MeToo era.
Contrary to fears that dark romance promotes violence or unhealthy relationships, many readers engage critically with these narratives. A 2024 study of high school students revealed that young readers often interpret such content through a lens of awareness, acknowledging the troubling dynamics while recognising their fictional nature. “It’s good to show readers the violence of these acts so they can understand how absurd it is,” one student told Arnaud Genon, a professor at INSPÉ in Strasbourg. This sentiment underscores the idea that reading these novels can foster a critical awareness of harmful behaviours rather than normalising them.
Far from being a mere incitement to violence, dark romance can serve as a tool for introspection and emotional processing – though its impact varies significantly based on the reader’s maturity and age. Concerns often arise regarding very young readers, particularly girls who may lack the emotional tools to process such content effectively. This underscores the importance of providing guidance and fostering environments where young people can discuss these narratives openly, whether with trusted individuals or within critical reading communities. Such approaches mitigate risks of superficial interpretations or unchecked immersion, especially on platforms like Wattpad, a collaborative storytelling site where moderation can be minimal.
Dark romance often serves as a form of catharsis, allowing readers to engage with powerful and conflicting emotions in a controlled and safe environment. The genre enables readers to navigate themes of control, freedom, and submission – concepts many young women grapple with amid societal pressures. Within these fictional realms, readers remain in control of the narrative, creating a boundary that separates fantasy from reality.
This exploration is particularly relevant in a society where young women are often subjected to paradoxical expectations. Dark romance provides a space to examine these tensions without real-world repercussions, making emotional engagement the cornerstone of the reader’s experience.
One of the reasons dark romance maintains its popularity is its ability to offer a sense of reassurance amid the complexities of real-world relationships. The recurring theme of the heroine “healing” her abuser or gaining control over the relationship provides a redemptive arc that appeals to readers seeking resolution. While the initial depictions of violence may be troubling, the eventual mastery and closure provide a controlled space for readers to explore challenging emotions without endorsing such behaviours in real life.
In many households, the introduction to dark romance comes from familial connections, such as mothers or older sisters sharing their own discoveries. These shared experiences often lead to discussions, fostering critical thinking and reflection on the content. In more open-minded environments, such exchanges transform reading into a communal and analytical activity, steering readers away from simplistic or potentially harmful interpretations.
Rather than condemning dark romance, society should focus on guiding its readership. Demonising the genre risks alienating young readers, while fostering open dialogue encourages critical reflection.
Teenagers often engage with these stories as a form of experimentation, rather than a desire to emulate the characters or relationships depicted. Social media reactions like “Oh, Ash is so handsome; I’d love a guy like that” are frequently playful provocations rather than genuine aspirations.
As Hervé Glevarec, a CNRS sociologist specialising in contemporary cultural practices, observes: “Cultural tastes cannot be understood independently of the context in which they are expressed; they are shaped by social situations and networks of sociability.” Dark romance, in this light, becomes an emotional playground where readers can safely explore desires, frustrations, and fantasies while remaining grounded in the understanding that these stories are fictional.
The challenge lies in ensuring young readers encounter dark romance within frameworks that encourage thoughtful engagement. When supported by open discussions and critical analysis, this provocative genre can serve as a space for readers to confront complex emotions on their terms – and ultimately dominate the narrative.
I advise library staff and middle and high school teachers regarding Dark Romance for young audiences
19.11.2024 à 12:36
Joëlle Micallef, Service de pharmacologie clinique et pharmacosurveillance, AP-HM Centre d'Évaluation et d'Information sur la Pharmacodépendance – Addictovigilance PACA-Corse Institut de Neurosciences des Systèmes (U1106), Aix-Marseille Université (AMU)
Thomas Soeiro, Service de pharmacologie clinique et pharmacosurveillance, AP-HM Centre d'Évaluation et d'Information sur la Pharmacodépendance – Addictovigilance PACA-Corse Institut de Neurosciences des Systèmes (U1106), Aix-Marseille Université (AMU)
L’usage détourné de la kétamine, un médicament anesthésique, comme hallucinogène s’installe dans la population, même chez les jeunes. Ce produit peut entraîner des comportements addictifs, avec toutes les conséquences que cela implique, et peut aussi conduire à des complications sévères, notamment urinaires. Il fait l’objet de suivis par des dispositifs de surveillance spécialisés.
La kétamine est un médicament anesthésique général pour usage humain et vétérinaire, dont la première spécialité a été commercialisée en France en 1970.
Plus de 50 ans après, ce produit est aussi de plus en plus présent dans les faits divers en France ou à l’étranger pour son usage détourné. Il en a par exemple été question suite au décès de Matthew Perry, l’un des protagonistes de la célèbre série Friends. L’ampleur que prend l’usage détourné de la kétamine comme hallucinogène, bien loin de son utilisation médicale pourtant essentielle, est sans équivalents. Comment et pourquoi en est-on arrivé à une telle situation ?
Chaque mardi, notre newsletter « Et surtout la santé ! » vous donne les clés afin de prendre les meilleures décisions pour votre santé (sommeil, alimentation, psychologie, activité physique, nouveaux traitements…)
Aux États-Unis puis en Europe, les premiers cas de déviation de son usage médical vers un usage récréatif ont été décrits notamment chez des professionnels de santé (anesthésistes) ayant accès aux produits. À la fin des années 90, son usage en France gagne l’espace festif techno, où elle est proposée sous différentes appellations (Kéta, K, Kate, Spécial K, la Golden, la vétérinaire…) et consommée essentiellement par voie nasale (60-100 mg) ou orale, pour ses effets hallucinatoires.
L’usage détourné de la kétamine va également atteindre l’Asie. Elle y prendra une ampleur considérable, en particulier dans les night-clubs de Taiwan et de Hong Kong. En 2006 à Hong Kong, la kétamine est la deuxième substance psychoactive la plus consommé après l’héroïne.
En France, depuis de nombreuses années, la kétamine fait l’objet de rapports nationaux d’expertise d’addictovigilance, permettant ainsi de détecter, repérer et caractériser de nouvelles pratiques d’utilisations ainsi que leurs conséquences sur la santé.
Il faut dire que la France est le seul pays en Europe à avoir mis en place depuis 1990 un dispositif de veille spécifique sur les substances psychoactives et leurs conséquences sur la santé, grâce aux treize Centres d’Évaluation et d’Information sur la Pharmacodépendance-Addictovigilance (CEIP-A) qui constituent le Réseau français d’addictovigilance.
Cette analyse s’appuie sur la triangulation de plusieurs sources de données françaises, dont les déclarations de cas graves avec la kétamine (qui sont une obligation légale pour les professionnels de santé) et les données issues d’un dispositif de pharmacosurveillance appelé OPPIDUM (Observation des produits psychotropes Illicites ou détournés de leur Utilisation Médicamenteuse).
Ce dispositif permet de connaître les substances psychoactives consommées par les patients pris en charge en France dans les structures spécialisées en addictologie, grâce à un recueil effectué chaque année durant le mois d’octobre. Sur le mois d’octobre 2012, 35 patients (0,7 %) étaient des consommateurs de kétamine. Ce chiffre ne cesse de croire depuis jusqu’à attendre 107 consommateurs (2 %) lors du recueil en octobre 2023.
La proportion d’usagers réguliers de kétamine est aussi en constante progression. C’est également le cas pour ceux qui augmentent les doses de kétamine et présentent des troubles de l’usage, c’est-à-dire une addiction avec la kétamine.
Cette problématique des troubles de l’usage avec la kétamine se retrouve dans les déclarations d’addictovigilance avec des usagers qui se retrouvent en difficulté avec leur consommation. Cela se manifeste par des augmentations des doses, du craving qui décrit le besoin irrépressible de consommer, des complications dans le domaine de la santé (complications urinaires, complications sur le foie, complications psychiatriques…), des conséquences financières… ce qui amène les usagers à consulter ou à être hospitalisés.
À noter dans ce contexte de troubles de l’usage avec la kétamine, des situations cliniques qui rapportent un comportement de recherche de kétamine pharmaceutique, par des passages via les services d’urgences pour obtenir de la kétamine. Ceci témoigne des passerelles qui peuvent exister entre la kétamine dite « illicite » et la kétamine pharmaceutique.
Quant au profil des usagers, il se diversifie. Certains continuent d’utiliser la kétamine dans un contexte festif ou récréatif, d’autres pour une finalité « auto-thérapeutique » (réduction de l’anxiété, bien-être, antidouleur, amélioration de l’humeur, sevrage alcoolique…) sans que l’efficacité de la kétamine dans ces indications ait été démontrée et hors de tout accompagnement médical, ce qui les expose à des effets indésirables possiblement graves et enfin, d’autres encore à visée sexuelle, notamment dans un contexte de chemsex.
À lire aussi : Du chemsex aux fêtes… La 3-MMC, cette drogue de synthèse qui gagne du terrain chez les jeunes
De façon intéressante, trois récentes études réalisées en France sur les niveaux d’expérimentation des substances psychoactives ont inclus spécifiquement la kétamine. Leurs chiffres témoignent notamment de l’installation de l’expérimentation de kétamine en population générale mais aussi chez les jeunes.
On observe ainsi en France :
en 2023, une prévalence d’expérimentation de la kétamine au cours de la vie de 2,6 % (3,3 % chez les 18-24 ans, 4,8 % chez les 25-34 ans, 3,2 % chez les 35-44 ans ; sur un échantillon représentatif de 14 984 personnes âgées de 18 à 64 ans), d’après l’Observatoire français des drogues et des tendances addictives OFTH.
une prévalence d’usage de la kétamine de 0,9 % (allant de 0,6 % à 4,7 % en fonction de la situation scolaire) quand on interroge de jeunes gens âgés de 17 ans lors de la journée défense et citoyenneté (sur un échantillon représentatif de 23 701 filles et garçons âgés de 17,4 ans), selon les données ESCAPAD 2022.
une prévalence d’expérimentation de la kétamine de 1,1 % (1,4 % garçons, 0,9 % filles) chez des élèves de la sixième à la terminale, d’après les données d2022 du dispositif EnCLASS.
À lire aussi : Cocaïne, ecstasy, hallucinogènes… Quels sont les comportements des jeunes face aux drogues illicites ?
Et il ne s’agit pas d’une spécificité française. Au Royaume-Uni,par exemple, l’expérimentation de la kétamine est passée de 0,5 % en 2010 à 0,8 % en 2020. Parmi les 16-24 ans, cet usage a doublé durant la même période, de 1,7 % à 3,2 %.
Une abondante littérature scientifique caractérise des complications liées à la consommation de kétamine, en particulier des complications urinaires sévères (à type de cystites interstitielles) chez des consommateurs réguliers de kétamine souvent par voie nasale.
Pourtant au début, comme souvent pour tout évènement nouveau, le lien avec la kétamine fut débattu et même critiqué, avec des arguments évoquant d’autres hypothèses comme l’existence d’un produit adultérant dans la kétamine, ses modalités de préparation (chauffage de la kétamine) ou encore la synthèse d’un métabolite toxique de la kétamine par les usagers asiatiques qui présente souvent des polymorphismes génétiques.
C’est en 2007 que paraîtront les deux premiers articles scientifiques sur les complications urinaires chez des usagers réguliers de kétamine, à Hong Kong et au Canada, battant en brèche l’hypothèse du métabolite toxique liée à la population asiatique.
De façon intéressante, cette publication canadienne donnera lieu à d’autres publications par des équipes utilisant la kétamine à but médical, de façon répétée, pour traiter des douleurs complexes et relatant dans ce cadre-là également des complications urinaires.
Des études expérimentales chez l’animal amèneront un éclairage utile pour établir ce lien avec notamment la mise au point d’un modèle animal de cystites induites par l’administration répétée de fortes doses de kétamine ou encore la mise en évidence d’anomalies urinaires symptomatiques chez le rat après l’administration de la méthoxétamine, une puissante drogue de synthèse et un antagoniste des récepteurs de la NMDA comme… la kétamine.
Ces cystites se manifestent par des difficultés à uriner (dysurie), la présence de sang dans les urines (hématurie) et des mictions très fréquentes en lien avec une capacité réduite de la vessie. Elles peuvent entraîner un retentissement sur le haut appareil urinaire donc au niveau des reins, conduisant à ce que l’on appelle des hydronéphroses.
Des tableaux cliniques sévères et invalidants peuvent nécessiter des interventions chirurgicales. Ces complications sont observées en cas de poursuite de la consommation de kétamine. Dès les premiers symptômes urinaires, l’arrêt constitue pourtant le meilleur traitement.
En France, toutes ces complications cliniques en lien avec les substances psychoactives à risque d’abus (médicamenteuses ou non) sont suivies de près par les pharmacologues du Réseau français d’addictovigilance, piloté par l’Agence National de Sécurité du Médicament et des produits de santé (ANSM).
La kétamine est un produit qui circule davantage. En 2022, près de 3 000 saisies ont été réalisées en Europe, pour un total de près de 2,79 tonnes de kétamine. Elles s’inscrivent dans une dynamique croissante.
Cet usage est facilité par une diffusion accentuée de la kétamine (comme en témoignent les niveaux de saisies en augmentation au niveau européen et mondial) et une accessibilité facilitée (deal, dématérialisation par le recours aux outils numériques…).
Cette situation explique les chiffres d’exposition en population générale, ou plus spécifiquement chez les collégiens et lycéens scolarisés, et également l’augmentation des complications sanitaires liées à la kétamine en France ou ailleurs.
Joëlle Micallef a reçu des financements dans le cadre d'appels à projets de l'Institut pour la Recherche en Santé Publique (IReSP) et de l’Institut National du Cancer (INCa).
Thomas Soeiro a reçu des financements dans le cadre d’appels à projets du GIS EPI-PHARE.
18.11.2024 à 15:56
Jean-Renaud Boisserie, Directeur de recherche au CNRS, paléontologue, Université de Poitiers
Ce dimanche 24 novembre marque le cinquantième anniversaire de la découverte du fossile de l’australopithèque Lucy. Jean-Renaud Boisserie dirige un programme de recherche interdisciplinaire travaillant dans la basse vallée de l’Omo en Éthiopie et ayant pour objectif de comprendre les interactions entre les changements environnementaux et l’évolution des organismes (humains inclus) de cette vallée au cours des quatre derniers millions d’années. Spécialiste des faunes fossiles de la région où à été découvert le fossile de Lucy, il nous renseigne sur l’importance de cette découverte et sur toutes les questions qu’elle soulève encore.
The Conversation : Lucy fait partie du genre Australopithecus et notre espèce du genre Homo : quelles sont les principales différences et ressemblances et notre lien de parenté ?
Jean-Renaud Boisserie : Le genre Homo est caractérisé à la fois par un volume cérébral généralement de grande taille (plus de 600 cm3), même s’il existe des exceptions, par une bipédie obligatoire marquée par diverses adaptations (par exemple jambes longues, bras courts) qui améliore l’endurance et la rapidité des déplacements bipèdes, et par une denture relativement réduite. Bien qu’également bipèdes, Australopithecus gardait une morphologie compatible avec une bonne aptitude aux déplacements arboricoles, présentait une denture le plus souvent « mégadonte » – c’est-à-dire des dents grosses à l’émail très épais (en particulier chez les australopithèques dits « robustes », et un cerveau de taille peu différente de celle des chimpanzés et des gorilles. On sait cela notamment grâce à la découverte d’Australopithecus afarensis.
T.C. : Quelle importance a eu la découverte de Lucy, la plus célèbre représentante de cette espèce ?
J.-R. B. : Cette découverte est un jalon dans notre compréhension de l’évolution humaine en Afrique, puisqu’on se posait un certain nombre de questions avant la découverte de Lucy sur l’ancienneté du genre Homo et le rôle des australopithèques dans l’ascendance de notre genre. Avec Australopithecus africanus en Afrique du Sud, on savait qu’il existait des formes bipèdes avec un cerveau relativement réduit, mais sans dates bien établies dans les années 1970, ce qui était assez problématique.
Côté Afrique orientale, Louis et Mary Leakey avaient mis au jour des australopithèques robustes à partir de la fin des années 1950, assez bien datés vers 1,8 million d’années, ainsi que les restes d’Homo habilis, alors le plus ancien représentant du genre Homo. À partir de 1967, les travaux menés dans la vallée de l’Omo, qui pour la première fois mobilisaient des équipes importantes et pluridisciplinaires, ont permis de découvrir des restes d’australopithèques datant de plus de 2,5 millions d’années, et des restes du genre Homo à peine plus récents.
Au début des années 1970, la découverte sur les rives du lac Turkana du crâne d’Homo rudolfensis – un représentant indubitable de notre genre avec sa capacité cérébrale de près de 800 cm3 – suggérait initialement l’âge très ancien (jusqu’à 2,6 millions d’années) de notre genre et d’une capacité cérébrale importante. Une partie de la communauté scientifique, notamment la famille Leakey, pensait donc que le genre Homo constituait une branche parallèle à celle des australopithèques, qui auraient donc été des cousins éteints, mais pas nos ancêtres.
La découverte d’Australopithecus afarensis, et notamment de Lucy, a clarifié ce débat. Non seulement l’âge de ces nouveaux fossiles était clairement plus ancien que 3 millions d’années, mais surtout ils incluaient des fossiles bien préservés, en particulier l’exceptionnelle Lucy. Avec 42 os, représentés par 52 fragments, à peu près 40 % du squelette est représenté. Des fossiles humains aussi complets n’étaient alors connus qu’à des périodes beaucoup plus récentes (moins de 400 000 ans).
Avec Lucy, de nombreux autres spécimens ont été découverts dans les années 1970 à Hadar, ainsi qu’à Laetoli en Tanzanie, où ces derniers étaient associés à des empreintes de pas bipèdes dans des cendres volcaniques datées de 3,7 millions d’années.
Tous ces éléments montraient qu’Australopithecus afarensis, bipède à petit cerveau, était nettement plus ancienne qu’Homo (l’âge d’Homo rudolfensis fut d’ailleurs ultérieurement réévalué à moins de 2 millions d’années). Cette espèce pouvait donc être considérée comme ancêtre commun des toutes les espèces humaines ultérieures, notre espèce, Homo sapiens, comprise. C’est devenu l’hypothèse dominante pour décrire l’évolution humaine pendant pour plusieurs décennies.
T.C. : Quelle importance a eu Lucy dans le monde ? La connaît-on partout comme en France ?
J.-R. B. : En France, c’est vrai qu’on la connaît bien parce qu’elle a été très bien présentée par Yves Coppens, un des codirecteurs de l’International Afar Research Expedition, l’équipe qui a découvert Lucy. Avec son immense talent de vulgarisateur, il a réussi à la faire adopter par le public français tout en montrant bien son importance scientifique.
Ce fut la même chose aux États-Unis, où d’autres membres de l’équipe ont mené le même travail de vulgarisation, ainsi qu’en Éthiopie. Mais cela dépasse ce cadre géographique : ailleurs en Europe, en Asie et en Afrique, elle est extrêmement connue. C’est réellement un fossile extrêmement important pour la science internationale en général.
T.C. : Lucy a été présentée comme « grand-mère de l’humanité », cela a été vrai combien de temps ?
J.-R. B. : Après cette découverte d’Austrolopitecus Afarensis qui a conduit à la considérer comme l’ancêtre commun à toutes les espèces humaines plus récentes, il y a tout d’abord eu des espèces plus anciennes qui ont été mises au jour. On connaissait dès le début des années 1970 des fossiles plus anciens, mais ils étaient rares, très fragmentaires et mal conservés.
À partir des années 1990, de nouveaux travaux dans l’Afar, à quelques dizaines de kilomètres au sud de Hadar dans la moyenne vallée de l’Awash, ont révélé la présence d’une espèce plus ancienne qui a été baptisée initialement Australopithecus ramidus, puis Ardipitecus ramidus parce qu’elle a été jugée suffisamment différente pour définir un nouveau genre. Ces restes de 4,4 millions d’années montraient qu’il y avait eu quelque chose avant Lucy et les siens, qui ne représentaient plus le stade évolutionnaire le plus ancien de l’humanité.
D’autres découvertes sont intervenues au tout début des années 2000, avec Orrorin tugenensis au Kenya, daté à 6 millions d’années ; puis Ardipithecus kadabba, de nouveau dans le Moyen Awash, daté de 5,8 à 5,2 millions d’années ; et enfin, Sahelanthropus tchadensis (Toumaï), cette fois en Afrique centrale, au Tchad, plus près de 7 millions d’années.
Australopithecus afarensis n’était donc plus l’espèce la plus ancienne, mais devint potentiellement un jalon au sein d’une lignée évolutionnaire beaucoup plus ancienne.
En parallèle, il y a eu la découverte de formes contemporaines de Lucy, attribuées cette fois à des espèces contemporaines mais différentes. Ça a été par exemple le cas d’Australopithecus bahrelghazali au Tchad, daté entre 3,5 et 3 millions d’années. Dès 1995, ces restes assez fragmentaires montraient un certain nombre de caractères qui suggèrent qu’il s’agit d’une espèce différente de celle de Lucy. D’autres ont suivi, notamment Australopithecus deyiremeda, ou encore une forme non nommée connue par un pied très primitif (« le pied de Burtele »), tous deux contemporains d’Australopithecus afarensis, et issu d’un site voisin de celui de Hadar, Woranso-Mille.
T.C. : Comment détermine-t-on qu’un fossile appartient à telle espèce ou à tel genre ?
J.-R. B. : C’est un degré d’appréciation de la part des scientifiques qui est assez difficile à tester en paléontologie. Prenez par exemple les chimpanzés : il en existe deux espèces légèrement différentes dans leur comportement et dans leur morphologie. Elles sont néanmoins beaucoup plus semblables entre elles qu’avec n’importe quelle autre espèce de grands singes et sont donc toutes deux placées au sein du genre Pan. Les données génétiques confirment largement cela.
En paléontologie, c’est plus compliqué parce qu’on a affaire à des informations qui sont parcellaires, avec la plupart du temps la morphologie pas toujours bien préservée, et finalement peu de données sur les comportements passés. On peut caractériser une partie de l’écologie de ces formes fossiles avec des approximations, et sur cette base, les informations morphologiques et une vision souvent incomplète de la diversité alors existante, on tâche de déduire des critères similaires à ceux observés dans l’actuel pour classer des espèces fossiles au sein d’un même genre.
Pour définir Ardipithecus par rapport à Australopithecus, ce qui a primé, c’est la morphologie des dents, puisque par rapport aux grosses dents à émail épais des australopithèques, Ardipithecus présentait des dents qui sont relativement plus petites, un émail plus fin et des canines relativement plus grosses.
En matière de locomotion, il y a également des différences, bien décrites en 2009. Le bassin de Lucy est très similaire au nôtre, la bipédie est bien ancrée chez Australopithecus. Par contre, chez Ardipitecus, le développement de certaines parties du bassin rappelle ce qu’on voit chez des quadrupèdes grimpeurs, par exemple les chimpanzés. Surtout, on observe un gros orteil (hallux) opposable.
Par contre, les critères sont parfois beaucoup moins objectifs. En dehors de détails mineurs des incisives et des canines, ce qui a conduit à placer Orrorin et Sahelanthropus dans des genres différents d’Ardipithecus est davantage lié au fait que ces restes ont été découverts dans d’autres régions par des équipes différentes.
T.C. : Qu’est-ce qui a changé entre notre connaissance de Lucy au moment de sa découverte et aujourd’hui ?
J.-R. B. : Les grandes lignes de la morphologie des australopithèques n’ont pas fondamentalement changé depuis cette époque-là. Australopithecus afarensis et Lucy ont permis de définir des bases qui sont toujours extrêmement solides. Par contre, même s’il y des débats sur certains fossiles, il est très probable qu’il y avait une plus grande diversité d’espèces entre 4 et 3 millions d’années que ce qu’on pensait à l’époque. Avec le fait qu’il y a également des fossiles humains beaucoup plus anciens relativement bien documentés, c’est un changement majeur par rapport à la vision acquise dans les années 1970.
T.C. :Que savons-nous du régime alimentaire de Lucy ?
L’alimentation d’Australopithecus afarensis était certainement assez diversifiée, pouvant incorporer des fruits, mais également des herbacées et peut-être des matières animales. Australopithecus afarensis a vécu au moins entre 3,8 et 3 millions d’années, soit une très longue durée, beaucoup plus importante que les possibles 300 000 ans d’existence proposés pour Homo sapiens. Il a donc fallu une bonne dose d’opportunisme pour pouvoir faire face à des changements environnementaux qui ont parfois été relativement importants au Pliocène.
Il y a diverses techniques qui s’intéressent aux dents parce que ce sont des objets complexes, constitués de plusieurs tissus et incluant des éléments chimiques dont les concentrations peuvent être liées à l’alimentation. Il y a donc des approches qui utilisent ces contenus chimiques, ainsi que d’autres qui sont réalisés sur les types d’usures liées à l’alimentation. Ces méthodes et d’autres permettront d’avoir une meilleure compréhension de l’alimentation de ces espèces anciennes.
Australopithecus afarensis, connu par plusieurs centaines de spécimens, rarement aussi complets que Lucy même si certains s’en approchent, comprenant néanmoins beaucoup de restes dentaires, de mâchoires et d’os des membres, nous offre un véritable trésor sur lequel s’appuyer pour développer de nouvelles approches et répondre aux questions en suspens.
T.C. : Quelles sont les grandes questions qui restent à étudier ?
J.-R. B. : Lucy a encore un bel avenir scientifique devant elle car elle aidera certainement à répondre à plein de questions. Ainsi la caractérisation de la locomotion et les transitions entre les différentes formes de locomotion sont toujours l’objet d’un débat.
Lucy était bipède quand elle était au sol mais son membre supérieur suggère un également une locomotion arboricole. On ne sait toujours pas, néanmoins, combien de temps passait-elle réellement dans les arbres. Et comment et à quel moment se font les transitions entre les formes aux locomotions versatiles (par exemple Sahelanthropus, à la fois bipède au sol et sans doute fréquemment arboricole) et la bipédie plus systématique des australopithèques, puis avec la bipédie obligatoire d’Homo ? Ou encore entre un cerveau de taille similaire à celui des grands singes non humains actuels et le cerveau plus développé du genre Homo ?
Car finalement, les premiers représentants du genre Homo sont surtout bien connus après 2 millions d’années. Avant 2 millions d’années, les spécimens attribués au genre Homo sont essentiellement fragmentaires et donc assez peu connus. Cette transition n’est toujours pas bien comprise, et c’est un de nos objectifs de recherche dans la basse vallée de l’Omo.
Il y a d’autres questions qui se posent au sujet des australopithèques. Comment se développaient-ils ? Est-ce qu’ils présentaient des caractéristiques du développement similaire à celle des chimpanzés, ou plus similaire à celle d’Homo sapiens, c’est-à-dire avec une croissance plus lente, plus étalée dans le temps, et donc avec des jeunes qui naissent avec des capacités amoindries, nécessitant que l’on s’en occupe beaucoup plus.
La question de la naissance est de ce point de vue très importante. Est-ce que les bébés australopithèques avaient un cerveau relativement développé par rapport à la taille finale, comme ce qu’on peut observer chez les chimpanzés, ou est-ce qu’ils avaient un cerveau plus petit comme chez nous, permettant de se faufiler dans le canal pelvien ? Avec la bipédie, le bassin a été modifié et le canal pelvien, par où les naissances doivent s’effectuer, est devenu plus étroit et tortueux. Dans cette configuration, un cerveau trop gros à la naissance coince, et ça ne marche plus. Des travaux en cours sur Lucy et d’autres spécimens apportent des éléments de réponse importants sur ce type de questions.
D’autre part, si toutes les espèces d’australopithèques contemporaines au Pliocène récent sont bien avérées, comment tout ce petit monde coexistait ? À partir de Lucy et jusqu’à relativement récemment, on a toujours eu plusieurs espèces humaines qui ont pu exister de manière contemporaine et même vivre dans les mêmes endroits. Comment est-ce que ces coexistences s’articulaient ? Pour répondre, il y a encore beaucoup de choses à découvrir sur leurs modes de vie, sur leurs écologies, sur leurs alimentations.
Jean-Renaud Boisserie ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
18.11.2024 à 15:52
Justine Simon, Maître de conférences, Université de Franche-Comté, ELLIADD, Université de Franche-Comté – UBFC
Des chats partout : en dessins, en photos, en vidéos, en GIFs, en mèmes… Ils sont devenus les véritables stars d’Internet. Qu’ils fassent des blagues, des câlins ou des bêtises, leurs images circulent sans fin sur les réseaux sociaux. Mais pourquoi ces animaux ont-ils envahi nos écrans ? Et que nous révèlent-ils sur notre société et sur le fonctionnement des plates-formes que nous utilisons au quotidien ?
Cela fait plusieurs années que j’étudie la propagation des images sur les réseaux sociaux, qu’elles soient humoristiques ou plus sérieuses. C’est dans les années 2000 que le chat est devenu un objet central de la viralité avec des formats comme les « LOLcats » (2007) et cette viralité s’est accentuée avec la montée en puissance des réseaux sociaux (comme Facebook, YouTube, Instagram et TikTok).
Au cours de ma recherche sur les #ChatonsMignons (c’est le terme que j’utilise pour désigner ce phénomène viral), j’ai relevé plusieurs aspects fascinants, comme l’utilisation symbolique du chat en politique ou sa dimension participative, lorsque des internautes créent des mèmes.
Un mème est un élément décliné massivement sur Internet et qui s’inscrit dans une logique de participation. Il peut s’agir d’un texte, d’une image (fixe ou animée), d’un son, d’une musique ou une combinaison de ces différents éléments.
À lire aussi : Le mème : un objet politique
On peut également noter le renforcement des liens sociaux que le partage d’images de chats crée, et enfin, leur capacité à générer des émotions fortes.
Les chats ne sont pas seulement mignons : ils sont aussi des symboles très puissants. En analysant un total de 4 000 publications sur Twitter, Instagram et TikTok – une veille de contenus et une recherche par mots-clés ont été menées sur une période de quatre mois (d’octobre 2021 à janvier 2022) – il est apparu que le chat pouvait revêtir de nombreux masques.
Parfois, il est un outil de mobilisation collective, parfois une arme pour la propagande politique. Par exemple, un GIF de chat noir effrayé peut symboliser la résistance politique et renvoyer à l’imaginaire anarchiste, dans lequel le chat noir incarne la révolte.
À l’inverse, Marine Le Pen utilise aussi les #ChatonsMignons pour adoucir son image dans une stratégie de dédiabolisation – c’est ce que je nomme le « catwashing » : une stratégie de communication politique qui vise à donner une image trompeuse des valeurs portées par une personnalité politique.
Le chat devient alors un symbole politique, parfois pour défendre des idées de liberté, parfois pour cacher des messages plus inquiétants.
Même Donald Trump a mentionné le félin durant la campagne présidentielle américaine, dans une formule absurde accusant les migrants de manger des chiens et des chats lors du seul débat télévisé l’opposant à Kamala Harris,créant ainsi un buzz monumental.
Cette déclaration a généré une vague de mèmes et de réactions sur les réseaux, au départ pour la tourner au ridicule, puis elle a été récupérée par les pro-Trump. Ce raz-de-marée de mèmes a pris une importance démesurée au point de faire oublier le reste du débat. On peut alors s’interroger : n’était-ce pas une stratégie volontaire de la part du camp républicain ?
Car les mèmes de chats, en particulier les célèbres « lolcats », sont devenus des éléments clés de la culture Internet participative. Ces images de chats avec des textes souvent absurdes ou mal écrits constituent une façon décalée de s’exprimer en ligne.
En partageant et en réinventant ces mèmes, les internautes s’approprient le phénomène des #ChatonsMignons pour créer une sorte de langage collectif.
L’exemple du « Nyan Cat », un chat pixelisé volant dans l’espace avec une traînée d’arc-en-ciel, montre bien à quel point les chats sont intégrés à la culture participative du web.
Ce mème, créé en 2011, est devenu emblématique, avec des vidéos de plusieurs heures sur fond de boucle musicale kitsch et hypnotique.
Plus récemment, le mème « Chipi chipi chapa chapa cat », apparu en 2023, a suivi une ascension virale similaire (28 millions de vues sur ces dix derniers mois pour cette vidéo), prouvant que les chats sont loin de lasser les internautes.
La culture participative pousse ces derniers à relever des défis : créer de nouveaux contenus, utiliser des références cachées et partager ces créations à grande échelle. Avec l’arrivée de plates-formes comme TikTok, ce phénomène s’accélère : chaque vidéo devient un terrain de jeu collectif. Mais ce jeu peut aussi servir des objectifs sérieux, comme dans les cas d’activisme en ligne.
Ils jouent aussi un rôle important dans la manière dont les gens se connectent et interagissent en ligne, et cela ne se réalise pas que dans un registre humoristique, comme pour les mèmes. Le chat favorise ainsi un lien social qui traverse les frontières géographiques et culturelles, rassemblant des individus autour de l’amour des animaux.
Partager une photo de son propre animal domestique devient une façon de se montrer tout en restant en arrière-plan. C’est ce qu’on appelle l’extimité, c’est-à-dire le fait de rendre publics certains aspects de sa vie privée. Le chat sert alors d’intermédiaire, permettant de partager des émotions, des moments de vie, tout en protégeant son identité.
Ainsi, beaucoup de gens publient des photos d’eux en visioconférence avec leur chat sur les genoux. Ce type de contenu met en avant non seulement leur quotidien, mais aussi la relation particulière qu’ils entretiennent avec leur animal. Ces échanges dépassent la simple publication de photos de son chat ou de « selfiecats » (selfies pris avec son chat).
Il s’agit de mettre en valeur une expérience collective, où chaque interaction avec une image de chat contribue à une conversation globale. Le « selfiecat » est ainsi devenu un moyen d’exprimer et de valoriser cette complicité unique, aux yeux de tous.
Dans de nombreux cas, la relation entre l’humain et le chat est mise en avant comme une expérience partagée, créant une sociabilité numérique autour de cette humanité connectée. Les membres des communautés se retrouvent pour commenter, échanger des anecdotes ou des conseils, et ces interactions virtuelles renforcent les liens sociaux.
En ce sens, les chats deviennent plus qu’un simple objet de viralité : ils sont le ciment d’une forme de sociabilité numérique qui permet aux gens de se rassembler, de se comprendre et de se soutenir, même sans se connaître.
Enfin, si les #ChatonsMignons sont si viraux, c’est parce qu’ils sont capables de provoquer des émotions fortes. Les chats ont un regard, une posture et des mimiques si proches de celles des humains qu’ils nous permettent d’exprimer toute une gamme d’émotions : de la joie à la frustration, en passant par l’étonnement ou la colère.
Cette puissance affective explique pourquoi ils génèrent autant de clics et de partages. Sur les réseaux sociaux, où tout repose sur l’attention et l’engagement, les chats deviennent de véritables machines à clics. Les plates-formes profitent de cette viralité pour capter l’attention des utilisateurs et monétiser leur temps passé en ligne.
Les chats ont envahi le web parce qu’ils sont bien plus que des créatures mignonnes. Ils sont des symboles, des outils de participation, des créateurs de liens sociaux et des déclencheurs d’émotions. Leur succès viral s’explique par leur capacité à s’adapter à toutes ces fonctions à la fois. En fin de compte, les #ChatonsMignons nous apprennent beaucoup sur nous-mêmes, nos besoins d’expression et la manière dont nous interagissons dans un monde hyperconnecté.
Justine Simon est l’autrice de « #ChatonsMignons. Apprivoiser les enjeux de la culture numérique », paru aux éditions de l’Harmattan.
Justine Simon ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
18.11.2024 à 15:52
Lucie Gabriel, Docteure en Sciences de Gestion, spécialisée en Management et Leadership, INSEEC Grande École
Dans un pays en crise et divisé, Donald Trump a incarné un leader dominant et autoritaire, des caractéristiques souvent accolées à la masculinité. Le genre de Kamala Harris a-t-il joué en sa défaveur lors de l’élection présidentielle ?
Donald Trump s’est présenté trois fois comme candidat à la présidentielle des États-Unis. Par deux fois, il a affronté une femme : d’abord Hillary Clinton en 2016, puis Kamala Harris en 2024. Par deux fois, il a gagné contre une femme.
Ce fait n’est ni anodin ni superficiel et pose la question du genre dans la campagne présidentielle états-unienne. Elle a été omniprésente dans le discours de chacun des candidats comme dans le vote des électeurs. Le 5 novembre, le New Yorker titrait « Comment l’élection de 2024 est devenue l’élection genrée » pour parler du gender gap, c’est-à-dire de l’écart de vote entre l’électorat féminin et masculin.
Le fait que le nouveau président des États-Unis ait une forte influence charismatique sur ses électeurs a été souligné dans de nombreuses études depuis 2016. Au-delà des stratégies de campagnes, des ambitions et des questions morales, il semble que Kamala Harris a eu du mal à incarner le même pouvoir d'influence. Le genre est-il un obstacle au charisme en politique ?
À lire aussi : Trump tout-puissant ?
Au début du XXe siècle, le sociologue Max Weber a décrit le charisme comme une qualité attribuée à un individu « considéré comme extraordinaire et doté de pouvoirs ou de qualités surnaturels, surhumains ou au moins spécifiquement exceptionnels. » Le charisme est un leadership incarné : l’influence du chef est indissociable de sa personne et de l’image qu’il renvoie. Il joue le rôle de symbole communautaire, il représente le « nous » qui agit comme rempart contre le reste du monde. Pour cette raison, le chef charismatique doit susciter l’admiration et la fierté de ceux qui le suivent.
Dans la conception wéberienne, le leader charismatique est un héros qui incarne une force révolutionnaire pour renverser l’ordre établi. Le vocabulaire belliqueux souvent employé par Max Weber pour décrire les qualités de ce chef exclu d’abord implicitement puis explicitement le fait que ces qualités puissent être incarnées par une femme.
Les femmes ont en effet longtemps été exclues de la représentation des chefs charismatiques, en raison de ce que les chercheurs en psychologie sociale Alice Eagly et Steven Karau ont appelé « l’incongruence des rôles ». Selon eux, les comportements attendus par les femmes et les hommes dans une société sont différenciés en fonction de stéréotypes de genre appris dès l’enfance. Ainsi, les femmes sont associées à des qualités d’empathie, de douceur et de considération, à l’opposé de ce qui est attendu du chef charismatique. Au contraire, les rôles sociaux masculins, qui demandent aux hommes d’être forts, autoritaires et dominants, les prédisposent plus naturellement aux rôles de leadership.
La recherche en sociologie semble valider cette hypothèse : parmi les 118 articles sur le sujet publiés dans la principale revue revue scientifique consacrée à l’étude du leadership, The Leadership Quarterly, seuls 8 % des exemples d’individus charismatiques étaient des femmes. Dans les études les plus citées sur le sujet, le charisme est assimilé à un visage aux mâchoires carrées, à la voix grave, à la taille imposante : en somme, à tous les éléments visibles de la masculinité dominante. Est-ce à dire que le genre est un obstacle infranchissable au charisme ?
Le leader charismatique est la représentation des valeurs du groupe qu’il incarne. Lorsque ces valeurs évoluent, la représentation du leader charismatique évolue également. Or, une étude récente reprenant cinquante ans de recherche sur le leadership dans les organisations montre que, contrairement à l’imaginaire collectif, lorsqu’elles sont en position de pouvoir, les femmes sont globalement évaluées comme plus charismatiques et plus compétentes que les hommes.
De la même façon, dans son essai « He Runs, She Runs : Why Gender Stereotypes Do Not Harm Women Candidates » (« Il se présente, elle se présente : pourquoi les stéréotypes de genre ne nuisent pas aux femmes candidates ») la politologue états-unienne Deborah Jordan Brooks prédit un futur prometteur aux femmes politiques. De fait, le nombre de femmes au Congrès américain a atteint un record en 2022 : 149 élues, soit 27,9 % des représentants.
Deux raisons peuvent expliquer ces résultats : la première est l’évolution des attentes sociales en matière de leadership. Alors que le leader a longtemps été représenté comme un individu dominant et autoritaire, depuis les années 1980 cette représentation évolue vers un nouveau type de leader plus empathique et à l’écoute de ses subordonnés. Pour la psychologue sociale Alice Eagly, « les conceptions contemporaines d’un bon leadership encouragent le travail en équipe et la collaboration et mettent l’accent sur la capacité à responsabiliser, à soutenir et à impliquer les travailleurs ». Elle explique que même si les hommes restent majoritaires en position de pouvoir, dans un monde politique et organisationnel où dominent les stéréotypes de genre, ces changements peuvent constituer un « avantage féminin ».
La seconde raison s’explique par un double standard de compétences masculines et féminines. À compétences égales, il est plus difficile pour une femme d’accéder au même poste à responsabilités qu’un homme. Mais d’un autre côté, les femmes qui accèdent à ces postes sont vues comme plus compétentes que leurs homologues masculins qui ont rencontré moins d’obstacles.
Partant de ce constat, on peut considérer que Kamala Harris, vice-présidente et candidate à l’élection présidentielle, partait sur un pied d’égalité avec Donald Trump : elle aurait donc pu incarner le leadership américain.
Reste que le leadership est toujours dépendant du contexte dans lequel il naît. Si les représentations du leadership et du charisme tendent à évoluer depuis près de cinquante ans, le contexte international, lui, s’est terni depuis la crise du Covid et la dernière campagne présidentielle. On observe un sentiment de déclassement social et une anxiété grandissante, notamment chez les jeunes hommes américains peu diplômés. Plus touchés par le chômage et moins enclins que leurs parents à atteindre l’indépendance financière au même âge, ce sont eux qui ont constitué la base électorale du parti républicain.
Dans des discours ouvertement misogynes et racistes, Trump dépeint une Amérique apocalyptique, rongée par des ennemis de l’intérieur, tout en promettant que le jour de l’investiture serait un « jour de libération ». Il manie une rhétorique populiste pour incarner l’idéal type du leader charismatique wébérien, un héros révolutionnaire et anticonstitutionnel. Il a également particulièrement marqué la campagne en brandissant le poing, le visage en sang, après une tentative d'assassinat. Dans une période où le futur paraît terrifiant, le leader belliqueux possède une puissance idéalisatrice dans la mesure où il incarne un fantasme de sécurité et de direction, pour le psychologue Kets de Vries.
Par contraste, Kamala Harris a voulu incarner le progrès social, la défense des droits et de la démocratie. Dans le climat de crise actuel, ce choix est apparu décalé.
Son échec à l’élection présidentielle montre que le leader charismatique est surtout un symbole d’une culture et d’une époque. Dans une Amérique en crise, les femmes, perçues comme moins dominantes et fortes que les hommes, peinent à incarner l’image du héros qui est attendu.
Pour autant, l’évolution des attentes sociétales montre une tendance de fond à l’ouverture de ce rôle aux femmes. La défaite de Kamala Harris ne doit pas faire oublier d’autres victoires, comme celle de la très populaire Jacinda Ardern, première ministre néo-zélandaise de 2017 à 2023, ou celles de l’Allemande Angela Merkel, qui a marqué le paysage politique européen pendant près de 20 ans.
Lucie Gabriel ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
18.11.2024 à 15:52
Steven Lam, Postdoctoral Scientist, CGIAR
Delia Grace, Professor Food Safety Systems at the Natural Resources Institute (UK) and contributing scientist ILRI, International Livestock Research Institute
Les stratégies de lutte contre l’épidémie de mpox (anciennement appelé « variole du singe ») qui sévit en Afrique en 2024 se concentrent sur la prévention de la transmission interhumaine. Elles doivent aussi s’attaquer aux causes profondes, en l’occurrence la viande sauvage vendue sur les marchés « humides » et responsable de la transmission du virus de l’animal à l’humain.
Dans de nombreux pays du monde, les animaux sauvages sont parfois tués pour être mangés, notamment les singes, les rats et les écureuils.
La viande sauvage contribue de manière significative à la nutrition en Afrique et à la satisfaction des préférences alimentaires en Asie.
En Afrique, la récolte annuelle de viande sauvage, estimée entre 1 million et 5 millions de tonnes, est considérable par rapport à la production animale du continent, qui s’élève à environ 14 millions de tonnes par an.
Les chercheurs en santé publique soulignent depuis longtemps le fait que les pratiques non hygiéniques concernant la viande sauvage sont potentiellement dangereuses en raison du risque de transmission d’agents pathogènes des animaux aux humains, notamment par contact étroit lors de la chasse, de la transformation ou de la consommation de viande insuffisamment cuite.
Cette préoccupation a été particulièrement forte lors de l’épidémie d’Ebola de 2014 en République démocratique du Congo. On sait qu’Ebola passe des animaux aux humains et que ces derniers sont probablement infectés en touchant ou en consommant des animaux forestiers infectés, malades ou morts, tels que les chauves-souris frugivores.
La variole simienne mpox est une autre zoonose connue pour passer de l’animal à l’humain.
À lire aussi : Qu’est-ce qu’une zoonose ?
Plus de 1 100 personnes sont mortes du mpox en Afrique, continent où quelque 48 000 cas ont été enregistrés depuis janvier 2024 dans 19 pays.
Jusqu’à présent, les stratégies de lutte contre l’épidémie de mpox de 2024 se sont essentiellement concentrées sur la prévention de la transmission interhumaine.
Mais nous devons également remonter aux causes profondes de la maladie, en particulier lorsque le mpox est transmis des animaux aux humains.
Appliquer les leçons tirées de la sécurité alimentaire est essentielle pour résoudre ce qui est une préoccupation urgente de santé publique.
La viande sauvage est souvent vendue avec d’autres aliments frais sur les marchés informels, également appelés marchés « humides ». Ces marchés fonctionnent généralement avec peu de réglementation et de normes d’hygiène, ce qui augmente le risque de maladies.
Nous sommes des chercheurs en santé publique spécialisés dans l’expérimentation et l’évaluation de solutions aux zoonoses (lorsque les humains sont infectés par des animaux sauvages), à la résistance antimicrobienne (lorsque les antibiotiques ne sont plus efficaces) et à la sécurité alimentaire.
Dans une nouvelle publication, en collaboration avec des collègues du CGIAR, dans le cadre d’un partenariat mondial visant à relever les défis des systèmes alimentaires, nous examinons des solutions prometteuses pour faire face aux risques liés à la viande sauvage.
L’approche One Health en est la clé. One Health réunit des experts en santé publique, des vétérinaires, des spécialistes de la faune et de la flore sauvages ainsi que des responsables communautaires afin d’élaborer des mesures globales.
Nos recherches ont montré que la sécurité alimentaire dans les marchés difficiles d’accès peut être améliorée si, et seulement si, trois domaines clés sont pris en compte :
Le renforcement des capacités : le renforcement des capacités permet d’offrir une formation et des technologies simples aux travailleurs des chaînes alimentaires et aux consommateurs.
Les efforts en matière de sécurité alimentaire sur les marchés informels se sont traditionnellement concentrés sur le fait d’encourager les communautés locales à adopter des pratiques plus sûres.
Il est essentiel de comprendre comment les gens perçoivent le risque de maladie et ce qui influence ces perceptions.
En République démocratique du Congo, par exemple, on observait une méfiance à l’égard des institutions officielles et un rejet des messages sanitaires du gouvernement liant Ebola à la viande de brousse.
Dans les communautés où les gens reconnaissent déjà les risques associés à la viande de brousse, les messages sanitaires pourraient se concentrer sur des mesures concrètes de protection.
Dans les endroits où le scepticisme existe, le partage des éléments de preuves concernant les risques pour la santé peut se révéler plus efficace.
Au lieu de promouvoir un programme anti-chasse, une approche plus utile pourrait consister à fournir des moyens afin de réduire le risque de transmission de maladies sans décourager complètement la chasse et la consommation.
Bien que cette approche ne permette pas d’éliminer tous les risques, elle sera probablement plus efficace qu’une campagne qui ne trouve pas d’écho au sein de la communauté.
S’il est important d’avoir les bonnes connaissances pour encourager le changement, il faut aussi des incitations.
La motivation et les incitations : bien que la sécurité alimentaire soit une préoccupation majeure pour les consommateurs du monde entier, elle est souvent reléguée au second plan par rapport à l’accessibilité financière. Pour ceux qui ont du mal à se procurer de la nourriture, la sécurité alimentaire n’est pas une priorité par rapport au coût.
Les gouvernements ont souvent eu recours à des interdictions et à des mesures d’application, notamment des amendes et des inspections, en tant qu’« incitations négatives » au changement.
En juin 2022, le gouvernement nigérian a interdit la vente de viande de brousse, par mesure de précaution, pour arrêter la propagation du virus mpox. Toutefois, ces interdictions peuvent avoir des conséquences inattendues, telles que la clandestinité des pratiques liées à la viande de brousse et l’aggravation des pratiques avec manque d’hygiène.
Il est potentiellement plus efficace de se concentrer sur les avantages économiques, sociaux ou moraux :
Les incitations économiques pourraient consister à décrire les gains financiers potentiels qui pourraient survenir en attirant une clientèle plus large, en raison de la confiance acquise grâce à une viande plus sûre.
Les incitations sociales pourraient consister à gagner la confiance des membres de la communauté.
Les incitations morales pourraient découler de la fierté de s’assurer que la viande de brousse est manipulée et vendue d’une manière qui réduit les risques pour la santé.
Les politiques et réglementations facilitantes : dans certaines communautés pauvres, les lois sur la sécurité alimentaire sont inexistantes ou ne s’appliquent pas aux marchés informels.
Reconnaître les vendeurs qui ont réalisé des améliorations notables en matière de sécurité alimentaire pourrait inciter d’autres personnes à suivre leur exemple.
En outre, la promotion d’autres sources de protéines en donnant accès à des options alimentaires abordables et nutritives et en soutenant des pratiques agricoles durables peut contribuer à réduire la dépendance à l’égard de la viande de brousse.
À lire aussi : Réconcilier engrais minéraux et agroécologie, une piste pour nourrir les populations d’Afrique de l’Ouest
Ainsi, alors que les pays planifient leurs réponses face au mpox, il convient de garder à l’esprit trois considérations essentielles :
Premièrement, il est important de reconnaître que la viande de brousse est un élément essentiel de la vie de nombreuses communautés et qu’elle contribue à leur santé et à leur bien-être.
Deuxièmement, les réponses doivent être élaborées avec la participation des communautés locales, ce qui augmentera les chances de succès.
Enfin, les pays à revenu élevé devraient montrer l’exemple non seulement en partageant leurs connaissances, mais aussi en augmentant le financement des initiatives mondiales en matière de santé, car cela peut réduire considérablement le risque d’épidémies à l’avenir.
À lire aussi : Vaccin contre le mpox : « L’urgence est d’augmenter les capacités de production »
Les travaux de recherche de Steven Lam s'inscrivent dans le cadre de l'initiative « One Health » du CGIAR, soutenue par le CGIAR Trust Fund.
Delia Grace ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
18.11.2024 à 15:51
Xavier Carpentier-Tanguy, Indopacifique, Géopolitique des mondes marins, réseaux et acteurs de l'influence, diplomatie publique, Sciences Po
La tenue de la COP dans un pays non démocratique, en l’occurrence l’Azerbaïdjan, n’a rien de nouveau : l’année dernière, l’événement avait eu lieu aux Émirats. Pendant ce temps, la Russie, la Chine ou encore la Syrie siègent au Comité de décolonisation de l’ONU et l’Arabie saoudite se trouve à la tête du Forum de l’ONU sur les droits des femmes. Pour les dirigeants de ces pays, organiser de telles manifestations et participer à de telles plates-formes présente de nombreux avantages.
La COP29, conférence internationale sur les enjeux climatiques, s’est ouverte le 11 novembre à Bakou, Azerbaïdjan. En une seule phrase se trouve condensée une partie conséquente des problèmes de la diplomatie internationale née après-guerre. La lutte contre le changement climatique – sujet capital pour l’ensemble des habitants de la planète – doit, en effet, être débattue sous la houlette d’un pays au régime dictatorial, grand producteur de pétrole et de gaz, et dont le rôle dans plusieurs grands dossiers géopolitiques a dernièrement été pour le moins controversé.
Les enjeux climatiques et la réduction de l’empreinte carbone intéressent au premier chef les producteurs d’hydrocarbures. La COP28 s’est ainsi tenue l’année dernière à Dubaï. Et la prochaine, la COP30, aura lieu à Belém, au Brésil, premier producteur d’hydrocarbures d’Amérique latine, 9e à l’échelle mondiale et potentiellement le 5e à l’horizon 2030.
Afin d’être en mesure de défendre au mieux leurs intérêts et d’anticiper toutes les évolutions envisageables, les pays producteurs cherchent à peser au maximum sur les discussions internationales relatives aux questions environnementales et énergétiques en organisant et en finançant les conférences. Soulignons à cet égard que Moukhtar Babaïev, ministre azerbaïdjanais de l’Écologie, chargé de diriger les travaux de la COP29, est un ancien cadre la compagnie pétrolière nationale, Socar. Le sultan Ahmed Al Jaber, président de la COP28 en sa qualité de ministre de l’Industrie des Émirats arabes unis, est pour sa part surnommé le « prince du pétrole » car il est le PDG de l’Abu Dhabi National Oil Company (ADNOC).
Cela ne peut surprendre : la dénomination même de COP (Conférence des Parties) – implique une approche pragmatique, afin de dépasser toute rigidité structurelle. Dans ce cadre, les parties sont au nombre de 198 : pays regroupés par aire géographique, mais également entités politiques comme l’Union européenne. On ne peut s’attendre à ce que les organisateurs de tels forums se contentent de jouer un rôle d’« honnête courtier » (honest broker) plutôt que piloter l’ensemble du projet. Et cela, d’autant plus que le succès exponentiel des COP est confirmé par le nombre d’intervenants, de journalistes, de lobbyistes et de suiveurs : environ 10 000 personnes en 1997 lors de l’adoption du protocole de Kyoto, plus de 30 000 à Paris en 2015, 45000 pour la COP27, plus 85000 pour la COP28, environ 70000 pour la COP29. Ces sommets constituent des événements d’une ampleur mondiale.
Pour l’Azerbaïdjan, la COP29 représente donc une magnifique occasion de redorer son image. Rappelons que, aux yeux de nombreux acteurs internationaux, ce pays de plus de 10 millions d’habitants se signale avant tout par le non-respect de multiples libertés individuelles, et le Conseil des droits de l’homme (organisme de l’ONU sur lequel nous reviendrons) a examiné son cas dans le cadre de l’Universal Periodic Review (UPR) le 9 novembre 2023.
L’Azerbaïdjan est en outre à l’origine d’un gros scandale de corruption auprès du conseil de l’Europe en 2017, surnommé le « Caviargate », et a été récemment désigné comme étant l’un des soutiens et organisateurs des violentes émeutes qui ont fait 13 morts au printemps dernier en Nouvelle-Calédonie. Le ministre de l’Intérieur de l’époque, Gerald Darmanin, n’a d’ailleurs pas hésité à accuser directement le régime Aliev d’ingérence, à travers l’exploitation du Groupe d’Initiative de Bakou (GIB). Des émeutiers avaient été vus et photographiés avec des t-shirts et des drapeaux aux couleurs de l’Azerbaïdjan et une forte activité Internet en vue d’accroître la diffusion de certaines informations avait également été observée depuis les structures digitales de ce pays.
À lire aussi : En Nouvelle-Calédonie, la France dans le viseur de l’Azerbaïdjan
Rappelons que le GIB, qui a été créé en juillet 2023 à Bakou en présence de représentants de mouvements indépendantistes de Martinique, de Guyane, de Nouvelle-Calédonie et de Polynésie française, a organisé une conférence internationale le 20 juin 2024 au siège des Nations unies à New York, intitulée « Vers l’indépendance et les libertés fondamentales : le rôle du C-24 (Comité spécial de la décolonisation des Nations Unis) dans l’élimination du colonialisme ». Une autre conférence, « La politique française du néocolonialisme en Afrique », toujours organisée par le GIB, le 3 octobre 2024, démontre la continuité de l’effort et indique que Paris est la cible clairement visée.
De telles actions, d’après de nombreux analystes, ont pour objectif de punir la France pour sa condamnation de l’offensive azerbaïdjanaise sur le Haut-Karabakh en 2023, venue à la suite du long blocus du corridor de Latchine (reliant le Karabakh à l’Arménie), qui a permis au régime d’Ilham Aliev de reprendre le contrôle de ce territoire et de mettre fin à la République indépendantiste de l’Artsakh, au prix de violents bombardements et d’une expulsion quasi totale de la population du Karabakh. Le Quai d’Orsay précise la position de Paris sur ce dossier :
« La France est résolument engagée aux côtés de l’Arménie et du peuple arménien, et en soutien aux réfugiés du Haut-Karabakh forcés de fuir par dizaines de milliers leur terre et leur foyer après l’offensive militaire déclenchée par l’Azerbaïdjan et neuf mois de blocus illégal. »
Des parlementaires européens se sont également alarmés de cette situation et ont soumis, le 21 octobre 2024, une proposition de résolution sur la situation en Azerbaïdjan, la violation des droits de l’homme et du droit international, et les relations avec l’Arménie.
Ce contexte tendu a incité les dirigeants français, qu’il s’agisse d’Emmanuel Macron ou de la ministre de la Transition écologique Agnès Pannier-Runacher, à refuser de se rendre à Bakou pour assister à la COP29.
Dans cette confrontation qui se déploie à de multiples niveaux (médiatique, juridique, diplomatique, etc.), notre grille de lecture doit s’adapter. Il est notable et problématique que la quasi-totalité des articles traitant des violences en Nouvelle-Calédonie évoquent de manière presque systématique les interventions et publications du Comité spécial de la décolonisation des Nations unies condamnant la position française – ce qu’il n’est pas question de juger ici –, considérant que le fait que cette instance relève de l’ONU lui confère automatiquement une légitimité indiscutable.
Pourtant, la présence au sein du Comité de la Russie (dont l’invasion militaire en Ukraine est pour le moins éloignée de tout souci de décolonisation) ou de la Chine (aux visées sur Taïwan bien connues, entre autres exemples de comportement agressif dans son voisinage régional), ou encore de la Syrie et de l’Éthiopie, deux pays récemment accusés de massacres à grande échelle contre leur propre population, peuvent et doivent interroger sur les agendas et sur les intérêts de chacun.
Le grand public et une partie des médias semblent observer avec confiance – ou désintérêt – l’action des grands acteurs internationaux quand ceux-ci semblent s’opposer au cadre occidental de gestion des affaires du monde qui a dominé pendant des décennies et est aujourd’hui largement remis en cause.
Or si l’ONU n’est certes pas, par nature, un club de nations démocratiques, il est pour le moins problématique que des États profondément autoritaires se retrouvent régulièrement, du fait du système tournant en vigueur, à la tête ou au sein de Comités chargés de veiller au respect des droits humains – rappelons que le 27 mars dernier, l’Arabie saoudite a été choisie à l’unanimité par l’ONU pour prendre les rênes du Forum sur les droits des femmes et l’égalité des sexes. Et en mai 2023, l’Iran a présidé le Forum social du Conseil des droits de l’homme de l’ONU.
L’actualité récente démontre que de nombreux régimes autoritaires sont non seulement pleinement intégrés à l’ONU mais, surtout, se sont emparés de thématiques qui semblaient, voici peu encore, intéresser avant tout les démocraties occidentales, et parviennent à imposer leur agenda lors de multiples sommets internationaux. Naturellement, l’essence de la diplomatie est de pouvoir mettre en présence toutes les parties afin d’obtenir des résultats satisfaisants. Toutefois, ce à quoi nous assistons avec de telles présidences donne lieu, au minimum, à deux constats.
Le premier est le relatif désengagement des démocraties occidentales de ces arènes, que ce soit par manque de moyens financiers, par manque de moyens humains ou par nécessité de se positionner sur d’autres espaces.
Le second constat est celui d’un effort clair et bien pensé visant, pour les régimes autoritaires, à s’emparer, voire à capturer ces thématiques (ainsi de la lutte contre la colonisation, devenue un outil permettant principalement de dénoncer les agissements des pays occidentaux), en jouant des traditions internationales nées de l’après-guerre et de l’état de certaines arènes internationales (ONU, Conseil de l’Europe…), qui apparaissent comme des géants fatigués.
Face à ce double constat, quelles solutions ? En 2008, l’universitaire Jan Aart Scholte proposait de réfléchir à une gouvernance polycentrique, c’est-à-dire décentrée sur un plan social et géographique. Une telle décentralisation est observable aujourd’hui. Mais il semble même que la dynamique post-Seconde Guerre mondiale se soit inversée : une multitude de sommets, de forums, de groupes et de sous-groupes animent des discussions et instrumentalisent certaines questions dont les sensibilités et les émotions sont dûment sélectionnées. Et cela, sous l’égide des grandes plates-formes politiques telles que l’ONU. Ces évolutions sont illustrées par de multiples concepts cherchant à saisir les formes d’action diplomatique (ping-pong diplomatie, panda diplomatie, orang-outan diplomatie ou encore caviar diplomatie). Différentes formes de gouvernance (certains parlent de gouvernance multilatérale, polylatérale, en réseau(x)…), manifestent également ces tentatives de capter la diversité des acteurs et de leurs capacités d’action. Ce qui rend compliqué de prendre la pleine mesure les défis ainsi posés.
Il demeure possible de croire que ce sont ses membres qui vont défendre les valeurs humanistes promues par l’ONU, mais il est également permis d’en douter et de se demander si l’une des étymologies du terme « diplomatie » ne s’est pas imposée : celle qui désigne le visage double et manipulateur d’acteurs qui retournent arguments et idéaux pour leur seul propre intérêt…
Xavier Carpentier-Tanguy ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
18.11.2024 à 15:50
Taline Ter Minassian, Historienne, professeure des universités. Co-directrice de l'Observatoire des États post-soviétiques jusqu'en 2024., Institut national des langues et civilisations orientales (Inalco)
Un an après l’offensive azerbaïdjanaise qui a permis à Bakou de reprendre par la force la région du Haut-Karabakh, l’Arménie se trouve dans une situation précaire et cherche à valoriser sa position de carrefour stratégique entre les mondes russe et iranien pour tirer son épingle du jeu.
Comme toujours, l’arrivée à l’aéroport de Zvartnots déclenche le mécanisme de la mémoire. Le vieil aéroport soviétique dépeint par Ryszard Kapuscinski dans Imperium (1993) n’est plus qu’une silhouette moderniste en attente de classement patrimonial. Plus de trente ans ont passé depuis la chute de l’URSS, les temps fiévreux de l’indépendance (21 septembre 1991) et la « première guerre » victorieuse du Karabakh.
Trente ans, et même bien plus, depuis les premières manifestations du Comité Karabakh, la révolution de 1988 et le terrible séisme qui frappa la région de Spitak et de Léninakan. Plus de trente ans que j’arpente ce pays, né des décombres du génocide de 1915, confronté au défi de l’indépendance après la Première Guerre mondiale, puis façonné par 70 ans de régime soviétique.
Aujourd’hui, au terme de trois décennies d’indépendance post-soviétique, où en est l’Arménie, ce si petit pays de moins de 3 millions d’habitants meurtri par deux défaites cuisantes infligées par l’Azerbaïdjan lors des guerres de 2020 et de 2023 ?
Sur la route qui mène de Zvartnots au centre ville tout proche d’Erevan se tient la colline de Yerablour, le cimetière où sont enterrés la plupart des 3 825 soldats morts au combat durant la guerre des 44 jours (27 septembre – 10 novembre 2020).
À lire aussi : « Il n’est pas mort pour rien » : un an après la défaite au Karabakh, le douloureux travail de deuil des familles arméniennes
Avec ses drapeaux tricolores flottant au vent, ceux de l’Arménie mais aussi ceux, distincts et reconnaissables, de la défunte République d’Artsakh (Haut-Karabakh), l’immense cité des morts s’est encore agrandie récemment d’un nouveau quartier funéraire, semblable par sa conception architecturale au mémorial de Stepanakert (la capitale de l’ex-État de facto de la République d’Artsakh). Ce nouveau carré de tombes est destiné aux hommes tombés lors de la courte guerre de septembre 2023 qui a abouti à la chute de la république d’Artsakh et au nettoyage ethnique de la région. Parmi les milliers de morts et portés disparus côté arménien et azerbaïdjanais, des deux dernières guerres du Karabakh, Albert, Rostam, Soghomon et tous les autres ont établi ici leur campement définitif, face à l’Ararat en majesté.
Détournant le regard de cette funeste colline, je remarque un livreur Yandex en scooter. Spectacle totalement inédit à Erevan. « C’est un livreur indien », me fait remarquer mon chauffeur. « Ils sont désormais nombreux en ville. Tu verras, ils sont partout. » Depuis l’arrivée de la dernière vague de migrants en provenance de l’État communiste du Kerala – l’un des principaux pôles de l’émigration indienne à destination du Moyen-Orient –, les 20 à 30 000 Indiens surpasseraient désormais en nombre la diaspora russe d’Erevan.
Où en est l’Arménie à l’automne 2024 ? La vie politique semble particulièrement atone depuis que le mouvement Tavouche pour la Patrie dirigé par l’archevêque Bagrat Galstanian, qui avait réclamé au printemps dernier la fin des concessions frontalières à l’Azerbaïdjan par le gouvernement de Nikol Pachinian, a cessé meetings et manifestations.
Porté au pouvoir par la révolution de velours en 2018, le premier ministre Nikol Pachinian a survécu à la défaite de 2020 et à la perte de l’Artsakh en 2023 dont les derniers dirigeants (comme Araïk Haroutounian, président de la république d’Artsakh et Rouben Vardanian, ministre d’État d’octobre 2022 à février 2023, liste non exhaustive) sont toujours emprisonnés à Bakou. Interrompant la « kharabakhisation » des élites politiques qui a caractérisé les premières décennies de l’indépendance, la perte de l’Artsakh joue paradoxalement en faveur d’un premier ministre qui, à aucun moment, ne s’est jugé responsable de la défaite de 2020.
Sur la scène internationale, Nikol Pachinian mène une diplomatie tous azimuts et, malgré une prise de distance affichée avec la Russie depuis deux ans, est toujours à la recherche d’une orientation.
Située le long de l’arc de la confrontation avec l’Occident, toute proche de nombreux théâtres de guerre (Ukraine, Syrie, Liban), l’Arménie de 2024 est plus que jamais à la croisée des chemins. Entre « lâche soulagement », dépression collective, divisions mais aussi indifférence apparente aux grands enjeux géopolitiques, l’Arménie semble suspendue à la résolution des conflits en cours. Du sommet des BRICS à Kazan (22-24 octobre 2024) à la rencontre de la Communauté politique européenne à Budapest (7 novembre 2024), de sommet en sommet, le premier ministre danse une valse-hésitation entre l’UE et la Russie – deux acteurs dont les propositions de médiations de paix avec l’Azerbaïdjan sont évidemment concurrentes.
Arrivée en ville, je vais à la rencontre d’une famille de réfugiés du Karabakh arrivée en Arménie en septembre 2023. Comme les 120 000 habitants qui étaient encore enfermés dans l’enclave du Karabakh, Siranouche a veillé sur ses sept enfants et l’ensemble de sa famille dans le corridor routier de Latchine lors du terrible exode-embouteillage qui a débuté le 24 septembre 2023.
Arrivée avec son mari, ses parents, sa sœur et toute la maisonnée originaire de Mardakert, Siranouche se réjouissait en 2023 de n’avoir pas eu de victimes à déplorer. Jeune mère courage, elle avait préparé ses plus jeunes enfants à un exercice d’évacuation en urgence comme s’il s’agissait d’un jeu.
Le 19 septembre 2023, les enfants rentraient de l’école. « Les enfants, vous vous souvenez de ce jeu pour lequel nous nous sommes exercés… ? Et bien voilà, le jeu a maintenant commencé… », a expliqué Siranouche. Un an et deux déménagements plus tard, de la plaine de l’Ararat à un village de la région de l’Aragats, la famille est à présent installée dans un logement modeste pour ne pas dire précaire d’une petite maison individuelle dans le quartier lointain de Karmir Blour, banlieue anciennement industrielle de la capitale arménienne, en partie édifiée par les rapatriés de 1947.
Dans l’entrée, une forme gisant sur le lit-sofa se révèle être celle de l’ancêtre de la famille. Vifs et joyeux, les enfants rentrent un peu plus tard d’une séance de catéchisme – « de l’Église apostolique arménienne ? », je pose la question en ayant à l’esprit l’aide sociale dispensée par certaines sectes –, avec chacun un cahier et quelques gadgets en plastique. La majorité des 120 000-140 000 Arméniens du Karabakh se trouvent aujourd’hui en Arménie, même si une partie d’entre eux ont d’ores et déjà émigré en Russie.
L’État arménien n’a pas la capacité de répondre à la situation économique et sociale de cette population de réfugiés, déracinée, sans emploi et sans logement stable. L’État arménien verse 50 000 drams (c’est-à-dire un peu plus de 115 euros) par mois à chaque réfugié pour l’aider à payer son loyer. Mais selon le défenseur des droits de la République d’Artsakh, dont la représentation existe toujours à Erevan, cette allocation mensuelle pourrait être supprimée dès janvier 2025.
Majoritairement concentrés dans le centre de l’Arménie, à Erevan et dans la plaine de l’Ararat, là où ils ont le plus de chance de trouver un emploi, à peine 4 300 des Arméniens du Karabakh ont acquis la nationalité arménienne. En effet, le passeport de l’ancien État de facto, portant la mention 070, n’étant pas une preuve de citoyenneté arménienne, il demeure un atout essentiel pour d’éventuels candidats à l’émigration internationale avec un statut de réfugié politique. Malgré des mesures incitatives, la plupart des réfugiés, traumatisés par les deux guerres, ne souhaitent pas résider dans les zones frontalières, même si un millier d’Arméniens du Karabakh se sont installés dans le Siounik, la région du sud de l’Arménie sur laquelle se resserre à présent l’étau de l’Azerbaïdjan.
C’est par cette question que j’entame un entretien informel le 30 octobre avec le premier président de la République d’Arménie. Par ces mots, j’entends la fin d’un cycle débuté avec le Comité Karabakh, fondé en 1988. Le mouvement en faveur du rattachement du Karabakh à l’Arménie avait alors été donné lieu à une authentique dynamique politique interne, propulsant sur le devant de la scène l’historien et philologue Levon Ter-Petrossian. Né à Alep en 1946, fils de l’un des fondateurs du parti communiste syrien, Hagop Ter-Petrossian, le premier président de la République d’Arménie me répond que « non, ce n’est pas la fin d’un cycle ». On se souvient en effet que l’administration de Ter-Petrossian avait fait une priorité durant les années 1990 de la nécessité d’une réconciliation arméno-turque et d’un règlement équilibré de la question du Karabakh…
L’Arménie peut-elle encore transformer en facteur de stabilité sa position géographique enclavée entre deux voisins aussi hostiles que l’Azerbaïdjan et la Turquie ? Les termes de l’accord de cessez-le-feu du 10 novembre 2020 signé sous les auspices de Vladimir Poutine l’enjoignent entre autres choses à ouvrir à travers son territoire des voies de communication entre l’Azerbaïdjan et le Nakhitchevan (région appartenant à l’Azerbaïdjan ayant des frontières avec l’Arménie, l’Iran et la Turquie, mais sans continuité territoriale avec la partie principale de l’Azerbaïdjan).
Depuis lors, la question d’un corridor, agencement politico-réticulaire assurant la « connectivité » d’Est en Ouest, est devenue obsessionnelle. Son statut et son tracé sont encore indéterminés car suspendus à la signature d’un traité de paix lui-même dépendant, entre autres choses, des activités conjointes des commissions gouvernementales arménienne et azerbaïdjanaise chargées du processus de délimitation des frontières entre les deux pays dans le respect des Accords d’Alma-Ata (21 décembre 1991).
En attendant, les formats de discussion se multiplient : initiatives de l’UE, format 3+3 avancé par la Russie, rencontre entre Pachinian et Aliev en marge du sommet des BRICS à Kazan… Quant au projet de traité de paix actuellement dans sa onzième version et négocié en bilatéral, l’Arménie vient de recevoir, le 5 novembre 2024, un paquet de contre-propositions azerbaïdjanaises. On sait que l’Azerbaïdjan exige, entre autres, une modification de la Constitution arménienne dont le préambule fait référence à la Déclaration d’indépendance de l’Arménie (1990), laquelle mentionne un acte d’unification adopté en 1989 par les organes législatifs de l’Arménie soviétique et de l’oblast autonome du Haut-Karabakh. Le 13 novembre 2024, Nikol Pachinian a finalement rejeté cette demande de l’Azerbaïdjan, considérée comme une condition préalable au traité de paix.
Sur le long ruban d’asphalte qui se déroule vers la région du Siounik, je croise en sens inverse sur la route de Yegheknadzor une file de véhicules 4x4, bien reconnaissables avec leurs petits drapeaux portant le sigle de l’UE.
Déployée le long de la frontière arméno-azerbaïdjanaise, la mission d’observation de l’UE subit les critiquées répétées de la Russie et de l’Azerbaïdjan. Bakou y voit une « mission d’espionnage » à ses frontières tandis que Moscou décrédibilise son action en affirmant qu’elle s’inscrit dans la stratégie des États-Unis et de l’UE visant à la concurrencer dans le Sud-Caucase.
Plus au sud encore, on prend la mesure du resserrement du territoire arménien depuis la défaite de 2020. Au plateau de Sissian, on parvient à la « fragile ligne de vie » qui relie l’Arménie à l’Iran. On est désormais sur l’axe nord-sud par lequel transitent, dans les deux sens, des norias de poids lourds iraniens venant du Golfe persique. C’est au cœur du dédale montagneux du Siounik que s’est déroulée « la crise routière » de 2021 lorsqu’il est apparu que l’ancienne route passait en territoire azerbaïdjanais, tranchant par exemple en deux le « célèbre » village de Chournoukh.
Il fallut alors créer, dans l’urgence, des voies de contournement périlleuses, faisant passer un défilé continuel de camions de 40 tonnes à travers le Pont du Diable au fond des gorges de Tatev, dont la descente, exclusivement en première, est décrite par Laurent Fourtune, ingénieur en chef des Ponts et Chaussées, comme digne du Salaire de la Peur. Depuis lors, en dépit des difficultés du terrain, le gouvernement arménien a montré qu’il se préoccupait activement de la restauration de l’axe nord-sud reliant Téhéran à Moscou à travers le territoire de l’Arménie. Et ce sont des intérêts très concrets qui président à la construction rapide de la nouvelle route vers le sud à partir de Sissian.
En Arménie, les Russes détiennent une grande part des intérêts miniers – notamment, tout près de l’Iran, la mine de cuivre et de molybdène de Kadjaran, exploitée par GeoProMining Rep, dont l’actionnaire majoritaire est l’oligarque russe Roman Trotsenko. Une partie du camionnage en provenance de l’Iran transporterait des matériaux ou des équipements nécessaires à l’exploitation de la mine.
Le tracé de la nouvelle route, H 45, contribue désormais à faire de Tatev, où se trouve le célèbre monastère, un nouveau hub routier. La construction de la H 45 avance à un rythme rapide, virage après virage, le long des flancs de montagnes à présent éventrés. D’ici quelques années, un montage de prêts internationaux de deux milliards d’euros devrait aboutir à la construction d’une route directe reliant Sissian à Meghri, porte de la frontière iranienne. Elle va notamment nécessiter le creusement de plusieurs tunnels permettant de court-circuiter le col de Tatev et le dédale montagneux du Zanguezour. Les Européens sont les maitres d’œuvre du tronçon nord de Sissian à Kadjaran grâce au financement de la Banque européenne d'investissement.
Quant au tronçon sud, il s’agit d’un projet de tunnel reliant directement la mine de Kadjaran à Meghri. Financé par la Banque eurasiatique de Développement, ce projet est porté par les Russes et les Iraniens. On ne peut mieux illustrer le fait que, contrainte et forcée, l’Arménie, est placée devant un nouveau défi : conjuguer sa situation de citadelle et sa position de carrefour au cœur des voies transcontinentales, en faisant le pari de sa propre survie.
Pour aller plus loin, lire Rouben, « L’Arménie à la croisée des chemins transcontinentaux », Beyrouth, 1948, réédition Erevan, 2023.
Taline Ter Minassian ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
18.11.2024 à 15:50
Gilles Séraphin, Professeur des universités en sciences de l'éducation et de la formation, Université Paris Nanterre – Université Paris Lumières
En France, afin de protéger un enfant en danger, il est possible de le confier à un proche. Ce type d’accueil, encore minoritaire, est plus développé dans les départements et les territoires d’outre-mer et présente un certain nombre d’avantages.
En France, afin de protéger un enfant en danger, il est possible de le confier à un proche. Au niveau judiciaire (une mesure judiciaire en protection de l’enfance est imposée aux détenteurs de l’autorité parentale, avec recherche de leur adhésion), la mesure de « confiage » à un membre de la famille ou à un « tiers digne de confiance » est mise en œuvre depuis 1958 (article 375-3 du code civil).
Au niveau administratif (une prestation administrative en protection de l’enfance repose sur l’accord formalisé des détenteurs de l’autorité parentale), la prestation de « tiers durable et bénévole », est créée en 2016 (article L 221-2-1 du CASF). Les conditions d’application sont précisées par les décrets n° 2016-1352 du 10 octobre 2016 et n° 2023-826 du 28 août 2023.
Aujourd’hui, les pouvoirs publics semblent redécouvrir ce dispositif et favorisent le placement d’un enfant en danger chez un proche bénévole plutôt qu’en établissement ou en famille d’accueil professionnalisée.
Depuis la loi n° 2022-140 du 7 février 2022 relative à la protection des enfants, dans le cadre de l’assistance éducative judiciaire, le magistrat doit préalablement analyser les possibilités de recours à un membre de la famille ou à un tiers avant de confier l’enfant à l’Aide sociale à l’enfance.
Les raisons de ce regain d’intérêt sont multiples. Selon une revue de littérature conduite par l’Observatoire national de la protection de l’enfance (ONPE) :
« Lorsque les institutions administratives ou judiciaires sont impliquées, plusieurs éléments plaident en faveur du développement de ce dispositif de prise en charge : l’accueil par un proche semble être l’option “préférée” par les enfants, les parents et les proches, lorsque les premiers doivent être retirés du domicile parental ; ce dispositif favorise le maintien de l’enfant dans son environnement, voire dans son cercle familial élargi, en conformité avec le droit international et européen qui garantit le droit de l’enfant à vivre dans sa famille. »
Ce type de dispositif aurait des résultats « au moins équivalents, sinon légèrement meilleurs, que ceux d’autres dispositifs de protection de l’enfance ». En outre, il a l’immense avantage d’être bénévole, donc peu onéreux, le département ne versant qu’une indemnité d’entretien mensuelle pour l’enfant.
Toujours selon l’étude de l’ONPE, fin 2022, « la part des placements chez les tiers dignes de confiance parmi l’ensemble des mineurs accueillis au titre de l’aide sociale à l’enfance (ASE) s’élève ainsi à 8 % – contre 40 % pour les prises en charge en famille d’accueil et 36 % pour les accueils au sein d’établissements habilités. L’accueil par un proche demeure donc très minoritaire.
Cependant, les départements et régions d’outre-mer (DROM) ont davantage recours à cette modalité d’accueil. Les prises en charge par un tiers digne de confiance comptent en effet pour 19 % de l’ensemble des placements de mineurs dans ces territoires (hors Mayotte) ».
À lire aussi : Enfants placés : le numérique, un recours pour « faire famille » ?
Cette surreprésentation semble avoir des raisons historiques puisque ce mode d’accueil y est ancien. À La Réunion, par exemple, il était de tradition de confier le dernier-né à une sœur qui n’avait pas (encore) d’enfants, pour une durée indéterminée. En outre, des enfants pouvaient être éduqués, parfois sur une longue période, par des proches plus aisés, ou vivant dans des lieux favorables à l’éducation de l’enfant, à proximité d’établissements scolaires par exemple.
Enfin, de façon générale, d’autres adultes pouvaient participer à l’éducation des enfants, souvent en vivant la journée au foyer : ce sont les « nénennes », des dames expérimentées équivalant à des « nounous » mais qui prenaient soin des enfants sur de très longues périodes, au foyer des parents, à tel point qu’elles avaient une place dans la vie de la famille.
Ainsi, dans le cadre interprétatif culturel, sur une période donnée, il peut se concevoir qu’un enfant ne vive pas avec ses parents. Une assise culturelle – ou une référence – existe. Alors qu’en France métropolitaine les pratiques de confiage sont progressivement devenues rares et surtout peuvent être incomprises puisqu’assimilées à des formes d’abandon, elles sont encore largement développées en France d’outre-mer puisqu’elles sont culturellement instituées et expliquées. Il ne s’agit pas d’un abandon d’un enfant, mais d’un confiage dans une relation de confiance partagée.
Le questionnaire mené en Guadeloupe, en Martinique, à la Réunion et à Saint-Martin entre 2021 et 2024, dans le cadre du programme de recherche Enfant protégé confié à un proche (EPCP) mené par le laboratoire Cref de l’Université Paris Nanterre, permet de déterminer qui sont les enfants, parents et tiers et quels sont leurs besoins.
De façon générale, les tiers sont des membres de la famille (81 %), souvent des grands-parents (58 %). Ils sont également dans une très large proportion des femmes (91 %), ne vivant pas en couple dans deux tiers des cas. 38 % de ces tiers dont on connaît la situation professionnelle occupent un emploi, la quasi-totalité étant ouvriers ou employés et 62 % sont soit au chômage, soit inactifs. Selon leur déclaration, 44 % perçoivent un des minima sociaux. Il s’agit donc d’une population quasi exclusivement issue de ce que nous pourrions appeler des classes populaires, bénéficiant souvent d’aides, et régulièrement éloignée du marché du travail.
[Déjà plus de 120 000 abonnements aux newsletters The Conversation. Et vous ? Abonnez-vous aujourd’hui pour mieux comprendre les grands enjeux du monde.]
78 % des tiers répondants affirment n’éprouver aucune difficulté. Les rares difficultés mentionnées, et les besoins afférents, sont d’ordre pécuniaire (insuffisance de moyens de subsistance), administratif (manque de soutien pour établir des documents et faire valoir des droits), d’habitat (logement exigu), de conciliation vie professionnelle/vie familiale, voire de carence de soutien individualisé auprès de l’enfant (suivi psychologique ou aide aux devoirs principalement).
Les enfants, pourtant marqués par un parcours de vie caractérisé par de nombreuses violences (physiques et/ou sexuelles et/ou psychologiques et/ou de situation de négligence et/ou de violences conjugales), émettent également un avis globalement positif sur ce mode de protection. Malgré la blessure de la séparation d’avec la famille d’origine, qui revient très souvent dans les témoignages, le tableau dressé paraît assez lumineux. Ces enfants émettent des opinions marquées par l’espérance et semblent bâtir des projets.
Par ailleurs, les quelques parents qui ont répondu les rejoignent globalement dans cet avis positif. Ces proportions, exceptionnelles, sont à souligner.
Selon la revue de revue de littérature conduite par l’ONPE :
« Certaines constantes émergent dans les différentes recherches menées en France et à l’international : la fragilité socio-économique des familles concernées par ces situations d’accueil, la plus forte implication des femmes dans les prises en charge, l’obligation morale qui impulse l’engagement des proches, le bouleversement du quotidien des accueillants lors de l’arrivée de l’enfant à leur domicile, la difficulté des familles à gérer la pluriparentalité, les besoins d’accompagnement encore non satisfaits par les services médico-sociaux, ou encore l’impression des parties prenantes de s’inscrire dans une certaine normalité en dépit de la singularité de leur situation familiale. »
Certes, il faut rester prudent sur les comparaisons internationales puisque ces enfants et familles ne vivent pas dans les mêmes cadres juridiques, et ne bénéficient pas des mêmes droits, notamment sociaux. L’expression des besoins n’est donc pas identique.
À lire aussi : À la Réunion, la pandémie aggrave les inégalités sociales
Toutefois, la plupart de ces constats généraux caractérisent fortement la population des tiers ultramarins étudiée, voire sont plus appuyés en ce qui concerne ces territoires (notamment en ce qui concerne la fragilité économique, la surreprésentation des femmes parmi les tiers, les difficultés de recours aux services médico-sociaux…). D’autres semblent moins associés, y compris en comparaison avec la France métropolitaine (notamment la difficulté de gérer la pluriparentalité puisque dans les Drom elle est traditionnellement reconnue et pratiquée).
Ainsi, dans les DROM comme en France métropolitaine, ce mode de protection est jugé favorablement par une très grande majorité d’acteurs. Ils font toutefois part d’un manque de soutien des autorités, tant au niveau financier, de l’information juridique et administrative qu’en termes de soutien psychologique.
Cette expérience du confiage, beaucoup plus développé dans leurs territoires, les Drom pourraient la mettre à profit de la France entière, quand il s’agit de faire évoluer les politiques publiques, notamment en ce qui concerne l’évaluation des situations. En effet, le référentiel HAS aujourd’hui en vigueur considère peu la disponibilité et la qualité de ces ressources constituées par les proches. Ils pourraient mettre aussi cette expérience à profit pour construire des dispositifs d’accompagnement adaptés, conformément aux nouvelles attentes règlementaires.
En outre, la situation des tiers ultramarins souligne l’extrême urgence d’imaginer des dispositions complémentaires (dans le cadre d’une politique d’aide aux aidants, d’un bénéfice total de tous les droits familiaux engagés par cette parentalité quotidienne pour que les tiers solidaires, principalement des femmes issues de milieux modestes, ne deviennent plus encore victimes de leur solidarité.
Sur ce programme de recherche, Gilles Séraphin a reçu des financements de : Fondation de France, Union européenne (programme Erasmus +), département de Guadeloupe.
18.11.2024 à 15:49
Maria Mercanti-Guérin, Maître de conférences en marketing digital, IAE Paris – Sorbonne Business School
La guerre de l’information que se livre la famille royale et la presse anglaise ne date pas d’hier. Mais à l’ère des réseaux sociaux et des deepfakes, la gestion chaotique de la communication autour de l’état de santé de Kate Middleton suite à l’annonce de son cancer a suscité un déluge de rumeurs complotistes et nuit à l’image de la princesse. La royauté est à un tournant en matière de communication.
Le 9 septembre 2024, le compte Instagram officiel du Prince et de la Princesse de Galles diffusait une vidéo annonçant la fin de la chimiothérapie de Kate Middleton. Réalisée par Will Warr, un publicitaire connu pour son travail pour des marques comme Uber Eats, Tesco ou Puma, cette vidéo a immédiatement « cassé » Internet avec plusieurs millions de vues en quelques heures. Au-delà des marques de sympathie, cette communication illustre une vie sous contrainte des réseaux sociaux et des fake news.
Elle dévoile des images très privées de Kate, filmées dans le Norfolk en pleine nature. Kate dans un décor bucolique se présente comme une survivante, un porte-drapeau de la lutte contre le cancer tirant sa force de l’amour de sa famille, de ses fans et de sa connexion privilégiée avec la nature. Bien que Kate soit devenue une figure incontournable sur les réseaux sociaux, avec plus de 54 millions d’abonnés sur ses comptes, la famille royale reste généralement réservée. La maxime « Never explain, never complain » (Ne jamais se plaindre, ne jamais se justifier) est toujours d’usage. Mais à l’ère des fake news et de la surinformation, cette stratégie devient de plus en plus difficile à maintenir et la maladie de Kate a donné lieu à une bataille intense sur les réseaux sociaux.
La vidéo où elle annonce son cancer a été vue plus de 5 millions de fois. Après l’annonce, le taux d’engagement sur les publications royales a bondi de 300 %. Parallèlement, des photos de la fête des mères, retouchées par IA, et le silence sur son état de santé ont alimenté toutes sortes de rumeurs complotistes. La disparition prolongée de Kate a été reprise par le hashtag #WhereIsKate. La famille royale a répondu avec #WeLoveYouCatherine, qui a été utilisé plus de 500 000 fois en 24 heures.
Quelles leçons tirer de ce marketing social chaotique où souffrir en privé est vu comme une faute et ne pas révéler son dossier médical un crime de lèse-majesté ?
Dans The Disinformation Age, Bennett et Livingston (2020) décrivent comment les plates-formes numériques ont bouleversé la communication publique, introduisant une ère où la désinformation est devenue omniprésente et particulièrement difficile à contrôler. Ces communications perturbatrices pénètrent dans les sphères publiques dominantes qui étaient autrefois les gardiens institutionnels de toute communication. Pourtant, la guerre de l’information que se livrent la famille royale et la presse anglaise ne date pas d’hier. Du drame de Diana en passant par les déboires d’Harry, de nombreux chercheurs se sont penchés sur cette presse très vite convertie à la dictature du clic et à l’économie de l’attention. Plusieurs étapes dans la dégradation de l’information sont à distinguer :
Étape 1, place au sensationnel
L’étape 1 correspond aux années 1980-1990 où la place réservée à la culture des célébrités et au gossip prend le pas sur le contenu sérieux et documenté. En 1998, seuls 8 % des éditoriaux du Sun et du Mirror pouvaient être considérés comme traitant de la politique ou de l’économie, le reste étant consacré aux potins ou au sport.
Étape 2, la chasse aux clics
L’étape 2 apparaît dans les années 2000 au cours desquelles le contenu généré par les utilisateurs commence à concurrencer celui des paparazzis. Le mobile se généralise et l’économie de l’attention cultivée par le journalisme sur Internet alimente un flot ininterrompu de contenus dont le seul objectif économique est de servir de support à la publicité digitale. Les réseaux sociaux amplifient ce phénomène.
Étape 3, l’ère de l’IA
L’étape 3 a commencé dans les années 2010. La génération d’images de célébrités par IA a pris son essor avec les GANs (generative adversarial networks), une technologie qui oppose un générateur d’images à un discriminateur pour créer des visuels réalistes. Les deepfakes utilisent des GANs, et superposent un visage (souvent celui d’une célébrité) sur une vidéo existante de manière très réaliste. Les expressions faciales, la voix, les mouvements de la personne réelle sont parfaitement imités. La frontière entre le réel et le fabriqué n’existe plus.
Cette ère des deepfakes est la dernière étape de la désinformation qui rend presque impossible une stratégie sociale efficace à savoir, comment utiliser au mieux son image pour promouvoir une marque ou une cause, gérer une communauté de fans, obtenir le maximum d’engagements sur ses publications. Les efforts de Kate Middleton pour préserver une image positive se heurtent à ce que Bennett et Livingston appellent « l’architecture de la désinformation », une dynamique systémique où les acteurs malveillants utilisent la technologie pour amplifier le doute, la suspicion, et brouiller les frontières entre le vrai et le faux.
Le problème est que Kate elle-même y a eu recours. La photo de la fête des mères et même la vidéo de son annonce du cancer auraient été retouchées par l’IA. D’anciennes photos de la Reine sont soumises au même processus de vérification grâce à des outils de détection d’IA disponibles sur Internet et accessibles à tous. Cette utilisation par la Famille royale de l’IA marque la fin de la communication institutionnelle et des différents narratifs développés jusque-là avec succès par la monarchie fondés sur la tradition et la famille.
Le deuxième aspect de la désinformation réside dans une surmonétisation de chaque apparition publique. Le « Privacy Paradox » (être vu et rester caché) est reproché à la monarchie : réclamer une vie privée tout en s’exposant et en tirer avantage en termes de popularité. Le problème est que ce sont les médias, réseaux sociaux, marques et autres plates-formes d’influence qui en tirent le bénéfice le plus important.
Concernant la publicité digitale, une analyse menée sur l’outil de Social Listening TalkWalker montre qu’en une semaine moyenne, le hashtag #KateMiddleton a été utilisé 4 500 fois et a touché presque 130 millions de personnes. Un des signes que l’image de Kate est abîmée par ces multiples polémiques est confirmée par l’analyse de sentiment effectuée, une méthode qui consiste à utiliser des outils d’IA pour identifier et évaluer les émotions ou opinions exprimées dans un texte, comme positif, négatif ou neutre. 438 influenceurs gagnent leur vie grâce à ce hashtag, qui permet de rassembler une communauté autour d’un sujet précis, augmentant ainsi leur visibilité et attirant l’intérêt des marques pour des collaborations.
Parmi eux, 93 % sont actifs sur X et plus de 5 % sur YouTube. C’est sur ce réseau que la monétisation serait la plus forte avec 4 400 euros par mois et par influenceur gagnés grâce à la thématique « Kate Middleton ». Kate est également une influenceuse dont la particularité est de ne rien recevoir en retour.
Reiss, L.K. Bennett et Zara ont vu leurs ventes augmenter de 200 % après que Kate ait porté leurs créations. Les vêtements qu’elle choisit se vendent en moyenne cinq fois plus rapidement. L’impact économique annuel de Kate sur la mode britannique est estimé à 1,2 milliard d’euros. La pression pour qu’elle revienne et continue son travail d’ambassadrice de mode est donc particulièrement forte.
Sa stratégie sociale reposait jusqu’alors sur 5 piliers : cible populaire, positionnement sur l’univers de la mode, proximité, capacité à générer de l’engagement, adoption de codes tirés de l’industrie du cinéma et du divertissement. Mais une dernière règle avait été oubliée : le contrôle absolu n’existe pas. Son humanité devient un produit comme les autres. Ce n’est pas seulement la mort de la vie privée, c’est la transformation de chaque moment personnel en contenu à consommer, partager, et analyser. Et ce modèle ne tolère ni pause, ni silence.
La royauté est, donc, à un tournant en matière de communication. Sa stratégie doit, désormais, reposer sur une agilité en termes de gestion de crise, une révolution concernant la transparence de l’information, l’attachement à une authenticité non médiatisée par les écrans. Dans un monde où chaque image peut être falsifiée, la sincérité des moments capturés et la véracité des informations partagées deviennent des valeurs cruciales pour redonner de la crédibilité à la communication publique. Un engagement éthique sur son refus d’utiliser des images ou films générés par l’IA pourrait restaurer la confiance perdue. Enfin, le retour sur le terrain et la multiplication de visites authentiques avec de « vrais gens » pourraient, pour un temps, faire taire les rumeurs. Dernière règle, accepter que le silence est un luxe que même les princesses ne peuvent se permettre.
Maria Mercanti-Guérin ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
18.11.2024 à 15:49
Frédéric Gauthier, Professeur associé en logistique internationale, Université de Picardie Jules Verne (UPJV)
Définir l’origine d’un produit est plus compliqué qu’il n’y paraît. Le droit, au niveau national ou européen, fixe un certain nombre de règles pour déterminer ce qu’il est autorisé d’apposer comme origine.
On parle beaucoup du made in France, mais de quoi parle-t-on ? Pour définir le made in France il convient de comprendre au préalable les règles d’origine appliquées au sein de l’Union européenne. Le made in EU nous permet en effet de comprendre le made in France. Ces règles définissent ce qui fait qu’un pays est bien celui qui fabrique. La douane et la règlementation douanière avec elle, dans sa mission régalienne de contrôle aux frontières des marchandises, a par nature la crédibilité de définir et de contrôler des produits made in France. Elle nous apporte ainsi une clarification sur la question.
La règlementation douanière qu’il convient d’appréhender pour comprendre le made in France est celle des règles d’origine définies au niveau de l’Union européenne. Définis dans le Code des douanes de l’Union, les articles 59 à 63 en donnent les caractéristiques. L’article 60 explique la notion fondamentale de produit soit sans transformation soit entièrement obtenu dans un même pays. Le mot entièrement explique le questionnement du made in. En effet, dans le même article, la notion de transformation substantielle est affirmée. À partir de quand peut-on dire qu’une transformation change le pays d’origine d’un produit ?
Cette définition liée à la transformation appelle des précisions que l’acte délégué de l’Union 2015/2446 ne manque pas d’apporter. L’article 31 y précise quel type de marchandise peut être compris dans la notion de transformation. Ainsi, les animaux vivants qui sont nés et ont été élevés dans un pays ne sont pas concernés par la notion de transformation. Suivent dans le même document les transformations permettant aux produits de devenir made in EU. L’article 34 du même règlement précise par contre la liste des opérations sur le produit fini qui sont insuffisantes pour modifier l’origine d’un produit, comme simplement apposer des étiquettes.
L’entreprise qui revendique une origine doit pouvoir le prouver par son processus de production, par la certification de ses fournisseurs et l’identification des produits achetés. On retient de cette base réglementaire que l’origine d’un produit s’intéresse au produit lui-même et à la réalité de son élaboration. Cette origine est ainsi déterminée au cas par cas selon la spécificité de l’industrie et de son organisation, même si des principes généraux président à leur application.
Pour définir le pays d’origine d’un produit, plusieurs principes peuvent s’appliquer. La douane met en ligne une fiche précieuse pour définir l’origine d’un produit.
Il peut s’agir d’un changement de code de nomenclature du produit que l’on peut consulter dans l’encyclopédie tarifaire en ligne. En effet, chaque produit est repris dans la nomenclature qui est un système de codification des marchandises, où il possède un code. La première règle existante s’appelle le changement de position tarifaire. Dans ce cas, les premiers chiffres du code diffèrent de ceux des produits importés et non originaires de l’Union européenne. À cette condition la transformation sera substantielle et le dernier pays ainsi défini deviendra pays d’origine.
La deuxième règle est le critère de valeur ajoutée que l’on peut trouver dans d’autres cas. À la transformation doit s’ajouter une valeur ajoutée minimum. La troisième règle est celle de l’ouvraison (opération de transformation partielle d’un produit) spécifique que l’on trouve par exemple dans l’industrie textile. Certains produits textiles peuvent être soumis à la règle établissant que la confection complète (c’est-à-dire toutes les opérations qui suivent la coupe de tissus) doit avoir lieu dans le pays qui donne l’origine. L’opération spécifique de transformation permet alors d’acquérir l’origine Union européenne.
Il peut exister des cas particuliers qui font qu’un produit donné ne peut se voir attribuer un pays d’origine selon les règles primaires précédemment citées. Des règles résiduelles permettent d’y remédier. Les enjeux sont nombreux : comment assurer une souveraineté voire une préservation et un essor des industries existantes dans l’Union européenne au sein d’un environnement mondial ? Qu’en est-il par ailleurs de ces règles confrontées aux règles des autres pays ?
Non seulement l’Union européenne n’est pas seule, mais, étant très intégrée au commerce international, elle a établi des accords préférentiels avec un grand nombre de pays dans le monde.
L’origine d’un produit dans l’UE ainsi définie est appelée origine non préférentielle. L’entreprise vérifie alors si elle peut bénéficier d’une origine dite préférentielle. Cette dernière ne concerne pas le seul pays de fabrication du produit mais également le pays où il va être livré.
Par exemple, si une entreprise exporte des produits au Maroc, elle peut se demander s’il existe un accord préférentiel entre l’Union européenne et ce pays. Cet accord peut permettre de réduire les droits de douane qu’une entreprise aurait à payer. L’entreprise peut ainsi bénéficier d’avantages compétitifs à l’achat comme à la vente, car les concurrents d’autres pays auront à les payer. L’achat et la vente peuvent ainsi se trouver liés et avoir des implications stratégiques à considérer : où se fournir, où produire, où vendre…
Les règles d’origine non préférentielles de l’Union européenne vont s’appliquer pour définir une origine France. À la différence des règles présentées précédemment, les autres pays de l’Union européenne deviennent des pays tiers. Le bureau de douane de Clermont-Ferrand est spécialisé dans les questions liées au made in France. De la même manière, l’utilisation abusive du made in France pour des ventes en France est du ressort de la Direction générale de la concurrence et de la répression des fraudes.
S’il n’est pas si simple d’identifier le made in France, la douane nous donne des outils pour le faire. Les règles applicables sont très finement adaptées à la diversité des situations aussi différentes qu’il existe de produits et de pays. Le made in France se définit dans un environnement concurrentiel où les forces et faiblesses de la production en France s’affichent. Il se pense à l’échelle des consommateurs, de la politique des États, des marchés et des entreprises, ce qui fait de lui une évidence complexe.
La production française est renforcée par la perception des consommateurs, mais également par son empreinte carbone plus faible et la réactivité des entreprises lorsque des chaînes d’approvisionnement plus courtes sont possibles. Sans oublier l’exportation, où le made in France a à faire valoir sa différence dans un monde de contraintes compétitives. Le made in France affiche ce qu’est notre compétitivité et notre attractivité en France, dans l’Union européenne et dans le monde.
Frédéric Gauthier pour l'Université de Picardie Jules Verne - Laboratoire des Technologies Innovantes comme professeur associé
18.11.2024 à 10:56
Fabien Bottini, Professeur des Universités en droit public, Le Mans Université
François Langot, Professeur d'économie, Directeur de l'Observatoire Macro du CEPREMAP, Le Mans Université
Les avancées technologiques provoquent d’une part la disparition de certains emplois, mais aussi l’apparition de nouveaux métiers. Comment anticiper ces évolutions pour accompagner au mieux et éviter les tensions sur le marché du travail ?
En juillet 2024, un rapport public nous apprenait que la réindustrialisation du pays patinait faute notamment de capacités suffisantes de formation. En octobre, des aéroports ont été durement touchés par une grève spontanée. Début novembre, Auchan et Michelin annonçaient respectivement 2400 et 1250 suppressions de postes… Autant d’informations révélatrices des tensions actuelles sur le rapport au travail.
Or, celles-ci vont inévitablement s’accentuer sous le coup des transitions écologique et démographique ou bien encore d’innovations technologiques telles que l’intelligence artificielle. C’est la leçon que l’on peut tirer de la révolution numérique des années 1980, puisque l’adoption des ordinateurs a éliminé de nombreux emplois exécutant des tâches dites routinières dans les bureaux et les usines.
Si la chose est connue, il ne faut toutefois pas perdre de vue que cette révolution a dans le même temps fait naître de nouveaux types de travailleurs, comme les développeurs de logiciels et les spécialistes en informatique. Des jobs inédits à l’époque qui emploient aujourd’hui des millions de personnes. En 2000, il y avait d’ailleurs approximativement 20 millions d’employés en France contre plus de 27 millions aujourd’hui, soit 200 000 nouveaux emplois créés chaque année en moyenne. De sorte que si les transitions entraînent des pertes d’emplois à court terme, elles sont également susceptibles d’en créer à plus long terme.
Comme l’ont expliqué Joseph Schumpeter puis Philippe Aghion, ce phénomène de « destruction créatrice d’emplois », souvent perçu comme anxiogène, peut de ce point de vue constituer des opportunités pour le monde du travail, surtout s’il est accompagné par l’État et les partenaires sociaux.
Que vous soyez dirigeants en quête de stratégies ou salariés qui s'interrogent sur les choix de leur hiérarchie, recevez notre newsletter thématique « Entreprise(s) » : les clés de la recherche pour la vie professionnelle et les conseils de nos experts. Abonnez-vous dès aujourd’hui
D’où l’importance de bien maîtriser ses tenants et aboutissants. D’autant qu’on s’attend à ce que les effets des transitions en cours soient démultipliés par la raréfaction de l’accès à certaines ressources nécessaires aux besoins essentiels de chacun et la fragmentation du marché mondial, dans un contexte géopolitique tendu.
Pour s’approprier ce phénomène, de nombreuses données statistiques nouvelles sont mobilisables, par exemple pour étudier les conséquences de ces mutations sur les inégalités de salaire, mais aussi l’impact des réformes juridiques destinées à accompagner et rendre profitable pour toutes ces futures réallocations d’emplois. Encore faut-il véritablement utiliser ces ressources pour adapter les politiques publiques aux besoins d’accompagnement que ces mutations du travail font naître.
Si les gouvernants sont aujourd’hui conduits à faire des choix difficiles pour redresser les comptes publics, l’importance de ce travail prospectif ne doit ainsi pas être sous-estimée. Car la transition démographique et le vieillissement de la population qu’elle induit accroissent les besoins de financement de la sécurité sociale, tels que ceux des retraites. Des réformes, comme celle conduisant à un recul de l’âge moyen de départ en retraite, peuvent certes en partie garantir la soutenabilité de ses dépenses. Mais cette dernière sera avant tout assurée par des ressources croissantes venant d’un travail plus efficace. Or, cette réallocation continue des travailleurs vers les emplois les plus productifs est un phénomène complexe, car ils sont exposés de façons hétérogènes au ralentissement d’activités polluantes ou à l’automatisation de certaines tâches, pour ne prendre que ces exemples.
Ceux effectuant des tâches « robotisables » devront en effet effectuer une mobilité, comme ceux employés dans des entreprises carbonées ou trop âgés pour être formés aux nouvelles technologies. Autant de situations qui s’accompagnent potentiellement d’une perte de revenus, en faisant les perdants de ces mutations. Cela confirme l’importance pour les pouvoirs publics d’anticiper finement les mutations du travail, pour absorber ces risques de fortes variations de revenus et éviter de nouvelles tensions sociales.
Surtout que les interrogations sont nombreuses : comment opérer les réallocations d’emploi avant qu’il n’y ait des licenciements ? Quels nouveaux mécanismes inventer pour compenser les pertes de revenu, former tout au long de vie, prévenir les problèmes de santé associés ? Comment, en d’autres termes, penser ces changements pour ne pas avoir à les panser dans le cadre d’une société vieillissante, où la pérennité financière de la protection sociale et son rôle d’« amortisseur social » posent question ?
Évaluer nationalement les systèmes existants d’aide à l’embauche et à la formation, de soutien aux bas revenus, de retraite, d’organisation du travail… pour définir les réformes permettant d’optimiser leurs rendements est un premier élément de réponse.
Mais à condition que ce rendement s’apprécie non seulement du point de vue économique, mais aussi du point de vue social et environnemental, comme devraient par exemple le permettre les nouvelles obligations de reporting extrafinancier pesant sur les entreprises, ou la publication d’un index de l’égalité professionnelle. Une seconde piste à creuser, complémentaire, passe par une nouvelle répartition des compétences entre le niveau national et les échelons locaux, qui renforce les prérogatives de ces derniers pour orienter et accompagner le redéploiement de l’emploi au niveau de leurs territoires.
Ceci suppose d’abord de donner aux élus locaux et chefs d’entreprises de leurs circonscriptions les moyens de cerner les besoins de leurs populations et de leurs travailleurs. Pour ce faire, il leur faudra notamment mettre en place de nouveaux outils de gouvernance pour prendre des décisions concertées et éclairées, par exemple via la constitution de nouveaux réseaux « sentinelle », rendant possible de monitorer, en temps réel et de façon adaptée, les transformations à l’œuvre. De ce point de vue, il serait utile de profiter de l’ancrage territorial des Universités et centres de recherche spécialisés pour créer de nouveaux partenariats public-privé sur ces questions. Ce regard croisé entre élus, employeurs et monde de la recherche pourrait ensuite être mobilisé pour évaluer, de façon indépendante et efficace, au niveau local, les réponses sur-mesure à apporter aux défis propres d’un territoire, à la lumière de leur capacité à s’articuler au mieux avec les initiatives nationales, supranationales, voire internationales.
Repenser l’interaction entre les échelles de l’État et les sphères publiques et privées s’impose d’autant plus que ces transitions changeront la géographie de l’emploi plus vite qu’on ne le croit. Elles font d’ailleurs déjà naître de nouvelles questions, liées à la territorialisation de l’énergie, l’économie circulaire, la souveraineté alimentaire, la relocation résidentielle et industrielle, la planification du care et de l’éducation…
Autant d’évolutions dont l’analyse devrait rester une priorité pour les pouvoirs publics. Cela leur permettra de mobiliser au mieux la boîte à outils juridiques et socio-économiques à leur disposition pour accompagner les destructions créatrices d’emplois, d’une façon qui permette la continuité de la satisfaction des besoins essentiels des habitants, travailleurs et entreprises. Ce n’est qu’à cette condition que ce processus pourra devenir une véritable opportunité.
Fabien Bottini est chargé de mission pour la Fondafip, le think-thank des Finances publiques, membre de l'Observatoire de l'éthique publique (OEP) et de la MSH Ange Guépin. Il a perçu ou perçoit des subventions de la part du LexFEIM et du Thémis-UM, laboratoires de recherche en droit, et de la Mission de recherche Droit & Justice. Il est par ailleurs titulaire de la chaire "Innovation" de l'Institut Universitaire de France et de la chaire "Neutralité Carbone 2040" de Le Mans Université qui financent également en partie ses travaux.
François Langot ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
18.11.2024 à 10:44
Eric Dugas, Professeur des universités et chargé de mission handicap (empathie/inclusivité, jeux, handicap/maladie, mise en jeu corporelle, rapport à l'espace/architecture), Université de Bordeaux
Dans le cadre DuoDay, le Premier ministre, Michel Barnier recevra jeudi 21 novembre son binôme. Cette initiative vise à rapprocher les personnes en situation de handicap du monde du travail l’emploi. Pourtant intéressante que soit cette initiative, il serait nécessaire d'aller plus loin maintenant.
Malgré des progrès notables, de nombreuses incitations, recommandations et obligations ces dernières décennies, le taux de chômage touche actuellement quasiment deux fois plus les personnes en situation de handicap (PSH). Sachant que les représentations et autres préjugés ou discriminations persistent encore de nos jours.
Dans ce contexte contrasté, un évènement tire son épingle du jeu. Il s’agit de « DuoDay ». C’est un évènement national, construit sur une journée, qui permet aux PSH de découvrir des métiers en entreprise en formant un duo avec un professionnel « valide » volontaire. Apparue en Irlande en 2008, cette initiative s’est étendue en Europe, notamment en France avec une septième édition qui se réalise depuis 2018, en novembre, dans le cadre de la « Semaine européenne pour l’emploi » des PSH. En 2023, 27 613 duos ont été ainsi créés et 13 550 employeurs ont participé à cette journée en plein essor.
Cette initiative originale est intéressante sur plusieurs points. D’une part, elle permet surtout la rencontre avec autrui, l’interaction en face à face, réduisant ainsi la distance physique pour mieux réduire la distance sociale. Car la mise à distance freine le processus dynamique et interactionnel de la participation sociale, ce qui peut conduire à la désaffiliation ou à la disqualification sociale. Sans compréhension, sans éprouver l’autre, guère de reconnaissance in fine ; les PSH vivent alors l’expérience du déni de reconnaissance.
Que vous soyez dirigeants en quête de stratégies ou salariés qui s'interrogent sur les choix de leur hiérarchie, recevez notre newsletter thématique « Entreprise(s) » : les clés de la recherche pour la vie professionnelle et les conseils de nos experts. Abonnez-vous dès aujourd’hui
L’éveil et la préoccupation empathiques se dessinent dans cette rencontre à l’autre. Il s’agit dès lors pour le duo de mieux se connaître, mais surtout pour l’employeur de connaître et comprendre les PSH. Or elles sont dans un perpétuel « entre-deux » dans lequel le regard posé sur eux est parfois ambivalent, entre attirance et rejet. En cette occasion offerte, autant faire pencher la balance du bon côté…
Enfin, ce stage d’une journée non rémunéré peut mettre le pied à l’étrier vers l’emploi, permettre de développer son réseau. Environ un quart des PSH seulement ont obtenu un emploi ou un stage prolongé à l’issue de cette expérience. Ce n’est pas rien… Mais est-ce bien perçu par les PSH ? Le temps fugace d’une rencontre est-il le temps des PSH ?
À lire aussi : Pour les personnes en situation de handicap, l’insertion dans l’emploi demeure une course d’obstacles
Pourtant, des voix s’élèvent, dont celles des premiers concernés, les PSH. Si le « DuoDay » est très riche, il est toutefois asymétrique dans sa conception. C’est à la PSH de venir chez l’employeur. Une domination symbolique renforcée par la rencontre dans l’espace de travail de l’entreprise ou de la structure d’accueil. Or, les espaces ne sont pas de simples décors, ils conditionnent aussi nos manières d’être et nos comportements.
Pêle-mêle, lit-on sur les réseaux sociaux que des PSH ainsi que des personnes dites « valides/ neurotypiques » n’apprécient guère ce liant unilatéral et médiatique, même si les entreprises sont volontaires et bienveillantes. L’évènement peut être perçu, voire vécu, comme infantilisant, déresponsabilisant ou démonstratif pour la bonne image de l’entreprise, etc. Dès sa première édition, l’initiative DuoDay est loin de faire l’unanimité. Des PSH se sont senties « le stagiaire d’un jour », la figure de proue du « selfie inclusif », celle de « l’assistée »… Alors, « DuoDay, propagande ou opportunité ? » Une opération de communication avant tout ou un levier, parmi d’autres, révélant le potentiel des PSH pour lutter contre les préjugés et favoriser leur employabilité ?
Si on considère que l’inclusivité sociale et professionnelle demande un lien de réciprocité - au sens où les PSH revendiquent de s’intégrer selon leurs moyens, et d’être incluses selon leurs besoins – alors la participation active et effective à ces dispositifs doit les situer dans une expérience plus égalitaire. Dit autrement, si la rencontre physique, le face-à-face, le co-éprouvé est un levier essentiel de l’éveil à l’autre et aux altérités, le « aller vers » de l’employeur à l’endroit des PSH qui travaillent est essentiel. L’employeur se rendrait compte qu’ils sont autrement capables en voyant concrètement les adaptations et aménagements qui permettent un environnement de travail propice à la créativité, à l’accomplissement individuel et collectif, à la productivité et performance pour tous (pas seulement les PSH).
C’est ainsi que certaines personnes ont proposé le « DuoDay inversé ». Pour illustration, c’est aux travailleurs/employeurs de consacrer une journée immersive auprès des PSH dans leur environnement de travail, à l’instar du « Duo2 » organisé sur une journée par la Fondation des Amis de l’Atelier.
L’empathie, concept multidimensionnel à utiliser avec précaution et mesure, peut se résumer par la capacité à se mettre à la place des autres, tout en sachant que cet autre n’est pas soi, pour comprendre ce qu’il éprouve, ressent et pense. En ce sens, la motivation à se soucier de l’autre puis la prise de perspective vis-à-vis des PSH requièrent par exemple des éléments clés in situ : interagir ensemble, l’observation d’autrui et l’inversion des rôles pour partager et exprimer les ressentis.
Ici, l’idée soumise n’est pas une sorte de « vis ma vie », en inversant les rôles, ni un « DuoDay inversé » unilatéral, mais un DuoDay réciproque, bilatéral, symétrique, sur un minimum de 2 jours d’affilé ou sur une période donnée. Ces temps conjugués sont plus longs, mais gagneraient en efficacité en jugeant enfin la PSH non pas sur ses manques, mais sur ses compétences.
Observer et rencontrer une PSH dans son environnement (de travail ou de la vie quotidienne) ne la place pas dans une situation de dominé ou dans une position inconfortable. Elle la place dans une situation permettant de comprendre que si le handicap est présent, la situation de handicap, quant à elle, dépend d’une part, de l’environnement et de l’aménagement du lieu de travail ou de vie et, d’autre part, du regard porté sur la PSH ; car le premier miroir, c’est l’autre.
Ces deux facteurs sont indissociables et, selon la qualité de l’organisation et de la maîtrise de ces deux rencontres, le curseur de la reconnaissance oscillera du côté positif ou négatif. La juste distance demande donc un effort de réciprocité (aller vers et recevoir). D’ailleurs, débuter le premier DuoDay en allant sur le terrain de la PSH rendra plus sereine la seconde rencontre en entreprise (avec le même professionnel, voire un autre de la même entreprise ou du même service), du fait de la mise en confiance au premier rendez-vous. Sachant que la PSH peut être un étudiant, un employé, un entrepreneur, en reconversion professionnelle ou un travailleur en ESAT.
Se rencontrer physiquement, et doublement, permettrait de mieux saisir et d’agir au cœur d’un véritable processus d’inclusivité professionnelle, donc d’employabilité et de recrutement. En somme, l’inclusivité est un mécanisme réciproque, plus horizontal, qui sollicite deux DuoDays indispensables et inséparables, comme les deux faces d’une pièce de monnaie. N’oublions pas, à l’instar du psychosociologue Jacques Salomé, que si c’est dans l’ombre de soi-même que l’on fait les rencontres les plus lumineuses, encore faut-il oser le pas vers l’autre, pour mieux faire le pas de côté, celui de la dignité.
Eric Dugas ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
18.11.2024 à 10:44
Lucas Miailhes, Doctorant en Science Politique/Relations Internationales, Institut catholique de Lille (ICL)
Les constructeurs européens envisagent de plus en plus d’opter pour la technologie de batterie lithium-fer-phosphate (LFP), très répandue en Chine, plutôt que la nickel-manganèse-cobalt (NMC) plus répandu en Europe. Un choix technologique important en termes de souveraineté industrielle et de dépendance économique aux producteurs de métaux… mais qui peut aussi les aider à vendre des véhicules électriques plus abordables.
Face à la demande croissante de véhicules électriques plus abordables, les constructeurs européens diversifient de plus en plus leur portefeuille de batteries. Ils commencent à intégrer la technologie LFP (pour lithium, fer, phosphate), un type de batteries lithium-ion qui domine actuellement le marché en Chine du fait de son coût moins élevé que les batteries NMC (pour nickel, manganèse, cobalt), plus fréquentes en Europe.
De quoi questionner la pérennité des investissements européens dans la production de batteries, qui ont jusqu’ici surtout concerné le NMC. Cela pose aussi la question d’une dépendance potentielle envers les fabricants asiatiques, avec des implications différentes en termes de métaux critiques.
Autrement dit, c’est un enjeu de souveraineté industrielle pour le secteur automobile du vieux continent, qui souligne la complexité d’un écosystème où différentes technologies coexistent pour répondre à la multiplicité des usages de la mobilité électrique. Il implique des choix politiques et industriels qui influenceront l’adoption du véhicule électrique et les dépendances futures de l’Europe.
Les batteries lithium-ion sont au cœur de la révolution des véhicules électriques. Elles sont l’élément stratégique essentiel des voitures électriques, dont elles constituent jusqu’à 40 % de leur poids. Leur fabrication nécessite un savoir-faire hautement spécialisé, des investissements importants en capital fixe et l’utilisation de matières premières critiques. Un véhicule électrique utilise environ 200 kg de ces matériaux, soit six fois plus qu’un véhicule à combustion interne.
Le secteur automobile a largement orienté les trajectoires prises par le développement technologique des batteries, notamment pour améliorer leur densité énergétique, leur capacité de charge rapide et leur sécurité d’usage, tout en abaissant les coûts.
Théoriquement, on peut utiliser toutes sortes d’éléments chimiques dans les batteries li-ion. Mais pour l’heure, le marché est dominé par deux technologies : les batteries NMC et LFP. La comparaison entre les batteries LFP et NMC révèle une équation complexe entre prix, accessibilité, sécurité, performance et autonomie.
En 2023, les batteries NMC (nickel, manganèse, cobalt) représentaient près de deux tiers du marché mondial, tandis que les batteries LFP (lithium, fer, phosphate) occupaient 27 % des parts de marché. En Europe, 55 % des véhicules électriques sont équipés de batteries NMC, 40 % utilisent des batteries NCA (nickel, cobalt, aluminium), et seulement 5 % sont dotés de batteries LFP.
De fait, les constructeurs européens ont jusqu’ici privilégié les batteries NMC et NCA pour leur grande autonomie, tandis que les batteries LFP étaient principalement utilisées par les constructeurs chinois. C’est principalement en raison des exigences des consommateurs en termes d’autonomie, de performance et de recharge rapide que l’Europe s’est jusqu’ici engagée dans la voie des batteries NMC à haute teneur en nickel.
Il n’empêche, les batteries LFP se distinguent par leur coût plus faible, un facteur crucial dans le contexte actuel où le prix élevé des véhicules électriques constitue le principal frein à leur adoption massive.
Ce n’est pas tout : elles offrent également une meilleure sécurité, une durée de vie plus longue et acceptent mieux les charges complètes, ce qui les rend plus pratiques pour une utilisation quotidienne. Cependant, comparées aux batteries NMC, les batteries LFP présentent une densité énergétique inférieure, ce qui se traduit par une autonomie plus limitée à volume égal.
Les constructeurs automobiles européens l’ont bien compris et ont récemment annoncé des changements de stratégie significatifs. ACC (Automotive Cells Company), issue d’une joint venture entre Stellantis, Mercedes-Benz and TotalEnergies, a récemment suspendu la construction de ses gigafactories en Allemagne et en Italie, suite à un changement de sa stratégie d’approvisionnement pour y inclure des batteries LFP.
Tesla a également décidé d’équiper ses modèles Model 3 et la Model Y avec la batterie LFP dès 2021. Volkswagen, enfin, prévoit d’adopter la technologie LFP pour rendre ses voitures électriques plus abordables d’ici deux ans.
[Déjà plus de 120 000 abonnements aux newsletters The Conversation. Et vous ? Abonnez-vous aujourd’hui pour mieux comprendre les grands enjeux du monde.]
Ces annonces ont suscité une certaine inquiétude pour la pérennité des investissements dans les batteries NMC, mais peuvent être vues comme une diversification de la part des constructeurs européens, pour répondre à une variété de besoins et de contraintes tout en limitant les risques économiques.
Cela leur permettra aussi de mieux s’adapter à la segmentation du marché :
les batteries LFP pourraient dominer le marché des véhicules électriques d’entrée et de milieu de gamme (véhicules destinés aux petits trajets urbains ou pour des applications nécessitant une autonomie relativement faible),
tandis que les NMC pourront se segmenter sur le segment haut de gamme (ou pour les applications nécessitant une plus grande autonomie, comme les véhicules longue distance).
Cette diversification, si elle peut rendre les voitures électriques plus abordables en réduisant le coût des batteries, ne va pas sans risque : elle oblige les constructeurs européens à se tourner vers les acteurs asiatiques.
Ampere, la filiale électrique de Renault, intègre déjà la technologie LFP dans sa stratégie de batteries en collaboration avec LG Energy Solutions (Corée du Sud) et CATL (Chine). Même chose pour Stellantis qui a signé un accord stratégique avec le chinois CATL en novembre 2023.
Déjà, environ la moitié des capacités de production de batteries situées sur le sol européen sont rattachées à des entreprises chinoises et sud-coréennes, une tendance qui pourrait s’aggraver avec les batteries LFP. En effet, 95 % des batteries LFP sont fabriqués en Chine avec des constructeurs comme BYD et CATL qui maîtrisent parfaitement les procédés de fabrication.
Ces partenariats ne sont pas un problème en soi. Ils peuvent même représenter une opportunité pour bénéficier de l’expertise technologique de ces acteurs, qui produisent des batteries de haute qualité et compétitives au plan économique.
Le vrai problème de dépendance européenne aux matières premières concerne en réalité le NMC.
En effet, les batteries LFP sont constituées de carbonate de lithium, tandis que les batteries NMC sont faites à partir d’hydroxyde de lithium, dont les chaînes d’approvisionnement sont distinctes. L’Europe importe 78 % du carbonate de lithium du Chili (plutôt que de Chine), et a même signé un accord en ce sens avec le Chili. Dans le même temps, les nouveaux projets d’extraction minière en France et en Europe devraient également permettre de renforcer les approvisionnements européens en lithium.
Le problème de dépendance concerne l’hydroxyde de lithium utilisé pour les batteries NMC. En effet, pour transformer le carbonate de lithium en hydroxyde de lithium, il faut le raffiner. Or, ce sont des acteurs chinois qui raffinent 62 % de la production mondiale de lithium. S’il existe un potentiel pour des projets de raffinage de lithium en Europe, les investissements dans ce maillon de la chaîne de valeur tardent à se matérialiser.
La fabrication des batteries NMC nécessite également du nickel et du cobalt, qui sont des matériaux identifiés comme critiques par la Commission européenne en partie de par le risque géopolitique de leur approvisionnement. Le cobalt est principalement extrait au Congo et raffiné par la Chine à 67 %.
Autrement dit, pour les constructeurs européens, miser davantage sur les batteries LFP permettrait aussi de limiter les risques de dépendances en matière d’approvisionnement en métaux critiques.
À lire aussi : Batteries lithium-ion : l’Europe peut-elle s’extraire de la dépendance chinoise ?
Mais cette diversification du portefeuille des constructeurs européens a des répercussions sur l’ensemble des acteurs de la chaîne de valeur des batteries en Europe, de leur fabrication à leur recyclage.
Les producteurs de matériaux pour batteries NMC comme Axens pourraient faire face à des difficultés de reconversion si le marché devait basculer de façon significative vers le LFP. Umicore, un acteur majeur dans la production de matériaux actifs de cathode, avait délibérément choisi de ne pas intégrer le LFP dans son portefeuille pour se concentrer sur les technologies NMC qu’elle maîtrise. Cela pourrait compromettre leur capacité à s’adapter rapidement à cette nouvelle demande.
Des questions industrielles se posent également au niveau du recyclage. Le recyclage des batteries usagées est essentiel pour réduire la dépendance à l’importation de matières premières et peut également renforcer la résilience européenne en cas de perturbations de la chaîne d’approvisionnement causées par des tensions géopolitiques.
Or, les matériaux utilisés dans la cathode déterminent l’attrait économique de leur recyclage. Étant donné que les batteries LFP ne contiennent ni cobalt ni nickel, les métaux les plus valorisables, elles remettent en question l’intérêt économique des efforts de recyclage.
Le recyclage des batteries LFP est ainsi beaucoup moins intéressant au plan économique que celui des batteries NMC, d’autant plus que les LFP contiennent environ 20 % de lithium en moins que les NMC.
C’est là tout le paradoxe : le développement des capacités de recyclage de batteries en Europe dépend de la stabilisation future des choix technologiques opérés par les fabricants de voitures électriques. Et ce choix technologique, loin d’être anodin, pose des questions de souveraineté industrielle.
Étant donné les capacités de recyclage européennes actuelles, les batteries NMC peuvent être plus facilement recyclées que les LFP. En effet, les techniques de recyclage dominantes en Europe, basées sur la pyrométallurgie, sont efficaces pour récupérer le nickel et le cobalt, mais moins adaptées pour le lithium.
Cela aurait pu changer au regard des projets qui avaient été annoncés par Orano et Eramet qui proposaient de développer l’hydrométallurgie efficace pour récupérer le lithium. Néanmoins, Eramet a récemment annoncé l’annulation de son projet de recyclage face au recul de la demande pour les véhicules électriques en Europe.
À lire aussi : Peut-on recycler les batteries des véhicules électriques ?
Résumons :
le NMC permet une autonomie accrue des véhicules, tout en étant plus coûteux, et entraîne une dépendance accrue à des pays tiers en termes de métaux critiques. Mais son recyclage est rentable, et la filière industrielle déjà là.
Le LFP, de son côté, permet une autonomie moindre, mais une meilleure longévité des batteries et moins de défaillances techniques, et permet de limiter la dépendance en métaux critiques. Ce sont toutefois les acteurs chinois qui en maîtrisent pour l’heure la chaîne de valeur, et son recyclage est moins rentable pour les acteurs européens, la filière européenne ne maîtrisant pour l’heure pas les procédés requis.
Dans ces conditions, les constructeurs européens ont-ils raison d’ouvrir prudemment la porte au LFP pour les voitures électriques ? La réponse à cette question tient du dilemme industriel, avec des arbitrages politiques et économiques forts à réaliser tout au long de la chaîne de valeur de la batterie, de la mine jusqu’au recyclage. Une chose est sûre, c’est le bon moment de se poser la question, alors que l’Europe se préoccupe de plus en plus de son approvisionnement en matières premières critiques, dans un contexte de relance minière.
Lucas Miailhes ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
18.11.2024 à 10:43
Magnus Blomkvist, Associate professor of finance, EDHEC Business School
Depuis 2011, la loi impose un quota de femmes dans les conseils d’administration des grandes entreprises. Comment a évolué la perception des actionnaires et des dirigeants ?
L’introduction de quotas obligatoires de femmes dans les conseils d’administration (CA) des entreprises a été un instrument politique clé pour remédier à la sous-représentation de longue date des femmes dans les postes de pouvoir. Bien que ces politiques soient controversées, nous avons voulu analyser comment les quotas de genre pouvaient influencer non seulement la présence et la représentation des femmes, mais aussi les préférences des actionnaires et leur perception des administratrices.
Pour ce faire, nous avons étudié, dans un article récent, les effets des quotas de genre en France. Nous avons pu comparer la manière dont les caractéristiques individuelles des candidats – hommes et femmes – ont été comprises et évaluées, avant et après les quotas.
Nous constatons qu’en termes de diversité de genre, la loi française de 2011, dite Copé-Zimmermann a été, clairement et rapidement, un succès. Plus intéressant encore : nous mettons en lumière le fait que les actionnaires modifient massivement et positivement leurs perceptions des qualifications des (potentielles) administratrices, y compris leur formation et leur expérience antérieure au sein d’autres conseils d’administration. Cela a participé selon nous à une féminisation nette des CA.
Les partisans des quotas de genre soutiennent que ces politiques sont nécessaires pour surmonter les obstacles auxquels les femmes sont confrontées pour accéder à des postes de direction. Leur argumentaire repose sur le fait que les conseils d’administration des entreprises ont été dominés par les hommes en raison des cultures organisationnelles et des pratiques de recrutement qui s’appuient fortement sur des réseaux informels, favorisant souvent les candidats masculins.
Que vous soyez dirigeants en quête de stratégies ou salariés qui s'interrogent sur les choix de leur hiérarchie, recevez notre newsletter thématique « Entreprise(s) » : les clés de la recherche pour la vie professionnelle et les conseils de nos experts. Abonnez-vous dès aujourd’hui
Par ailleurs, les critiques affirment que les quotas interfèrent avec la sélection méritocratique des membres des conseils d’administration. Selon eux, la sous-représentation des femmes au sein des CA n’est pas le reflet d’une discrimination, mais plutôt la conséquence d’une offre limitée de femmes qualifiées disponibles pour ces postes. Dans ce cas, imposer des quotas par sexe pourrait contraindre les entreprises à nommer des candidates moins qualifiées, ce qui réduirait en fin de compte l’efficacité du conseil d’administration et la valeur actionnariale.
Pour nous aider en partie à éclaircir ces questions, l’objectif de notre étude a été d’examiner la perception qu’ont les actionnaires des candidates au poste d’administrateur avant et après l’introduction des quotas obligatoires en France.
En France, la loi Copé-Zimmermann a imposé des quotas de femmes dans les conseils d’administration des entreprises, exigeant qu’elles atteignent des seuils de diversité de 20 % en 2014, qui sont passés à 40 % en 2017. La loi s’applique aux grandes entreprises de plus de 500 salariés ou dont le chiffre d’affaires est supérieur à 50 millions d’euros. Pour les entreprises ne se mettant pas en conformité, la loi imposait des sanctions sévères, y compris des restrictions sur la rémunération des membres des CA.
Si l’on s’en tient aux simples statistiques, la loi a réussi à promouvoir la diversité des genres. La France est passée de l’un des taux de représentation des femmes dans les conseils d’administration les plus bas d’Europe (8,4 %) en 2009 à plus de 43 % en 2021, ce qui fait de la France un leader en matière de diversité des genres dans ces instances.
Dans ce contexte, nous avons étudié les effets des quotas de genre en France, en utilisant un ensemble de données de plus de 2 700 élections d’administrateurs entre 2007 et 2020 dans les plus grandes entreprises françaises cotées en bourse. Contrairement aux études antérieures qui se concentrent sur les réactions du cours des actions lors de l’adoption des lois sur les quotas, nous évaluons les résultats des élections des administrateurs avant et après l’introduction des quotas. En étudiant la popularité individuelle des administrateurs par le biais des votes à l’assemblée générale annuelle, nous sommes en mesure d’évaluer les préférences des actionnaires liées aux caractéristiques des candidats, avant et après l’instauration des quotas.
Nous constatons que le soutien des actionnaires aux femmes administratrices a augmenté après l’introduction des quotas. Les candidates ont reçu un soutien plus important que leurs homologues masculins après l’instauration du quota, ce qui suggère que les actionnaires ont révisé positivement leur perception des qualifications des administratrices. Nos résultats indiquent que l’offre de candidates qualifiées était suffisante pour répondre à la demande accrue, et que les actionnaires n’ont pas simplement élu des femmes sous la pression de la loi.
Les quotas par genre ont également contribué à éliminer les frictions préexistantes sur le marché du travail qui entravaient la nomination de candidates qualifiées. Avant l’introduction des quotas, la sous-représentation des femmes dans les conseils d’administration pouvait être attribuée à des pratiques de recrutement informelles et à des effets de réseau qui limitaient la visibilité des candidates. La gouvernance des entreprises françaises, en particulier, se caractérise par une dépendance à l’égard des réseaux d’élite, de nombreux membres de CA étant recrutés au sein d’un petit groupe issu d’institutions prestigieuses (grandes écoles). Ce processus de recrutement tend à marginaliser les femmes qualifiées.
Potentiellement, les quotas ont incité les entreprises à investir dans de nouvelles technologies de recherche et à élargir leur vivier de talents au-delà des réseaux traditionnels. Le processus de recrutement des membres des conseils d’administration est devenu plus efficace et plus diversifié, et les candidates possédant de solides références ont commencé à être reconnues et nommées en plus grand nombre. Nos résultats suggèrent notamment que le niveau d’études des administratrices et leur expérience antérieure ont été de plus en plus appréciés par les actionnaires après l’introduction du quota. Cela témoigne d’un changement dans la manière dont les candidates sont perçues. Nous ne trouvons pas de preuves que les entreprises sont obligées de nommer des candidates moins qualifiées pour se conformer à la loi. Au contraire, les candidates retenues étaient souvent tout aussi qualifiées que leurs homologues masculins.
L’expérience française en matière de quotas de représentation de genre est riche d’enseignements pour les autres pays qui envisagent de prendre des mesures similaires. Bien que les conséquences involontaires potentielles des quotas suscitent des inquiétudes légitimes, nos données suggèrent que les quotas peuvent être efficaces pour promouvoir la diversité des genres sans compromettre la qualité et l’efficacité du conseil d’administration telles qu’elles sont perçues par les actionnaires. En fait, les quotas de genre peuvent conduire à une réévaluation des qualifications des candidates et à l’abandon de pratiques d’embauche potentiellement discriminatoires.
En outre, ces quotas peuvent avoir des effets bénéfiques plus larges sur la société en remettant en question les normes traditionnelles en matière de genre. Lorsque davantage de femmes sont nommées dans les conseils d’administration, elles peuvent servir de modèles et de mentors pour les générations futures de femmes dirigeantes, ce qui contribue également à réduire les disparités de genre dans d’autres domaines de l’économie.
Magnus Blomkvist ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
18.11.2024 à 10:38
Assil Guizani, Enseignant chercheur en Finance, EDC Paris Business School
Faten Lakhal, Professor in Accounting, EMLV Business School , Pôle Léonard de Vinci
La présence de femmes au sein des conseils d’administration ou comme directrice financière influence les pratiques en matière fiscale. Plus de femmes, c’est moins de fraudes.
La France fait partie des rares pays à avoir adopté un arsenal législatif imposant un quota de femmes dans les conseils d’administration et les équipes de direction. Concrètement, la loi Copé-Zimmermann de 2011 stipule que les sociétés cotées en bourse et celles ayant plus de 500 salariés et un chiffre d’affaires supérieur à 50 millions d’euros doivent porter le nombre de femmes dans leur conseil d’administration à 20 % d’ici 2014 et 40 % d’ici le 1er janvier 2017.
Plus récemment, la loi Rixain adoptée en 2021 impose d’inclure des femmes aux postes de direction des grandes entreprises qui comptent au moins un millier de salariés. La proportion de femmes cadres devra atteindre au moins 30 % d’ici 2026 et 40 % d’ici 2029.
Dans notre étude, nous examinons l’impact de la présence de femmes au sein des conseils d’administration et aux postes de direction dans l’entreprise – que ce soit en tant que dirigeante de l’entreprise ou directrice financière – sur les pratiques d’évasion fiscale des sociétés françaises cotées en bourse. Celle-ci est calculée comme la différence entre l’impôt théorique et l’impôt courant payé par les sociétés. Nous y explorons également l’impact de l’adoption de la loi Copé-Zimmerman sur cette relation.
À lire aussi : Les femmes dirigeantes, un catalyseur des performances environnementales et sociales pour les entreprises
L’évasion fiscale est définie comme la réduction des impôts explicites. Cela couvre un large spectre de pratiques fiscales, allant de la planification fiscale à la fraude fiscale en passant par la gestion ou l’agressivité fiscale. En France, le montant total des impôts non payés a été estimé aux alentours de 80 milliards d’euros par an. De côté des entreprises, les entreprises qui pratiquent l’évasion fiscale prennent un risque considérable de payer de lourdes pénalités et un risque de nuire à leur réputation.
Par rapport aux hommes, les femmes sont réputées avoir des attitudes différentes à l’égard des codes d’éthique et utilisent des règles de décision différentes concernant les évaluations éthiques. En conséquence, il est possible de poser l’hypothèse qu’un leadership éthique des femmes directrices contribuerait à des pratiques plus éthiques et à un meilleur suivi des actions managériales.
En utilisant un échantillon de 171 entreprises françaises cotées sur la période de allant de 2007 à 2017, nos résultats révèlent que la nomination de femmes aux postes de haute direction a contribué à réduire les pratiques d’évasion fiscale des entreprises, particulièrement, les femmes occupant le poste de directeur financier. Ces résultats confirment l’hypothèse selon laquelle les femmes dirigeantes auraient un style de gestion éthique et une plus grande aversion au risque.
Que vous soyez dirigeants en quête de stratégies ou salariés qui s'interrogent sur les choix de leur hiérarchie, recevez notre newsletter thématique « Entreprise(s) » : les clés de la recherche pour la vie professionnelle et les conseils de nos experts. Abonnez-vous dès aujourd’hui
De plus, nos résultats montrent que l’évasion fiscale est associée négativement à la présence de femmes au sein du conseil d’administration, ce qui suggère que les femmes remplissent efficacement leur rôle de contrôle dans ce cadre. Cependant, cet effet est plus important préalablement à l’introduction d’un quota obligatoire de femmes administratrices par la loi Copé-Zimmermann. Cela laisse penser que les entreprises qui ont rapidement intégré des femmes au conseil d’administration pour se conformer à cette loi n’ont peut-être pas atteint une composition optimale et performante de leur conseil.
Les résultats de notre étude enrichissent la littérature portant sur la diversité de genre et l’évasion fiscale en analysant l’impact de la présence des femmes au sein des conseils d’administration (rôle de surveillance) et aux postes de direction (rôle décisionnel) sur les pratiques d’évasion fiscale des entreprises.
Ce comportement peut varier, car si les femmes peuvent être efficaces dans leur rôle de contrôle, elles tendent à adopter une approche plus conservatrice que leurs homologues masculins en matière de prise de décisions. Par la suite, notre étude se concentre sur le cas de la France, un pays qui s’illustre par sa lutte active contre l’évasion fiscale et son engagement en faveur de la présence des femmes dans les conseils d’administration. Notre recherche apporte ainsi de nouvelles preuves de l’impact de la diversité de genre dans les conseils d’administration sur les pratiques d’évasion fiscale, dans un contexte où des quotas sont imposés.
Nos résultats ont plusieurs implications pour les conseils d’administration, les régulateurs et les investisseurs. Les conseils d’administration peuvent continuer à renouveler leur composition pour inclure des femmes administratrices possédant l’expertise adéquate afin de parvenir à une structure efficace. Lors de la nomination des dirigeants et des directeurs financiers, les conseils d’administration devraient non seulement tenir compte des qualifications et de l’expérience, mais également évaluer les caractéristiques individuelles telles que le sexe, l’attachement aux codes éthiques et la propension à prendre des risques.
Les régulateurs devraient encourager les entreprises à recruter davantage de femmes compétentes aux postes de direction en plus du conseil d’administration. Enfin, les investisseurs peuvent être encouragés à prêter davantage attention à la présence de femmes dans les postes de direction et dans les conseils d’administration lorsqu’ils investissent dans les entreprises.
Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.
17.11.2024 à 11:38
Fabrice Hervé, Professeur en Finance, IAE Dijon - Université de Bourgogne
Sylvain Marsat, Professeur en Finance, Université Clermont Auvergne (UCA)
Qu’est-ce qui pousse les particuliers à investir dans les fonds verts ? La réponse se situe peut-être au sein de la cellule familiale. Une récente étude montre que les hommes ayant des filles sont plus incités par ces dernières à prendre en compte l’impact environnemental de leurs investissements.
Les inquiétudes face au changement climatique sont de plus en plus prégnantes. 93 % des citoyens européens le considèrent comme un problème sérieux et 77 % comme très sérieux. Pour autant, on n’observe pas de traduction de cette inquiétude en espèces sonnantes et trébuchantes du point de vue de l’investissement vert. L’Association française de la gestion financière, dans son enquête annuelle de 2023, observe que les fonds d’investissement durables représentent 59 % des investissements fin 2023.
Mais les montants investis dans les fonds « article 9 », aussi dits « très verts » au sens de la règlementation européenne, les plus vertueux environnementalement parce qu’avec un objectif de durabilité, ont baissé de 24 %. Ils ne constituent que 88 milliards d’euros investis, soit seulement 3 % des fonds d’investissement. Cet apparent paradoxe entre préoccupations environnementales élevées au niveau individuel et faible mobilisation collective dans le domaine de l’investissement financier vert interroge.
La littérature académique en finance étudie la question de l’investissement vert depuis quelques années désormais. Elle a identifié un certain nombre de motivations des investisseurs, comme les raisons éthiques et financières, les connaissances financières ou encore le rôle de l’altruisme. Les facteurs individuels étudiés jusqu’à présent n’ont cependant jamais analysé l’influence de la sphère familiale. Le domaine des finances personnelles, ou finance des ménages, propose quelques travaux de recherche prenant en compte le contexte familial des décisions financières des investisseurs individuels et, notamment, la présence d’enfants au sein de la famille.
Dans un article de recherche, nous avons tenté de comprendre pour la première fois si la parentalité influence les choix des investisseurs individuels dans le cas spécifique des fonds verts. Notre approche s’inspire de résultats issus d’autres disciplines que la finance qui soulignent l’influence des enfants sur les parents. Par exemple, les pères ayant des filles sont plus susceptibles d’adopter des positions politiques ou des pratiques RH en faveur de l’égalité des sexes, mais aussi des politiques de responsabilité sociales et environnementales plus poussées.
Concernant l’environnement, les filles semblent plus sensibles aux problématiques environnementales. Une étude récente montre par exemple que 44 % des filles ont un fort niveau d’inquiétude concernant le changement climatique contre 27 % des garçons. On peut ainsi penser que les parents ayant des filles, en raison des préoccupations écologiques plus marquées de leur progéniture, soient plus enclins que leurs homologues n’ayant pas d’enfants ou ayant des garçons à réaliser des investissements alignés avec des valeurs environnementales. Greta Thunberg elle-même illustre cette influence en témoignant : « j’ai commencé mon activisme à la maison en modifiant les habitudes et façons de penser de ma famille et de mes proches ».
Pour tester cette hypothèse dans le domaine de la finance verte, nous avons réalisé une enquête auprès d’un échantillon représentatif d’investisseurs français entre décembre 2021 et janvier 2022. L’échantillon de 2 288 investisseurs comprend 499 investisseurs ayant placé au moins 500 € dans des fonds d’action de type article 9. Ces fonds d’investissement ont pour objectif l’investissement durable dans une activité économique qui contribue à un objectif environnemental : l’atténuation ou l’adaptation au changement climatique, l’utilisation durable des ressources hydriques, la transition vers une économie circulaire, la lutte contre la pollution et la protection de la biodiversité…
L’échantillon comprend des données détaillées sur les caractéristiques personnelles des individus, telles que l’âge, le sexe, les connaissances financières, le niveau d’éducation et la taille du portefeuille d’actions. Par ailleurs, afin de mener notre analyse, nous avons recueilli des informations sur chacun des enfants du foyer, leur âge et leur sexe, permettant ainsi d’examiner l’effet spécifique d’avoir une fille sur les décisions d’investissement des parents.
Nos recherches aboutissent à plusieurs conclusions intéressantes. Tout d’abord, l’analyse montre clairement que le fait d’avoir une fille augmente la probabilité pour un parent d’investir dans des fonds verts d’un peu moins de 4 %. Parallèlement, élever un garçon n’a aucune influence significative sur le fait d’investir dans un fonds vert ce qui démontre que le simple fait d’avoir un enfant n’explique pas cette relation : le sexe de l’enfant est donc important. En outre, en cohérence avec notre hypothèse, les filles n’influencent que leurs pères et non leurs mères qui ont déjà tendance à présenter des valeurs plus environnementales.
L’étude met par ailleurs en lumière le fait que plus les filles sont jeunes, plus leur influence sur les décisions d’investissement de leurs pères est forte. Ceci tient probablement au fait qu’elles ont plus d’influence en étant au sein du foyer, et que les programmes scolaires en France incluant des cours sur le développement durable et les enjeux environnementaux ont été renforcés depuis 2011. Enfin, les résultats montrent que l’influence des filles ne se limite pas à la décision d’investir dans des fonds verts, mais s’étend également au montant investi. Les pères ayant au moins une fille investissent des montants plus importants, ce qui suggère une plus grande adhésion à la cause environnementale.
Ainsi, au-delà de son effet en matière de préoccupations environnementales, nous montrons l’impact surprenant de l’influence intergénérationnelle sur les décisions financières des parents. Cela plaide en faveur de l’intégration des questions liées au changement climatique dans l’éducation pour toucher indirectement les parents. Au-delà de la sensibilisation des enfants, l’éducation des filles en particulier peut également avoir des effets secondaires financiers positifs sur leurs pères en favorisant les flux d’argent vers des investissements verts. Étant donné que l’éducation sur cette question est en développement, on peut espérer que l’apprentissage intergénérationnel influence positivement les décisions d’investissements verts dans les portefeuilles des ménages et contribue ainsi activement au financement de la transition écologique.
Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.
17.11.2024 à 11:38
Caroline Diard, Professeur associé - Département Droit des Affaires et Ressources Humaines, TBS Education
Alors que les chauffeurs de VTC se mobilisent pour un meilleur statut et l’amélioration de leurs conditions de travail, où en est la loi ? Si des jugements, en France et à l’étranger, ont déjà permis de rapprocher leur situation du salariat, tout n’est pas encore acquis pour les travailleurs ubérisés.
Depuis quelques jours, les opérations escargots et grèves des chauffeurs VTC se multiplient. Il s’agit pour eux de dénoncer des commissions jugées abusives et de réclamer une meilleure rémunération et un encadrement du nombre de chauffeurs afin de réguler l’activité.
Ces mobilisations surviennent dans un contexte où le salariat est mis à mal par une ubérisation galopante des emplois, qui contribue à une grande précarisation des salariés des plates-formes comme Uber, Deliveroo ou Lyft. En 2022, on recensait 230 000 travailleurs de plates-formes numériques en activité en France, dont 179 200 livreurs à deux roues et 52 700 chauffeurs de voiture de transport avec chauffeur (VTC).
En 2022, 3 % des Européens ont déclaré avoir travaillé sur une plate-forme numérique au cours des 12 derniers mois. 28 millions d’emplois seraient concernés, dont 7 % seulement sont salariés, face à 93 % indépendants. Ces travailleurs effectuent des tâches pour des clients avec lesquels ils sont mis en relation via une plate-forme numérique.
Si ces travailleurs peuvent opter pour différents statuts, c’est celui de micro-entrepreneur qui est le plus largement utilisé, car plus simple et plus souple. D’ailleurs, en France, le nombre de micro-entrepreneurs a bondi. Fin juin 2023, le réseau des Urssaf dénombre 2,7 millions d’autoentrepreneurs administrativement actifs, soit 215 000 de plus sur un an (+8,6 %). Cela arrive après un ralentissement observé depuis le troisième trimestre 2021 (+12,0 % sur un an fin juin 2022) compte tenu du rythme soutenu des radiations. Un rapport du Sénat indique d’ailleurs :
« Le statut très souple d’autoentrepreneur puis de micro-entrepreneur a pu créer une brèche dans laquelle se sont engouffrées les plates-formes pour s’affranchir des contraintes liées au salariat. »
À la frontière du travail dissimulé, les travailleurs des plates-formes subissent à la fois une précarisation de leurs droits et des tâches répétitives et ingrates, assimilables à du « micro-travail ».
Le fonctionnement des plates-formes questionne le lien qui les unit aux travailleurs et la subordination éventuelle qui se met en place. Pour éviter un déséquilibre des droits des travailleurs, le cadre légal, tant en France qu’en Europe, tend de plus en plus vers une protection de ces travailleurs et viser à organiser une présomption de salariat. Le salariat offre en effet des droits sociaux bien plus protecteurs que le statut d’indépendant.
Ainsi, en Espagne, dès 2018 et pour la première fois en Europe, un tribunal requalifie les travailleurs de Deliveroo en salariés et, le 12 août 2021, la loi « Riders » (cavaliers) présume automatiquement salariés tous les coursiers de plates-formes en Espagne.
En France, la Cour de cassation s’est également prononcée en 2018 sur les relations contractuelles existant entre des coursiers et la plate-forme Take Eat Easy en considérant qu’il existe un lien de subordination. Elle retient que la géolocalisation va au-delà de la simple mise en relation et que les retards dans les livraisons sont sanctionnés par la plate-forme.
De même, par une décision du 4 mars 2020, la Cour de cassation a requalifié la relation d’un chauffeur de VTC avec la société Uber en contrat de travail. Dans cet arrêt « Uber », la Cour de cassation avait retenu notamment l’impossibilité pour le chauffeur de constituer sa propre clientèle, de fixer librement ses tarifs et les conditions d’exercice de sa prestation de transport.
La Cour d’appel de Paris est allée dans le même sens en juillet 2022 en condamnant la société Deliveroo pour travail dissimulé et des faits de harcèlement moral du fait de ses méthodes managériales.
En revanche, d’autres décisions n’ont pas été en faveur de la reconnaissance du lien de subordination. Dans cette affaire, il a été retenu notamment par le juge que le travailleur était en mesure de se déconnecter, d’effectuer des courses pour son propre compte, d’organiser ses courses, et que le système de géolocalisation inhérent au fonctionnement d’une plate-forme n’avait pas pour objet de contrôler l’activité du chauffeur, mais de permettre l’attribution du chauffeur le plus proche au client.
Il y a donc la volonté d’évaluer le lien de subordination à travers le prisme du contrôle des salariés. La notion de géolocalisation est particulièrement éclairante dans la mesure où un tel dispositif est possiblement mis en œuvre s’il est légitime et proportionné au but recherché. Dans le cas d’Uber, la géolocalisation imposée par le fonctionnement de la plate-forme ne caractérise pas un lien de subordination juridique des chauffeurs, car ce système n’a pas pour objet de contrôler l’activité des chauffeurs, mais est utilisé à d’autres fins.
Dans l’arrêt Uber de 2020, la Cour de cassation avait été particulièrement attentive à une clause spécifique du contrat qui, d’après la Cour, pouvait conduire les chauffeurs « à rester connectés pour espérer effectuer une course et, ainsi, à se tenir constamment, pendant la durée de la connexion, à la disposition de la société Uber BV, sans pouvoir réellement choisir librement, comme le ferait un chauffeur indépendant ». La question du contrôle est alors clairement soulevée. Dans cet arrêt, le mot contrôle apparaît d’ailleurs à 20 reprises.
En France, les articles D7342-1 à D7345-27 du code du travail définissent la responsabilité sociale des plates-formes envers leurs travailleurs. Par ailleurs, l’ordonnance no 2022-492 du 6 avril 2022 « renforçant l’autonomie des travailleurs indépendants des plates-formes de mobilité, portant organisation du dialogue social de secteur et complétant les missions de l’Autorité des relations sociales des plates-formes d’emploi » a consolidé les droits de ces travailleurs. Ainsi, il n’est plus possible d’imposer aux travailleurs l’utilisation de matériel ou d’équipement déterminé (sous réserve d’obligations légales ou réglementaires), et ils ont la faculté de recourir à plusieurs intermédiaires, de déterminer leur itinéraire et de choisir leur plage horaire d’activité.
Au niveau européen, les 27 États membres ont, le 14 octobre 2024, adopté de nouvelles règles pour renforcer ces droits, avec l’adoption d’une directive. Ce texte tend à faciliter la requalification des travailleurs en salariés en déterminant une présomption légale d’emploi. Cette présomption pourra être invoquée par les travailleurs des plates-formes, leurs représentants ou les autorités nationales afin de dénoncer un classement dans « la mauvaise catégorie ». À l’inverse, « il incombera à la plate-forme numérique de prouver l’absence de relation de travail ».
L’objectif de la directive est aussi de réglementer la gestion algorithmique, afin que les travailleurs soient informés de l’utilisation de systèmes de surveillance ou de prise de décision automatisés en matière de recrutement, de rémunération et concernant les conditions de travail.
Le combat pour défendre les droits des travailleurs des plates-formes est loin d’être terminé. Malgré une évolution notable des réglementations européennes et nationales, plusieurs questions risquent de continuer à alimenter le débat : la présomption de salariat, le dialogue social, le contrôle et les libertés individuelles de ces travailleurs en marge du salariat. Une structuration de la représentation des travailleurs des plates-formes avec un dialogue social renforcé pourra faciliter une nécessaire évolution.
Caroline Diard ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
17.11.2024 à 11:37
Tony Chevalier, Ingénieur d'étude en paléoanthropologie, Université de Perpignan Via Domitia
Notre vision des modes de vie aux débuts de l’humanité est souvent influencée par les peintures rupestres ; mais les représentations précises et spécifiques d’humains sont en fait relativement récentes. Pour mieux comprendre la manière dont ceux-ci se déplaçaient, il vaut mieux se pencher sur leurs os, et les analyser en regard de ce que l’on sait de l’ossature des sportifs actuels !
Regarder notre passé nous pousse parfois à nous comparer à nos ancêtres, à mesurer la distance qui nous sépare d’eux, que ce soit sur un plan comportemental ou sur un plan physique. De multiples travaux de recherches ont montré qu’avant la généralisation de l’agriculture, les humains étaient très mobiles, c’est-à-dire qu’ils effectuaient des déplacements fréquents et/ou longs afin d’exploiter leur territoire pour se nourrir et trouver des matières premières pour confectionner des outils. Mais auraient-ils pu courir plus vite ou plus longtemps que nos athlètes ? À quel point étaient-ils actifs ? Pouvons-nous quantifier leurs efforts ?
Si répondre directement à certaines questions est difficile, nous pouvons les détourner et nous demander à quel point l’activité physique des hommes et femmes préhistoriques depuis des centaines de milliers d’années a impacté la structure de leurs os, en particulier ceux des jambes. L’os, par son adaptation au cours de la vie, révèle d’une certaine manière les efforts consentis par un individu : plus il se renforce, plus l’activité était importante.
Plus précisément, nous cherchons à savoir comment une « simple » marche, même chez des personnes très mobiles, a pu induire un renforcement des os si remarquable chez certains de nos ancêtres.
L’utilisation des scanners permet d’étudier avec précision la structure interne des os des humains actuels et passés. C’est sur le terrain de l’analyse géométrique des os que se jouera cette rencontre à travers le temps. Bien utilisée, la géométrie des sections osseuses, qui intègrent des diamètres internes et externes, permet d’évaluer la robustesse (c’est-à-dire le renforcement) et la forme des os et faire le lien avec la mobilité d’un individu. Voyons cela en détail.
L’ingénierie mécanique enseigne que les propriétés géométriques d’une structure rendent compte des propriétés mécaniques. De fait, les diamètres externes et internes de la section diaphysaire d’un os permettent d’évaluer la rigidité et la résistance de celui-ci. Plus la diaphyse d’un os aura des diamètres externes et une épaisseur corticale élevés plus elle sera résistante.
Quand nous imaginons notre squelette, nous sommes tentés de le percevoir comme une structure rigide et stable. Pourtant, l’os est une matière vivante tout au long de la vie, qui se renouvelle et s’adapte aux contraintes habituellement subies. Par exemple, quand nous marchons, nous exerçons une pression sur nos os, nous les fléchissons et les tordons un peu. En conséquence, à la différence de l’acier, l’os réagit aux contraintes en se renforçant ou s’allégeant. Cette adaptation est d’autant plus efficace si vous êtes jeune. L’os ne s’adaptera pas si un type de contraintes se produit rarement ou si les changements d’intensité dans nos activités physiques sont trop faibles.
Les recherches menées sur les sportifs ont été d’une aide précieuse pour savoir si les variations de sollicitations de nos membres induisaient des variations de la structure osseuse au long de la vie.
Dès les années 70, les travaux réalisés sur les bras des joueurs et joueuses de tennis ont montré une asymétrie élevée en faveur de l’humérus du bras dominant, celui qui tient la raquette. L’augmentation du diamètre de la diaphyse entraîne une plus grande robustesse pour l’humérus du bras dominant, c’est-à-dire une plus grande résistance. Le bénéfice osseux dû à des contraintes générées par le sport peut même dans certains cas perdurer encore 30 ans après l’arrêt d’une pratique sportive.
Désormais, nous savons qu’une activité physique régulière va engendrer des contraintes récurrentes sur un os, et que celui-ci va s’adapter en changeant sa géométrie (taille et forme). Ainsi, en faisant le cheminement inverse, l’étude de la géométrie des os de la jambe serait un moyen de nous renseigner sur la manière de se déplacer de leur propriétaire. Bien entendu, il faut être très prudent lors de ce type d’interprétation. Par exemple, au-delà des multiples facteurs qui peuvent influer sur la structure osseuse, la structure observée chez un adulte préhistorique résulterait en partie de son activité à un jeune âge, à une époque où son os était plus réactif aux stimuli mécaniques.
Lorsque nous nous intéressons aux os des jambes des espèces humaines anciennes appartenant au genre Homo, c’est en particulier pour comprendre leur mobilité : nous voulons savoir s’ils marchaient beaucoup (haut niveau de mobilité), sans toutefois définir une fréquence de déplacement et une distance journalière. Nous évaluons aussi le type de terrain parcouru, sachant qu’un terrain plat ou avec des reliefs impactera différemment les os. Plus la marche est fréquente et intense, plus le terrain pratiqué est irrégulier, et plus les os subiront de fortes contraintes et se renforceront.
En 2023, nous avons publié nos recherches sur la mobilité d’une femme d’une ancienneté de 24 000 ans provenant de la grotte de Caviglione (Ligurie, Italie). D’après la topographie du lieu de la découverte, cette femme Homo sapiens avait la possibilité de se déplacer à la fois sur des terrains à fort dénivelé et sur des terrains plats, le niveau de la mer étant bien plus bas qu’aujourd’hui. Les résultats ont montré le très haut niveau de mobilité pratiqué par cette femme grâce à ses fémurs et tibias et l’adaptation de ses os à des déplacements fréquents en terrain montagneux grâce à ses fibulas.
Plus précisément, nous avons mis en évidence une robustesse extrêmement élevée des fibulas de cette femme par comparaison à ses contemporains, mais aussi au regard des joueurs de hockeys sur gazon, dont la pratique se caractérise par une grande mobilité de la cheville. Ces résultats suggéreraient la présence d’une activité préhistorique très intense sur des terrains irréguliers. Ce type de terrain implique des mouvements variés de la cheville, et notamment des mouvements latéraux fréquents d’une plus grande amplitude que sur terrain plat, amenant la fibula à supporter plus de poids et donc à se renforcer.
À 450 000 ans, nous observons également une robustesse très élevée des fibulas humaines, associée à un fort étirement de la diaphyse du tibia (Caune de l’Arago, Tautavel). Cela plaide pour un haut niveau de mobilité et des déplacements récurrents des Homo heidelbergensis à la fois dans la plaine et sur les reliefs aux alentours de la grotte de Tautavel.
Les forts renforcements observés chez certains Homo heidelbergensis et Homo sapiens anciens, aussi bien des femmes que des hommes, au regard de sportifs confirmés contemporains, sont très étonnants sachant que les hommes préhistoriques sont avant tout des marcheurs et que les contraintes les plus élevées s’exercent sur les os lors de la course à pied.
La robustesse naturellement plus élevée d’un individu préhistorique, c’est-à-dire acquise génétiquement, pourrait expliquer certains des résultats. En étudiant la robustesse relative de la fibula (qui prend en compte pour chaque individu le rapport de résistance entre sa fibula et son tibia), nous éliminons l’influence de ce type de facteurs génétiques sur nos résultats, partant du postulat qu’une robustesse naturellement élevée toucherait autant ces deux os. Pourtant, ce rapport (fibula versus tibia), déterminant pour comprendre les mouvements de la cheville, donne l’un des résultats les plus remarquables pour le squelette de Caviglione (24 000 ans). Il met en exergue la robustesse relative très élevée de ses fibulas.
L’ensemble des résultats plaide pour une influence multifactorielle sur la structure osseuse et par notamment l’impact significatif d’une activité non négligeable et continue au cours de la vie. Un haut niveau de mobilité dès un très jeune âge, lorsque l’os est particulièrement réactif aux stimuli mécaniques, associé à des déplacements en montagne, ou sur d’autres terrains irréguliers, voire à la pratique de la course à pied, pourrait expliquer une telle robustesse à l’âge adulte chez des individus ayant vécu entre 500 000 ans et 20 000 ans.
Pour en savoir plus, retrouvez l’auteur dans le documentaire d’Emma Baus « Tautavel, vivre en Europe avant Neandertal » le 28 novembre 2024 sur France 5 dans l’émission Science grand format.
Tony Chevalier a reçu des financements de l'université de Perpignan via Domitia (UPVD, Bonus Qualité Recherche) et de la fondation UPVD.