25.11.2024 à 12:16
Axelle Lutz, Professeure assistante en Ressources Humaines et Comportements Organisationnels, ICN Business School
Pourquoi faire le choix d’une carrière de l’autre côté de la frontière ? Et cela rend-il le parcours professionnel particulièrement atypique ? Les travailleurs transfrontaliers ressemblent en réalité beaucoup aux autres.
Les travailleurs transfrontaliers représentent 500 000 individus en France, le pays européen qui compte le plus grand nombre de ces profils. Les travailleurs transfrontaliers sont des personnes qui vivent et travaillent dans deux pays différents entre lesquels ils effectuent des allers-retours quotidiens. Ce choix repose sur différents critères : vouloir un meilleur salaire, de meilleures missions ou conditions de travail, un bon équilibre vie personnelle/vie professionnelle, etc.
Contrairement aux idées reçues, l’objectif n’est alors pas seulement de trouver un salaire plus intéressant. Leurs attentes sont plus poussées et témoignent d’une volonté de trouver un poste correspondant à des besoins aussi bien personnels que professionnels. Ces travailleurs ne trouvant pas forcément ce qu’ils souhaitent dans leur pays d’origine, ils élargissent alors leurs recherches à un marché de l’emploi international et plus spécifiquement transfrontalier. Se pose alors la question de la carrière suivie, et donc proposée, dans cet autre pays.
La carrière est l’ensemble des expériences professionnelles tout au long de la vie d’un individu, ou bien comme sa trajectoire au sein d’une ou plusieurs organisations à travers un ou divers métiers. Les formes de carrière sont multiples : elle peut être par exemple traditionnelle (linéaire et verticale au sein de la même organisation) ou nomade (possibilité d’évolution horizontale, soit au sein de diverses organisations ou divers postes). En d’autres termes, longtemps, faire carrière a renvoyé à la notion de promotion verticale, soit l’accès à un poste plus élevé dans le respect des règles de l’organisation.
Que vous soyez dirigeants en quête de stratégies ou salariés qui s’interrogent sur les choix de leur hiérarchie, recevez notre newsletter thématique « Entreprise(s) » : les clés de la recherche pour la vie professionnelle et les conseils de nos experts.
La carrière traditionnelle) correspond ainsi à une progression dans la hiérarchie d’une même organisation. Gérée par l’employeur, elle offre cependant une moindre liberté aux employés, qui supportent d’importantes contraintes et normes. Aujourd’hui, une approche par les carrières nomades permet de dépasser les limites données par l’organisation.
Les carrières nomades désignent des parcours impliquant des mobilités entre métiers et/ou entreprises, mais aussi l’auto-emploi et les parcours avec des interruptions de carrière. Il s’agit de nouvelles formes d’évolution non verticales conduisant à des changements plus fréquents d’entreprises. Dans ce type de carrière, les individus sont plus indépendants. Ainsi, cela nous amène à nous interroger sur la notion de succès ou réussite de carrière, notions objectives ou subjectives, mais qui permettent à un individu de se situer par rapport au bon équilibre entre ses attentes et son parcours professionnel.
On retrouve régulièrement l’idée reçue que les travailleurs transfrontaliers suivent une carrière particulière, souvent nomade, alors que des études démontrent que ce n’est pas forcément le cas.
En effet, selon les diplômes, les compétences ou encore l’expérience accumulée, les attentes des travailleurs en termes de conditions de travail et d’emploi ne sont pas les mêmes. À cela s’ajoute la nécessité de pouvoir jongler entre sa vie professionnelle et sa vie personnelle. Des recherches ont été faites sur le sujet et il est ressorti que l’équilibre entre vies privée et professionnelle est devenu l’une des premières motivations des travailleurs transfrontaliers. L’idée n’est pas de faire une carrière internationale ou encore extraordinaire, mais de trouver le meilleur environnement professionnel afin de pouvoir s’épanouir sur les deux tableaux. Cette carrière peut suivre tout autant une trajectoire traditionnelle ou nomade, l’objectif n’étant pas de vivre une expérience hors du commun.
En effet, l’avancée professionnelle des individus dépend également des opportunités qui se présentent au sein de l’organisation ou des organisations par lesquelles l’individu passera. En effet, les obligations mutuelles existantes entre un employé et son organisation représentent un levier d’action sur le plan de la carrière. Cette relation se nomme : le contrat psychologique. Ce dernier est défini comme « les croyances d’un individu concernant les termes et les conditions d’un accord d’échange réciproque entre lui-même et une autre partie ».
Cela permet de créer une relation particulière entre une personne et son univers de travail). Il est alors question de trouver le bon équilibre entre les attentes/besoins d’un individu et les attentes/besoins d’une organisation. Et c’est justement ce dernier que les travailleurs transfrontaliers vont chercher lorsqu’ils décident de traverser une frontière pour trouver un emploi, faute de trouver de leur côté de la frontière. De ce fait, la carrière des travailleurs transfrontaliers n’est différente des autres que du fait qu’elle se déroule au sein d’un pays différent, séparé simplement par une frontière.
Le concept de succès de carrière change de par l’évolution même des modèles de carrière. Le modèle traditionnel du succès est centré sur la satisfaction des attentes de l’organisation, alors qu’à l’inverse, dans une carrière nomade, le modèle de succès est centré sur la satisfaction des attentes et des valeurs individuelles.
Le concept de succès de carrière évolue de par l’évolution des modèles de carrière. Le modèle traditionnel du succès est centré sur la satisfaction des attentes de l’organisation alors qu’à l’inverse, dans une carrière nomade, le modèle de succès est centré sur la satisfaction des attentes et des valeurs individuelles. Le développement de la carrière tourne donc autour des valeurs de l’individu. L’individu avance en fonction de ses propres attentes, mais également en fonction du contexte.
Les travailleurs transfrontaliers se tournent vers le pays voisin pour bénéficier d’une reconnaissance de leurs compétences, de leur statut et de leur travail. Ainsi, ces travailleurs s’intéressent à la bonne relation d’emploi et moins à la rémunération en tant que telle, bien qu’elle reste un critère non négligeable. La mobilité transfrontalière leur offre donc cette possibilité de bon équilibre entre attentes professionnelles et personnelles.
Axelle Lutz ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
25.11.2024 à 12:16
François Pichault, Professeur titulaire à HEC Liège , Université de Liège
Le travail de plate-forme est souvent associé à la notion d’autonomie. Mais de quoi parle-t-on quand on évoque l’autonomie ? Cette notion est plus complexe qu’il n’y paraît. Il convient donc de la manier avec précaution en tenant compte d’au moins trois dimensions contenues dans ce terme.
L'économie des petits boulots, ou « gig economy », est en pleine expansion. Depuis le début des années 2000, le nombre de professionnels indépendants a augmenté de manière considérable dans la plupart des pays européens. Selon Leighton et McKeown (2015), ils représenteraient désormais plus de 5% de l'emploi total dans la plupart des pays européens. Leur croissance a été exponentielle depuis la crise sanitaire. Ces formes de travail « atypique » -notamment par rapport au salariat- concernent aussi bien les consultants que les formateurs, les designers ou les créatifs, ou encore les livreurs et les chauffeurs de VTC.
Toutes remettent en question les cadres traditionnels prévalant dans le monde du travail. En effet, les mécanismes de contrôle bureaucratique classiques sont difficiles à appliquer dans ce contexte où les relations de travail sont volatiles et où les notions d'autonomie et d'indépendance prennent des formes nouvelles et complexes.
À lire aussi : Uber, Deliveroo, Bolt... Une directive européenne pour réintégrer les travailleurs de plateformes au sein du salariat
Il est essentiel de distinguer autonomie et indépendance. Alors que l'indépendance se réfère à un statut légal, qui s’éloigne de la relation d’emploi traditionnelle (on parle de travailleur indépendant), l'autonomie au travail se définit par la capacité de réguler soi-même son travail.
En principe, les indépendants jouissent d'un statut qui leur permet de choisir leurs missions et leurs clients, ce qui leur confère une grande liberté dans la gestion de leurs partenaires de travail: il n'y a en effet pas de lien juridique de subordination. Ils sont aussi susceptibles de déterminer le contenu de leurs tâches, adaptant leurs missions à leurs compétences et intérêts personnels. Enfin, ils ont la possibilité de choisir où et quand ils travaillent, et sont responsables de leur formation et de leur niveau de rémunération. Cette triple flexibilité est souvent citée comme un avantage majeur du travail en tant que gig worker. Mais il faut garder à l’esprit qu’elle présente aussi des défis majeurs et des risques de précarisation.
Les chercheurs proposent une matrice analytique (figure 1) qui distingue trois dimensions interdépendantes de l'autonomie dans le contexte de la gig economy. La matrice peut aider les dirigeants, notamment dans les départements RH, et les travailleurs eux-mêmes à comprendre les défis et les opportunités liés à ces nouvelles formes de travail en analysant trois aspects : le statut du travail, son contenu et ses conditions. Ces aspects permettent de mieux cerner l’autonomie du travailleur et, pour sa « hiérarchie », d’adapter son mode de collaboration.
D’abord, le statut de travail des professionnels peut varier, passant de l'auto-emploi pur à des contrats d'emploi via différentes sortes d'intermédiaires. Ce statut détermine souvent la voie d'accès à la protection sociale et à d'autres avantages sociaux. Les gig workers peuvent donc être auto-entrepreneurs, contractuels soutenus par des plateformes de travail, travailleurs temporaires via des agences d'intérim, voire employés réguliers dans des entreprises qui les mettent à disposition de sociétés utilisatrices.
Ensuite, le contenu de leur travail peut varier selon qu’il repose sur leur propre expertise ou qu’il est soumis à des spécifications opérationnelles strictes.
Enfin, les conditions de travail peuvent amener ces travailleurs à travailler à distance, à choisir leurs horaires, et à organiser l’environnement de travail selon leurs préférences. Ils sont également susceptibles d'être responsables du développement de leurs compétences et de la négociation de leur rémunération. Mais ils peuvent aussi être soumis aux exigences de leurs clients, parfois de manière très unilatérale, ce qui renforce alors leur sentiment d’isolement et de précarité.
La matrice présentée ci-dessous permet d’appréhender la grande diversité des situations de travail recouvertes par la catégorie du gig work
Les chercheurs montrent que les entreprises et les décideurs doivent prendre en compte ces dimensions de l'autonomie pour élaborer des politiques et des pratiques de gestion des ressources humaines susceptibles de soutenir les travailleurs autonomes dans la nouvelle économie. En reconnaissant l'importance de l'autogestion et de la flexibilité, ils peuvent mieux répondre aux besoins de cette catégorie croissante de travailleurs.
De cette façon, ils peuvent aussi favoriser un environnement de travail plus adapté aux situations individuelles de chacun et aussi plus résilient. Apparaît ainsi le concept de Total Workforce Management, où l’entreprise est concernée par la gestion de toutes les composantes de la force de travail, qu’elles soient internes ou externes.
Cet article a été écrit en collaboration avec le Dr. Arnaud Stiepen, expert en vulgarisation scientifique.
François Pichault a reçu des financements de la Commission Européenne, de la Politique Scientifique Belge et du Fonds National de la Recherche Scientifique en Belgique
25.11.2024 à 12:16
Marion Polge, Maitre de conférences HDR en sciences de gestion, Université de Montpellier
Françoise Pierrot, Docteur en sciences de gestion, Université de Montpellier
Sarah Mussol, Maitresse de conférences en sciences de gestion, Université de Montpellier
Sophie Casanova, Maître de conférences en Entrepreneuriat, Université de Montpellier
Sylvie Sammut, Professeur des Universités en Entrepreneuriat et Management Stratégique, Université de Montpellier
Prévoir ce que sera le bon manager du futur est difficile, voire impossible. Pourtant, il faut bien les former aujourd’hui. Une approche originale a été mise en œuvre à l’université de Montpellier.
« On ne peut pas dire quel manager sera le jeune que nous recrutons aujourd’hui. Il n’est ni dans la verticalité « top-down », ni dans l’horizontalité de l’entreprise transversale. Il est dans la diagonale… et la pente de la diagonale reste à inventer ». Françoise, dirigeante de PME expérimentée constate le virage engagé par les jeunes générations en demande de nouvelles formes relationnelles : collaborateurs, exécutants, comme managers.
Pas vraiment en opposition, mais tout de même en désaccord, la nouvelle génération de recrutés aspire à d’autres systèmes décisionnels et relationnels. Quel manager portera les changements, quelles compétences pourra-t-il mobiliser, tenaillé entre numérisation, IA, nomadisme professionnel, hédonisme, besoin d’appartenance ou encore désengagement ? Pour réfléchir aux enjeux liés à cette question, les équipes de Montpellier Management – l’école universitaire de management – ont créé un THINK Lab, sorte de laboratoire d’idées où se rencontrent dirigeants, cadres, alumni et enseignants-chercheurs pour croiser leurs regards et imaginer ensemble qui sera le manager de demain. Quelles idées saillantes ressortent de ces échanges ?
Premier constat, la relation au travail évolue, influencée par les aspirations des jeunes générations mais aussi par une mutation sociétale plus large. Comme le constate Christophe, expert-comptable, « C’est un changement général, sur le rapport au travail, les jeunes aussi, peut-être plus mais c’est tout le monde. » La transformation numérique bouleverse nos schèmes cognitifs, notre relation au savoir et au temps tandis que les exigences liées à la transition environnementale peuvent conduire à se recentrer sur des aspirations personnelles ou bien collectives mais en dehors de l’entreprise.
À lire aussi : Le luxe et la génération Z : repenser l’attractivité des talents
Si la quête de sens anime les discussions, elle ne fait pas pourtant l’unanimité. Tous s’accordent sur son importance mais pour certains contradicteurs, ce n’est pas un sujet nouveau. D’autres l’estiment secondaire à l’heure où collaborateurs et managers s’attachent davantage à des comportements hédonistes. L’hypertrophie des désirs individuels crée même un paradoxe avec la quête de sens pour l’entreprise qui demanderait un engagement collectif.
En somme, la quête de sens au travail s’avère un enjeu complexe, mêlant finalité personnelle, impact sociétal et développement professionnel. Les organisations doivent s’adapter à ces évolutions pour créer un environnement propice à l’épanouissement et à la contribution de chacun. Elles adoptent ainsi des modèles axés sur l’intelligence collective, où les dirigeants et les collaborateurs cherchent à aligner leurs actions sur la base de valeurs communes. Les attentes personnelles, le bien-être au travail et le besoin de réalisation personnelle poussent certains à réévaluer leur trajectoire professionnelle, remettant en question la manière dont les compétences sont acquises puis développées.
Que vous soyez dirigeants en quête de stratégies ou salariés qui s'interrogent sur les choix de leur hiérarchie, recevez notre newsletter thématique « Entreprise(s) » : les clés de la recherche pour la vie professionnelle et les conseils de nos experts.
Aux « hard skills » (expertise) et « soft skills » (compétences comportementales) s’ajoutent désormais les « mid skills » (compétences intermédiaires) et les « mad skills ». Ces dernières occupent une place toute particulière désormais car, contrairement aux « hard skills » qui s’acquièrent par la formation et l’expérience, « les mad skills » relèvent essentiellement de la capacité de l’individu à sublimer un groupe ou de se démarquer de la foule anonyme. D’où l’association incongrue des termes « compétence » et « folle ». L’hétérodoxie comme référence en termes de créativité, d’hypersensibilité, de trajectoire, etc.
Le portefeuille des compétences requises s’est donc amplement complexifié en associant aux paramètres objectifs et individuels des items émotionnels et collectifs issus de l’expérience personnelle ainsi que de la capacité de résilience et d’audace. « Pour amortir le choc de l’entrée en entreprise, on parle aussi d’humilité », souligne Jean-Marie, entrepreneur. Chacun se sent intégré dans un collectif où il se trouve utile et légitime, et ce d’autant plus que l’entreprise lui permet d’élargir son éventail de connaissances. On s’éloigne du conformisme pour dénicher « le » talent qui sera capable de faire bouger les lignes du collectif et renforcer le « faire ensemble ». Dans un univers concurrentiel exacerbé, la capacité de l’entité à s’adapter et magnifier les compétences de tous met en exergue sa singularité, et par là-même son attractivité.
Face à ces différentes évolutions, les attentes des nouveaux collaborateurs, des managers et de l’entreprise changent. La coordination de ces attentes semble être la condition sine qua non d’un fonctionnement harmonieux au sein de l’organisation.
« Le rapport au travail signifie que j’exerce une fonction pour m’épanouir, pour apprendre et pour vivre dans un environnement agréable. Ce changement de rapport au travail a changé aussi le sentiment d’appartenance. », explique Maxence, un ancien élèce de Moma.
Les nouveaux collaborateurs aspirent à des environnements de travail inclusifs, où ils se sentent valorisés et soutenus. Ils attendent des opportunités claires de développement de carrière, des formations adéquates dès leur intégration et une culture d’entreprise qui encourage l’apprentissage continu et la prise de responsabilité.
Le haut niveau d’exigence des entreprises, combiné aux désirs individuels des collaborateurs, crée une tension paradoxale qui peut fragiliser le sentiment d’appartenance. La pression subie ou perçue pour atteindre des objectifs organisationnels élevés, tout en poursuivant des ambitions propres, entraîne potentiellement une perte de motivation et de fidélité envers l’entreprise. En conséquence, les collaborateurs adoptent des comportements nomades, se montrant enclins à changer d’employeur au gré des opportunités qu’ils rencontrent.
Les managers peuvent se sentir déroutés par ces nouvelles prétentions : à l’incertitude environnementale s’ajoute une mobilité croissante des talents imputable aux attentes individuelles paradoxales. Cela crée des besoins de montée en compétences rapide au sein de l’entreprise, notamment de compétences sociales synonymes d’attachement : communication, adaptabilité, collaboration, gestion des conflits, leadership inclusif, mentorat, vision stratégique. Pour faciliter ce travail, les managers attendent également de leurs futurs collaborateurs une meilleure capacité d’intégration pour comprendre les attentes des différentes parties prenantes.
« L’accumulation de savoir-faire et de compétences grâce aux collaborateurs fonde la spécificité, voire la rareté de la proposition de l’entreprise donc sa valeur », écrit Denis Dauchy. La question de l’adéquation des compétences attendues par les entreprises à celles des collaborateurs s’avère essentielle au bon fonctionnement. Le travail collectif réalisé au sein du THINK lab a notamment mis en lumière des aspirations des jeunes générations (et pas seulement), qui s’illustrent par de nouveaux besoins et un nouveau regard porté sur l’entreprise. Le challenge auquel font face les managers et les entrepreneurs s’inscrit dans la nécessité de prendre en compte ces évolutions sociétales, en accompagnant les collaborateurs dans l’enrichissement de leurs compétences, tout en respectant leurs aspirations personnelles, tout en veillant aux objectifs de performance. La capacité d’adaptation des uns et des autres, mais également des uns aux autres, se définit comme la clé de ce qui apparaît a priori comme un paradoxe.
Marion Polge est vice-présidente France de l'AIREPME. Elle a reçu des financements du Fonds Social Européen pour mener une étude sur la mixité femmes-hommes dans l'artisanat du bâtiment. Ce programme a été mené dans le cadre la Chaire Cocréa qu'elle dirige au sein de l'université de Montpellier.
Sylvie Sammut est Vice Présidente Recherche de l'AEI (Académie de l'Entrepreneuriat et de l'Innovation). Elle dirige la chaire AE2i (Accompagnement Entrepreneuriat Incubation Innovation) de l'Université de Montpellier. Elle dirige Montpellier Management (Université de Montpellier)
Françoise Pierrot, Sarah Mussol et Sophie Casanova ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur poste universitaire.
25.11.2024 à 12:15
Le Goff Rémi, Professeur en stratégie et entrepreneuriat , Montpellier Business School
Marc Robert, Professeur en sciences de gestion, Montpellier Business School
Sophie Mignon, Professeur des Universités, Université de Montpellier
Les dirigeants de PME sont réputés déborder d’idées, mais manquent souvent de solutions pour les concrétiser. Dans les réseaux de communication physiques et digitaux des PME se cachent des acteurs insoupçonnés, capables de faciliter ou de freiner l’acceptation d’innovations. Cet article propose une méthode pour identifier et mobiliser ces acteurs clés afin de maximiser les chances de succès de l’innovation.
Face aux récentes perturbations, comme la crise du Covid et, plus récemment l’inflation, l’impératif pour les dirigeants de PME est clair : innover pour surmonter les crises. Qu’il s’agisse d’innovations managériales (comme l’entreprise libérée) ou technologiques (comme l’adoption de Data Analytics), les équipes dirigeantes ne manquent pas le plus souvent d’idées.
En revanche, elles se heurtent souvent à des obstacles de taille, tels que la légendaire résistance au changement. L’équipe dirigeante peine régulièrement à déployer ces innovations, car des attitudes négatives persistent. Notre étude révèle qu’il existe au sein des PME des acteurs insoupçonnés, souvent ignorés, qui peuvent jouer un rôle décisif dans l’adoption de ces innovations. Qui sont-ils ? Comment les mobiliser efficacement ?
On considère souvent que l’acceptation d’une innovation dépend d’un discours rationnel de l’équipe dirigeante mettant en avant les bénéfices attendus. L’objectif est de créer, dans la PME, une coalition d’attitudes favorables à l’innovation pour limiter la résistance au changement. Bien que nécessaire, cette stratégie peut être insuffisante si le message n’est pas relayé par les bonnes personnes, notamment lorsque la direction suit strictement l’organigramme pour diffuser son discours. Pour être efficace, ce discours doit passer par les personnes influentes du réseau communicationnel de la PME, un réseau qui ne reflète que rarement l’organigramme.
Ce phénomène s’est amplifié avec la transformation digitale de la majorité des PME (voir Baromètre Num 24). Des outils comme WhatsApp, Slack ou Teams favorisent des échanges, souvent informels et discrets, permettant à des personnes ou des groupes de personnes en dehors de l’équipe de direction d’occuper une place centrale dans la communication interne. Cette multiplication des échanges influence fortement les attitudes face à l’innovation et crée des dynamiques sociales qui peuvent perturber un déploiement d’innovation piloté par l’équipe de direction.
Dans notre étude, nous avons analysé une PME industrielle d’une cinquantaine de salariés qui a introduit des pratiques de lean management. L’introduction de ces pratiques dans cette PME a suscité une résistance importante au changement. Dans ce contexte, nous avons identifié les salariés influents dans le réseau communicationnel de l’entreprise et examiné leur rôle dans la diffusion des discours liés à l’innovation. À l’aide d’une analyse de réseau social (une méthode de modélisation des systèmes relationnels bien décrite par Emmanuel Lazega) et d’entretiens avec les salariés de la PME, notre étude a confirmé le rôle clé des managers dans la diffusion d’un discours légitimant l’innovation et favorisant des attitudes positives. Cependant, nous avons également constaté que le réseau communicationnel de la PME n’est pas centré autour de l’équipe de direction ; il est fragmenté en plusieurs sous-groupes dominés par des acteurs aux profils variés, de l’ouvrier au directeur financier. Ces acteurs partagent trois caractéristiques : (i) leur légitimité, souvent liée à l’ancienneté ou aux performances individuelles ; (ii) leur représentativité, car ils défendent les intérêts d’un groupe de salariés ; (iii) leur position centrale dans le réseau communicationnel.
Des coalitions de salariés ou des poches de résistance ? Ces acteurs influencent la diffusion des informations sur l’innovation et participent à la formation des attitudes des autres salariés. Ils retiennent certaines informations, favorisent certains discours ou génèrent leurs propres récits, qu’ils soient favorables ou non à l’innovation. Ce contrôle de l’information leur confère un pouvoir significatif sur la formation des attitudes et, par extension, sur l’émergence de résistances au changement. Leur influence permet de former des coalitions de salariés, favorables ou opposées à l’innovation. Dans notre cas, ces acteurs ont d’abord été sous-estimés par la direction en raison de leur statut non-managérial et de leur influence furtive dans le réseau communicationnel. L’équipe dirigeante a finalement dû ajuster son discours et négocier avec eux l’adaptation de nouvelles pratiques, le maintien de pratiques existantes et parfois même la promotion de certains acteurs.
Nous sommes convaincus que toute personne travaillant dans une PME, qu’elle fasse partie de l’équipe dirigeante ou non, identifie intuitivement ces acteurs représentatifs, légitimes et centraux, capables de favoriser ou de freiner l’innovation. Néanmoins, il est crucial de dépasser cette simple intuition.
Que vous soyez dirigeants en quête de stratégies ou salariés qui s'interrogent sur les choix de leur hiérarchie, recevez notre newsletter thématique « Entreprise(s) » : les clés de la recherche pour la vie professionnelle et les conseils de nos experts.
Notre recherche montre que ces acteurs sont souvent insoupçonnés par la direction, notamment parce qu’une grande partie des échanges entre les salariés se fait de manière digitale et passe donc inaperçue. Ils jouent pourtant un rôle essentiel, étant souvent mieux placés que les dirigeants pour convaincre leurs collègues d’adopter une innovation.
Les dirigeants de PME doivent donc commencer par identifier les acteurs clés, en utilisant des méthodes simples d’analyse de réseaux pour visualiser la structure communicationnelle de votre entreprise. De nombreux logiciels d’analyse de réseaux sociaux sont relativement accessibles. Par exemple, de nombreux tutoriels existent pour apprendre à utiliser les logiciels Gephi et NodeXL.
En complément, des IA génératives comme ChatGPT peuvent « agir en tant qu’experts en analyse de réseaux » peuvent guider le dirigeant dans la collecte, l’analyse et l’interprétation des données. Cette analyse identifiera les acteurs centraux. Ensuite, sa connaissance intime de l’entreprise l’aidera à déterminer quels acteurs sont également légitimes et représentatifs, facilitant l’identification de ceux qui jouent un rôle clé dans la communication interne et qui peuvent fédérer leurs collègues. Le rôle du dirigeant est alors d’impliquer ces acteurs clés, en les encourageant à participer activement aux activités d’innovation pour sélectionner et adapter les innovations.
L’objectif est qu’ils deviennent des porte-parole au sein de l’entreprise, capables de défendre les intérêts des salariés tout en assurant une diffusion efficace de l’information, permettant aux équipes de forger leur opinion. Enfin, notre étude montre que ces acteurs, bien qu’ils puissent représenter une source de résistance, constituent une opportunité précieuse pour favoriser l’innovation. Les résistances au changement sont souvent des signaux à exploiter pour mieux adapter les innovations au contexte spécifique de ceux qui les utilisent au quotidien. Ces acteurs deviennent alors des interlocuteurs clés pour surmonter ces obstacles.
Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.
24.11.2024 à 16:39
Benjamin Sultan, Directeur de recherche au laboratoire ESPACE-DEV (Montpellier), Institut de recherche pour le développement (IRD)
Alors que 2024 est déjà considérée comme l’année la plus chaude jamais enregistrée et que les aléas climatiques font de plus en plus de dégâts, la COP29 qui s’achève apparaît à bien des égards comme décevante. Les pays développés (Europe, États-Unis, Canada, Japon, Australie, Nouvelle-Zélande), responsables en grande partie du changement climatique, ont promis 300 milliards de dollars par an à partir de 2035 pour aider les pays en développement à faire face au changement climatique. Cette aide financière, même si elle est en hausse par rapport aux précédents engagements, est bien en dessous des attentes des pays les plus vulnérables et du chiffrage de l’ONU et de nombreux économistes pour permettre des actions efficaces d’atténuation et d’adaptation d’une part, et pour dédommager ces pays des catastrophes climatiques d’autre part.
Avant même de commencer, la COP29, était déjà surnommée la COP de la finance. De fait, il a beaucoup été question de financement à Baku avec d’intenses débats autour de sommes qui peuvent paraître faramineuses de par les ordres de grandeur abordés : des centaines de milliards, de milliers de milliards de dollars.
Des montants censés être à la hauteur de l’urgence actuelle, avec une COP qui débutait alors même que l’année 2024 était déjà considérée par le dernier rapport du service européen Copernicus comme étant de manière quasi certaine l’année la plus chaude jamais enregistrée, avant même de se terminer. C’est aussi la première année qui dépasse de 1,5 °C le niveau de l’ère préindustrielle, seuil pourtant fixé comme limite à ne pas atteindre par l’accord de Paris lors de la COP21.
L’année 2024 a également été, une fois encore, celle de nombreuses catastrophes climatiques, des précipitations meurtrières au Népal ou au Kérala, en passant par les ouragans Milton et Hélène aux États-Unis, aux pluies records enregistrées en Espagne, et par les inondations meurtrières au Soudan, au Niger, au Tchad, au Nigeria avec presque 2000 morts et de très nombreux déplacés. Autant d’événements dramatiques dont l’intensité et la fréquence est renforcée par les activités humaines émettrices de gaz à effet de serre.
Des émissions qui continuent de s’accroître, COP après COP, avec une augmentation de 1,3 % en 2023, et des politiques actuelles qui nous amèneraient, si rien ne change à un réchauffement global d’environ 3,1 °C en 2100.
La COP29 avait pour ambition d’éviter ce scénario, et surtout de réparer l’injustice climatique par laquelle les pays les plus pauvres subissent de plein fouet les conséquences d’un réchauffement dont ils ne sont que très peu responsables. Il était donc attendu à Baku, que les grands responsables historiques du problème climatique, à savoir les pays développés (Europe, États-Unis, Canada, Japon, Australie, Nouvelle-Zélande), financent les efforts d’atténuation et d’adaptation des pays en développement et les dédommagent des préjudices subis. En 2009, lors de la COP15 de Copenhague avait déjà été conclu un financement de 100 milliards de dollars à partir de 2020, qui n’a finalement été versé avec deux ans de retard.
Dans un rapport paru le 14 novembre, les économistes mandatés par l’ONU économistes mandatés par l’ONU, Amar Bhattacharya, Vera Songwe et Nicholas Stern estimaient que désormais, les pays en développement auraient besoin de 1 000 milliards de dollars d’investissements supplémentaires, publics et privés, à partir de 2035. Ces mêmes experts ont également évalué les besoins annuels de finance climatique des pays émergents (hors Chine) à 2 400 milliards de dollars d’ici 2030. Un chiffre certes colossal, mais qui reste en deçà des subventions massives annuelles aux énergies fossiles, qui s’élevaient à 7000 milliards de dollars en 2022.
Dans la nuit de samedi à dimanche, après d’intenses négociations et une menace qui planait de voir les pays en développement refuser de signer un accord, le texte final a finalement statué que les pays développés devraient verser un minimum de 300 milliards de dollars par an à partir de 2035, et que les pays encore considérés comme en développement, comme la Chine, ou bien les pays du Golfe, pourraient eux ajouter des contributions additionnelles de manière volontaire. C’est donc une aide en hausse par rapport à l’accord de Copenhague mais bien en dessous de la réalité des besoins.
Tâchons donc de comprendre quels sont ces besoins justifiant de telles sommes et pourquoi ce résultat, jugé clairement décevant pour les pays du Sud, s’accompagne d’un sentiment de plus en plus criant d’injustice climatique.
Passer d’une aide de 100 milliards annuels, décidée à Copenhague en 2009 à un objectif, non atteint donc à l’issue de cette COP29, de plus de mille milliards, la différence peut sembler colossale. Mais la précédente somme était déjà critiquée pour être largement insuffisante de par son montant et inéquitable dans son versement : sur les 83,3 milliards de dollars finalement fournis par les pays développés avec deux ans de retard, seulement 8 % du total ont bénéficié aux pays à faible revenu et environ un quart à l’Afrique. De plus, l’argent a ciblé essentiellement l’atténuation au détriment de l’adaptation et l’essentiel de ces financements est advenu sous forme de prêts et non de dons, contribuant à l’endettement de pays déjà très vulnérables.
Enfin, l’inflation touche aussi grandement le financement de projets de lutte contre le changement climatique. Le Ghana, par exemple, est en défaut de paiement aujourd’hui à cause d’une inflation ayant atteint un pic à 54,1 % en décembre 2022. Dans ce pays, un doublement des aides financières sur le climat ne suffirait donc pas à compenser l’inflation.
Les COP sont un moment important pour les pays du Sud, qui y sont présents en nombre. Ainsi, à la COP29, on pouvait compter une vingtaine de chefs d’État africains, sept vice-présidents, et quatre Premiers ministres, tandis que les dirigeants des pays les plus développés étaient eux réunis entre eux à Rio pour le sommet du G20.
Les pays du G20 restent pourtant responsables de plus des trois quarts des gaz à effet de serre, quand l’Afrique, elle, n’a contribué que très peu aux émissions de gaz à effet de serre (7 % des émissions nettes de CO2 cumulées entre 1850 et 2019). Elle reste pourtant le continent le plus vulnérable au changement climatique avec peu de moyens pour s’adapter, une forte dépendance aux ressources naturelles et un continent déjà sous tension avec une population qui augmente rapidement, taux de pauvreté, instabilité politique et conflits armés. Cela fait que les aléas climatiques deviennent vite des catastrophes humaines et socio-économiques.
De plus, si l’Afrique détient actuellement les émissions nettes par habitant les plus faibles au monde, elle a aussi longtemps été un puits de carbone du fait de ses forêts tropicales qui captent le CO2. Mais c’est de moins en moins vrai et l’Afrique commence à peser sur le bilan mondial, de par son évolution démographique mais surtout la dégradation de l’environnement et des forêts causée par l’agriculture, l’industrialisation, l’urbanisation, les feux de forêt naturels et les émissions de méthane.
Face à cette réalité, et à la responsabilité historique des pays développés, déjà soulignée par l’accord de Paris il a été jugé que même si chacun doit prendre des mesures pour lutter contre les changements climatiques, ceux qui ont le plus contribué au problème assument une plus grande responsabilité dans sa résolution. Les grands émetteurs, par exemple, doivent agir en premier et rapidement pour réduire leurs émissions.
Mais concrètement à quoi ces milliards doivent-ils être alloués ? À trois choses principales : les efforts d’atténuation, d’adaptation et les pertes et dommages.
Un soutien à la transition environnementale des pays du sud est essentiel pour faire en sorte que leur nécessaire développement ne repose pas sur les énergies fossiles mais plutôt sur les énergies renouvelables et la préservation des puits de carbone naturel. C’est crucial pour ne pas aggraver la crise climatique et respecter les engagements de la COP28 qui étaient de tripler la part des renouvelables et de sortir des énergies fossiles.
Mais ces mêmes énergies fossiles, et le charbon notamment sont beaucoup moins chères à exploiter que les énergies renouvelables. Il faut donc soutenir les pays du sud dans leur transition environnementale pour éviter qu’ils aillent exploiter leurs ressources en énergies fossiles au nom du droit au développement, notamment en Afrique sub-saharienne où 43 % de la population n’a pas accès à l’électricité.
Et si l’on regarde du côté des énergies propres, les investissements mondiaux ont certes atteint un pic historique en 2023, mais c’est en grande partie grâce à la croissance de l’énergie solaire photovoltaïque et des véhicules électriques, et plus de 90 % de l’augmentation de ces investissements depuis 2021 a eu lieu dans les économies développées et en Chine. Les pays à revenu faible et moyen inférieur, eux, ne représentaient que 7 % des dépenses en énergie verte en 2022.
Les preuves de la dangerosité du climat dans les pays du Sud s’accumulent. Les inondations dramatiques en Libye, par exemple, ont fait plus de 11 000 morts en 2023. Les projections du GIEC indiquent une intensification de ces changements avec le réchauffement climatique, qui menace gravement les ressources en eau, l’économie et les infrastructures, la sécurité alimentaire, la santé et les écosystèmes.
Ces constats soulignent l’urgence de mettre en place des actions d’adaptation pour réduire ces risques dès aujourd’hui.
On connaît les mesures les plus efficaces, qui peuvent s’inscrire dans l’adaptation incrémentale, avec le renforcement des systèmes d’alerte précoce ou transformationnelle via de nouvelles infrastructures (barrages, digues) incorporant des matériaux et des techniques de construction résilients, mieux adaptés au climat d’aujourd’hui et de demain.
Mais tout cela coûte cher : selon l’Organisation météorologique mondiale (OMM), le coût de l’adaptation est estimé entre 30 et 50 milliards de dollars par an au cours de la prochaine décennie en Afrique subsaharienne, soit 2 à 3 % du produit intérieur brut de la région.
Le Secrétaire général de l’ONU avait ainsi exhorté à doubler les financements consacrés à l’adaptation et à les rendre plus équitables, sans imposer de contraintes additionnelles. Il est à cet égard préoccupant de noter que plus de 60 % des financements pour l’adaptation ont été octroyés sous forme de prêts plutôt que de subventions, une tendance qui est en hausse. Par ailleurs, la quasi-totalité de ces fonds provient du secteur public, avec une forte dépendance envers les sources internationales dans de nombreuses régions en développement.
Les besoins en matière d’adaptation sont aujourd’hui estimés à environ 10 à 18 fois les flux actuels de financement public international de l’adaptation.
Par ailleurs, en cas de réchauffement climatique trop intense, les capacités d’adaptation pourraient être rapidement dépassées. On parle alors de pertes et dommages, qui se produiront quoi qu’on fasse.
Sachant que ces pays n’ont que très peu contribué aux émissions de GES, est-ce normal que ce soit à eux de payer cette facture ? Cela fait 20 ans que les pays les plus vulnérables demandent ainsi un financement des pays les plus émetteurs pour les pertes et dommages et c’est seulement à la COP28 l’an dernier qu’on est arrivé à un accord financier.
Bien que 700 millions de dollars aient été promis, ce montant est loin d’être suffisant pour indemniser les pays à revenu faible et intermédiaire pour les pertes et dommages irréparables causés par le changement climatique. Les économistes Markandya et González-Eguino estiment par exemple que 290 à 580 milliards de dollars pourraient être nécessaires chaque année d’ici 2030. La Loss and Damage Collaboration a elle évoqué des coûts annuels à 400 milliards de dollars.
Bien en deçà des évaluations d’expert, l’accord conclu à Baku est donc une profonde désillusion pour les pays du sud, qui ont pourtant tout fait pour y être entendu, notamment à travers leurs travaux préparatoires, leur effort pour parler d’une même voix et la présence de nombreux chefs d’État.
Une maigre consolation demeure cependant : celle d’avoir réussi, in extremis, à faire passer une clause permettant la révision de cet accord qui ne les satisfait pas d’ici cinq ans et non dix ans, comme cela était initialement prévu. D’ici 2034, espèrent-ils, certaines idées auront peut-être fait leur chemin, comme celui d’une taxation sur les plus fortunés. Le Réseau Action Climat rappelle à cet égard que 2 % d’impôt sur la fortune de 3 000 milliardaires pourrait rapporter 250 milliards de dollars par an. Une feuille de route lors de la prochaine COP, organisée au Brésil en 2025, devrait également permettre aux pays les moins avancés d’obtenir plus de subventions et de garanties.
Benjamin Sultan a reçu des financements de l'IRD, de l'ANR, de l'UE et de la Fondation Agropolis.
24.11.2024 à 15:35
Clément Reversé, Sociologie de la jeunesse, sociologie des espaces ruraux, Université de Bordeaux
Johanna Dagorn, Sociologue, Université de Bordeaux
En France, la prostitution en milieu rural est largement invisibilisée, reléguée aux marges des débats politiques et de société, comme s’il s’agissait d’un phénomène parfaitement urbain. Pourtant elle est bien présente dans les campagnes. Deux sociologues ont enquêté en Nouvelle-Aquitaine. Des témoignages de jeunes précaires et de femmes prostituées par leurs compagnons montrent la détresse et l’isolement des victimes. Une action volontariste de l’État apparaît indispensable pour briser la loi du silence.
Les travaux se centrant sur la prostitution et la pédoprostitution en milieu rural sont rares et difficiles à mener. La dispersion géographique, mêlée avec une interconnaissance forte et le phénomène « de ragots » isole particulièrement les personnes en situation de prostitution et notamment les mineurs. La peur de la stigmatisation pousse au silence.
Cet article propose de revenir sur le phénomène à partir de deux enquêtes menées dans la région Nouvelle-Aquitaine : la première porte sur la précarité chez les jeunes en milieu rural de septembre 2017 à septembre 2021 et la seconde sur les féminicides en milieu rural menée de janvier à septembre 2022.
Nous avons rencontré une centaine de jeunes, dont 6 en situation de prostitution. Ces jeunes ruraux sans diplôme en situation de grande précarité ont exposé des récits de michetonnage (échange d’un acte sexuel contre un bien) ou de (pédo) prostitution. Par ailleurs, nos travaux nous ont conduits à des entretiens avec plus de 100 personnes victimes ou témoins de violences sexistes et sexuelles, et plus de 2000 réponses par questionnaire, dont un certain nombre de femmes victimes de violences conjugales et contraintes à la prostitution.
L’enquête portant sur les femmes victimes de violences a permis de constater l’importance de la prostitution de femmes par leurs conjoints violents au sein de leur domicile. Dans le cas de ces femmes, la prostitution rentre dans un continuum des violences sexuelles, psychologiques, et/ou physiques perpétrées par leur compagnon.
Une part des femmes interrogées, victimes de violences économiques, mentionne ce contrôle coercitif pour justifier la prostitution par leur conjoint, dans des attaques caractérisées à l’estime de soi :
« On n’a pas assez d’argent car tu n’es pas foutue de gérer un budget » ou encore « Pour une fois, ton gros cul va servir à quelque chose ».
Par ailleurs, nombre de femmes victimes de violences présentaient une addiction à l’alcool ou aux médicaments. L’addiction se révèle donc un important moyen de pression pour prostituer sa compagne.
Lors de l’enquête dédiée aux violences faites aux femmes en situation de handicap, une personne vivant en milieu rural nous a livré son ancien calvaire. Elle était enfermée à clé dans la chambre sans alcool et avait droit à sa bouteille de whisky qu’une fois le nombre de passes jugé suffisant atteint.
Lorsque les séances de prostitution étaient terminées, son compagnon la rouait de coups au sol en la traitant « de sac à foutre », de « pauvre merde », de « déchet ».
Ces témoignages peuvent être complétés par notre seconde enquête auprès d’une centaine de jeunes précaires de Nouvelle-Aquitaine. Leurs témoignages mettent en exergue la présence massive de violences sexuelles. Un tiers des jeunes femmes ont avoué avoir été victimes de violences sexuelles dont l’écrasante majorité fut incestueuse et pédophile. D’autres types de violences étaient également présentes, notamment une jeune femme prostituée durant un an par sa grande sœur :
« Pour faire simple, ma sœur m’a prostituée sur des réseaux et des sites de camgirls et d’escorts, et cetera, et vu que les derniers temps ça marchait beaucoup moins, j’ai eu le droit à des violences ».
La sœur hébergeait la jeune femme en « échange » de ces pratiques dont elle gardait le bénéfice.
Les récits de prostitution et de pédoprostitution collectés dans les enquêtes présentées répondent avant tout à des logiques de débrouille ; à un besoin concret plus qu’à une « carrière » professionnelle. Dans certains cas, il peut s’agir de michetonnage : une fellation contre un plein d’essence ou contre un nouveau jean par exemple.
Si la pauvreté dans les territoires ruraux connaît une intensité toute particulière, de telles pratiques peuvent être une réponse directe à des besoins souvent immédiats. L’exemple de la fellation contre un plein d’essence était une pratique récurrente qui permettait à une jeune femme de se déplacer pour travailler. La prostitution apparaît comme une solution à la précarité.
La prostitution de mineures (majeures lorsqu’elles racontaient les faits) répond à des logiques similaires. L’une d’entre elles expliquait utiliser l’application Coco, tristement célèbre depuis le procès des viols de Mazan, permettant de géolocaliser une discussion en utilisant l’âge, le genre et un pseudonyme :
« C’est super simple en fait. Y’a toujours des mecs. » La jeune femme expliquait qu’aujourd’hui majeure, elle se faisait passer pour une mineure (voire une mineure sexuelle) sur ce site, lorsqu’elle avait besoin de combler les fins de mois : « Tu gagnes plus et c’est moins prise de tête ».
L’hypersexualisation des jeunes filles fait système avec les pulsions pédophiles et permet de faire payer plus cher l’acte sexuel (du fait de son caractère illégal). Elle permet de s’assurer le silence du client qui, en dévoilant l’acte, devrait admettre sa pédophilie active, dans un contexte, où cette dernière n’est plus socialement admise.
Cette prostitution en ligne, de plus en plus usitée par les étudiantes précaires reste proche d’un « effet-Zahia »,qui était « l’escorte » de certaines célébrités, montrant une glamourisation de ces pratiques. Internet apparaît donc comme un facilitateur de l’activité prostitutionnelle en milieu rural – parfois avec le développement de réseau de copines qui s’échangent des conseils pour se prostituer. Les jeunes femmes apparaissent comme étant plus vulnérables dans les risques d’exposition à ce type de violences.
Ces actes, envisagés comme une logique de débrouille, ne sont presque jamais perçus comme de la prostitution, mais bien comme une tentative d’améliorer sa condition. La prostitution, qui « n’apparaît pas comme forcée » est difficile à nommer. Cependant, ne pas nommer, ne signifie aucunement ne pas en être affecté, car la marchandisation de son corps peut engendrer de nombreux traumatismes.
La prostitution et la pédoprostitution en milieu rural sont des réalités cachées et ignorées. Les risques sont pourtant nombreux et laissent une part importante de la population vulnérable à la violence et l’exploitation sexuelle. Pour lutter contre ceux-ci, il est essentiel de repenser l’accompagnement et les politiques publiques.
Face aux mineurs qui se prostituent, les professionnels expriment aujourd’hui leur sentiment d’impuissance car ils peinent à apporter une réponse adéquate. Mais pour cela, encore faudrait-il aller à la rencontre des personnes, souvent invisibilisées.
Par ailleurs, pour les femmes victimes de violences comme pour les mineurs précaires, une perspective d’autonomie financière apparaît comme le préalable indispensable à la « déprostitution ». Pour cela, il faut une volonté politique forte, des moyens adaptés, une approche inclusive, basée sur l’écoute, le soutien et la prévention, afin de briser la loi du silence.
Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.
24.11.2024 à 15:35
Laura Recuero Virto, Pôle Léonard de Vinci
Froidevaux Jérémy, Dr en Biologie de la Conservation, Université de Franche-Comté – UBFC
Certaines collectivités locales favorisent le déploiement de la 5G en misant sur les promesses faites autour de cette technologie en termes de solutions industrielles. À l’inverse, d’autres limitent son développement du fait des interrogations sur les enjeux sanitaires, voire environnementaux et sociétaux autour de la 5G. Illustrations avec le port du Havre et la ville de Paris.
Les mouvements de contestation sociale qui ont éclaté dans les années 2000, au début du déploiement de la technologie mobile, ont été relativement comparables en Belgique, en France, en Espagne, en Suisse et au Royaume-Uni. Ce malaise social trouvait son origine, au niveau local, en raison de l’émergence de ces réseaux dans l’environnement quotidien des individus, ce qui provoquait des désagréments et soulevait des préoccupations esthétiques, avec un impact possible sur la valeur des terrains ou des maisons.
Cette inquiétude n’a jamais été vraiment résolue à l’époque, étant donné que les autorités locales n’avaient généralement pas le droit de mettre en œuvre des mesures contre le déploiement et que les administrations centrales suivaient les directives internationales.
Mais une vingtaine d’années plus tard, le contexte est-il le même avec l’arrivée de la 5G ?
D’abord, malgré des mouvements de contestation contre la 5G qui ont pu aller jusqu’à des dommages physiques sur les stations du réseau mobile, le processus d’autorisation pour l’installation de ces stations a évolué depuis les années 2000 avec une participation plus active de l’administration locale qui a un droit de regard.
En même temps, contrairement aux déploiements initiaux de réseaux mobiles dans les années 2000, la demande au niveau du trafic de données mobiles pourrait être limitée dans les pays et régions où les limites d’exposition sont plus restrictives. C’est notamment le cas de la Belgique, la Bulgarie, la Croatie, la Grèce, l’Italie, et la Suisse.
Mais surtout, la 5G permet de déployer des solutions industrielles qui permettent d’envisager un développement économique local. Désormais, les administrations locales sont ainsi plus favorables à la 5G qu’elles ne l’étaient à la téléphonie mobile des années 2000, si on en croit les conclusions d’une analyse récente menée par des chercheurs du Pôle Universitaire Léonard de Vinci, et des universités de Poznan et Stirling.
Dans son plan d’action 5G de 2016, la Commission européenne a présenté l’objectif d’assurer une couverture 5G ininterrompue dans les zones urbaines et le long des principaux axes de transport d’ici 2025. En mars 2021, elle a étendu cet objectif pour inclure une couverture 5G de toutes les zones peuplées d’ici 2030.
La Commission avait notamment fixé la fin 2020 comme date limite pour octroyer les bandes 3,4-3,8 GHz et 26 GHz (Directive (UE) 2018/1972, point 135). La 5G est en effet considérée comme un atout stratégique pour l’innovation dans un cadre concurrentiel dans la scène internationale, notamment avec des pays tels que les États-Unis, la Chine mais aussi l’Inde.
La 5G dite « industrielle » a la capacité de transformer de nombreux secteurs tels que la mobilité connectée, la santé, l’industrie 4.0, et la logistique. Pour faciliter ces développements, parallèlement aux déploiements en cours de la 5G sur les réseaux nationaux, l’Autorité de Régulation des Communications Électroniques, des Postes et de la distribution de la Presse (ARCEP) permet à l’ensemble des professionnels industriels de procéder à des expérimentations afin s’approprier les innovations et les usages liés à la 5G.
Alors que les solutions industrielles tardent à se concrétiser, le président de la mission 5G industrielle, Philippe Herbert, soulève l’intérêt d’avoir des entreprises « prêtes à se lancer dans un déploiement pour avoir un effet boule de neige sur toute une filière par la suite ».
Cette mission a notamment identifié les freins les plus importants pour le déploiement de la 5G industrielle, en particulier, l’insuffisante disponibilité d’équipements et de services adaptés, la difficulté à trouver les bonnes compétences mais aussi les interrogations sanitaires, environnementales et sociétales.
Les valeurs limites d’exposition fixées par la Commission internationale de protection contre les rayonnements non ionisants (ICNIRP) pour se protéger des champs électromagnétiques ont été largement adoptées dans le droit national par de nombreux pays à travers le monde.
Ces valeurs ont été récemment actualisées pour tenir compte de la 5G. Néanmoins, certains pays ont choisi de mettre en œuvre des limites d’exposition plus strictes depuis les années 2000.
Jusqu’à présent, indépendamment du pays, de l’année et du type de technologie mobile, l’exposition aux ondes est bien en dessous des limites définies pour le public par l’ICNIRP. Ceci est aussi vrai avec la 5G. En effet, quelques études ont été menées sur les niveaux d’exposition attendus pour la technologie 5G sur la base des données issues de simulations, d’expérimentations et de déploiements commerciaux.
Néanmoins, d’un point de vue scientifique, d’après l’Agence nationale de sécurité sanitaire (Anses), il existe de l’incertitude concernant les éventuels effets sur la santé liés notamment à l’intermittence du signal associé à certaines technologies sans fil utilisées par la 5G et à l’utilisation des bandes de fréquences à 26 GHz. Davantage d’études spécifiques à la technologie 5G doivent être menées, en particulier sur ces deux aspects, conclut en substance l’Anses.
À noter que, dans ce rapport, l’Agence évoque aussi brièvement les interrogations que soulève aussi le déploiement de la 5G sur le plan environnemental.
Compte tenu de l’ensemble de ces élements – incertitudes sanitaires versus promesses économiques –, les collectivités locales se positionnent différemment quand elles doivent arbitrer au sujet du déploiement de la 5G sur leur territoire.
Prenons le cas du Havre (Seine-Maritime). Le port maritime Haropa a lancé en 2019 une expérimentation 5G sur les fréquences de 2,6 et 26 GHz en lien avec Le Havre Seine Métropole, Siemens, EDF et Nokia. Le but est d’améliorer la compétitivité du port grâce aux données.
Cela devrait permettre, par exemple, d’améliorer la sécurité sur le complexe et l’efficacité des opérations telles que le chargement et déchargement des conteneurs ou le dédouanement, expliquent les acteurs du projet.
Autre exemple : la ville de Paris qui, elle, privilégie une approche axée sur les aspects sanitaires. En 2020, la capitale a ainsi organisé une conférence citoyenne métropolitaine sur les enjeux de la 5G qui a donné lieu à une nouvelle charte en 2021 entre la ville et les opérateurs de téléphonie mobile.
Cette charte intègre de nouveaux engagements sociaux et environnementaux. Elle renforce aussi les actions d’information du public et de surveillance des niveaux d’exposition sur Paris avec la création d’un Observatoire parisien de la téléphonie mobile. Paris devient ainsi la ville européenne la plus protectrice avec un niveau maximal d’exposition de 5 V/m toutes technologies confondues en tout lieu de vie intérieur et fermé.
Le contexte en Europe est assez similaire. On observe les mêmes typologies concernant les atouts et les freins au déploiement de la 5G industrielle. On relève aussi une grande disparité d’approches en fonction des territoires : certains souhaitent bénéficier des atouts potentiels de la 5G, d’autres sont plus concernés par les questions sanitaires.
La Commission européenne a bien enclenché une dynamique pour impulser la technologie 5G comme un réseau critique pour permettre l’innovation et la transformation numérique. Mais elle n’a pas anticipé l’étendu des besoins pour le déploiement d’un tel écosystème
De plus, des technologies critiques de la 5G en Europe proviennent d’entreprises extérieures à la région. Enfin, le manque de capacité d’innovation et de main-d’œuvre qualifiée dans ce domaine semble être l’un des plus grands défis de la politique européenne.
Froidevaux Jérémy est membre de la British Ecological Society. Il a reçu des financements de l'ADEME, Eva Crane Trust, Leverhulme Trust et la région Bretagne.
Laura Recuero Virto ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
24.11.2024 à 15:33
Gilles Paché, Professeur des Universités en Sciences de Gestion, Aix-Marseille Université (AMU)
La pratique de la chasse à la baleine au Japon est revenue en pleine lumière avec l’arrestation de Paul Watson. Mais s’agit-il d’une tradition culturelle ou d’une activité économique importante ? La réponse est loin d’être anecdotique car elle influence aussi la perception de l’action du défenseur des cétacés.
Paul Watson, iconique militant écologiste et fondateur de Sea Shepherd, est loin d’être un novice en matière de confrontation avec des entreprises ou des gouvernements. Connu pour ses actions audacieuses (et souvent contestées), il consacre sa vie à la protection de la faune marine, en ciblant en particulier l’industrie baleinière japonaise. Désormais, Paul Watson mène un nouveau combat juridique : emprisonné au Danemark, il risque d’être extradé vers le Japon. Ce pays l’accuse de « conspiration d’abordage » sur son baleinier Shoran Maru 2 lors de deux incidents survenus dans les eaux de l’océan Antarctique en février 2010. Il y avait notamment fait usage d’une boule puante à l’acide butyrique, un acte purement symbolique visant à perturber les opérations, mais sans danger direct pour l’équipage puisque le seul effet est de dégager une odeur pestilentielle.
Certains médias européens indiquent que les actions de Paul Watson sont vues au Japon comme une atteinte insupportable, voire sévèrement condamnable, à une tradition ancestrale. Ce faisant, ils tendent à sous-estimer une autre réalité, d’ordre plus économique. Les opérations baleinières japonaises sont au moins autant une question de tradition que d’intérêts associés à une puissante machinerie industrielle soutenue par le gouvernement. La bataille actuelle de Paul Watson ne se limite donc pas à combattre une vision « culturelle » jugée barbare par certains observateurs, elle est menée aussi et surtout contre un système redoutable, logistiquement huilé et politiquement défendu depuis des décennies. Si l’on veut comprendre les enjeux autour du sort qui sera réservé à Paul Watson dans les prochaines semaines ou mois, il n’est pas possible de faire l’impasse sur la machinerie évoquée.
À lire aussi : De l’étrange à l’intime, comment notre perception des animaux marins s’est transformée
La chasse à la baleine au Japon plonge ses racines dans une tradition pluriséculaire, ancrée dans une époque où les communautés côtières en dépendaient pour subvenir à leurs besoins alimentaires et matériels. Toutefois, ces chasses s’effectuaient à petite échelle, loin du système industriel mécanisé que Paul Watson critique aujourd’hui, avec un bilan de près de 300 baleines exterminées en 2023 (avec un objectif de 200 baleines pour 2024 affiché par les autorités japonaises).
La défense de la tradition prend un tournant symbolique après la Seconde Guerre mondiale, période durant laquelle le gouvernement japonais promeut la consommation de viande de baleine pour répondre aux pénuries alimentaires. Elle devient dès lors un composant incontournable des repas scolaires, ce qui l’enracine durablement dans l’identité japonaise pour des générations d’enfants et symbolise une résilience face aux privations passées.
Au fil des décennies, les habitudes alimentaires japonaises vont évoluer, et désormais, la viande de baleine n’est plus un aliment de base, en particulier pour les jeunes générations. En 2023, sa consommation au Japon atteignait seulement 2 000 tonnes contre 200 000 tonnes par an dans les années 1960. Quant aux autres usages de la graisse de baleine, ils sont aujourd’hui anecdotiques car si elle a longtemps servi pour la fabrication de bougies, de savons ou de produits cosmétiques, le pétrole en constitue depuis longtemps un substitut efficace.
Le gouvernement japonais considère pourtant que la chasse à la baleine doit être préservée, arguant qu’elle est synonyme d’un droit souverain inaliénable. C’est par conséquent sur le terrain du « culturalisme », opposé à l’universalisme, que le débat se pose : alors que de nombreux pays ont banni la chasse à la baleine, la jugeant incompatible avec les valeurs sociétales contemporaines, le Japon revendique le respect de son identité culturelle malgré le moratoire international de 1986.
[Déjà plus de 120 000 abonnements aux newsletters The Conversation. Et vous ? Abonnez-vous aujourd’hui pour mieux comprendre les grands enjeux du monde.]
Tandis que la chasse à la baleine est justifiée au nom d’une « authenticité culturelle », et certainement pas au nom d’un marché intérieur aujourd’hui en effondrement, ses motivations semblent pourtant clairement dictées par de puissants intérêts industriels et financiers, ce qui affaiblit l’argument identitaire. De plus, l’industrialisation croissante des pratiques, qui se poursuit sans relâche, rend toute comparaison avec les méthodes traditionnelles obsolète car ces dernières étaient limitées tant en échelle qu’en impact sur les populations de baleines. Un tel décalage alimente ainsi le débat entre défenseurs de l’environnement et partisans de la chasse à la baleine, perçue tantôt comme une surexploitation des ressources, tantôt comme un « droit naturel ». Or, ne faudrait-il pas admettre que le cœur du débat se situe autour d’enjeux rendus visibles par l’impressionnante logistique mise au service de cette industrie ?
La flotte baleinière japonaise est équipée de navires hautement spécialisés, dont certains fonctionnent comme de véritables « usines flottantes », capables de capturer, découper et conditionner les baleines directement en mer. Ceci permet au Japon de défier discrètement les réglementations internationales puisque les baleines sont intégrées dans la chaîne logistique avant même d’atteindre la terre ferme. Une fois à terre, la viande de baleine est commercialisée via un réseau de distribution qui s’étend aux marchés et aux restaurants de l’ensemble du territoire, y compris des établissements de prestige, renforçant ainsi l’acceptation sociale de la pratique. Le soutien financier massif du gouvernement japonais à l’industrie baleinière souligne en outre l’existence d’un interventionnisme politique marqué, visant à perpétuer la tradition contre vents et marées.
Certes, les « usines flottantes » ne sont pas une invention récente puisqu’elles existaient au XIXe siècle sous la forme de navires équipés pour transformer la graisse de baleine en huile. Ces structures permettent alors aux baleiniers de traiter immédiatement leur prise en mer, évitant ainsi des aller-retour longs et coûteux. Munies de chaudières et de mécanismes sophistiqués de découpe, les « usines flottantes » de l’époque conduisent à l’exploitation des baleines capturées de manière plus efficace et plus rapide. Rien de tel que la lecture de Moby Dick, d’Herman Melville, pour prendre conscience de cette réalité. Force est d’admettre que le Japon d’aujourd’hui s’inscrit de fait dans une longue tradition historique, mais avec un changement d’échelle et une optimisation avancée des processus industriels et logistiques, dus à une industrialisation à marche forcée.
Pour Paul Watson, s’attaquer à la chasse à la baleine constitue sur le plan pratique un immense défi. Sea Shepherd fonctionne comme une organisation à but non lucratif et, bien qu’elle attire des bénévoles convaincus, elle ne dispose pas des colossales ressources aux mains des propriétaires de la flotte baleinière japonaise. Paul Watson a donc choisi l’action médiatique en mer, où les navires de Sea Shepherd affrontent les « usines flottantes » japonaises. Des stratégies agressives sont employées, notamment en bloquant les harpons, en se positionnant entre les baleiniers et leur proie, et même en éperonnant ponctuellement les navires. Les opérations menées cherchent à perturber à la source le fonctionnement de la chaîne logistique pour retarder, voire interrompre, le processus industriel (mais sans infliger de dommages humains). Quoi de mieux pour sensibiliser le public aux enjeux critiques de la conservation marine ?
La lutte de Paul Watson contre la chasse à la baleine japonaise est plus qu’une croisade personnelle. Elle incarne une opposition « existentielle » entre la protection de la nature et des pratiques traditionnelles souvent considérées comme anti-environnementales, ainsi qu’entre la légitimité de l’activisme et les intérêts d’industries soutenues par des gouvernements. Bien qu’il soit impossible de prédire l’efficacité des actions conduites par Sea Shepherd afin de perturber la logistique de la chasse à la baleine, celles-ci suscitent indéniablement un débat sociétal sur les limites de l’argument culturel avancé par le Japon et la responsabilité des nations en matière de protection de la biodiversité. Il serait toutefois maladroit d’oublier que derrière la « culture », des questions économiques et politiques restent très présentes, mais avec une atteinte à la propriété privée demeurant problématique, il faut en convenir.
Personne ne niera le fait que perturber la logistique de la chasse à la baleine est une démarche complexe dans la mesure où elle repose sur des appuis financiers et une « logistique » bien rodée de la part des activistes. Chaque intervention en mer de Sea Shepherd doit prendre en compte le risque d’escalade sur le plan juridique et diplomatique, comme le montre l’emprisonnement actuel de Paul Watson au Danemark (et sa possible extradition vers le Japon).
De plus, l’industrie baleinière japonaise bénéficie d’un fort soutien gouvernemental, renforçant sa résilience face aux tentatives de « sabotage » logistique. Une telle dynamique met en lumière les défis auxquels l’activisme est confronté dans ses modes opératoires. Il ne s’agit pas seulement de s’en prendre, de temps à autre, à une chaîne logistique, mais de remettre fondamentalement en question un système enraciné, soutenu par de puissants intérêts et lobbys. Nul doute que nous sommes encore loin du compte.
Gilles Paché ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
24.11.2024 à 15:33
Dan Denis, Lecturer in Psychology, University of York
On dit qu’une bonne nuit de sommeil aide à voir les choses plus clairement. Cette affirmation est-elle justifiée, et pourquoi ? Et une sieste, ça compte ?
John Steinbeck, auteur américain connu notamment pour son roman « Les raisins de la colère », a dit : « Il est fréquent qu’un problème que l’on trouve ardu le soir se trouve résolu le matin, après que la commission du sommeil ait travaillé dessus. » Et Steinbeck n’est pas le seul à penser avoir fait de grands progrès pendant son sommeil – c’est aussi le cas d’Einstein et Mendeleïev par exemple.
Des études récentes sur la science du sommeil semblent étayer ces affirmations.
Une étude de 2024 suggère par exemple que le sommeil peut nous aider à prendre des décisions plus rationnelles et plus éclairées, et éviter l’influence de premières impressions trompeuses. Pour le démontrer, des chercheurs de l’université de Duke, aux États-Unis, ont demandé à des participants de prendre part à un jeu de vide-grenier. Au cours de l’expérience, les participants ont fouillé dans des boîtes virtuelles pleines d’objets à vendre, la plupart sans grande valeur, avec quelques trésors. Après avoir fouillé dans plusieurs boîtes, les participants étaient invités à choisir leur boîte préférée et à gagner une récompense en espèces équivalente à la valeur des objets qu’elle contenait.
Lorsque les participants devaient choisir une boîte immédiatement, ils avaient tendance à juger les boîtes non pas en fonction de l’ensemble de leur contenu, mais plutôt en fonction des premiers objets qu’ils y découvraient. En d’autres termes, ces participants ont été excessivement influencés par les premières informations reçues, et peinent à prendre en compte les informations ultérieures dans leur décision.
Les participants qui pouvaient prendre leur décision le lendemain après avoir dormi ont fait des choix plus rationnels, et l’ordre dans lequel ils ont découvert les objets dans la boîte n’a pas semblé influencer leur décision.
Parfois, un problème difficile semble impossible, une véritable impasse.
Une étude réalisée en 2019 a montré que l’on peut aider des participants à résoudre un problème difficile le lendemain de leur premier essai, en leur faisant écouter pendant leur sommeil des sons liés à ce problème non résolu.
Dans cette expérience, les participants devaient résoudre une série d’énigmes. Pendant la résolution de chaque énigme, un son unique était diffusé en arrière-plan. À la fin de la session de test, les chercheurs ont rassemblé toutes les énigmes qui n’avaient pas été résolues ; puis, les sons associés à certaines des énigmes non résolues ont été diffusés pendant le sommeil de certains des participants.
Le lendemain matin, les participants sont revenus au laboratoire et ont essayé de résoudre les énigmes qu’ils n’avaient pas réussi à résoudre la veille. Le taux de résolution s’est avéré plus élevé pour les énigmes dont les sons avaient été diffusés pendant la nuit, ce qui suggère que les sons ont incité le cerveau endormi à travailler sur la solution de l’énigme en question.
L’une des façons dont le sommeil peut nous aider à résoudre des problèmes est de lever le voile sur des relations entre les objets et/ou les événements. Une étude publiée en 2023 a testé cette idée.
Les chercheurs ont demandé à des participants d’apprendre des associations entre quatre éléments différents (un animal, un lieu, un objet et un aliment), liés à un événement que les chercheurs leur ont décrit. Certaines associations étaient évidentes, par exemple, l’élément A était directement associé à l’élément B. D’autres associations étaient indirectes : par exemple, l’élément D n’était jamais directement associé aux éléments A ou C.
L’équipe de recherche a constaté que les participants étaient plus susceptibles de découvrir les associations indirectes (ils ont découvert le lien subtil entre l’élément A et l’élément D) après une nuit de sommeil que s’ils étaient restés éveillés. Cela suggère que le sommeil a permis aux participants de mieux comprendre la structure sous-jacente de l’événement.
Thomas Edison, qui a contribué à l’invention de l’ampoule électrique, faisait souvent des siestes pendant la journée pour stimuler sa créativité, même s’il affirmait ne pas dormir plus de quatre heures par nuit.
Lorsqu’Edison faisait ses siestes, il s’endormait avec une balle dans la main. En s’endormant, sa main se détendait, la balle tombait au sol et le bruit réveillait Edison en sursaut. Lui et d’autres penseurs célèbres, dont Salvador Dali, ont affirmé que c’était précisément cet état de transition, le moment entre l’éveil et le sommeil, qui alimentait leur créativité.
En 2021, des scientifiques français ont mis à l’épreuve l’affirmation d’Edison. Ils ont demandé à des participants d’essayer de résoudre un problème de mathématiques. Le problème comportait une règle cachée, dont la connaissance aurait permis aux participants de résoudre le problème beaucoup plus rapidement.
Après avoir travaillé sur le problème, les participants se sont endormis comme Edison, avec dans la main une tasse qui tomberait en cas d’endormissement. Puis les participants ont été testés à nouveau sur le problème de mathématiques. Les chercheurs ont constaté que les participants qui avaient atteint un stade de sommeil léger étaient plus susceptibles de découvrir la règle cachée que ceux qui étaient restés éveillés, ou même que ceux qui étaient entrés dans des phases de sommeil plus profond tout en tenant le gobelet !
Lors de cette transition entre veille et sommeil, de nombreux participants ont fait état d’hypnagogie, un état de semi-conscience lors de l’endormissement qui est souvent peuplé d’images oniriques.
En 2023, un autre groupe de chercheurs a cherché à savoir si les images perçues lors de cette phase d’hypnagogie avaient un lien avec les tâches effectuées par les participants juste avant de s’endormir. Dans ce cas, il s’agissait par exemple d’énumérer toutes les utilisations que l’on pourrait faire d’un arbre, y compris des utilisations alternatives et créatives. Les chercheurs ont constaté que les utilisations proposées étaient plus créatives quand les visualisations des participants lors de l’amorce du sommeil contenaient des arbres, suggérant que la phase d’hypnagogie avait aidé les participants à effectuer la tâche demandée.
Il s’avère donc qu’Edison avait raison : l’endormissement est propice à la créativité. La nuit porte conseil. Et les siestes, aussi.
Dan Denis ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
24.11.2024 à 15:33
François Vannucci, Professeur émérite, chercheur en physique des particules, spécialiste des neutrinos, Université Paris Cité
L’histoire de Louis de Broglie est celle d’un prince devenu physicien, dont les travaux sur la nature de l’électron ont marqué l’histoire et contribué au développement de la mécanique quantique.
Il y a 100 ans, le 25 novembre 1924, le prince Louis Victor de Broglie (1892-1987), âgé de 32 ans, défendait sa thèse de doctorat en physique devant un jury comprenant Paul Langevin et Jean Perrin. Il y exposait sa théorie de la dualité onde-particule appliquée aux électrons.
Cinq ans plus tard, il recevra, à seulement 37 ans, le Prix Nobel de Physique pour sa « découverte de la nature ondulatoire de l’électron ».
Il sera élu en 1933 membre de l’Académie des sciences, puis en 1944 à l’Académie française, où il est accueilli par son propre frère Maurice. En 1960, Louis héritera du titre de duc à la mort de ce frère aîné. Quel fascinant parcours !
Le monde de l’infiniment petit, celui des particules élémentaires, met en jeu des lois très éloignées de celles qui s’appliquent au monde ordinaire, en premier lieu la loi de gravitation strictement déterministe. Le comportement des particules est régi par une mécanique dite « quantique », qui a la particularité de ne prédire que des probabilités de réalisation d’un phénomène. On sait calculer précisément la trajectoire de la pierre qui tombe, cela n’est plus vrai pour une particule.
La nature de la lumière avait été débattue depuis le XVIIe siècle entre la vision granulaire de Newton et celle ondulatoire de Huyghens. Au XIXe siècle, avec les équations de Maxwell, la messe semblait dite et la nature ondulatoire de la lumière avérée.
Mais en 1905, Einstein changea la donne en interprétant l’« effet photoélectrique », dans lequel une plaque métallique illuminée peut produire de l’électricité seulement si la lumière qu’il reçoit possède une fréquence suffisante. Pour expliquer ce phénomène, Einstein imagina la lumière composée d’un flux d’objets élémentaires qu’il appelle photons : l’effet s’interprétait comme une collision entre les électrons du métal et les photons de la lumière incidente. Une énergie minimum est nécessaire pour arracher les électrons de la plaque, ce que permettent les photons bleus, plus énergétiques que les photons rouges.
Cela rejoignait l’idée émise par Planck en 1900, qui, pour expliquer le rayonnement du corps noir, c’est-à-dire une cavité chauffée emplie de gaz, émit l’hypothèse que les échanges d’énergie se font par petites quantités bien déterminées qu’il appelle « quanta » (c’est-à-dire grains élémentaires), dont l’énergie vérifie la formule dite de Planck E = hf où E désigne l’énergie et f la fréquence et donc la couleur (h est un paramètre physique minuscule appelé constante de Planck).
À partir de cette spéculation de Max Planck, Niels Bohr conçut le modèle planétaire de l’atome, où les électrons tournent autour du noyau sur des orbites d’énergies fixes, comme les planètes autour du soleil.
Avec l’interprétation d’Einstein de l’effet photoélectrique, la « quantification de la lumière » (c’est-à-dire que la lumière est composée de « grains élémentaires », des particules) revenait avec force.
Alors, la lumière est-elle une onde ou un flux de particules ? Les deux, est la surprenante réponse. C’est la fameuse dualité onde-particule qui admet deux facettes de la réalité : la lumière interagit sous forme de photons (des particules), mais elle se propage sous forme d’onde.
À lire aussi : L’étude de la lumière : une aventure qui a chamboulé notre représentation du monde
Cela amène à des conséquences qui peuvent choquer le bon sens, remettant en cause le déterminisme. En particulier, Werner Heisenberg écrivit ses relations d’incertitude qui nous enseignent qu’il est impossible de connaître précisément à la fois la position et la vitesse d’une particule.
L’apport de Broglie est d’avoir démontré que les électrons peuvent eux aussi se comporter comme une onde. Il étendit donc l’idée de dualité onde-particule au-delà du photon, proposant une symétrie entre toutes les particules. Cette symétrie n’était pas évidente car il y a une grande différence entre un photon de masse nulle et un électron de masse bien définie. La masse nulle du photon l’oblige à toujours se déplacer à la vitesse c = 300000 kilomètres par seconde. Pour le photon, la relation de quantification de Planck s’écrit E = hf. De Broglie généralise au cas d’une particule massive et propose que la longueur d’onde λ d’une particule de masse m voyageant à la vitesse v soit donnée par la formule : λ = h/mv.
Notons que cette longueur d’onde est infinitésimale pour un objet macroscopique : une balle de 200 grammes, animée d’une vitesse de 15 mètres par seconde, correspond à une longueur d’onde de 2 10-34 mètres (soit trente-trois 0 puis un 1 après la virgule) ! Mais pour un électron accéléré par une tension de 100 V, la longueur d’onde devient 10-10 mètres, c’est l’espacement entre des atomes dans un cristal et c’est donc en envoyant un faisceau d’électrons à travers un cristal qu’on peut espérer détecter un effet « d’onde d’électrons ». Davisson et Germer firent l’expérience correspondante et observèrent en 1927 des images d’interférences et de diffractions à partir d’électrons, comme on en observe avec des rayons X, validant ainsi l’hypothèse de Broglie.
Les électrons de l’atome tournent autour du noyau selon des orbites « quantifiées » c’est-à-dire d’énergies fixes, et dans sa thèse, de Broglie expliquait cette propriété à partir du caractère ondulatoire de l’électron. Un raisonnement géométrique simple était développé : les électrons orbitent autour du noyau de l’atome selon des ondes stationnaires.
Quand la corde d’un violon est attaquée par l’archet, de nombreuses ondes sont engendrées, mais seules subsistent celles ayant des nœuds aux extrémités, ce sont les « modes résonnants » qui donnent les notes musicales. Par analogie, de Broglie imagine les électrons se déplaçant sur des cercles autour du noyau, les orbites doivent alors correspondre à des ondes stationnaires circulaires qui se referment sur elles-mêmes, comme la corde de violon dont les extrémités se toucheraient.
Ainsi, pour une orbite de rayon R, la circonférence doit être un multiple de la longueur d’onde associée à l’électron, ce qui donne la relation : 2πR = nλ, n étant un entier prenant des valeurs 1,2,3… selon les différentes orbites.
Avec λ = h/mv, on obtient la condition d’une orbite stable : mvR = nh/2π. C’est ce qu’avait postulé Bohr. La dualité onde-particule explique donc bien la structure planétaire de l’atome. En pratique, le modèle est bien vérifié pour un atome ayant un électron, c’est-à-dire le cas de l’hydrogène, mais il est déficient pour un cas plus compliqué.
Il faudra imaginer une théorie totalement nouvelle, la mécanique quantique, développée avec force en particulier à Copenhague par Niels Bohr et ses élèves pour comprendre la structure atomique, et alors la vision de la réalité devint beaucoup plus complexe : les orbites ne sont plus des cercles définis mais des nuages d’électrons dont la probabilité de présence en chaque point de l’espace est donnée par une « fonction d’onde » qui vérifie l’équation d’évolution de Schrödinger.
À lire aussi : Les débuts de la physique quantique, ou comment admettre élégamment que l'on a tort
Aujourd’hui, la théorie ondulatoire de Broglie semble une ébauche à côté de la mécanique quantique qui signe une véritable révolution de la pensée. De Broglie restait dans le cadre ancien (quoi de plus classique qu’une corde ?). Il ne participa pas vraiment aux développements quantiques.
Déjà au Congrès Solvay, organisé en octobre 1927 sur le thème « Électrons et photons » à l’Institut de physique Solvay dans le parc Léopold de Bruxelles, de Broglie se retrouve au milieu des ténors de la mécanique quantique venus en force autour de leur pape, Niels Bohr. Ehrenfest, Schrödinger, Pauli, Heisenberg, Debye, Bragg, Kramers, Dirac, Compton, Born, Planck, Lorentz, sont présents — tous ou presque déjà ou bientôt Prix Nobel.
La mécanique quantique révéla des aspects de la réalité très surprenante : l’antimatière existe, la réalité n’est plus déterministe mais probabiliste, l’état d’un système n’est plus décrit par des positions et des vitesses mais par des fonctions d’onde, le hasard est une propriété intrinsèque de la matière…
Comme Einstein qui passa les dernières années de sa vie dans son repaire de Princeton, refusait le nouveau concept de réalité donné par la mécanique quantique et chercha en vain le Graal d’une « théorie du champ unifié » espérant relier l’électrodynamique à la gravitation, de Broglie tenta de prolonger ses idées de mécanique ondulatoire en une « thermodynamique cachée des particules » (Comptes rendus de l’Académie des sciences, 1963) qui ne déboucha sur rien de concret. Ses dernières années furent malheureuses. Perdant la mémoire, il vécut totalement dépendant et il mourut oublié du public et de ses collègues.
Quand on possède un glorieux pédigrée héraldique comme Louis de Broglie, il est difficile de sortir du rang et s’affirmer personnellement, un duc n’est qu’un numéro presque anonyme dans une suite de successions. Il faut devenir, à l’exemple de l’électron, un être dual et s’affranchir de son milieu pour s’illustrer individuellement. Proust, qui connaissait bien le monde de l’aristocratie, fait dans son œuvre maîtresse une allusion à un prince qui transcende son milieu d’origine en devenant docteur en physique (ou fameux politicien). Je ne peux m’empêcher de penser qu’il avait en tête le prince et physicien Louis de Broglie, dont il devait connaître la famille, à moins que ce ne soit le frère Maurice, lui aussi physicien. Ainsi la formule λ=h/mv a probablement fait entrer notre prince dans le casting de À la Recherche du temps perdu, ce qui, pour certains, est une reconnaissance aussi notoire que celle venant du comité Nobel.
François Vannucci ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
24.11.2024 à 15:32
Faustine Vallet-Giannini, Doctorante en sciences de l'éducation (IREDU), Université de Bourgogne
La réforme du bac initiée en 2018 devait casser la hiérarchie entre les spécialisations littéraires, économiques ou scientifiques et faciliter la transition entre le lycée et l’université. Les résultats sur le terrain sont-ils à la hauteur de ces attentes ? Les premiers résultats d’une thèse nous montrent que certains clivages persistent et que les choix faits en fin de seconde restent déterminants.
En finir avec la hiérarchie des filières au lycée, c’était l’un des objectifs de la réforme du baccalauréat lancée en 2018 et qui avait effectivement supprimé les séries générales mises en place depuis 1995 : le baccalauréat scientifique (dit « bac S »), le baccalauréat économique et social (« bac ES ») et le baccalauréat littéraire (« bac L »).
Les premiers lauréats de l’examen dans sa forme nouvelle ont été diplômés en 2021. Désormais, le cursus en classes de première et terminale se divise entre un socle commun et un système de combinaison d’enseignements de spécialité (EDS). Chaque lycéen doit en choisir trois à suivre en classe de première, dont deux sont conservés en terminale. Ces enseignements constituent les matières les plus importantes du nouveau bac, autant du point de vue des volumes horaires que des coefficients, et reflètent le profil disciplinaire des bacheliers.
Une thèse de doctorat autour des effets de cette réforme nous apporte de premiers résultats. Préparée à l’Institut de Recherche sur l’Éducation (IREDU), elle s’appuie sur un échantillon de 15 000 lycéens ayant obtenu leur baccalauréat général en 2022. L’objectif est d’analyser si le nouveau baccalauréat permet une moindre hiérarchisation des filières et, en cela, de moindres inégalités sociales d’orientation.
Ceci permet également de comprendre comment la structuration et l’obtention du bac peuvent influencer les vœux d’orientation sur Parcoursup, puis la réussite en première année d’études universitaires.
L’introduction de ce nouveau système de spécialités devait d’abord permettre de remédier au manque d’articulation entre l’enseignement secondaire et l’enseignement supérieur. D’après le rapport Mathiot à l’origine de la réforme, le lien entre les apprentissages suivis au lycée et ceux qui sont développés dans les études supérieures choisies était insuffisant.
En effet, dans le cas des anciennes séries du bac général, le choix des lycéens n’était pas tant un choix disciplinaire en cohérence avec leurs inspirations de poursuites d’études (près de 40 % des bacheliers scientifiques s’orientaient dans des filières post-bac non scientifiques) qu’un choix lié au prestige de la série, avec une hiérarchie allant de la « voie royale » du bac S au plus impopulaire bac L.
[Déjà plus de 120 000 abonnements aux newsletters The Conversation. Et vous ? Abonnez-vous aujourd’hui pour mieux comprendre les grands enjeux du monde.]
Or, il a été constaté une forme de spécialisation sociale du bac scientifique, avec une surreprésentation de garçons et d’élèves d’origine sociale favorisée. Cette stratification se poursuivait, de plus, dans l’enseignement supérieur : le bac S offrait non seulement plus d’opportunités que les autres séries, en particulier par rapport au bac L, mais il ouvrait également les portes des formations les plus sélectives et prestigieuses, telles que les classes préparatoires aux grandes écoles (CPGE).
En théorie, les lycéens font désormais leur choix d’enseignements de spécialité parmi treize possibilités, d’où 286 combinaisons possibles en première et 78 en terminale. Bien que tous les enseignements de spécialité ne soient pas proposés dans chaque lycée, la réforme permet une plus grande ouverture disciplinaire et une importante diversification des parcours par rapport aux trois anciennes séries du bac général.
Ainsi, il est observé une multiplication des combinaisons transdisciplinaires, qui est un pur produit de la réforme, comme par l’exemple la doublette « SES–SVT », qui se positionne parmi les dix combinaisons les plus fréquentes en terminale. Au sein de notre échantillon, ce type de profils qui associe une spécialité scientifique avec une spécialité littéraire ou en sciences humaines et sociales (SHS) représente 14 % des lycéens.
Parmi les profils scientifiques, il se distingue deux grandes spécialisations : d’une part, un profil orienté « santé » (avec la doublette « Physique-Chimie — SVT »), et d’autre part, un profil centré autour des mathématiques (l’EDS mathématiques avec un autre EDS scientifique). Ils représentent respectivement 25 % et 21 % des lycéens de l’échantillon.
À titre de comparaison, les profils littéraires, c’est-à-dire les lycéens n’ayant choisi aucun EDS ou option scientifique, comptent pour 30 % des effectifs — le double de la part que représentait les bacheliers littéraires avant la réforme. Les 10 % restants concernent les profils combinant un EDS littéraire ou en SHS, et l’EDS mathématiques, de façon similaire à l’ancien bac ES.
Pour autant, les données de la thèse révèlent que la diversité des combinaisons de spécialité n’empêche pas une reproduction des inégalités sociales de choix d’orientation. Les profils scientifiques demeurent l’apanage des garçons, des lycéens issus d’un milieu aisé et des (très) bons élèves. À l’inverse, les profils littéraires concernent plus souvent les filles, les élèves rencontrant des difficultés scolaires et ceux issus d’un milieu populaire.
À lire aussi : Choisir une filière scientifique : l’importance des « role models » pour les lycéennes
Les EDS scientifiques sont également davantage mobilisés par les élèves scolarisés dans des lycées où la composition sociale est favorisée et le taux de mention global au baccalauréat élevé. Cet aspect peut s’expliquer en partie par le fait que les lycées au public favorisé accompagnent davantage leurs élèves dans leur choix d’orientation, et en cela, peuvent pousser leurs élèves à se tourner vers les enseignements les plus favorables à une orientation post-bac.
Au-delà d’une dualité scientifique et littéraire, la réforme a surtout accentué les inégalités genrées, sociales et scolaires dans l’apprentissage des mathématiques, en faveur, à nouveau, des garçons, des meilleurs élèves et des lycéens de milieu favorisé.
Depuis l’introduction de Parcoursup, toutes les formations sont invitées à classer l’ensemble des candidatures reçues. Ce classement repose sur des critères de sélection, variables d’une formation à une autre. Aujourd’hui, tout l’enjeu est de savoir dans quelle mesure le choix d’enseignement de spécialité conditionne l’accès aux études supérieures.
Ainsi, si les bacheliers scientifiques s’orientent moins qu’avant la réforme vers des formations non scientifiques, les mathématiques, plus spécifiquement, sont devenues un prérequis primordial pour de nombreuses formations, y compris non scientifiques.
À lire aussi : Les jeunesses rurales face aux études supérieures : au-delà du déterminisme territorial, le milieu social et le genre
Par ailleurs, les bacheliers scientifiques de l’ancien baccalauréat ont longtemps bénéficié des meilleures chances de réussite dans l’enseignement supérieur. De premiers résultats montrent que cette tendance demeure avec les nouveaux profils scientifiques, et qu’à l’inverse, les profils littéraires ont des chances de réussite inférieures aux autres. Ceci s’expliquerait en particulier par l’absence d’un enseignement en mathématiques suivi au lycée.
Finalement, les choix faits par les lycéens en fin de seconde semblent encore plus déterminants depuis la réforme. Les enseignements de spécialité suivis conditionnent en effet la poursuite d’études et les chances de réussite des lycéens dans l’enseignement supérieur. Dès lors, l’accompagnement des élèves dans ce choix par des professionnels de l’orientation scolaire apparaît primordial, afin de lutter contre ces diverses inégalités sociales d’orientation. Or, à ce jour, les moyens mis à la disposition des établissements scolaires semblent encore insuffisants.
Faustine Vallet-Giannini ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
24.11.2024 à 15:32
Christine Abdalla Mikhaeil, Assistant professor in information systems, IÉSEG School of Management
Carin Venter, Directrice académique, filière data management for business, IÉSEG School of Management
Jennifer L. Ziegelmayer, Doctor of philosophy in business administration, IÉSEG School of Management
Months after the UK’s National Crime Agency (NCA) launched a major offensive against the notorious ransomware group LockBit, the cybercriminal gang appears to have resurfaced, continuing to carry out attacks. Despite law enforcement efforts, ransomware groups like LockBit remain resilient, demonstrating the evolving challenge in the fight against cybercrime.
In February 2024, the NCA, in coordination with nine other countries, launched Operation Cronos, a decisive strike on LockBit, a group that emerged around 2019. This cybercrime group had gained infamy for its use of ransomware – a type of malicious software that locks victims’ data and demands a ransom for its release. It operates on a Ransomware-as-a-Service (RaaS) model, where it provides ransomware tools and infrastructure to affiliates who then carry out the attacks. LockBit was also known for a tactic called “double extortion,” threatening not only to keep data locked but also leak sensitive information if the ransom wasn’t paid. Operating through the dark web, the group was built on anonymity and encryption, making it difficult for authorities to track.
Since its emergence, LockBit has become one of the most active ransomware groups, targeting industries like finance, healthcare and critical infrastructure. With an estimated 20-25% share of the ransomware market, LockBit’s attacks have caused billions of dollars in global damages. The group’s financial impact, exceeding $8 billion by some accounts, has drawn comparisons to other notorious ransomware actors like REvil and DarkSide.
But Operation Cronos changed that. The NCA’s operation infiltrated and disrupted Lockbit’s criminal infrastructure, seizing control of their computing systems and even repurposing their dark web leak site – a publicly accessible website where cybercriminal groups publish stolen data. Operation Cronos marked a bold new approach to combating cybercrime, proving to criminals that law enforcement agencies were ready to go on the offensive.
In May 2024, global law enforcement agencies launched Operation Endgame, a coordinated strike aimed at dismantling the infrastructure used by multiple cybercrime groups. While similar in its objectives to Operation Cronos, which focused on LockBit, Endgame had a broader scope: it targeted the malware infrastructures used by various ransomware and data-stealing groups, including those that likely collaborated with LockBit.
Malware, a type of software designed to infiltrate digital devices, is often used by cybercriminals to steal information or take control of systems. One particularly dangerous form of malware creates networks of infected computers, known as botnets, which can be remotely controlled without the owners’ knowledge. These botnets are used for a range of criminal activities, from sending spam and stealing data to launching distributed denial-of-service (DDoS) attacks – overwhelming a system with fake requests so that it can’t process legitimate ones.
Operation Endgame specifically dismantled the infrastructure of “droppers” and “loaders” – programs used to stealthily install malware onto victims’ systems. The operation marked another significant step in the global fight against cybercrime, highlighting the importance of international collaboration in taking down not only individual criminals but the tools and networks that enable them.
Endgame’s successes were notable: it disrupted over 100 infected servers and seized more than 2,000 domain names used to host malicious software, dealing a major blow to botnet networks that had caused hundreds of millions of dollars in damages worldwide.
The back-to-back operations, Cronos and Endgame, marked a pivotal shift in global cybersecurity tactics, directly targeting the rise of cybercrime-as-a-service (CaaS). CaaS enables anyone, regardless of technical skill, to buy or lease tools and services to carry out cyberattacks. This model has lowered the barrier to entry for cybercrime, making it easier for individuals or groups to launch sophisticated attacks. LockBit is a prime example: the group provides the infrastructure while affiliates execute the attacks, with affiliates getting the majority of the ransom and LockBit claiming a cut for providing the tools. Cronos and Endgame underscored the increasing collaboration between law enforcement agencies across the globe, signalling a united front against the growing cybercrime threat.
Despite these victories, LockBit’s return underscores a key challenge – cybercriminals are constantly adapting. The group’s re-emergence raises concerns about whether organisations are adequately prepared for future attacks. Many still lack essential cybersecurity measures, leaving them vulnerable to increasingly sophisticated ransomware groups.
As LockBit reasserts its influence, new ransomware groups are also gaining prominence. Analysts have identified at least 10 emerging ransomware actors in 2024, including Play Ransomware, RansomHub and Akira, all of which have adopted tactics similar to LockBit’s. Play Ransomware has been a persistent and growing threat, known for its large-scale attacks on municipalities and critical infrastructure. In 2024, it continued to execute high-profile breaches, including an attack on Swiss government vendors. RansomHub has rapidly gained prominence in 2024, with its highly attractive affiliate program offering up to a 90% commission for attackers. RansomHub has targeted over 100 organisations globally, particularly focusing on business services and smaller companies that may be more vulnerable. Akira has gained notoriety for its successful double-extortion attacks, focusing on industries like healthcare, education and technology.
These groups, along with others like Medusa and IncRansom, are part of a dynamic ransomware ecosystem where new groups emerge while established ones like LockBit struggle to maintain dominance. Despite a brief drop in ransomware incidents from mid-2023 to 2024, there was a 20% uptick between the first and second quarters of 2024.
Operations Cronos and Endgame mark a turning point in the fight against cybercrime, shifting law enforcement’s focus from targeting individual hackers to dismantling the infrastructure that powers these attacks. These efforts showed a new approach, going after the servers, networks, and tools that ransomware and malware groups rely on rather than just chasing high-profile criminals.
The operations also underscored unprecedented levels of international cooperation, with agencies like Europol, the FBI and Interpol working together for global takedowns across multiple jurisdictions – a feat previously hampered by legal and political challenges. This cross-border teamwork enabled simultaneous strikes on cybercrime networks, hitting them where it hurts the most: their operational backbone.
The operations also highlighted how far law enforcement has come in understanding the technical vulnerabilities of cybercrime infrastructure. Instead of waiting for attacks to happen, agencies exploited flaws in the cybercriminals’ systems, delivering decisive blows that crippled their ability to operate.
These operations signal a global push to crack down on cybercrime and the growing power of international law enforcement working together. But LockBit’s quick comeback is a stark reminder that the fight is far from over. As cyberthreats get more sophisticated, so must the tactics to stop them. While Cronos and Endgame were key wins, they also emphasise the need for even more global coordination. One recent effort is the UN’s first treaty aimed at creating universal laws and protocols for investigations. Beyond legal measures, the real battle is technical – governments, tech companies and civil groups must work together to not only hack the hackers but also slow down their ability to rebuild.
Law enforcement is also turning to psychological operations (psyops) to disrupt cybercrime. By taking over dark web forums and ransomware leak sites, it is undermining the criminals’ credibility and creating paranoia within these networks. Cryptocurrency, the backbone of ransomware payments, is another focus. Authorities are increasingly freezing accounts linked to cybercriminals, cutting off their financial lifelines.
The message is clear: law enforcement must stay ahead of fast-evolving threats, and organisations need to ramp up their defences. The battle against cybercrime is ongoing, and it’s going to take both relentless vigilance and smart, coordinated strategies to win.
Christine Abdalla Mikhaeil is a member of the Association for Information Systems (AIS).
Carin Venter est membre de Association for Information Systems (AIS).
Jennifer L. Ziegelmayer is a member of the Association for Information Systems (AIS) and the Decision Sciences Institute (DSI).
24.11.2024 à 15:32
Thomas Misslin, Doctorant, Sciences de Gestion, Dauphine-PSL - Chef de projet, Executive Education, EM Lyon Business School
L’armée allemande est un exemple peu connu d’organisation apprenante et pourtant. Les victoires militaires de l’armée du Kaiser et les suivantes s’expliquent aussi par une sorte de management moderne, où, par exemple, la notion de retour d’expériences est déjà présente.
En matière d’apprentissage organisationnel – défini comme la capacité collective de réfléchir sur l’expérience pour modifier les stratégies d’action au service d’objectifs partagés – il est fréquent de commencer par les moyens d’apprendre (les concepts, les principes, les outils et les pratiques) pour s’intéresser alors à sa contribution éventuelle à la performance de l’organisation. Parfois même, le lien de causalité est considéré comme un postulat de départ non questionné. Pourtant, au niveau de l’organisation, le lien empirique entre apprentissage et performance reste à démontrer de manière convaincante.
En adoptant l’approche inverse, on commence par identifier une organisation dont la performance est démontrée pour mettre ensuite en exergue des éléments observables liés à l’apprentissage qui sont considérés par les acteurs eux-mêmes comme à la source de cette performance. Et si on identifie une organisation perçue par ses pairs et ses concurrents comme sans égal, on peut s’attendre à trouver en son sein une architecture d’apprentissage organisationnel pensée, déployée et constamment affûtée. Testons cette hypothèse avec l’armée prussienne devenue l’armée allemande de la période impériale jusqu’en 1945.
Ainsi, exempt de portée politique, cet article est illustratif de pratiques de développement de capacités sans lien avec le contexte idéologique ou social des périodes historiques concernées. Le postulat est qu’une organisation, dont on réprouve sans condition les idées ou intérêts qu’elle a servis, peut être un objet de recherche dépassionné et une source d’approfondissement académique.
Il est peu de notions plus sûres dans l’histoire moderne que celle de l’excellence militaire allemande. Et cette conviction est largement partagée par les historiens, comme Max Hastings (« Pendant de nombreuses années après 1945, la reconnaissance de la [supériorité militaire allemande] était trop douloureuse pour être partagée publiquement ») ; par les praticiens, comme le Field Marshal anglais Harold Alexander (« L’ennemi était plus rapide […] en attaque, en défense […], dans les remplacements […], pour monter des attaques et des contre-attaques et, par-dessus tout, plus rapide à décider sur le champ de bataille ») ; par les praticiens-analystes comme le colonel Trevor Dupuy pour qui le soldat allemand infligeait 50 % de plus de pertes à ses opposants et ce en toutes circonstances (en attaque ou en défense, en état de supériorité ou d’infériorité, avec ou sans le soutien aérien, en cas de victoire ou de défaite) ; ou encore pour les chercheurs, comme le théoricien israélien Martin van Creveld qui conclut son ouvrage de performance militaire comparée par un lapidaire :
« L’armée allemande était une organisation combattante exceptionnelle. Sur le plan du moral, de l’initiative, de la cohésion et de la résilience, elle n’avait probablement pas d’égal au sein des armées du XXe siècle. »
Si pour Bismarck, « l’humanité commence au rang de lieutenant », on comprendra, au-delà du bon mot, que la performance de l’armée allemande n’était pas le fait du hasard.
À lire aussi : Retour d’expérience : former les managers grâce au volley-ball
La question est alors de passer du « vouloir être performant » à le devenir réellement. L’exemple allemand montre de manière éloquente que la performance s’apprend. Pour analyser la stratégie de développement de la performance échafaudée par l’armée allemande pour en faire le fondement de sa culture organisationnelle, utilisons une grille de lecture développée par une équipe de chercheurs israéliens, experts de l’apprentissage, notamment en contexte militaire. Phénomène complexe, l’apprentissage organisationnel peut s’observer au travers de trois facettes : culturelle, structurelle et contextuelle.
Les normes comportementales de nature à faciliter l’apprentissage composent le volet culturel du développement collectif de capacités. Dans ce domaine, l’armée allemande était en avance sur son temps, ce qui pourrait être vrai encore aujourd’hui.
Au sein du corps des officiers, en particulier, la culture du débat, la tolérance à l’altérité de points de vue, l’absence de « solution parfaite », la transparence dans les échanges, le courage et l’intégrité de partager toute l’information, la curiosité pour comprendre les sujets en profondeur, et la responsabilité personnelle d’apprendre constamment et de mettre en pratique les acquis sont exceptionnels. Surtout dans un contexte militaire que l’on imagine aisément hiérarchique, étriqué et peu innovant. C’est tout le contraire que le corps des officiers, et l’armée allemande en général, donnent à voir à l’époque.
Cette culture organisationnelle facilitante de l’apprentissage collectif s’appuie sur deux leviers clés : la confiance interpersonnelle (fondée sur une sélection rigoureuse et une socialisation intense) et l’obsession de la performance, du travail bien fait. C’est cette culture qui permet à l’armée allemande de constamment apprendre de ses erreurs et de développer sa performance superlative.
Les procédures et processus par lesquels une organisation collecte, analyse, codifie, partage et dissémine toute information facilitant l’atteinte des objectifs de l’organisation constituent la facette structurelle de l’apprentissage organisationnel. On distingue la temporalité, à savoir s’entraîner sans relâche avant l’action et apprendre sans fard de l’expérience après l’action.
L’armée allemande a inventé, par exemple, la simulation intensive de combat pour entraîner ses officiers à la prise de décision en incertitude. Au travers de jeu de plateaux (Kriegsspiel) ou de galops d’essai annuels sur le terrain, l’entraînement en situation permet de développer les réflexes, d’identifier des points d’amélioration, de faire émerger de nouvelles tactiques et de transmettre les bonnes pratiques. L’entraînement des soldats s’effectue en conditions réelles, une philosophie « train as you fight » que les Américains reprendront après-guerre.
Après l’action, le retour d’expérience systématique (Erfahrungsberichte) analyse les décisions et les conséquences à tous les niveaux hiérarchiques pour réinjecter dans le système les leçons identifiées ou les hypothèses émergentes.
De même, à l’issue de la Grande Guerre, le chef d’État-Major von Seeckt lance un effort de retour d’expérience sans précédent pour comprendre la défaite militaire : 500 officiers sont mobilisés autour de 57 points (traversée de rivière, moral des troupes, justice militaire…) en répondant à quatre questions : Quelles situations apparues pendant la guerre n’avaient pas été envisagées ? Dans quelle mesure les conceptions d’avant-guerre étaient-elles efficaces pour faire face aux situations susmentionnées ? Quelles lignes directrices ont été élaborées dans l’emploi de nouvelles armes pendant la guerre ? Quels sont les problèmes posés par la guerre qui n’ont pas encore trouvé de solution ?
Si plusieurs éléments constituent cette facette contextuelle de l’apprentissage organisationnel, et en facilitent le développement, comme la criticité de l’erreur (perdre une bataille n’a rien de comparable à manquer ses objectifs trimestriels) ou la structure même du métier, deux caractéristiques se détachent nettement dans le contexte militaire allemand : le rapport à l’environnement et le leadership.
Dès Clausewitz et son Vom Krieg (1832), et plus encore avec Helmuth von Moltke, l’emblématique chef de l’État-Major prussien de 1857 à 1888, la conception de l’environnement par l’armée allemande est simple : le champ de bataille est par nature imprévisible et complexe, et il est vain de pratiquer le réductionnisme pour se convaincre qu’il est possible de le mettre en équation. Le choix est donc fait d’identifier, de sélectionner, de former et de faciliter la promotion d’artistes de la guerre et non d’exécutants ; en clair, des officiers et sous-officiers qui, au contact du terrain, vont s’adapter, prendre des risques, apprendre, innover, surprendre l’ennemi et vaincre.
Le leadership au sein de l’armée allemande, c’est-à-dire la capacité à créer les conditions dans lesquelles les soldats seront préparés, compétents, motivés, créatifs, autonomes dans la pensée et proactifs dans l’action, est considéré comme une valeur cardinale à tous les échelons. Dans la plupart des conflits dans lesquels l’Allemagne sera impliquée entre 1864 et 1945, l’armée allemande aura des moyens matériels et un accès aux matières premières inférieurs à ses ennemis ; mais le leadership, centré sur la performance collective, le développement de capacités, l’exemplarité, et l’attachement aux soldats, plus que compenseront ces carences pour faire de l’armée allemande une impressionnante organisation apprenante (et performante).
Sans occulter le caractère funeste joué par l’armée d’Allemagne dans l’histoire, les entreprises d’aujourd’hui, jouant des coudes dans un environnement volatil et incertain, ont peut-être matière à trouver inspiration dans la manière avec laquelle les forces armées allemandes ont développé une infrastructure d’apprentissage organisationnel rarement égalée par son exhaustivité et son impact. En connaître les clés peut servir à tous.
Thomas Misslin ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
24.11.2024 à 11:21
Mohammed Qawasma, Doctorant en droit international, Université Paris-Saclay
Ce 21 novembre, la Cour pénale internationale a émis trois mandats d’arrêt dans le cadre de son enquête sur la situation en Palestine, ouverte depuis 2021. Sont visés deux dirigeants israéliens – le premier ministre Benyamin Nétanyahou et l’ex-ministre de la Défense (décembre 2022-novembre 2024) Yoav Gallant –, ainsi que le chef de la branche armée du Hamas, Mohammed Deif, présumé mort depuis juillet dernier. Ces trois personnes sont accusées de crimes de guerre et de crimes contre l’humanité. Les charges retenues sont lourdes, mais le chemin vers des procès devant la Cour de La Haye est encore long et sera semé d’embûches.
Il aura donc fallu six mois, contre trois à six semaines habituellement, pour que les trois juges qui composent la Chambre préliminaire I décident de l’émission de ces trois mandats d’arrêt, à la suite du dépôt le 20 mai dernier de requêtes en ce sens du Bureau du Procureur de la Cour, dirigé par l’avocat britannique Karim Khan.
De toute l’histoire de la Cour (créée par le Statut de Rome en 1998), jamais un délai aussi long n’avait été observé pour l’émission de mandats d’arrêt par les juges de la Cour. Cela s’explique par plusieurs raisons.
Tout d’abord, depuis l’ouverture d’un examen préliminaire par le Bureau du Procureur, alors dirigé par la juriste gambienne Fatou Bensouda, en 2015, puis d’un examen par la même Procureure en 2021, la Cour a fait l’objet – et continue de faire l’objet – de pressions, de menaces et de sanctions sans précédent, instiguées par Israël et certains de ses alliés, au premier rang desquels les États-Unis – rappelons qu’Israël et les États-Unis ne comptent pas parmi les 124 États parties à la Cour.
S’y ajoutent les nombreuses tentatives de certains États parties à la Cour (principalement l’Allemagne et le Royaume-Uni) visant à retarder la procédure. Ces États contestent la compétence de la Cour pour enquêter sur des crimes commis par des citoyens israéliens en Palestine, affirmant qu’au regard des Accords d’Oslo, la Palestine n’a pas de juridiction pénale et ne peut donc demander une enquête pénale de la CPI.
Le 26 septembre dernier, Israël contestait lui aussi la compétence de la Cour vis-à-vis de ses ressortissants. Mais dans la décision du 21 novembre, les juges ont estimé qu’« il n’est pas nécessaire qu’Israël accepte la compétence de la Cour, étant donné que la Cour peut connaître de la question sur la base de sa compétence territoriale vis-à-vis de la Palestine ». En effet, le 1er avril 2015, la Palestine est devenue le 123e État partie à la Cour pénale internationale, après avoir ratifié le Statut de Rome.
La Palestine donnait alors compétence à la Cour pour enquêter sur des crimes commis sur son territoire depuis juin 2014 et relevant du Statut de Rome. C’est sur la base de cette compétence territoriale que l’enquête du Procureur se mène, et c’est sur cette même base que les mandats d’arrêt ont pu être émis.
Les mandats visent trois personnes (la demande déposée par le Bureau du Procureur le 20 mai concernait également les leaders du Hamas Ismaïl Haniyeh et Yahya Sinouar, mais tous deux ont depuis été tués par l’armée israélienne). Le dirigeant de la branche armée du Hamas, Mohammed Deif, est accusé de crimes de guerre et de crimes contre l’humanité (meurtres, prise d’otages, torture, traitements cruels, atteintes à la dignité de la personne…) commis le 7 octobre 2023 et plus tard. Les deux dirigeants israéliens, Benyamin Nétanyahou et Yoav Gallant, sont eux aussi accusés de crimes de guerre et de crimes contre l’humanité dans le cadre de la guerre menée dans la bande de Gaza depuis le 8 octobre 2023. Ils sont accusés de persécution, de meurtres, d’utilisation de la famine comme méthode de guerre, de traitements inhumains, etc. Pour la Cour, les crimes contre l’humanité allégués commis par les deux dirigeants israéliens « s’inscrivent dans le cadre d’une attaque généralisée et systématique lancée contre la population civile de Gaza ».
À lire aussi : Gaza, une catastrophe humanitaire avérée
Si pour le dirigeant du Hamas, présumé mort depuis plusieurs mois, l’émission de ce mandat d’arrêt ne changera pas sa situation – quand bien même il serait toujours en vie, il n’aurait sans doute pas la possibilité de quitter la bande de Gaza et de se rendre officiellement dans un pays étranger –, les conséquences juridiques et politiques sont plus importantes pour les deux responsables israéliens.
L’émission de ces mandats est incontestablement un moment majeur, voire historique, dans l’histoire de la Cour pénale internationale. Pour la première fois, un État qui revendique son caractère démocratique voit ses principaux dirigeants mis en accusation par la juridiction internationale chargée de poursuivre les responsables de crimes internationaux. Ils se retrouvent accusés de crimes internationaux, au même titre que Vladimir Poutine par exemple.
À lire aussi : Mandat d’arrêt de la CPI contre Vladimir Poutine : une victoire pour la justice internationale ?
En se retrouvant sous le coup d’un mandat d’arrêt de la CPI, Nétanyahou et Gallant voient incontestablement leurs déplacements internationaux réduits. En effet, les 124 États parties à la Cour (bientôt 125 avec la future adhésion de l’Ukraine en janvier prochain) ont l’obligation de coopérer avec la juridiction. Cela signifie que si l’un des accusés venait à visiter l’un de ces États, celui-ci aurait l’obligation d’interpeller l’accusé pour le transférer à La Haye, siège de la CPI.
Il est, certes, déjà arrivé que des États parties ne respectent pas leurs obligations à l’égard de la Cour. Par exemple, la Mongolie, membre de la Cour, a reçu Vladimir Poutine en septembre dernier. Pour autant, elle a refusé d’arrêter et de transférer le président russe, obligeant la Chambre préliminaire II de la Cour à conclure que la Mongolie avait manqué à ses obligations ; « compte tenu de la gravité » de ce manquement, elle a renvoyé la question à l’Assemblée des États parties pour l’adoption d’éventuelles sanctions.
Cependant, à la suite de l’annonce de l’émission des mandats d’arrêt du 21 novembre, de nombreux États ont annoncé leur intention de respecter leurs obligations et de coopérer avec la Cour. C’est le cas de la France, du Canada, de l’Italie, des Pays-Bas, de l’Irlande, de la Norvège, etc. Le chef de la diplomatie européenne, Josep Borrell, a affirmé que l’UE respecterait et appliquerait la décision de la Cour, car il ne s’agit « pas d’une décision politique. C’est une décision d’une cour, d’une cour de justice, d’une cour de justice internationale ».
Il faut toutefois être lucide. Il est peu probable que Nétanyahou et Gallant soient demain traduits devant la Cour pénale internationale et qu’un procès ait lieu, aboutissant à leur condamnation. Les dirigeants israéliens ne prendront pas le risque de se déplacer dans un des États parties sans garantie de ne pas être arrêtés. La CPI ne dispose d’aucune force de police ; elle ne peut compter que sur la coopération des États.
Reste que le simple fait que les deux responsables israéliens réduisent considérablement leurs déplacements marque un succès pour la justice internationale, qui parvient à rappeler que la violation du droit international doit avoir des conséquences et que les dirigeants israéliens ne peuvent être une exception à la règle. Les conséquences sont davantage diplomatiques et politiques que juridiques : il est peu probable de voir prochainement le premier ministre actuel et son ancien ministre de la Défense oser se rendre à Paris, Madrid, Dublin ou Oslo.
Si l’émission de ces mandats d’arrêt était nécessaire pour éviter de saper définitivement la crédibilité et la légitimité de la juridiction internationale, et plus largement de l’ordre juridique international, ce tournant majeur ne produira pas d’effets à court terme sur la conduite des opérations militaires israéliennes dans la bande de Gaza.
Selon l’ONU, depuis le 8 octobre 2023 plus de 43 000 Palestiniens ont été tués, plus de 100 000 autres ont été blessés, et des centaines sont portés disparus, probablement morts sous les décombres. La nouvelle étape dans l’avancement de l’enquête en Palestine ne mettra pas fin aux violations systématiques du droit international dont est victime la population palestinienne. Il revient aux acteurs politiques, États et Conseil de sécurité notamment, de s’affirmer en garants de la stabilité, de la paix et de la sécurité internationales. Or, cette semaine encore, le Conseil de sécurité a été incapable d’adopter une résolution exigeant un cessez-le-feu à Gaza, en raison du veto américain. Preuve en est que la justice internationale aura beau tenter de faire appliquer le droit international, sans volonté politique il est peu probable que la guerre au Proche-Orient prenne fin prochainement.
Mohammed Qawasma ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
22.11.2024 à 16:15
Mateo Cordier, Maître de conférences en économie et membre de la Coalition scientifique pou un traité plastique efficace (https://ikhapp.org/scientistscoalition/), Université de Versailles Saint-Quentin-en-Yvelines (UVSQ) – Université Paris-Saclay
Alors que les pays du monde entier s’apprêtent à discuter d’un traité mondial sur le plastique, certains font valoir une crainte : celle du coût économique causé par une réduction possible de la production de plastique. Mais ne rien faire coûterait bien plus cher en nettoyage de la pollution marine, gestion des impacts sur la santé publique et des déchets montre une nouvelle étude.
Acheter une bouteille de Coca-Cola ou une barre de Snickers ne pèse pas lourd sur le portefeuille. Ces produits sont relativement bon marché. Mais que se passerait-il si le coût réel de leur emballage plastique était inclus dans le prix que nous payons à la caisse ? Prenons par exemple le coût de nettoyage de la pollution générée par la fabrication de ce plastique, ou encore celui de la gestion de l’emballage une fois que vous l’avez jeté. Sans oublier les frais médicaux liés aux menaces sanitaires provoquées par les plastiques, ainsi que les dommages infligés à la faune terrestre et marine, et aux écosystèmes tout entiers. Ce ticket de caisse serait longuissime.
Du 25 novembre au 1er décembre 2024, 175 pays se réuniront à Busan, en Corée du Sud, pour la cinquième et dernière session de négociations sur un traité mondial sur les plastiques. Au cœur des débats : la question de savoir si le traité inclura des objectifs contraignants pour réduire la production de plastiques.
Bien que la communauté scientifique s’accorde sur le fait que réduire la production plastique est essentiel pour résoudre les crises climatiques, environnementales et sanitaires qu’elle engendre, certains pays s’inquiètent des impacts potentiels sur leur économie nationale. Mais les travaux de recherche que nous sommes plusieurs à mener en France et dans le monde en économie et en sciences de l’environnement montrent que ces pays devraient s’inquiéter de l’inverse : l’absence de réduction de la production de plastiques pourrait poser une menace économique bien plus grande.
La production effrénée de plastiques engendre une pollution aux impacts croissants, qui entraînera des coûts considérables à mesure que les crises qu’elle suscite se multiplieront. En ce qui concerne la crise climatique, l’industrie plastique est responsable de 5,3 % des émissions mondiales de gaz à effet de serre (chiffres de 2019). Si rien ne change, ces émissions pourraient doubler, voire tripler d’ici 2050.
En matière de crise environnementale, les conséquences sur la biodiversité sont alarmantes. Des microplastiques, issus de la dégradation des déchets plastiques, sont désormais présents (assimilés par ingestion) dans 26 % des poissons marins, un chiffre qui a doublé au cours des dix dernières années. Enfin, la crise sanitaire est déjà là. Dans l’Union européenne, par exemple, au moins 1,8 million de personnes souffrent de maladies liées à l’exposition aux produits chimiques contenus dans les plastiques (chiffres de 2010). Face à ces constats, réduire la production plastique devient une urgence environnementale et sanitaire.
À lire aussi : Traité mondial contre la pollution plastique : en coulisses, le regard des scientifiques français présents
Les coûts liés à la pollution plastique dans le monde sont vertigineux. Dans notre dernière étude, nous avons tâché d’analyser les données existantes pour estimer ces coûts. Nous avons constaté que, dans un scénario d’inaction, la pollution plastique accumulée dans les écosystèmes mondiaux depuis 1950 pourrait coûter entre 13 700 milliards et 281 800 milliards de dollars américains en dommages environnementaux entre 2016 et 2040. À titre de comparaison, cela équivaut à 4 à 93 fois le PIB de la France en 2023, ou à 5 à 113 fois les pertes économiques mondiales causées par la chute du PIB liée à la crise du Covid-19.
Derrière ces sommes faramineuses, on trouve une large gamme de dépenses et de dommages. Premièrement, il y a les coûts de gestion des déchets plastiques : la collecte, le tri, le recyclage et l’élimination des déchets municipaux. Ces coûts, compensés en partie par les revenus tirés de la vente de plastiques recyclés et de l’électricité générée par l’incinération, sont estimés entre 643 milliards et 1 612 milliards de dollars dans le monde entre 2016 et 2040. Ils sont principalement supportés par les municipalités ou les entreprises privées chargées de gérer les déchets ménagers, mais sont en fin de compte payés par les contribuables.
Ensuite, il y a les dommages aux écosystèmes, notamment marins. Des animaux comme les tortues, les poissons, les oiseaux marins et de nombreuses autres espèces subissent des dégâts en ingérant des déchets plastiques. Les coûts de ces dommages écologiques sont estimés entre 1 862 milliards et 268 498 milliards de dollars pour la même période.
La pollution plastique a également des impacts importants sur la santé humaine. Les additifs présents dans les plastiques, tels que les perturbateurs endocriniens, sont liés à de graves problèmes de santé : troubles hormonaux, infertilité, cancer, obésité, diabète et déficiences intellectuelles. Les coûts des maladies liées à ces substances chimiques ont été estimés à 384–403 milliards de dollars par an aux États-Unis, 44 milliards de dollars par an dans l’Union européenne, et 18 milliards de dollars par an au Canada (en prix de 2010). Ajustés à 2021 et cumulés sur la période 2016–2040, ces coûts de santé s’élèvent à 11206–11692 milliards de dollars. Mais ces chiffres sont probablement très sous-estimés, car les coûts annuels augmenteront avec la production croissante de plastiques et la croissance démographique.
En résumé, lorsque nous additionnons ces trois catégories – pollution marine, impacts sur la santé publique et gestion des déchets – le coût total mondial de la pollution plastique pour la période 2016–2040 se situe entre 13 700 milliards et 281 800 milliards de dollars, soit l’équivalent de 548 à 11 272 milliards de dollars par an sur cette période de 25 ans. Ces chiffres montrent l’énorme poids économique de la crise plastique, bien au-delà du prix d’une bouteille de Coca ou d’une barre chocolatée.
Mais ces coûts ne semblent pas pris en compte par les pays qui cherchent à diluer l’ambition du traité en se concentrant uniquement sur la gestion des déchets, négligeant ainsi la racine du problème, à savoir la production de plastiques. Avec une production en augmentation constante, les systèmes de traitement auront de plus en plus de mal à suivre, ce qui entraînera une fuite croissante de plastiques dans la nature. Or si rien ne change, le volume de plastique rejeté dans les écosystèmes pourrait doubler d’ici à 2050 et atteindre 121 millions de tonnes par an (contre 62 millions de tonnes par an en 2020). Si nous ne réduisons pas la production de plastiques, nous continuerons donc à dépenser toujours plus pour nettoyer une pollution qui aurait pu être évitée – comme si nous essayions de vider une baignoire sans fermer le robinet qui l’alimente en eau.
Malheureusement, ces chiffres sont probablement très sous-estimés car nous nous sommes basés sur les données économiques disponibles, qui présentent d’importantes lacunes : elles excluent les coûts sanitaires dans les pays hors Europe, États-Unis et Canada, les dommages aux écosystèmes terrestres, le coût de nettoyage des micro et nanoparticules de plastiques (seuls les macroplastiques peuvent être nettoyés actuellement), ainsi que les frais de nettoyage des plastiques ayant coulé jusque dans les fonds océaniques, pour n’en citer que quelques-uns.
D’autres études montrent également que le coût de la pollution plastique n’est pas partagé équitablement : son coût est dix fois plus élevé dans les pays à faible revenu, bien qu’ils soient peu responsables de la production et de la consommation de plastiques. En outre, les pays du sud seront davantage impactés par la pollution plastique que les pays du nord. Dans le top 15 des pays les plus touchés par la pollution plastique des océans, on retrouve (par ordre décroissant) : la Chine, l’Indonésie, les Philippines, le Vietnam, le Sri Lanka, la Thaïlande, l’Égypte, la Malaisie, le Nigeria et le Bangladesh, l’Afrique du Sud, l’Inde, l’Algérie, la Turquie et le Pakistan.
À l’inverse, seuls quelques pays tirent profit de la production et de la vente de plastiques : 75 % des capacités mondiales de production pétrochimique, essentielle pour fabriquer des plastiques, sont détenues par dix pays seulement. En tête, on retrouve la Chine, suivie des États-Unis, de l’Inde, de la Corée du Sud et de l’Arabie saoudite. Viennent ensuite le Japon, la Russie, l’Iran, l’Allemagne et Taïwan. Les pays riches jouent donc un rôle central dans le commerce mondial des déchets plastiques en exportant une partie de leurs déchets vers des pays en développement pour y être recyclés. Cependant, ce processus ne garantit pas toujours un recyclage effectif, augmentant ainsi les risques de fuite de débris plastiques dans les écosystèmes locaux.
Les principaux importateurs nets de déchets plastiques sont aujourd’hui des pays comme la Chine, la Turquie, le Vietnam, l’Inde et la Malaisie, qui reçoivent des volumes importants en provenance de grandes nations exportatrices telles que le Japon, les États-Unis, l’Allemagne, le Royaume-Uni et la France. Malgré une réduction récente de la part des pays en développement dans ces importations, ils restent les principales destinations des flux mondiaux de déchets plastiques, avec des conséquences environnementales et sociales préoccupantes. Ce commerce met en lumière une inégalité mondiale où les déchets des pays riches alimentent des problèmes de gestion et de pollution dans les pays moins développés.
Si l’on continue de regarder ce que le plastique coûte aux différents pays, il est également important d’avoir en tête que non seulement les pays paient les coûts de la pollution plastique, mais ils financent aussi sa production. Selon un rapport du Fonds monétaire international (FMI), les subventions mondiales aux combustibles fossiles s’élevaient à 7 000 milliards de dollars en 2022, soit 7,1 % du PIB mondial. Or la majorité des plastiques sont fabriqués à partir de pétrole et de gaz naturel. Éliminer les subventions aux plastiques permettrait de récupérer 30 milliards de dollars par an rien que dans les 15 principaux pays producteurs de polymères plastiques.
Loin d’être un frein, réduire la production de plastiques pourrait même être économiquement bénéfique. Nos recherches montrent que les coûts de l’inaction (13 700-281 800 milliards de dollars) pourraient être jusqu’à deux fois plus élevés que ceux des mesures de réduction de la production et de la pollution (18 300-158 400 milliards de dollars). Par ailleurs, une transition bien menée vers une économie post-plastiques, où seuls les plastiques essentiels seraient autorisés, pourrait stimuler la croissance économique en créant des emplois dans le secteur du réemploi et des consignes locales.
Bien que toute transition ait un coût à court terme pour le secteur privé, éviter les dommages environnementaux liés à une production continue de plastiques conduit à un bénéfice net à long terme – et peut-être même à court terme, étant donné l’ampleur sous-estimée des coûts actuels. En d’autres termes, réduire la production de plastiques pourrait non seulement éviter une facture salée, mais aussi stimuler les économies nationales et mondiales. Certains économistes vont même jusqu’à affirmer qu’un plafonnement international de la production serait bénéfique pour l’industrie plastique elle-même.
Dans une économie post-plastiques, seuls les produits plastiques essentiels – comme les tubes de perfusion utilisés dans les hôpitaux, par exemple – resteraient en usage, tandis que d’autres, comme les plastiques à usage unique (bouteilles, sacs, même réutilisables, par exemple), seraient interdits. Des systèmes locaux de consigne pour les articles réutilisables (bouteilles, couverts, gobelets, contenants alimentaires, plateaux, emballages) seraient également mis en place.
Se concentrer sur des solutions locales est essentiel pour éviter les émissions de gaz à effet de serre liées aux transports longue distance. Cependant, cette approche doit être mise à l’échelle mondiale pour un impact écologique maximal, en suivant le principe « penser globalement, agir localement ». Ce changement créerait un secteur entier dédié au réemploi des contenants et des emballages, stimulant une croissance économique bénéfique pour tous sans nuire à la santé humaine ou aux écosystèmes.
Si les dirigeants ne prennent pas des mesures fortes lors des négociations du traité sur les plastiques fin novembre 2024, ce sont les citoyens consommateurs qui en paieront le prix pendant des décennies. Avec un coût de la pollution plastique qui ne cesse d’augmenter, nous ne pouvons plus nous permettre d’attendre.
Cet article est dédié au chercheur en sciences de l’environnement Juan Baztan qui nous a quitté bien trop tôt après une chute accidentelle à Lanzarote, à la fin de la conférence internationale MICRO-2024 sur la pollution plastique. Ses travaux traitaient des impacts des activités humaines sur les écosystèmes marins, notamment la question des débris plastiques dans les océans, et les interactions entre les communautés côtières et la pollution. Il explorait également les approches transdisciplinaires pour promouvoir une relation durable entre les êtres humains et l’océan. L’interface science-société était importante pour lui. Par une approche transdisciplinaire de la recherche, il voulait contribuer à la transformation de la société vers un avenir qui respecte le vivant dans son ensemble. Son travail relevait d’une éthique exigeante sur le plan humain qu’il appliquait à la recherche sur la pollution plastique avec rigueur.
Mateo Cordier a reçu des financements de la JSPS KAKENHI (Société Japonaise pour la Promotion de la Science - Subventions pour la recherche scientifique), numéro de subvention 19KK0271. Site web: https://www.jsps.go.jp/english/e-grants/
22.11.2024 à 13:15
Cyrille Bret, Géopoliticien, Sciences Po
Peu après l’autorisation donnée par Joe Biden à Kiev d’utiliser des armes fournies par les Américains pour frapper en profondeur le territoire russe, Vladimir Poutine a modifié sa doctrine nucléaire, frappé le territoire ukrainien avec un missile balistique vide mais capable d’emporter une charge nucléaire – ce qui est sans précédent – et tenu un discours solennel dans lequel il a ouvertement menacé les alliés de l’Ukraine. Quelle posture faut-il adopter face à cette nouvelle montée des tensions ?
L’apocalypse nucléaire n’est pas pour demain en Europe mais un cran a incontestablement été franchi dans les menaces nucléaires proférées par la Russie. L’adoption d’un nouveau décret sur la doctrine nucléaire le 19 novembre et l’utilisation d’un missile balistique Orechnik le 21 novembre contre l’Ukraine – que Vladimir Poutine a justifiée quelques heures plus tard par la nécessité de répondre à des tirs de missiles ATACMS (d’origine américaine) par les forces armées ukrainiennes contre le territoire russe dans la région de Briansk – exigent une analyse lucide.
Selon les termes du général Schill, chef d’état-major de l’armée de terre française, il s’agit d’un « signalement stratégique » important. Il doit être décrypté comme tel, avec gravité mais sang-froid.
Sommes-nous à la veille d’une attaque nucléaire sur l’Ukraine ? Ou, pour le dire en termes techniques, la Russie a-t-elle abaissé drastiquement le seuil de déclenchement d’un tir nucléaire ?
La menace est crédible car elle provient d’un État qui possède têtes nucléaires et vecteurs en grand nombre, une chaîne de commandement fonctionnelle et une doctrine établie. Kiev et ses soutiens font aujourd’hui face non pas à une attaque nucléaire imminente mais à une mise en garde pressante : toute attaque d’ampleur sur le territoire russe exposera l’Ukraine à des représailles, y compris nucléaires. Écouter et comprendre les déclarations russes n’est pas s’en faire le porte-voix et encore moins l’avocat. C’est une précaution indispensable pour assurer la sécurité des Européens.
Évaluer le risque nucléaire est toujours extrêmement délicat car ce risque comporte tout à la fois un absolu et une gradation.
Son caractère absolu tient au fait que les armes nucléaires ont un potentiel militaire de destruction sans équivalent dans le domaine conventionnel et un poids politique qui confine au tabou depuis leur utilisation par les États-Unis contre le Japon les 6 et 9 août 1945. Risque absolu, mais réalisation graduée : pour produire ses effets, la dissuasion nucléaire exige une doctrine solide, complexe, crédible et en partie publique, comme le rappelle Bruno Tertrais dans Pax Atomica (Odile Jacob, 2024). L’escalade nucléaire est lente, jalonnée et démonstrative.
Avec le nouveau décret sur la doctrine nucléaire adopté le 19 novembre puis le tir assumé contre la ville ukrainienne de Dnipro d’un missile balistique vide mais capable d’emporter une charge nucléaire et la déclaration subséquente de Poutine selon lequel la Russie s’estime en droit de frapper « les installations militaires des pays qui autorisent l’utilisation de leurs armes contre nos installations », Moscou s’est-elle réellement rapprochée de l’utilisation d’armes nucléaires contre l’Ukraine et/ou contre ses soutiens occidentaux ? En déclarant que le conflit en Ukraine prenait une dimension mondiale, Poutine prépare-t-il une Troisième Guerre mondiale inaugurée par une frappe nucléaire ?
Rappelons que l’invasion de l’Ukraine a été placée, depuis son lancement en février 2022, sous l’ombre de la menace nucléaire.
Au fil du conflit, le président russe, ses ministres de la Défense, son ministre des Affaires étrangères et son porte-parole ont régulièrement rappelé que la Russie était un État nucléaire, qu’elle disposait d’un tiers des têtes nucléaires au monde, qu’elle maîtrisait plusieurs vecteurs ou types de missile pour les mettre en œuvre et qu’elle était disposée à relever le niveau d’alerte et de mobilisation de ses forces nucléaires. Ces déclarations n’ont pour autant jamais été suivies d’effets militaires. Plusieurs analystes ont dès lors estimé qu’il s’agissait d’effets de manche, de propagande sans contenu concret ou de gesticulations.
Il est vrai que, jusqu’ici, ces menaces répétées n’ont – heureusement – pas été mises à exécution. Pour autant, une telle hypothèse est-elle à absolument écarter ? Et envisager que la Russie puisse utiliser l’arme suprême entraverait-il par définition le soutien occidental à la défense de l’Ukraine ?
C’est tout le contraire : entendre et comprendre cet avertissement n’est pas céder au chantage. C’est déchiffrer la grammaire complexe mais explicite de la dissuasion nucléaire russe.
Les messages envoyés par le Kremlin cette semaine sont clairs. Analysons les principales évolutions que comporte le décret présidentiel sur la doctrine nucléaire du 19 novembre : à l’article 11 de ce décret, la Russie s’ouvre la possibilité de répliquer par l’arme nucléaire à une attaque contre son territoire conduite par un État non nucléaire soutenu par un État nucléaire. Ce changement n’est ni cosmétique ni révolutionnaire. La doctrine nucléaire russe est constante dans son fondement : l’arme nucléaire peut être utilisée si l’existence de l’État ou le territoire de la Fédération sont menacés par des armes étrangères. Une attaque massive menée contre eux exposera donc l’Ukraine et ses fournisseurs d’armes à des répliques, y compris nucléaires.
La ligne rouge est nette : la Russie a pu faire face à l’opération militaire terrestre limitée dans l’oblast de Koursk, mais elle ne laissera pas se prolonger les attaques de missiles en profondeur sur son sol comme celles qui ont visé il y a quelques jours une base dans la région de Briansk.
Plus largement, tout risque d’invasion ou de tentative de changement de régime depuis l’extérieur peut donner lieu à une réplique nucléaire. Le tir du missile Orechnik sans tête nucléaire contre la ville de Dnipro le 21 novembre renforce dans les actes la crédibilité de cette doctrine, dont la Russie rappelle ainsi qu’elle ne se réduit pas à une posture de papier. Car il ne s’agit plus, pour Moscou, de la victoire ou de la défaite en Ukraine. Il s’agit de la protection de son territoire et donc de l’autorité de l’État.
Toute la difficulté est aujourd’hui de résister à la panique nucléaire sans céder à la négligence politique ou à l’interprétation non informée. Depuis 2022, la Fédération de Russie a placé son offensive sous protection nucléaire. Aujourd’hui, elle place la défense de son territoire (et de ses bases militaires) sous ce même parapluie. C’est odieux, mais rationnel. En effet, les menaces nucléaires ont permis à la Russie depuis 2022 (et en réalité depuis 2014) d’engager un affrontement bilatéral avec l’Ukraine sans s’exposer à la mise sur pied d’une coalition internationale comme celle qu’a affrontée la Serbie dans les années 1990. Elles lui ont permis, également, de réduire les capacités opérationnelles des armements occidentaux fournis à l’Ukraine. En somme, la menace nucléaire a contraint les Européens et les Américains à s’en tenir à soutenir l’auto-défense de l’Ukraine sans chercher ni la victoire en Russie ni le changement de régime au Kremlin. Ce parapluie nucléaire russe a profondément façonné les modalités du conflit et la forme du soutien occidental à la légitime défense ukrainienne.
En Europe et aux États-Unis, on a souvent tendance à minimiser les déclarations du président russe et de ses principaux ministres. Lire et écouter leurs propos passe souvent pour un signe de naïveté, voire pour un acte de trahison. Pourtant, il y a loin de la compréhension à la complaisance et à la compromission.
Bien entendu, dans un rapport de force stratégique, il est essentiel de ne céder ni à la panique ni au chantage. Il serait inacceptable d’accepter toutes les revendications de la Russie au motif qu’elle est une grande puissance nucléaire, un membre permanent du Conseil de Sécurité des Nations unies, un leader revendiqué du Sud Global ou l’allié le plus puissant de la République populaire de Chine. Renoncer au rapport de force aurait conduit l’UE à ne pas s’élargir aux anciennes démocraties populaires (Pologne, Tchéquie, Slovaquie, Hongrie, Roumanie, Bulgarie) et aux anciennes Républiques socialistes soviétiques (Estonie, Lettonie, Lituanie). Le cours de la construction européenne aurait été interrompu, les aspirations des peuples souverains d’Europe orientale auraient été bafouées et la sécurité du continent aurait été rendue précaire. Face à la Russie, la fermeté diplomatique est essentielle pour faire face à la rhétorique révisionniste.
Toutefois, il est symétriquement irresponsable d’organiser une surdité volontaire envers les déclarations officielles russes, au motif qu’elles constitueraient une propagande vide de contenu. Les relations entre, d’une part, la Fédération de Russie et, d’autre part, les forums occidentaux (UE, OTAN, G7-8, etc.) sont marquées par une incompréhension qui dépasse la simple résistance aux revendications russes : ne pas écouter les discours de Moscou conduit souvent les Occidentaux à des erreurs de jugement stratégique.
Plusieurs discours jalonnent cette route faite de malentendus, de mésinterprétations et de propagande.
Le discours de Vladimir Poutine à la Conférence sur la Sécurité de Munich en 2007 a été tout à la fois surévalué et sous-évalué : le président russe y traçait ses lignes rouges, notamment la non-extension de l’OTAN à ses frontières et son refus des systèmes de défense anti-missiles autour de la Fédération de Russie. Certains l’ont surestimé, au sens où ils y ont vu – surtout a posteriori – l’annonce d’une entrée en guerre différée contre l’OTAN et le premier jalon d’une route conduisant inéluctablement à la confrontation.
Mais d’autres ont considéré qu’il s’agissait de menaces vaines de la part d’un État ayant rejoint le consensus occidental en raison de sa propre faiblesse : la Russie était en effet alors associée à l’OTAN dans le cadre du Conseil OTAN-Russie, au G7 avec la création du G8, et à l’OMC. Moins qu’un programme révisionniste mais plus qu’une simple protestation, il s’agissait d’une revendication sur la zone d’influence que la Russie considère comme vitale. Face à une revendication, rien n’est pire que l’abdication… si ce n’est la négligence.
Autre exemple de surdité : la réception de la déclaration d’entrée en guerre contre l’Ukraine. La volonté affichée de « dénazifier » l’Ukraine a paru si insensée en Occident qu’elle a rapidement été rangée au rayon des prétextes historiques grotesques pour justifier l’injustifiable. Ce tumulte idéologique paraît inévitablement délirant à ceux qui ne connaissent pas le détail de la Seconde Guerre mondiale dans cette partie de l’Europe. Surtout, il a masqué les autres messages du président russe : le but de son invasion était d’éviter un élargissement de l’OTAN et de l’UE dans un pays limitrophe de la Fédération de Russie. Le recours aux armes pour entraver la souveraineté d’un pays est inacceptable – sans discussion. Mais prêter une oreille attentive – non complaisante – à cette déclaration aurait permis de saisir la portée réelle de l’invasion.
La posture adoptée ces derniers jours par Vladimir Poutine n’est ni une gesticulation vide ni un engrenage vers l’apocalypse nucléaire. C’est un ensemble d’actions destinées à rappeler, par la menace, la crédibilité de la dissuasion russe. Un signalement stratégique brutal et net. Il ne s’agit pas d’un bluff ou d’un coup de poker, mais d’une montée en puissance dans un bras de fer ancien.
Face à ces actes et à ces propos, les Européens doivent conserver leur posture stratégique : l’utilisation de l’arme nucléaire contre un État non nucléaire est inacceptable ; l’invasion et l’occupation de l’Ukraine sont illégales ; la stratégie des sanctions économiques, diplomatiques et politiques contre la Russie est justifiée et adaptée ; les attaques militaires directes contre le territoire et le régime russe doivent être évitées dans la mesure où elles exposent l’Ukraine et l’Europe au feu nucléaire.
Le soutien des Européens à la souveraineté ukrainienne ne peut être efficace s’il s’aveugle : la menace nucléaire russe doit être prise au sérieux mais elle peut toujours être contrée. Dans la présente crise, l’essentiel pour les Européens est de conserver leur posture stratégique et de renforcer leurs outils de pression tout en décryptant correctement les signaux russes.
Cyrille Bret ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
21.11.2024 à 17:21
Bertrand Valiorgue, Professeur de stratégie et gouvernance des entreprises, EM Lyon Business School
Xavier Hollandts, Professeur de stratégie et entrepreneuriat, Kedge Business School
L’accord de libre-échange avec le Mercosur (Argentine, Brésil, Uruguay et Paraguay) pourrait être adopté en décembre 2024 par l’Union européenne. En France, les agriculteurs français se mobilisent pour s’opposer à cette décision. Les normes sanitaires et environnementales imposées aux agriculteurs européens ne sont pas respectées par les pays du Mercosur. Cette différence a des conséquences importantes sur les coûts de production. L’Europe envoie donc un message contradictoire, demandant aux agriculteurs de respecter des normes strictes tout en ouvrant ses portes à des produits bien moins contrôlés.
L’agriculture française (et européenne) est l’une des plus sûres au monde grâce aux normes sanitaires et environnementales imposées par le régulateur français et européen.
Une simple comparaison des pratiques agricoles actuelles avec celles des années 1990 permet de prendre la mesure de ce saut qualitatif (abandon de certaines molécules, prise en compte de la biodiversité, qualité de l’alimentation du bétail, par exemple).
On a tendance à oublier que ces démarches d’amélioration ne se réalisent pas sans investissements ni surcoûts. La substitution d’une technique de production par une autre n’est pas qu’un simple changement d’habitude.
C’est un investissement, un apprentissage et un risque nouveau qu’il faut apprendre à gérer.
On oublie aussi régulièrement que ces investissements et surcoûts sont très difficilement répercutés sur les prix, du fait de la structure et du fonctionnement des marchés des matières premières agricoles.
Un agriculteur soucieux de l’environnement et de ses pratiques n’est pas un agriculteur qui est mieux rémunéré. C’est un agriculteur qui doit fournir un effort supplémentaire qui n’est pas intégré dans le prix de vente des denrées alimentaires qu’il produit.
Cette dure loi économique, que l’on retrouve dans le secteur agricole, porte le nom d’« effet tapis roulant ». Elle a été introduite pour la première fois par l’économiste Willard Cochrane.
Pour rester compétitifs et présents sur les marchés, les agriculteurs doivent procéder à des investissements et à l’incorporation de nouvelles technologies qui les rendent plus productifs. Cela engendre une plus grande disponibilité de denrées alimentaires commercialisées sur les marchés des matières premières et une baisse concomitante des prix.
Il faut alors procéder à de nouveaux investissements et à l’incorporation de nouvelles technologies pour rester sur le marché. On a, à l’arrivée, des agriculteurs toujours plus efficients mais dont les rémunérations stagnent. Ils doivent toujours courir plus vite sur le tapis roulant sans que leurs situations économiques progressent pour autant.
Le même effet (tapis roulant) s’observe au niveau de la préservation de l’environnement.
Les agriculteurs incorporent des normes environnementales toujours plus exigeantes sans jamais bénéficier d’augmentation des prix.
La signature du traité de libre-échange du Mercosur touche directement à cette question en faisant entrer sur le territoire européen et français des denrées alimentaires produites selon des normes bien moins strictes, voire tout simplement interdites aux agriculteurs hexagonaux : utilisation d’antibiotiques comme activateurs de croissance, variétés issues de la transgénèse, farines animales, recours à certaines molécules chimiques, culture de céréales génétiquement modifiées…
Cet accord pourrait contribuer à déverser sur le marché français et européen des matières premières agricoles et des denrées alimentaires moins chères et produites dans des conditions peu soucieuses de l’environnement et dans des proportions très significatives.
Liste des matières premières agricoles concernées par le traité Mercosur :
99 000 tonnes de viandes de bœuf
160 000 tonnes de viande de volaille
25 000 tonnes de viande porcine
180 000 tonnes de sucre
650 000 tonnes d’éthanol
45 000 tonnes de miel
60 000 tonnes de riz
Si le traité venait à être ratifié, les filières et les agriculteurs concernés devront faire face à une concurrence déloyale et un dumping environnemental orchestré par l’Union européenne qui au même moment renforce ses exigences environnementales et sanitaires à l’égard des producteurs agricoles localisés dans la zone Europe.
Cette réalité brutale pousse les agriculteurs français et européens à descendre dans la rue afin de dénoncer une concurrence déloyale, réalisée au détriment de l’environnement et de leurs exploitations. L’Europe envoie un message contradictoire à ses agriculteurs, leur demandant de respecter des normes strictes tout en ouvrant ses portes à des produits bien moins contrôlés.
Elle accélère de la sorte la vitesse de rotation du tapis roulant tout en augmentant les charges que doivent supporter les agriculteurs. Ces derniers progressent de manière continue sur le respect de l’environnement sans que les marchés récompensent les efforts accomplis.
L’opposition des agriculteurs français à l’égard du Mercosur est emblématique d’une inquiétude croissante à l’égard des politiques menées par l’Europe.
La littérature sur le management des paradoxes a montré qu’à partir d’un certain niveau de contradiction, les acteurs exposés à des injonctions paradoxales s’engagent dans des dynamiques de repli et de contestation de l’autorité jugée comme étant à l’origine de la situation dans laquelle ils se retrouvent plongés.
Quand le niveau de contradiction est trop fort, la conflictualité devient la seule issue possible afin de retrouver une situation plus équilibrée et cohérente.
La contestation des agriculteurs à l’égard du traité Mercosur est révélatrice d’un niveau de contradiction fabriqué par les politiques de l’Union européenne que les agriculteurs français n’arrivent plus à supporter.
Ce niveau de contradiction est vécu avec intensité par les agriculteurs français qui mettent une pression politique sur leur gouvernement.
Il en va autrement dans les autres pays européens, comme l’Allemagne ou l’Espagne, favorables à l’accord avec le Mercosur. Sans mouvement des agriculteurs à l’échelle de l’Union et sans veto d’au moins 4 pays de l’Union européenne, il est probable que le traité soit validé en décembre prochain.
Cette ratification placerait les agriculteurs français dans un grand désarroi et enclencherait de nouveaux mouvements de contestation susceptibles d’être de plus en plus virulents.
Frédéric Courleux, agroéconomiste et conseiller au sein du Parlement européen, est co-auteur de cet article
Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.
21.11.2024 à 17:21
Jérôme Ballet, Maître de conférences en sciences économiques et éthique, Université de Bordeaux
Damien Bazin, Maître de Conférences HDR en Sciences Economiques, Université Côte d’Azur
24 ans après Gladiator, Ridley Scott signe le retour de son protagoniste tout en muscles. Dans les salles depuis le 13 novembre 2024, Gladiator II dépeint un personnage héroïque et franc-tireur. En réalité, l’entraide et la solidarité ont parfois été au cœur du système des gladiateurs.
Les gladiateurs sont souvent perçus comme des figures héroïques, capables, par leurs exploits et leur courage, de gravir les échelons de la société pour accéder à la liberté et à la richesse. Une ascension sociale qui aurait un prix : un engagement physique total dans le combat, avec un risque de mort omniprésent.
Les gladiateurs étaient assez éloignés de la vision romantique dépeinte dans les péplums ou dans les films à gros budgets. Plusieurs conditions sociales coexistaient : prisonniers de guerre, criminels condamnés à mort mais de naissance libre, forçats obligés de purger leur peine sous le statut de gladiateurs, et engagés volontaires (dans une moindre mesure).
Devenir gladiateur nécessitait un apprentissage et le respect de règles, cela se rapprochait de l’exercice d’un métier. De nombreuses écoles impériales de gladiateurs existaient : Ludus Magnus, Dacius, Matutinus et Gallicus, pour n’en citer que quelques-unes. Elles assuraient une professionnalisation qui devait permettre de concilier spectacle (durée et beauté du combat) et survie des intervenants.
Sous Auguste, le premier empereur romain (27 av. J.-C. à 14 apr. J.-C.), les combats étaient une représentation théâtrale. A cet effet, les combattants devaient garantir un spectacle de qualité devant un public exigeant. Il s’agissait d’assurer le « show » avec ce qui peut ressembler de nos jours à une chorégraphie (précision du geste, diversité des armes « spectaculaires » et des techniques de combats). L’objectif des gladiateurs n’était pas de trucider l’adversaire mais de proposer un divertissement. Ainsi, il n’était pas rare d’opposer un combattant lourdement équipé à un adversaire légèrement armé (évoquant le duel entre David et Goliath). Techniquement, les assauts étaient maîtrisés et on s’assurait que les armes n’étaient pas trop affûtées. Il s’agissait surtout de provoquer des blessures qui conduisaient à l’abandon d’un des combattants. Les coups fatals étaient plutôt rares.
Certes, les combats étaient sanglants, mais sous Auguste, le sang coulait avec mesure, car il s’agissait de garder les gladiateurs en état de combattre et de les maintenir « en forme » afin qu’ils puissent divertir les citoyens venus assister en nombre aux combats.
Assez rapidement, les combats sont devenus des activités économiques comparables à ce qu’une entreprise dans le secteur du spectacle peut représenter de nos jours. Tout était organisé comme une attraction : musique, contrôle des billets, « chauffeurs » de salle… Les ambulanciers étaient grimés en démons et transportaient les combattants sur des civières pour assurer une touche burlesque. Boissons et nourritures circulaient dans les gradins.
La qualité du spectacle se jaugeait au travers du respect de règles. À cet égard, toute une « équipe » s’efforçait de livrer au public une « prestation de qualité ». Les gladiateurs n’étaient que la partie visible de l’iceberg. Chaque membre de l’équipe était hautement valorisé. Dans l’arène, des arbitres de jeu faisaient respecter les règles. Mais c’est le président (juge-arbitre) qui détenait le pouvoir décisionnaire et souverain sur la vie et la mort des « sportifs ». En cas de désinvolture dans le combat, le président pouvait demander que le fouet, le fer et le feu soient préparés en guise d’avertissement.
Sous l’empereur Auguste, si le vaincu reconnaissait sa défaite et demandait pitié au vainqueur, le vaincu avait habituellement la vie sauve, sous condition que le combat fut de qualité. Dans le cas contraire, le corps arbitral pouvait refuser la demande de clémence et réclamer une prolongation afin qu’une mise à mort survienne.
À lire aussi : Spartacus, célèbre gladiateur, était-il un révolutionnaire ?
Plusieurs recherches ont ainsi souligné le dilemme auquel étaient confrontées les parties prenantes qui vivaient de la gladiature : inciter à un combat esthétique et dramatique (donc violent, avec un risque de mort important après de multiples blessures) ou recommander un combat minimisant le risque de décès.
Pour trouver cet équilibre, il était essentiel que le spectacle soit de qualité… Et les gladiateurs coopéraient pour s’en assurer.
En tant que professionnels dont l’objectif était de gagner de l’argent, de la gloire, tout en survivant, les gladiateurs s’organisaient pour que l’objectif des combats ne soit pas la recherche de la mort. Les premières formes de coopération entre gladiateurs semblent s’être structurées au travers de sodalitats (confréries) religieuses. Grâce à cette entente, sous l’empereur Auguste, les combats obéissaient à des règles tacites convenues entre les « écuries » de gladiateurs avant les combats, garantissant une durée suffisante, une diversité des techniques favorisant l’esthétisme du spectacle, tout en étant « raisonnablement » violent pour ne pas apparaître comme une simple mise en scène.
[Déjà plus de 120 000 abonnements aux newsletters The Conversation. Et vous ? Abonnez-vous aujourd’hui pour mieux comprendre les grands enjeux du monde.]
Certaines ententes dépassaient même ce cadre, se rapprochant à certains égards d’un système de solidarité mutuelle. Au sein des Familiae gladiatoria (troupes de gladiateurs), il n’était pas rare que les guildes de gladiateurs (sorte d’associations de gladiateurs) se réunissent pour discuter de la prise en charge de frais d’obsèques de l’un d’entre eux, lorsque la mort survenait durant les jeux ou à la suite de blessures.
Loin d’être des héros solitaires, sous Auguste, les gladiateurs avaient mis la coopération au cœur de leur (sur)vie.
Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.
21.11.2024 à 17:20
Thomas Forte, Docteur en sociologie et chercheur associé au Centre Émile Durkheim, Université de Bordeaux
Lors de l’affaire McKinsey, les débats ont notamment porté sur l’argent public utilisé à mauvais escient. Mais comment définir quand un marché public est réussi ? Est-ce que la loi l’établit simplement ? En réalité, un marché public est construit par un travail administratif et fait intervenir de nombreux acteurs et documents.
Quand on aborde les marchés publics, on pense avant tout aux dépenses qu’ils représentent ainsi qu’aux scandales auxquels ils sont associés dû à leur opacité (le recours abusif aux cabinets de conseil mis en exergue par l’affaire McKinsey, la corruption…). Deux dimensions centrales des marchés publics sont absentes de ces débats : le marché public en tant qu’objet administratif, et les personnes qui les rédigent (comme les conseillers, les rédacteurs et les chefs de projet). L’une comme l’autre sont pourtant centrales, puisque c’est le travail de rédaction de ces contrats qui détermine en partie les conditions dans lesquelles l’argent public est dépensé et les missions que les attributaires devront remplir.
Ce travail de rédaction consiste à déterminer les qualités qu’un marché doit posséder. Elles ne se réduisent pas à un rapport binaire au droit (légal ou illégal), mais à de multiples formes auxquelles un marché peut prétendre afin d’être considéré comme « bon » ou « mauvais » par les services administratifs, juridiques et les entreprises.
Par exemple, quel critère de sélection des offres choisir ? Faut-il intégrer une clause environnementale ? Comment allotir, c’est-à-dire séparer le besoin en lot, afin de permettre à toutes les entreprises de répondre ? Comment être sûr que les documents seront compris par les candidats ?
L’analyse sociologique que j’ai menée montre que l’allocation de l’argent public est avant tout le résultat d’un travail administratif, dans lequel un objet juridique est produit (le marché public) et où un sens de la règle juridique est déterminé. Étudier ce travail permet de dépasser les discours rigides sur l’État de droit et de porter une attention aux conditions dans lesquelles l’allocation de l’argent public est réalisée.
Un marché public est attribué par la mise en concurrence de candidats, qui peuvent être des organisations publiques ou privées. Il répond à un besoin déterminé par le Code de la commande publique et par les missions de l’organisation qui l’émet. Il permet ainsi aux organisations publiques d’assurer leur fonctionnement. Le papier toilette, les ordinateurs, les forfaits téléphoniques, les goodies, etc., sont achetés par son intermédiaire. Cette mise en concurrence est permise par des critères de sélection des offres, généralement distingués en deux catégories : le prix et le technique.
Ce dispositif repose sur le principe que la qualité des offres et l’optimisation de l’allocation de l’argent public sont assurées par la mise en concurrence du secteur marchand. Cette justification n’est pas nouvelle, elle est mobilisée dès la Révolution, lors des premières réglementations relatives aux marchés publics, afin de rompre avec les abus en matière de finances publiques sous la Monarchie.
Cet argument est d’ailleurs repris par l’enquête de Cash investigation diffusée le 17 septembre dernier, lorsque les journalistes mettent en rapport le coût du marché public de conseil avec l’utilité des livrables produits par le cabinet McKinsey. Le reportage souligne également comment le recours aux cabinets de conseil articule, dans les débats, une finalité d’entrisme dans les prises de décision avec une critique de l’administration publique. Autrement dit, comment, de manière plus large, le travail du secteur public est « empêché », ce qui se traduit par un manque de temps et de moyens qui ne permet pas aux personnes de réaliser convenablement leur travail.
Dans le cas des marchés publics, mon analyse du travail de rédaction au sein d’un conseil Départemental montre comment ce contexte a également des conséquences sur le rapport aux droits au sein de la collectivité. Tout en étant encadré par des textes européens et nationaux, le marché public est le résultat d’un travail administratif, bureaucratique. Il nécessite la circulation des documents qui constituent le marché entre les bureaux de plusieurs organisations.
C’est au cours de cette circulation que les documents vont être lus et écris afin d’évaluer s’ils ont les qualités juridiques attendues. Ce travail requiert une forte expertise dans la mesure où il mobilise des savoirs juridiques, économiques et opérationnels, qui dépassent l’appartenance rigide à une profession et une organisation.
Au sein des organisations publiques, le répertoire des métiers de la fonction publique liste treize métiers liés au travail de rédaction de ce dispositif. Ils peuvent être divisés en quatre catégories : acheteur (qui vise la performance économique), rédacteur, conseiller (qui contrôlent les documents) et chef de projet, à l’initiative du besoin.
Il est difficile d’établir un profil type de ces professions, que ça soit en termes de statuts (fonctionnaire, contractuel) et de modalités de recrutement (catégorie C, B, A). De plus, avoir une formation en droit n’est pas une obligation. Leur travail est cependant proche. Il est caractérisé par la gestion du flux de dossiers. Dans le conseil Départemental étudié, cela représente 448 marchés publics par an. Un marché est produit en moyenne en six mois. En pratique, les dossiers se chevauchent dans le temps et ils demandent de maîtriser des sujets variés (les techniques de construction d’une route, le droit, les normes d’un secteur d’activité…).
C’est là où réside l’expertise inhérente à la rédaction d’un marché. Une rédactrice, par exemple, articule dans son travail le cadre juridique, l’environnement économique des entreprises (forte concurrence, monopole, TPE/PME) et les objectifs de l’organisation (les gains budgétaires, le développement de l’économie locale).
Un marché est composé d’une dizaine de documents qui forment un réseau où chacun a un rôle spécifique. Ces documents sont déposés sur une plate-forme numérique afin que les candidats puissent déposer leurs offres. S’y ajoute enfin le rapport d’analyse des offres (RAO) qui synthétise les étapes d’analyse et d’attribution du marché.
Dans chaque document se trouvent plusieurs catégories d’information. On peut distinguer les informations techniques (les caractéristiques du besoin), juridiques (références au Code), économiques (le prix) ou administratives (les modalités de mise en concurrence, le calendrier). Ces informations sont d’autant plus importantes qu’elles se retrouvent dans plusieurs documents à la fois (le prix est présent dans sept pièces) et que le droit détermine un ordre de valeur entre les pièces contractuelles.
Ainsi, les informations présentes dans l’acte d’engagement (qui engage les parties lorsqu’il est signé) – pièce la plus haute placée dans la hiérarchie – prévalent sur celles d’un cahier des clauses techniques et particulières (CCTP, qui définit le besoin technique) lors de l’exécution du marché ou lors d’un contentieux. Une contradiction peut alors avoir des conséquences sur la résolution des conflits, mais aussi sur les manières dont une prestation est réalisée.
Une première conclusion serait de considérer que ce travail d’écriture ne consisterait qu’à vérifier l’exactitude des informations dans les documents afin de garantir qu’elles ne se contredisent pas. Pourtant, ce travail administratif demande d’articuler la variété de ces informations, de se repérer dans des documents qui peuvent faire plusieurs dizaines de pages, ainsi que de considérer les effets des pratiques d’écriture sur les offres potentielles.
Le cas suivant illustre une partie de ce travail. Une rédactrice fait des remarques sur un marché d’insertion de jeunes par un service civique au sein de la collectivité étudiée. Dans trois pages différentes du CCTP, des paragraphes abordent différemment le transport des jeunes vers leur lieu de stage. À la lecture, la rédactrice tisse des liens entre eux, bien qu’ils soient isolés dans une somme d’informations relativement importante (le CCTP seul fait trente pages). Dans un des paragraphes, c’est le prestataire qui doit garantir ces moyens de transport, alors que dans un autre, ils reposent sur une aide de la collectivité, dont les conditions d’utilisation sont définies dans deux autres paragraphes qui se contredisent.
Cette répétition a trois enjeux importants. D’une part, la recherche d’information pour les futurs candidats : trois informations sur un même sujet sont réparties dans trois pages différentes. La seconde est juridique, puisqu’il y a une contradiction dans le rôle des cocontractants sur les aides. Enfin, il y a un enjeu économique puisque dans le cas où l’aide est versée par le Département, les candidats n’ont pas à l’intégrer à leur offre financière.
Cet exemple, qui paraît anodin d’un point de vue administratif, illustre les allers-retours nécessaires afin de résoudre ces incohérences, mais aussi le lien direct entre le travail d’écriture et le droit. Les conseillères, rédactrices, chefs de projet et acheteurs rédigent ensemble des documents qui permettent d’attribuer l’argent public. Ces documents juridiques sont opposables devant un juge et leurs termes s’imposent dans le cadre d’une relation contractuelle. Produire un marché public ne se réduit pas à une mise en forme stéréotypée du droit qui lui donnerait de facto une force légale.
Si les rédactrices et les conseillères rédigent les marchés publics, ils circulent auprès d’autres acteurs qui peuvent aussi émettre des jugements. Par l’intermédiaire d’une plate-forme numérique, un candidat peut faire remonter qu’un critère n’est pas nécessaire pour juger les offres. Un élu, lorsqu’il signe un rapport d’analyse des offres en commission, peut juger que l’attributaire aurait dû être une TPE/PME. Les services du comptable public peuvent rejeter un marché selon leurs propres interprétations de la règle. Par ailleurs, des organisations privées (Le Moniteur, Décision achat) et publiques (comme la direction des affaires juridiques) se sont spécialisées dans l’édition de recommandations quant aux manières dont les marchés publics doivent être produits.
L’ensemble de ces jugements s’articulent autour de trois rapports au droit que j’ai identifié dans ma recherche : la sécurité juridique (le droit est une sphère distincte, qui s’impose et qu’il faut suivre), l’opérationnalité (le droit est une contrainte à l’activité qui augmente la charge de travail et diminue l’efficacité) et la politique achat (le droit est un outil permettant d’atteindre des objectifs poursuivis par l’organisation).
L’articulation de ces trois rapports au droit est déterminée par les contextes où le travail se réalise. Par exemple, être en sous-effectif et gérer la surcharge de dossiers laisse peu de temps pour optimiser certaines clauses ou discuter de la pertinence des critères choisis. L’opérationnalité est alors privilégiée. Dans certains cas, cela se traduit par le recours à des cabinets d’avocat pour réaliser le travail de rédaction alors même que les services de la collectivité disposent de ces compétences. Ainsi, le droit est le résultat d’un travail, c’est-à-dire que sa place et sa production s’inscrivent dans des opérations administratives ordinaires. Des professionnels, que l’on considère généralement éloignés du droit, l’interprètent, le manipulent et le transmettent aux autres.
Ce faisant, produire un marché public, c’est produire un cadre contractuel acceptable, moins par rapport à un cadre juridique national, qu’à des attentes locales qui répondent aux contraintes relatives au contexte de travail des personnes impliquées. La dégradation des conditions de travail du service public touche alors directement la capacité des collectivités et de l’État à déterminer les cadres contractuels qui leur permettent d’allouer l’argent public.
Thomas Forte ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
21.11.2024 à 17:20
Aurélie Leclercq-Vandelannoitte, Chercheuse, CNRS, LEM (Lille Economie Management), IÉSEG School of Management
Emmanuel Bertin, Expert senior, Orange. Professeur associé, Télécom SudParis – Institut Mines-Télécom
Présentées comme des espaces de liberté, les plates-formes numériques conditionnent en réalité nos comportements. Et depuis le rachat de Twitter par Elon Musk, qu’il renomme par la suite X, la façade de neutralité s’effondre. Après son implication et celle de son réseau dans la campagne de Donald Trump, les utilisateurs sont de plus en plus nombreux à quitter le navire pour chercher des espaces numériques qui remplissent cette promesse originelle. Peine perdue ?
Les grandes plateformes numériques de Meta (Instagram, Facebook), TikTok ou X (anciennement Twitter) exercent une forme de pouvoir sur leurs utilisateurs, et à travers eux sur nos sociétés. Mais quelle est la nature de ce pouvoir ? Nous nous sommes intéressés à cette question dans un travail de recherche récemment publié.
Nous proposons une perspective issue des travaux de Michel Foucault. Le philosophe a en effet consacré la majeure partie de son œuvre à l’étude des mécanismes d’exercice du pouvoir au cours de l’Histoire.
La première question à se poser est de savoir si ces plates-formes cherchent à exercer un pouvoir, c’est-à-dire, au sens de Foucault, à « conduire les conduites » de leurs utilisateurs. Autrement dit, on doit se demander si ces plates-formes sont simplement des outils techniques ou des outils de gouvernement des personnes.
Un outil technique peut certes influencer notre façon d’appréhender le monde (« Toute chose ressemble à un clou, pour celui qui ne possède qu’un marteau », écrivait le psychologue américain Abraham Maslow), mais ne vise pas dans sa conception même à produire un certain type de comportement. Ainsi, un traitement de texte comme Word, malgré un nombre d’utilisateurs qui n’a rien à envier à celui des plates-formes, reste un outil technique.
A contrario, les plates-formes numériques cherchent à produire un certain type de comportement chez leurs utilisateurs, d’une façon liée à leur modèle économique. Une plate-forme sociale comme X ou Facebook vise ainsi à maximiser l’engagement des utilisateurs, en les exposant à des contenus dont leur algorithme a déterminé qu’ils les feraient réagir. Les contenus mis en avant sont ceux susceptibles de produire des émotions intenses afin de pousser les utilisateurs à les relayer vers leurs contacts puis à en guetter les réactions, et ce faisant, maximiser leur temps passé sur la plate-forme et donc leur exposition aux publicités. Autre exemple : le jeu Pokemon Go, conçu par la firme Niantic (fondée par Google), guide ses utilisateurs vers les restaurants ou magasins qui ont payé pour cela.
Dans ses écrits sur le libéralisme, Foucault décrit comment la liberté devient un instrument de pouvoir bien plus efficace que la contrainte, car guidé par l’intérêt particulier de chacun. Par exemple, lorsque l’État met en œuvre des incitations fiscales, il joue sur l’intérêt particulier pour obtenir un comportement souhaité, plutôt que sur la contrainte. Dans le modèle des plates-formes sociales, cette liberté est guidée par les émotions, notamment l’indignation, ce qui conduit par exemple X à rendre le plus visible les publications les plus controversées. À partir d’un certain seuil, cela a un impact indirect sur l’ensemble de la société, en donnant par exemple une grande audience à des publications complotistes ou de désinformation.
S’il est clair que ces plates-formes exercent un pouvoir sur leurs utilisateurs, comment peut-on le caractériser ? Il nous semble qu’il s’inscrit dans un type de pouvoir décrit par Foucault : le « pouvoir pastoral », ainsi nommé en référence à la figure du pasteur, qui à la fois guide son peuple dans son ensemble et connait individuellement chacun de ses membres. Autrement dit, ce type de pouvoir est à la fois englobant et individualisant (« Omnes et Singulatim », comme l’écrit Foucault). Englobant, car les plates-formes gèrent tous leurs utilisateurs avec les mêmes technologies et algorithmes, ce qui permet des économies d’échelle massives. Individualisant, car elles s’adaptent de façon ciblée à chaque utilisateur afin de maximiser sa conformité au comportement souhaité.
Les technologies de capture et d’exploitation massive de données permettent de porter cette individualisation à un niveau jamais atteint auparavant. Ces technologies ne visent pas explicitement tous les aspects de la vie, mais cherchent tout de même à en capturer le maximum d’information, y compris via les objets connectés.
La création d’un pouvoir pastoral entièrement désincarné, car s’exerçant à travers une plate-forme purement numérique, est une nouveauté. Là où le rôle de pasteur s’est incarné dans l’Histoire par des clercs puis par les représentants de l’État, il n’est désormais plus une personne, mais une plate-forme. À certains égards, cela pourrait apparaître comme un progrès : la plate-forme est apparemment neutre, elle ne favorise personne et n’a pas d’intérêt personnel. Ses algorithmes sont censés être objectifs, hormis sans doute avec quelques biais venus de leur programmation, mais qu’il suffirait d’identifier pour les corriger. Tout cela n’est pourtant qu’une illusion, et Elon Musk le démontre clairement depuis son rachat de Twitter en octobre 2022.
Car les plates-formes ont un propriétaire, et dans le monde de la tech ce propriétaire est la plupart du temps un homme seul (à l’exception d’Alphabet, société mère de Google, contrôlée par deux hommes). Jusqu’à Elon Musk, ces propriétaires cultivaient l’illusion de la neutralité, se retranchant derrière de nobles discours promouvant le bien de l’humanité, le rejet des actions mauvaises (selon l’ancien slogan informel de Google : « Don’t be evil ») ou mettant en place des comités éthiques, purement consultatifs.
Elon Musk fait voler en éclat cette façade, en supprimant explicitement les équipes de modération ou les mécanismes de suppression de faux comptes (qui propagent usuellement de fausses nouvelles), ouvrant ainsi la porte à une vague de contenus complotistes. Et cela tout en se faisant en même temps passer pour un utilisateur quelconque de X, en relayant des contenus parfois eux-mêmes proches du complotisme, ou en faisant activement campagne pour Trump.
Avant Elon Musk, le bannissement de Trump de Twitter par Jack Dorsey, son précédent propriétaire, pouvait d’ailleurs être tout autant considéré comme une décision politique, mais réalisée sous couvert d’une « violation des conditions d’utilisations », afin de préserver l’illusion de neutralité de la plate-forme.
Pour autant, Elon Musk n’est pas le pasteur de X, pas plus que Zuckerberg, celui de Facebook ou Instagram, c’est bien la plate-forme qui joue ce rôle. Mais derrière la façade, ces plates-formes sont bel et bien sous l’influence de leur propriétaire qui peut modifier telle règle ou tel paramètre algorithmique de façon discrétionnaire en fonction de ses objectifs – et dans le cas d’Elon Musk, de ses opinions politiques.
Emmanuel Bertin travaille chez Orange comme expert senior, et est également professeur associé à Télécom SudParis.
Aurélie Leclercq-Vandelannoitte ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
21.11.2024 à 17:20
Marie-Emmanuelle Pommerolle, Maîtresse de conférences (HDR) en science politique , Université Paris 1 Panthéon-Sorbonne
Le 6 novembre dernier, le président Paul Biya a célébré le 42ᵉ anniversaire de sa présence ininterrompue au pouvoir. Son grand âge (91 ans) et sa présence à peine audible dans la vie politique du pays ne semblent pas rebuter les cadres de son parti, le Rassemblement démocratique du peuple camerounais, qui souhaitent le voir briguer un huitième mandat en 2025.
Dans son nouvel ouvrage « De la loyauté au Cameroun. Essai sur un ordre politique et ses crises », qui vient de paraître aux éditions Karthala, Marie-Emmanuelle Pommerolle, maîtresse de conférences en science politique à l’Université Paris 1 – Panthéon Sorbonne, analyse l’apparente stabilité politique du Cameroun assurée par la présidence Biya… et invite à la nuancer.
Cet essai revient sur l’avènement de crises mais surtout de pratiques politiques ordinaires de la part de la population qui mettent au défi les formes autoritaires prises par le régime tout en préservant sa pérennité. De sorte que le constat d’Achille Mbembe, peu après l’arrivée au pouvoir de Paul Biya, d’un Cameroun frappé par « les hoquets du changement et les pesanteurs de la continuité » semble toujours valable.
Cette étude au plus proche du terrain invite à regarder au-delà des démonstrations de loyauté inébranlable qu’expriment les citoyens camerounais à l’égard du pouvoir politique. Et éclaire, de manière plus générale, les ressorts sociaux des individus en situation autoritaire ainsi que leurs ambiguïtés. Extraits.
Chaque année, le 20 mai, à l’occasion de la Fête de l’Unité, écoliers et écolières, étudiants et étudiantes, partis politiques et soldats défilent sur le boulevard du même nom, à Yaoundé.
Marcher, au pas cadencé, devant les « élites de la République », et au rythme des slogans louant le chef de l’État et son action peut recouvrir de multiples réalités : l’expression d’une conviction, l’attente de rétributions, le goût de la fête, la coercition.
Les intentions derrière la participation à ces défilés sont diverses, mais cette dernière produit un effet unique : elle permet aux dirigeants de se prévaloir de ces démonstrations de loyauté pour affirmer leur légitimité. Peu importe qu’une majorité des marcheurs, comme de celles et ceux qui les contemplent depuis les tribunes ou les observent de la rue, ne soient pas dupes ou pas complètement convaincus. Que l’enthousiasme ne soit pas toujours débordant, ou qu’il demeure mesuré, la performance en elle-même ré-affirme l’ordre social et politique légitime : hiérarchies de pouvoir, hiérarchie de genre, hiérarchie sociale sont jouées, exprimées et considérées comme acceptées.
Voici quelques réactions recueillies auprès de personnes ayant défilé ou regardé le défilé le 20 mai 2015 :
Une militante du RDPC :
« Oui, j’ai pris part au défilé et c’était beau. On nous avait distribué des pagnes du parti au sein de la section pour le défilé. Les listes ont été dressées pendant l’entraînement. C’est comme ça que mon nom s’est retrouvé là. Mais d’autres noms ont été introduits ici au boulevard. Personne ne peut te dire qu’il défile là pour rien. Tu penses que les gens défilent pour rien ? Ils sont payés pour ça. On a l’habitude de nous payer 2500 francs CFA [environ 4 euros] immédiatement après le passage […]. Tu penses que ceux qui étaient assis à la tribune ont notre temps ? Ils ont conscience de nos besoins et nos attentes ? Au Cameroun, c’est la débrouille. L’argent qu’on nous donne là, c’est ce que les autres volent et c’est même insignifiant. »
Une étudiante :
« Le défilé n’est que symbolique. Le patriotisme et le nationalisme se matérialisent par des actes. On peut bien défiler sans être patriotes […]. Je ne crois pas que tous sont patriotes. C’est une apparence. Même ceux qui pillent ce pays étaient là. Sincèrement je pense que c’est la fête, et la fête ne refuse personne. »
Une écolière :
« Oui, j’ai défilé. Mais nous sommes restés trop longtemps au soleil, la fatigue et la famine nous ont rongés. Après toute cette peine, on m’a donné 200 francs. Je ne suis pas venue ici par mon gré. Le surveillant nous a obligés. »
Un cadre de la fonction publique :
« Oui, ce qui vient de se passer c’est du patriotisme, de l’attachement sentimental à sa patrie. Cette volonté manifeste s’est exprimée ce jour. Donc pour moi, le 20 mai est une date pleine de signification parce que les Camerounais ont été consultés par voie référendaire pour dire s’ils veulent aller vers un peu plus d’intégration et d’unité nationale. La réponse a été positive. C’est ce qui justifie la mobilisation de ce jour. »
Ce chapitre s’intéresse à ces démonstrations de loyauté, organisées par le gouvernement depuis les années 1960. Leur pérennité, malgré les transformations politiques issues du multipartisme, en fait l’un des traits caractéristiques des dispositifs de pouvoir camerounais. Les premières lectures de ces cérémonies officielles donnent à voir à la fois un rituel de construction de l’État et la mise en forme des rapports de domination politique et sociale. « Fêtes d’État », au Cameroun comme dans de nombreux autres pays d’Afrique, ces cérémonies participent, durant les deux premières décennies de l’Indépendance, de la théâtralité du pouvoir, et désignent l’État comme maître du temps et de la définition de la nation.
S’y joue également l’encadrement des groupes sociaux dominés, jeunes et femmes notamment, appelés à se mobiliser et à afficher leur participation à la mise en scène du pouvoir. Alors que ces cérémonies se perpétuent, malgré « l’ouverture » des années 1980 et celle, plus probante, des années 1990, elles sont considérées comme l’une des manifestations de l’intimité caractéristique de la « tyrannie post-coloniale ». Elles matérialisent à la fois la « fétichisation du pouvoir » et sa « ratification par la plèbe », la connivence au travers de laquelle le « commandement » s’impose et est défait.
La ténacité de cet échange politique, la popularité de certaines de ces cérémonies, comme celle du 8 Mars, Journée internationale des droits des femmes, et la tenue de défilés exceptionnels dans les moments de crise, commandent que l’on regarde de plus près ce qui se joue durant ces « performances politiques ». En notant la diversité des audiences et des situations de participation – comme le suggèrent les citations introduisant ce chapitre –, on s’autorise à ne pas imposer de signification homogène à cette participation, et à mieux comprendre les conditions de félicité et de reproduction de ces cérémonies que d’aucuns pourraient juger désuètes ou folkloriques. Ni rituel de soumission ni complet simulacre, ces défilés et les événements qui les entourent offrent un terrain d’observation particulièrement riche de la co-production de la loyauté.
Durant ces « performances », le pouvoir se montre tel qu’il veut être vu. Mais la performance n’est pas seulement une imposition de la part de celles et ceux qui l’organisent. Si l’on suit Kelly Askew et son analyse tirée de performances musicales et de leurs usages politiques en Tanzanie, ces dernières sont une « conversation » entre celles et ceux qui sont sur scène ou mettent en scène et leur public. D’un côté, l’administration organise soigneusement ces défilés, choisissant les slogans, les tenues, les marcheurs et l’entière scénographie. De l’autre, la participation, dans le défilé ou sur les bords de la route, relève en partie de « l’envie d’être honoré, de briller, et de festoyer ». Plus précisément, on trouve de multiples situations de participation parmi les personnes présentes : participants et badauds viennent, souvent en groupe, exhiber leur tenue, profiter d’une sortie en dehors de l’école, approcher les élites présentes dans les tribunes, récupérer un peu d’argent distribué pour l’occasion. Si la coercition est parfois employée, notamment dans les écoles, elle n’est pas le ressort principal ou unique de la mobilisation à ces défilés. Le désir de participer à des festivités est au cœur de l’événement.
La constellation d’intérêts produisant ces cérémonies permet aux dirigeants de se prévaloir d’une forme de légitimité par les pratiques sociales qu’ils exhibent. La production des « gages de loyauté » affichés durant ces cérémonies n’engage en rien le contenu des croyances en la légitimité du pouvoir de celles et ceux qui défilent ; mais la performance en elle-même participe de la légitimation de l’ordre politique. Cette constellation de désirs et d’intérêts, sans lesquels ces cérémonies ne seraient pas possibles, ouvre aussi des espaces à la critique : les commentaires sur les élites présentes, sur le fonctionnement de ces marches, les tentatives d’expression dissidente aux abords des défilés, comme les festivités qui suivent ces cérémonies encadrées, sont autant d’occasions de prendre ses distances, voire de remettre en cause l’ordre tout juste exprimé. Bien que normées, ces performances sont contingentes, risquées, et peuvent à tout moment déstabiliser l’ordre tout juste matérialisé.
[…]
Ces performances publiques, officielles et populaires, figurent un ordre, et perturbent en même temps. Elles sont certes des moments de symbolisation de l’ordre politique, institutionnel et social, mais elles ne sont pas figées ni reproductibles à l’infini. Elles sont un ensemble de pratiques et d’interactions qui laissent une place à la contingence et à la critique. Le fait de participer à ces cérémonies, en défilant ou en regardant, implique de se conformer à un rôle pré-établi par des autorités, administratives, scolaires, partisanes ou militaires.
Jouer ce rôle attendu peut s’appuyer sur des désirs et des attentes multiples, satisfaites par cette performance collective. Désir matériel, de reconnaissance, désir militant sont autant de supports sur lesquels se construisent les démonstrations de loyauté. Le soin porté à ces défilés, la multiplication des journées officielles, notamment en période de « crise », comme en 2015 avec la guerre menée dans l’Extrême-Nord contre Boko Haram, soulignent l’importance de ces performances pour le pouvoir. Le déroulement de la cérémonie n’est cependant pas prévisible, et des désirs non satisfaits, des critiques plus anticipées peuvent surgir dans le commentaires et les pratiques. Le pouvoir seul ne peut produire ces démonstrations de loyauté, et la conversation qu’il engage avec ses citoyennes et ses citoyens peut se révéler corrosive.
Marie-Emmanuelle Pommerolle ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
21.11.2024 à 13:00
Marie Dumont, Chercheuse, directrice du Centre d'études de la neige, Centre National de Recherches Météorologiques, Météo France
La neige est blanche, mais il y a plusieurs nuances de blanc, et elle revêt même parfois d’autres teintes, plus originales. Plongée entre physique et météo avec la directrice du Centre d’études de la neige basé à Grenoble.
D’une blancheur immaculée qui scintille au soleil, la neige quand elle recouvre le sol à le pouvoir de transformer les paysages en quelque chose de magique. Mais pourquoi est-elle blanche ? Elle est constituée de glace et d’air et les glaçons qui sortent de notre congélateur ne sont pas blancs, ils sont transparents ! Alors comment est-ce possible ?
La neige est blanche justement parce que la glace est transparente. Lorsque l’on dit que la glace est transparente, cela veut dire que la lumière visible et toutes les différentes couleurs qui la constituent ont très peu de chances d’être absorbées lorsqu’elles traversent la glace.
La neige est en fait une sorte de mousse de glace et d’air : la lumière qui la traverse va avoir très peu de chances d’être absorbée en traversant la glace ou l’air, les deux transparents.
Par contre, à chaque interface air-glace, la lumière va être réfléchie (comme un miroir) ou réfractée (changée de direction à l’intérieur de la glace), et va finir par ressortir du manteau neigeux, car elle a très peu de chances d’y être absorbée.
Ainsi la majeure partie de la lumière visible qui entre dans la neige ressort vers le haut, ce qui rend la neige blanche.
Cette couleur blanche de la neige est très importante pour notre planète. En effet cela veut dire que lorsque la neige recouvre le sol, la majeure partie de la lumière du soleil va être réfléchie vers l’atmosphère, contrairement à un sol nu ou recouvert de végétation, plus sombre, et qui absorbe plus de lumière. La couleur blanche de la neige limite donc l’absorption d’énergie solaire, et ainsi le réchauffement. Or, plus la température augmente, moins il y a de neige au sol, donc plus la couleur de la planète s’assombrit et plus elle se réchauffe. C’est un phénomène d’« emballement », que l’on appelle encore « rétroaction positive », lié à l’albédo (c’est-à-dire la fraction de rayonnement solaire réfléchi par un milieu) de la neige et qui est très importante pour notre climat.
La neige n’est pas simplement blanche, elle peut prendre différentes nuances de blancs.
Cela vient de l’interaction de la lumière avec la structure de la neige. La structure de la neige, c’est-à-dire, l’arrangement tridimensionnel de l’air et de la glace à l’échelle du micromètre (un millionième de mètre, soit environ cinquante fois moins que l’épaisseur d’un cheveu), varie beaucoup en fonction de l’état de la neige.
Plus la neige a une structure fine, comme c’est le cas par exemple pour la neige fraîche, plus la surface de l’interface air-glace est grande par rapport au volume de glace contenu dans la neige. Pour faire l’analogie avec une piscine à balle, pour la neige fraîche, on aurait alors une grande quantité de toutes petites balles, soit une grande surface de plastique en contact avec l’air. Plus tard, la neige évolue et notre piscine contiendrait des balles plus grosses, en moindre quantité, ce qui résulte en moins de surface de contact entre air et plastique.
La quantité de lumière absorbée est proportionnelle au volume de glace alors que la quantité de lumière diffusée est proportionnelle à la surface de l’interface air-glace. Ainsi plus le rapport entre la surface de l’interface et le volume de glace est grand, c’est-à-dire plus la structure est fine, plus la neige va être blanche. Une neige fraîche paraîtra donc plus blanche qu’une neige à structure plus grossière, par exemple qui a déjà fondu et regelé.
Cette nuance de blanc, qui provient de l’interaction entre la lumière et la structure de la neige, est également à l’origine d’une rétroaction positive importante pour notre climat. En effet, lorsque la température augmente, la structure de la neige a tendance à grossir, la neige devient moins blanche, absorbe plus d’énergie solaire et donc peut fondre plus rapidement.
Mais la neige n’est pas que blanche, on peut trouver de la neige orange, rouge, noire, violette ou même verte. Lorsque de telles couleurs se présentent, c’est que la neige contient des particules colorées qui peuvent être de différentes origines.
On y trouve souvent du carbone suie issu de la combustion des énergies fossiles et qui rend la neige grise.
Dans les massifs montagneux français, il est courant de trouver de la neige orange, voire rouge, après des épisodes de dépôts de poussières minérales en provenance du Sahara.
Enfin, la neige contient des organismes vivants, et en particulier des algues qui produisent des pigments pouvant être de différentes couleurs. Dans les Alpes, l’espèce d’algue de neige la plus courante s’appelle Sanguina Nivaloides et teinte la neige d’une couleur rouge sang, que vous avez peut-être déjà observée lors d’une promenade en montagne à la fin du printemps.
En changeant la couleur de la neige, toutes ces particules colorées provoquent une augmentation de la quantité de lumière solaire absorbée par celle-ci, et accélèrent sa fonte.
La blancheur de la neige et ses subtiles nuances sont donc très importantes pour l’évolution du couvert nival et pour le climat de notre planète.
Le projet EBONI et le projet ALPALGA ont été soutenus par l’Agence nationale de la recherche (ANR), qui finance en France la recherche sur projets. Elle a pour mission de soutenir et de promouvoir le développement de recherches fondamentales et finalisées dans toutes les disciplines, et de renforcer le dialogue entre science et société. Pour en savoir plus, consultez le site de l’ANR.
Marie Dumont a reçu des financements de l'Agence National pour la Recherche (ANR EBONI et ALPALGA), du Centre National d'Etudes Spatiales (APR MIOSOTIS) et du European Research Council (ERC IVORI).
21.11.2024 à 11:14
Victor David, Chargé de recherches, Institut de recherche pour le développement (IRD)
Elle ne représente que 1 % de la surface terrestre, mais abrite 10 % de sa biodiversité. La mer Méditerranée est pourtant devenue fort vulnérable face aux bouleversements du climat et la dégradation des environnements. Autant de signaux alarmants nous invitant à repenser sa protection et son identité.
Accorder à la mer Méditerranée un statut d’entité naturelle juridique pour mieux la protéger. Depuis que l’idée est lancée, elle a pu être taxée tout à la fois d’irréalisable, d’utopique, de naïve, de dangereuse… Voici au moins quatre arguments qui montrent, à l’inverse, que ce projet est non seulement souhaitable, mais aussi nécessaire et réaliste.
Reconnaître des droits à des éléments de la nature, c’est la dernière étape en date dans l’histoire du droit, faite de reconnaissance et de conquêtes progressives de droits subjectifs par des êtres vivants. Les obstacles dans les combats pour l’égalité, pour se voir reconnaître des droits, depuis toujours, ont été nombreux, celles et ceux qui les ont menés le savent.
Ainsi, au XVIe siècle, le religieux espagnol Bartolomé de Las Casas plaidait pour la reconnaissance de l’humanité des indigènes amérindiens et leur droit à un traitement juste. En face, l’homme d’Église Juan Ginés de Sepúlveda, justifiait la conquête et l’asservissement des indigènes sous prétexte de leur supposée infériorité. S’en suivirent des mois de débats, avant que Charles Quint ne tranche en faveur de Las Casas.
En France, les planteurs et commerçants coloniaux soutenaient que l’économie des colonies, principalement basée sur la production de sucre, de café, et d’autres produits agricoles, dépendait entièrement de la main-d’œuvre esclave. Ils craignaient que leur affranchissement ne génère une hausse des coûts de production, l’insécurité économique et une chute de la compétitivité des produits français sur le marché international, sans parler de la déstabilisation de l’ordre colonial. Les propriétaires d’esclaves exigeaient également des compensations financières en cas d’abolition, car ils considéraient les esclaves comme une « propriété ». Il en aura fallu de l’humanisme et de la persévérance pour dépasser ses obstacles pour en arriver au décret d’abolition de l’esclavage du 27 avril 1848.
On peut aussi citer d’Olympe de Gouges se battant dans sa Déclaration des droits de la femme et de la citoyenne (1791), pour la reconnaissance des femmes en tant qu’égales aux hommes dans les droits et la dignité. Face à elle, certains opposants, influencés par les théories essentialistes, affirmaient que les femmes, par leur nature biologique, étaient moins aptes que les hommes à participer à la vie publique ou politique. Elles seraient, selon eux, plus émotives, moins rationnelles et mieux adaptées aux tâches domestiques et à la maternité. Le rôle « traditionnel » des femmes soutenu par l’Église catholique en France fut aussi un argument utilisé pour des raisons inverses par d’autres opposants à l’égalité craignant le conservatisme religieux des femmes. Il a fallu attendre 1944 pour que les femmes en France obtiennent le droit de vote et 1965 pour avoir celui de détenir leur propre compte bancaire et le combat des femmes pour l’égalité n’est pas terminé.
Pour suivre au plus près les questions environnementales, retrouvez chaque jeudi notre newsletter thématique « Ici la Terre ». Abonnez-vous dès aujourd’hui.
Pour la reconnaissance des droits de la Nature, les obstacles sont connus. Parmi eux, le statut actuel juridique des éléments de la Nature réduits à celui de biens, à l’instar des esclaves, appropriables par les individus ou par leurs regroupements. L’idée que d’une part les humains sont supérieurs aux autres éléments de la Nature est souvent associée à la pensée occidentalo-judéo-chrétienne. L’idée que la Nature est un bien (ou patrimoine) que l’homme peut exploiter à sa guise est aussi imputée à la philosophie de René Descartes, qui érigeait l’homme doué de science, « comme maître et possesseur de la nature » dans Le Discours de la méthode. Ce dernier n’était sans doute pas le premier à prôner cette idée, mais il a en effet contribué à une conception mécaniste de la nature.
Ces idées sur lesquelles la pensée occidentale s’est construite au cours de ces derniers siècles, qui se sont renforcées avec la domination technologique des forces de la nature, le recours accru aux « ressources naturelles » et le capitalisme, ont la vie dure. Penser à supprimer ou réduire l’inégalité juridique dans les relations entre humains et vivants non humains des mondes végétal, animal, minéral ou aquatique reviendrait dangereusement, pour un certain nombre de penseurs (juristes compris), à diminuer la supériorité humaine sur ces mondes. Le non-dit, corollaire, c’est que ça limiterait l’exploitation capitaliste des éléments de la Nature au nom du profit. Il est bien là l’obstacle à dépasser.
De fait, le constat est, dans l’arène juridique, que les relations entre les humains (et leurs groupements) et le non-humain vivant ou non, réduit au statut de bien, sont à sens unique, asymétriques et sources d’injustices et d’inégalités créées par le droit lui-même, tels que les privilèges découlant du droit de propriété des humains ou de souveraineté des États, ou encore l’absence d’intérêt propre à agir des éléments de la Nature pour ne citer que celles-là. Certes, des correctifs ont été apportés par le droit de l’environnement depuis une cinquantaine d’années. Ils demeurent cependant insuffisants et ne modifient en rien l’inégalité dans les interactions juridiques. Tout ceci doit donc nous amener à réfléchir autrement, à tester de nouvelles solutions pour accélérer les changements en faisant évoluer le statut juridique de la Nature et ses éléments. Les sortir de la catégorie des biens et leur reconnaître des droits, pas seulement comme bénéficiaires, cela existe déjà, mais en tant que titulaires.
À lire aussi : L’animisme juridique : quand un fleuve ou la nature toute entière livre procès
Peu le savent, mais le statut d’entités naturelles juridiques a déjà été utilisé en France.
Fin juin 2023, la Province des Îles Loyauté en Nouvelle-Calédonie adoptait une règlementation sur le droit du vivant dans laquelle était inscrite la création d’une nouvelle catégorie de sujets de droit, les entités naturelles juridiques (ENJ), que nous avions surnommées « anges », fidèles à la transcription phonétique [ɑ̃ʒ] de l’acronyme. Les ENJ ne sont ni des personnes juridiques ni des biens et ont leur propre régime juridique. Requins et tortues avaient ainsi été les premières espèces animales vivantes, emblématiques dans la culture kanake, à bénéficier de ce nouveau statut juridique, placé en haut de la hiérarchie de protection du Vivant. Les élus de la province, en accord avec les autorités coutumières des Îles Loyauté avaient décidé de reconnaître la qualité de sujet de droit à des éléments de la Nature en vertu du principe unitaire de vie, au cœur de la vision du monde kanak où l’homme et la Nature ne font qu’un.
Un an plus tard, dans le cadre d’un contentieux administratif à l’initiative de l’État, le Conseil d’État avait, cependant, dans un avis, conclu à l’incompétence de la province à créer des entités juridiques naturelles estimant que cette démarche relevait de la Nouvelle-Calédonie, dépositaire depuis 2013 de la compétence normative en matière de droit civil. Sur cette base, le tribunal administratif de Nouméa a annulé les dispositions de juin 2023 relatives aux ENJ. Les requins et tortues des eaux loyaltiennes n’auront été des anges qu’un an. Néanmoins, cette brève expérience a créé un précédent et montre qu’il est toujours possible de réformer le droit. Le passé nous montre lui que la reconnaissance de nouveaux droits a façonné l’histoire et demeure même à l’origine de droits que presque personne aujourd’hui ne penserait à remettre en question.
La mer Méditerranée, souvent qualifiée de berceau des civilisations, est bien plus qu’un simple espace maritime. Ses eaux abritent une biodiversité exceptionnelle (10 % de la biodiversité mondiale), essentielle pour le climat, les économies locales et la culture des peuples qui l’entourent. Pourtant, aujourd’hui, elle subit des pressions inédites. Pollutions, surpêche, hausse des températures et acidification des eaux, sans oublier les tensions géopolitiques qui sapent les efforts de protection.
Les initiatives actuelles de protection de la Méditerranée, bien qu’importantes, sont fragmentées et de ce fait souvent inefficaces. La Méditerranée englobe plus d’une vingtaine de territoires maritimes, zones économiques exclusives des États côtiers incluses. Les conventions internationales comme la Convention de Barcelone, ou des projets de création de zones marines protégées, peinent à enrayer la dégradation de l’écosystème. Ces initiatives restent tributaires des intérêts nationaux ou européens et économiques de chacun des 21 pays riverains. Face à ces menaces croissantes, une approche nouvelle se profile : la reconnaissance de la Méditerranée comme sujet de droit. En transformant la Méditerranée en un sujet de droit, on déplacerait le centre de gravité des politiques environnementales vers une approche holistique, où la protection de l’intégrité de la mer deviendrait une priorité absolue.
On passerait à une gouvernance unifiée et une responsabilité collective à l’échelle régionale et transfrontalière. Un tel changement impliquerait que les États et les entreprises opérant dans cette région soient responsables des atteintes à l’intégrité de la mer en tant qu’entité vivante. En clair, polluer la Méditerranée reviendrait à violer les droits de cette entité, créant des responsabilités juridiques tangibles pour les acteurs en cause.
Si la reconnaissance des droits de la Méditerranée comme entité naturelle juridique offre des perspectives prometteuses, le chemin pour y parvenir sera long. La première difficulté réside dans la mise en place d’un cadre juridique international contraignant. Les droits de la Nature, bien que reconnus dans certains pays, peinent à s’imposer au niveau mondial. Chaque État riverain de la Méditerranée a ses propres priorités économiques, politiques et environnementales, et il pourrait être difficile de les amener à adopter un cadre commun. Il est donc souhaitable de commencer avec quelques pays qui partageraient cette ambition pour la Méditerranée.
Un autre obstacle réside dans l’application de ces droits. Qui serait en charge de défendre les intérêts de la Méditerranée ? La reconnaissance d’écosystèmes naturels comme sujets de droit ailleurs dans le monde s’est accompagnée de la nomination de gardiens et de porte-parole, responsables de la protection des intérêts des entités reconnues comme personnes juridiques et de leur représentation devant les tribunaux. Un mécanisme similaire pourrait être envisagé pour la Méditerranée, avec la création d’une entité internationale ou d’une organisation (ou la transformation d’une déjà existante) dédiée à la défense de ses droits.
Ces gardiens pourraient inclure des représentants d’États, mais aussi des scientifiques, des ONG et des représentants des professionnels de la mer, des citoyens. Mais l’on peut aussi imaginer, en s’inspirant du modèle de l’Union européenne et de ses institutions, une nouvelle forme de gouvernance écologique de la mer avec ses propres organes issus d’une démocratie transméditerranéenne. Cette nouvelle gouvernance encouragerait, dans un esprit de justice environnementale, l’émergence d’initiatives innovantes pour répondre aux défis environnementaux, économiques et sociaux auxquels la région est confrontée plutôt que le conflit et les tragédies que nous vivons actuellement.
Faire de la Méditerranée une entité naturelle juridique à l’instar de ce qui a été fait pour les requins et tortues en Province des Îles Loyauté en Nouvelle-Calédonie n’est pas une simple question théorique, ni seulement un acte symbolique, mais une nécessité pratique et un levier puissant pour la construction d’un avenir durable. Cette révolution juridique nous offrirait une chance unique de réconcilier les besoins des humains avec ceux de la Nature, pour que la Méditerranée, source de vie et d’inspiration, continue de prospérer pour les générations à venir. C’est le pouvoir des anges qui ne meurent jamais.
À lire aussi : Kalymnos, une île grecque face aux mutations de la biodiversité marine
Victor DAVID, Chargé de Recherche à l'IRD est Membre de la Commission Mondiale du Droit de l'Environnement de l'UICN, Membre de la Commission droit et politiques environnementales du comité français de l'UICN et Membre du réseau d'experts Harmonie avec la nature des Nations unies (ONU). J'ai reçu via mon Institut qui assure ma rémunération des financements de la Province des Îles Loyauté (Nouvelle-Calédonie) pour ma recherche sur la thématique des droits de la Nature.
21.11.2024 à 11:01
Chloé Maurel, SIRICE (Université Paris 1/Paris IV), Université Paris 1 Panthéon-Sorbonne
La notion de « droits du vivant » fait débat au sein de la communauté internationale, comme l’a récemment montré la COP16 en Colombie. Accorder une personnalité juridique à la nature (fleuves, mer, forêts, etc) est-il contradictoire ou complémentaire avec l’urgence à faire respecter celle des humains ?
Alors que la 16e Conférence des parties sur la biodiversité se déroule jusqu’au 1er novembre en Colombie, la question du rôle que doit jouer la gouvernance internationale dans la protection du vivant est au cœur des discussions. En juillet 2021, le secrétaire général de l’ONU, le Portugais Antonio Guterres affichait ainsi une position forte, estimant qu’il était « hautement souhaitable » de créer le crime d’« écocide », en l’incluant dans la liste des crimes jugés par la Cour pénale internationale.
Certains pays ont déjà innové en reconnaissant des droits à la nature, par exemple à des fleuves. C’est le cas de l’Inde et de la Nouvelle-Zélande qui, depuis 2017, reconnaissent la personnalité juridique à des fleuves, comme le Gange et la Yamuna (Inde), et le fleuve Whanganui (Nouvelle-Zélande), afin de garantir leurs droits à être préservés dans leur intégrité.
Faut-il continuer dans ce sens, en étendant le concept aux différents éléments de la nature : fleuves, mers, forêts, zones humides, zones arides, animaux… ? Comme dans le film récent Le Procès du chien, qui évoque sur un mode humoristique mais au fond sérieux, la possibilité de considérer les animaux comme des personnes juridiques. Ou vaut-il mieux nous concentrer sur les droits des êtres humains, loin d’être garantis aujourd’hui dans le monde ?
Examinons quelques initiatives qui tendent à préserver les entités vivantes, leur socle philosophique, juridique et politique, avant de prendre la mesure des liens intimes entre droits des êtres humains et droits de la nature.
Ce sont d’abord les peuples autochtones qui ont considéré la nature comme une personne à part entière. Ainsi, depuis 1870 en Nouvelle-Zélande, la tribu Iwi luttait pour cela à propos du fleuve Whanganui. Ce fleuve, long de près de 300 kilomètres, a finalement été reconnu en 2017 par le parlement néo-zélandais comme une entité vivante, avec le statut de « personnalité juridique » », dans toute sa longueur, y compris ses affluents et ses rives.
Parallèlement, en Inde, les deux fleuves sacrés que sont le Gange et la Yamuna, sont élevés au rang d’_ « entités vivantes ayant le statut de personne morale » par la haute cour de l’État himalayen de l’Uttarakhand. Cela permet aux citoyens d’agir en justice pour protéger ces fleuves et lutter contre leur pollution industrielle déjà dramatique.
Le mouvement s’est amplifié dans les années suivantes : « De l’Équateur à l’Ouganda, de l’Inde à la Nouvelle-Zélande, par voie constitutionnelle, législative ou jurisprudentielle, des fleuves, des montagnes, des forêts se voient progressivement reconnaître comme des personnes juridiques, quand ce n’est pas la nature dans son ensemble – la Pachamama (la Terre Mère) – qui est promue sujet de droit. »
Pour la première fois en Europe, l’Espagne a, par le biais de son Sénat, reconnu, en 2022, des droits à la « Mar menor », lagune d’eau salée située sur le littoral méditerranéen, près de Murcie.
Pour suivre au plus près les questions environnementales, retrouvez chaque jeudi notre newsletter thématique « Ici la Terre ». Abonnez-vous dès aujourd’hui.
Ces mouvements, venus le plus souvent de groupes de citoyens très sensibilisés à l’écologie, s’appuient sur des réflexions philosophiques, politiques et juridiques.
Ces considérations trouvent leur origine dans les années 1970, période d’essor de la pensée écologiste. En 1972, le juriste américain Christopher Stone avait publié un essai remarqué : Les arbres doivent-ils pouvoir plaider ?, plaidant la cause des vénérables et anciens séquoias géants de Californie. Un changement conceptuel à saluer, pour la juriste Marie Calmet, comme une « révolution démocratique ». Elle applaudit notamment la décision de l’Équateur « où les citoyens se sont prononcés par référendum en faveur des droits de la Pachamama (la Terre Mère), dans le cadre de la Constitution adoptée en 2008 ».
Cependant, à l’heure où des êtres humains souffrent et meurent dans des conditions atroces, des bateaux de migrants en Méditerranée aux zones de guerre en Ukraine, au Soudan, en RDC ou à Gaza, ne faudrait-il pas mieux concentrer les efforts de la communauté internationale sur les êtres humains ? Ne vaut-il pas mieux prioriser les vies humaines sur les vies des arbres et des cours d’eau ?
En réalité, il s’agit des deux faces d’une même pièce. Le récent mouvement de pensée « One health » (« une seule santé »), qui s’est développé au sein des instances nationales et internationales de santé au moment de la crise du Covid-19 (2019-2022), considère qu’il faut « penser la santé à l’interface entre celle des animaux, de l’homme et de leur environnement, à l’échelle locale nationale et mondiale ».
Face aux crises sanitaires et environnementales, il s’agit de « trouver des solutions qui répondent à la fois à des enjeux de santé et des enjeux environnementaux » : 60 % des maladies infectieuses humaines ont, en effet, une origine animale, et la pollution d’un fleuve ou d’une nappe phréatique affecte la population autour.
Le concept One Health « lie donc la santé de l’humain à la santé des animaux, ainsi qu’à la santé des plantes et de l’environnement. Cette approche globale offre une vue d’ensemble pour comprendre et agir face aux différentes problématiques, qui se voient toutes reliées entre elles : les activités humaines polluantes qui contaminent l’environnement ; la déforestation qui fait naître de nouveaux pathogènes ; les maladies animales qui frappent les élevages ; ces mêmes maladies animales qui finissent par être à l’origine de maladies infectieuses pour l’humain (les zoonoses) ».
Comme l’analyse Gilles Bœuf, biologiste et spécialiste de la biodiversité, l’objectif est désormais, pour les défenseurs de la nature, que One Health devienne « un projet politique », « en mettant en place par exemple des dispositifs participatifs », et il faut comprendre que l’affirmation et la protection des droits du vivant vont dans le bon sens « pour le bien-être des citoyens ».
Il est ainsi essentiel de prendre en compte le fait que santé humaine, santé animale, santé végétale sont liées et que la protection de la nature (fleuves, forêts, mangroves, animaux…) va dans le bon sens pour préserver le mode de vie de nos sociétés.
Une interconnexion entre l’environnement naturel et les intérêts des populations humaines qui implique de transcender les frontières étatiques : la communauté internationale, à savoir l’ONU et ses agences (OMS, Unesco, FAO, OMM…) est particulièrement bien placée pour veiller à une régulation de ces intérêts, au moyen de conventions internationales.
Elle pourrait donc se saisir de ces enjeux pour établir une législation internationale afin de préserver le vivant sous toutes ses formes, au bénéfice de l’humanité tout entière.
Chloé Maurel ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
20.11.2024 à 21:00
Arnaud Van Waeyenberge, Professeur Associé en Droit, HEC Paris Business School
The Court of Justice of the European Union (CJEU) has ruled that harmonised technical standards – an influential form of governance – must be more accessible. Here’s what this landmark decision means.
Technical standardisation, which encompasses standards published by the International Organization for Standardization (ISO), has become a critical aspect of global regulation. Its scope has expanded far beyond goods, encompassing services, the environment, corporate social responsibility (ISO 26000) and anti-corruption measures (ISO 37000).
This trend is particularly evident within the European Union. The “new approach” to standardisation, launched in the 1980s by then European Commission president Jacques Delors, placed technical standards at the heart of the EU’s single market. The success of this approach, evidenced by the “CE” marking on products, was initially focused on goods and later extended to services. It plays a central role in the recent EU Artificial Intelligence Act, which requires AI computing services to comply with a series of technical standards, including for personal data security.
Over the past 30 years, the European Commission estimates that more than 3,600 “new approach” technical standards have been developed. The sectors covered by these standards represent over 1.5 trillion euros in annual trade – about 10% of the EU’s gross domestic product. These standards, developed by private bodies like the European Committee for Standardization (CEN) and the European Committee for Electrotechnical Standardization (CENELEC), are voluntary and require manufacturers and service providers to pay a fee to access them. However, compliance is not optional, because aligning with these standards creates a presumption of conformity with EU law. Failure to comply means manufacturers must either withdraw their products or prove compliance through alternative, often costly, means.
Until recently, these fee-based standards were viewed as a form of self-regulation beyond judicial scrutiny. That changed in 2016 when the CJEU ruled in the James Elliott Construction case that these technical standards produce legal effects, making them “part of the law of the Union”.
Following this ruling, two non-profit organisations, Public.Resource.org and Right to Know, whose mission is to make the law freely accessible to all citizens, asked the European Commission for free access to four harmonised standards. The Commission denied the request, a decision upheld by the General Court of the European Union in July 2021.
On March 5, 2024, the CJEU, the supreme body of the European legal order, overturned the decision, finding that an overriding public interest justified the disclosure of the harmonised standards in question. Moving forward, the Commission will need to grant requests for free access to harmonised standards.
This jurisprudential development has turned the technical standardisation model on its head. Indeed, given that these standards are becoming legalised and will henceforth be free of charge, the production and funding methods of standardisation bodies and the intellectual property protections they rely on must be re-evaluated. This evolution could also be an opportunity to improve the legitimacy of these standards.
[There are already over 120,000 subscriptions to The Conversation newsletters. What about you? Subscribe today for a better understanding of the world’s major issues.]
Based on figures from CEN, the potential loss of revenue from making these standards freely accessible could amount to around 11% of the 19 million euros of average annual revenue, or around 2 million euros. This calculation was made by averaging the revenues reported as income for each year between 2019 and 2022 in the 2021 CEN annual report and the 2022 CEN annual report.
This amount does not appear to be insurmountable for the Commission to manage, but it should be accompanied by a systemic reform. This reform would aim to involve civil society organisations more effectively, ensuring that technical standards impacting fundamental principles are developed with a diverse range of perspectives in mind. The Commission is best positioned to verify the genuine involvement of all stakeholders and ensure that standards bodies take their input into account.
Technical standards produced by “engineers” are not merely technical, neutral or optional, but are powerful modes of governance that have significant political implications. Consequently, these standards must not escape a democratic adoption procedure and respect for the rule of law under the control of the courts. It is therefore incumbent on the EU’s institutional bodies – the Commission, the Parliament and the Council of the European Union – to stop basing public policies, especially non-economic ones, on technical standards.
The EU’s recent AI legislation illustrates this tendency. When public authorities rely on technical standards, it gives the impression that norm-setting is being outsourced, allowing authorities to bypass the political process. This approach may be pragmatic, but it is legally questionable. The CJEU’s recent rulings signal a need for EU public decision-makers to change their approach.
Arnaud Van Waeyenberge ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
20.11.2024 à 20:59
Tina Lowrey, Professeur de marketing, HEC Paris Business School
L.J. Shrum, Professeur de marketing, HEC Paris Business School
In late 2024, more than 20 years after the birth of Facebook, the impact of social media on our lives cannot be overstated. Initially underestimated by many in business, social media eventually came to be recognised for its power to enable workers to share solutions, ideas and perspectives. While companies took time to see its potential, younger generations have been living part of their lives through social platforms for years. A 2023 Pew Research Center survey reveals that a majority of US youth aged 13 to 17 visit YouTube, TikTok and Snapchat at least “about once a day”, with roughly 15% saying they visit these platforms “almost constantly”.
This widespread use of social media has brought with it an increased focus on its effects on young people, particularly adolescents. Over the past year, we collaborated with our former doctoral student Elena Fumagalli to review research in this area and its potential impact on policymaking. Our findings were surprising and, at times, conflicting. While many studies share evidence of the negative impacts of social media use on adolescent wellbeing, the research we reviewed also showed conflicting findings and a dearth of high-quality research designs. And yet, policy decisions and media coverage are often based on them.
In response to this, we recently published a paper focusing on the most rigorous studies on this topic. Our goal was to identify research that we believe offers valid and dependable conclusions. Through this review, we discovered that social media’s effects on adolescent wellbeing are complex, varying by age, gender and the type of platform use.
A critical challenge in this area is what we call the “moving target” problem. Social media platforms are constantly evolving, making it difficult to generalise research findings from one period to another. For example, Facebook today is not what it was 10 or 15 years ago – its functionality, user base and even its name have changed. Similarly, platforms like Instagram have gained popularity, while others such as Friendster, Vine and Google’s Orkut have disappeared.
Given this ever-changing landscape, it’s nearly impossible to draw definitive conclusions from older studies. That’s why we focused our review on research conducted in the past five years, a period marked by significant advances in data collection and analysis. We limited our scope to adolescents and young adults aged 13 to 21 to better understand how social media affects wellbeing during these critical developmental years.
One of the most significant findings from our paper is that the negative effects of social media vary by age and gender, something which is rarely taken into consideration by authorities and the media. For girls, the most vulnerable period appears to be between 11 and 13 years old, while for boys it is between 14 and 15. These age ranges coincide with the onset of puberty, which we believe plays a significant role in how adolescents experience social media.
The beginning of puberty is already a challenging time for most young people, and social media seems to amplify these challenges. For example, body image issues, which often emerge during adolescence, are exacerbated by the highly curated and idealised content found on platforms like Instagram. While social media didn’t create these issues, it amplifies them like never before, making it harder for adolescents to ignore them.
Interestingly, we also found negative psychological effects for both boys and girls at age 19. This age corresponds to major life transitions such as leaving home, entering college or starting a job, all of which can induce anxiety. Social media appears to intensify these anxieties, possibly by fostering unrealistic expectations about life or creating a sense of inadequacy.
Another challenge we encountered in our research is the lack of clear definitions for what constitutes “social media use.” Furthermore, platforms vary significantly in their design, function, and audience, and these differences matter when it comes to their effects on wellbeing. For instance, image-based platforms like Instagram tend to have a more significant negative impact on body image than text-based platforms such as X (formerly Twitter).
Moreover, the way adolescents and young adults use social media also matters. We found that active use, where individuals post and engage with others, is linked to more positive self-esteem. In contrast, passive use, where users merely scroll through content without interacting, is associated with negative effects on wellbeing. These differences are crucial to understanding social media’s impact and need to be better accounted for in future research.
A further factor is the intentional addictiveness of these platforms. Whistleblowers have revealed that many social media companies design their products to be habit-forming, encouraging users to spend more time on their platforms. This makes social media more invasive than previous technologies like television or radio, and its influence is likely to extend into the workplace as today’s adolescents enter the job market.
Our study highlights the need for more long-term, rigorous research to better understand social media’s impact on wellbeing. Recent studies suggest that various moderators – such as the type of platform and patterns of use – can either worsen or mitigate the negative effects of social media. These must be taken into account in evaluating measures to take against these negative consequences.
We also believe it’s important to look beyond adolescence. As the next generation enters the workforce, their social media habits are likely to follow them, potentially affecting their productivity and mental health. This is why we advocate for more longitudinal studies that track social media use over time and examine its long-term effects on wellbeing.
As we have found, despite the complexities and inconsistencies in social media research, politicians and the media often draw simplistic conclusions. For example, the Kids Off Social Media Act, a US bipartisan effort to ban social media for children under 13, reflects a tendency to make blanket statements about the dangers of social media. While it’s true that younger adolescents are more vulnerable to its negative impacts, age is not the only factor that matters. The type of platform, how it’s used, and individual psychological differences also play significant roles. Therefore, we must be careful not to jump to conclusions or implement one-size-fits-all solutions. Instead, we need nuanced, data-driven policies that account for the many variables at play.
Finally, as social media continues to evolve, so too must our understanding of its effects. More detailed, high-quality research can help guide interventions and programmes that protect the wellbeing of adolescents and young adults. With the right approach, we can better understand and mitigate the risks associated with this powerful technology.
Tina Lowrey a reçu des financements de HEC Foundation.
L.J. Shrum a reçu des financements de HEC Foundation
20.11.2024 à 17:11
Jean-Marie Cardebat, Professeur d'économie à l'Université de Bordeaux et Prof. affilié à l'INSEEC Grande Ecole, INSEEC Grande École
Donald Trump l’a promis à ses électeurs : les droits de douane vont augmenter pour tous les produits. Quel impact cela pourrait-il avoir sur la filière vinicole française ? Tout dépendra du montant finalement retenu de la taxe. Plus fondamentalement, les entreprises du secteur doivent prendre acte de la démondialisation en cours et revoir la carte mondiale de leurs clients.
Lors de sa campagne aux élections présidentielles américaines, Donald Trump a affiché une féroce volonté protectionniste. Ce n’est plus seulement la Chine qui est dans son collimateur, mais le monde entier. Pour les échanges commerciaux, Trump 2 sera vraisemblablement pire que Trump 1. Dès lors, que doit craindre la viticulture française dans ce contexte ?
Encore traumatisée par la taxe Trump de 25 % d’octobre 2019 à mars 2021, la filière française anticipe de nouvelles difficultés pour exporter ses vins vers les États-Unis. La comparaison entre la précédente taxe Trump et ce qui est annoncé par le futur président américain laisse cependant un peu d’espoir. Deux éléments risquent de changer la donne : le montant de la nouvelle taxe et son périmètre, à savoir les pays qui seront touchés par cette taxe.
Il existe un certain flou sur le montant des droits de douane qui seront imposés aux vins importés aux États-Unis. Le chiffre le plus courant annoncé par Trump se situe entre 10 et 20 % pour tous les produits non chinois (60 % pour les produits chinois). 10 % ou 20 % ce n’est pas bien entendu la même histoire. On peut espérer cependant que le montant finalement retenu soit plutôt autour de 10 %.
À lire aussi : Les États-Unis ne croient plus en la mondialisation, et leur économie se porte bien malgré tout
Sinon l’effet inflationniste sur l’économie américaine serait trop important. Les économistes ont du mal à imaginer comment les consommateurs américains pourraient accepter un choc de 20 % de hausse des prix des produits importés. Surtout après la période inflationniste qu’ils viennent de subir. Des droits de douane trop élevés seraient donc très impopulaires, même si Trump fait le pari d’augmenter le revenu des ménages américains via des baisses de prélèvements et d’impôts financés par ces droits de douane afin de maintenir le pouvoir d’achat de ses concitoyens.
Le périmètre de la taxe Trump de 2019 était limité à trois pays : la France, l’Espagne et l’Allemagne, soit les trois pays du consortium Airbus. La mise en place de la taxe s’inscrivait dans le cadre d’un litige entre les États-Unis et l’UE sur la question aéronautique. Les droits de douane prévus lors de cette seconde mandature vont toucher tous les pays, ce qui constitue un changement profond.
Car si les vins français ont tant souffert en 2019, avec 40 % de ventes perdues et un manque à gagner estimé à 600 millions d’euros, c’est aussi qu’il y a eu d’importants effets de report des consommateurs américains vers d’autres vins importés. En particulier vers les vins rouges italiens, déjà leaders aux États-Unis. Pour le dire autrement, les Italiens ont été les grands gagnants de la taxe Trump. Pour les vins blancs, ce sont les Néo-Zélandais qui ont profité de la taxe. Cette fois, tout le monde devrait être touché. Les gagnants ne pourront être que les vins américains, qui, par définition, seront les seuls à ne pas être taxés.
Quel serait l’effet d’une taxe de 10 % touchant tous les vins importés aux États-Unis ? L’expérience montre qu’une partie de ces 10 % sera absorbée par la chaîne d’intermédiaires allant du producteur au consommateur, chacun acceptant une baisse marginale de son prix. Chacun (importateurs, grossistes, détaillants) souhaitant conserver sa part de marché, on peut imaginer que la hausse finale de prix sera inexistante ou extrêmement limitée. C’est ce qu’on appelle un comportement de marge, classique en cas de variation des taux de change ou de droits de douane. Une taxe de 10 % ne fait donc pas craindre d’effondrement de marché pour les vins français sur le marché des États-Unis. L’effet volume serait très contenu, mais la marge légèrement rognée.
L’équation se compliquerait cependant avec une taxe qui serait fixée à 20 %. Trop importante pour que des comportements de marge gomment l’effet de la fiscalité sur le prix final au consommateur. Dans ce cas, une hausse des prix finaux, dont l’ampleur dépendra du taux d’absorption par la chaîne d’intermédiaires, est inévitable. Les grands gagnants seront les producteurs américains vers lesquels se tourneront les consommateurs locaux.
Pour les vins français, l’effet dépendra de la sensibilité des consommateurs américains aux prix. Les vins les plus chers, qui sont aussi les plus demandés et les plus « uniques », sont toujours moins sensibles aux variations de prix. En revanche, les vins d’entrée et de milieu de gamme, qui sont le plus soumis à la concurrence, verront leur demande diminuer sensiblement.
Donald Trump étant lui-même producteur de vin, en concurrence avec les vins européens, une taxe supérieure à 10 % pour le vin n’est pas à exclure. Ce n’est pas le scénario privilégié pour autant. La politique économique américaine semble en fait surtout orientée vers l’industrie. L’idée des droits de douane s’inscrit dans la continuité de celle de l’Inflation Reduction Act (IRA), initiée par le démocrate Joe Biden. Ces politiques ont pour objectif de créer une incitation économique forte à l’installation de l’industrie mondiale sur le sol américain. Le vin devrait donc passer sous les radars.
Néanmoins, malgré des effets attendus limités pour la filière vin française, cette nouvelle annonce protectionniste contribue au sentiment latent de démondialisation. Le marché russe s’est fermé avec la guerre en Ukraine. Le marché chinois impose des taxes aux brandys européens (essentiellement le Cognac à l’export) de 35 %.
L’accès aux grands marchés semble donc très précaire et on ne voit pas d’amélioration à court terme. Au-delà de Trump, il est grand temps d’acter cette démondialisation. De comprendre que les flux d’exports doivent significativement se réorienter vers des pays où la fiscalité serait plus propice aux échanges. De nombreux pays en Asie, en Afrique, en Amérique latine constituent des réservoirs potentiels de consommateurs. Les Européens sont à reconquérir également, mais avec des vins différents. Le marketing doit donc s’adapter à cette nouvelle donne internationale.
Jean-Marie Cardebat est Président de la European Association of Wine Economists
20.11.2024 à 17:11
Mathieu Marly, Responsable éditorial de l'Encyclopédie d'histoire numérique de l'Europe (Sorbonne Université - Éducation nationale), agrégé, docteur en histoire contemporaine et chercheur associé au laboratoire SIRICE, Sorbonne Université
Gaël Lejeune, Enseignant-chercheur, Sorbonne Université
À l’heure où l’intelligence artificielle accélère la propagation de fausses images et de photos sorties de leur contexte, apprendre aux élèves à sourcer leurs informations est plus important que jamais. Et les cours d’histoire se doivent d’intégrer aujourd’hui une formation à l’histoire numérique que peuvent faciliter des outils comme le projet VIRAPIC qui aide à repérer des photos virales.
Chaque jour, des images en lien avec des évènements historiques sont mises en ligne sans être référencées – avec leur auteur, leur date, leur localisation, leur lieu de conservation – et encore moins contextualisées par un commentaire historique. C’est le cas, par exemple, de cette photographie, la plus souvent publiée pour représenter les exactions des « mains coupées » dans le Congo de Léopold II, au tournant du XIXe au XXe siècle. En 2024, on la retrouve sur des milliers de pages web sans que l’auteur de cette photographie soit toujours mentionné et sans faire l’objet d’un commentaire historique approprié.
Cette photographie semble illustrer de manière saisissante les exactions commises par les compagnies de caoutchouc au Congo. Mais que peut-on voir de cette photographie sans connaître son histoire ? Le spectateur est ici contraint d’interpréter le message photographique au filtre de ses propres représentations, saisi par le contraste entre les victimes et les Européens habillés de blanc jusqu’au casque colonial, lesquels semblent justifier les châtiments corporels par leur pose hiératique.
En réalité, cette photographie a été prise en 1904 par une missionnaire protestante, Alice Seeley Harris, pour dénoncer ces violences et les deux hommes sur la photographie participent à cet acte de résistance photographique qui contribuera à mobiliser l’opinion publique européenne contre les crimes commis dans l’État indépendant du Congo. L’identité et les intentions du photographe ne sont pas ici un détail : ils rendent compte d’une réalité historique plus complexe, celle d’une « polyphonie morale » des sociétés européennes à la fin du XIXe siècle, divisées sur le bien-fondé et les dérives de la colonisation.
Des exemples comme celui-ci, il en existe des milliers sur le web, les publications et partages d’images générant un brouillard de photographies décontextualisées, rendues virales par les algorithmes des moteurs de recherche et des réseaux sociaux numériques.
Prenons l’exemple de ce tweet d’Eric Ciotti posté le 16 juillet 2024 en commémoration de la rafle du Vel d’Hiv :
La photographie postée n’a pas grand-chose à voir avec les rafles des 16 et 17 juillet 1942 : il s’agit en réalité d’un cliché montrant des Français soupçonnés de collaboration enfermés au Vel d’Hiv après le Libération. Ce compte Twitter n’est pas le seul à reproduire cette erreur ; il faut noter que les algorithmes de Google images ont longtemps placé cette photographie dans les premiers résultats de recherche à la suite des mots clefs « Rafle du Vel d’Hiv ».
La rectification de cette erreur est-elle seulement l’affaire des historiens préoccupés par l’identification des sources ? En réalité, cette erreur participe à la méconnaissance historique de la rafle du Vel d’Hiv. Comme le montre l’historien Laurent Joly, il existe une seule photographie de la rafle, prise le 16 juillet 1942 à des fins de propagande et pourtant jamais publiée dans la presse. Ce détail n’est pas anodin, il révèle que les autorités allemandes ont interdit la publication des photographies de la rafle, alertées par la désapprobation de la population parisienne.
Ces quelques exemples doivent nous alerter sur l’usage illustratif de la photographie encore trop présent dans l’édition scolaire. Faute de place, les manuels se contentent, le plus souvent, d’une simple légende sans commentaire pour éclairer ou confirmer le cours de l’enseignant.
L’usage des photographies par les historiens a pourtant évolué ces dernières années, considérant désormais celle-ci comme de véritables archives auxquelles doivent s’appliquer les règles élémentaires de la critique des sources. Un tel usage gagnerait certainement à être généralisé dans l’enseignement de l’histoire pour sensibiliser les élèves à la critique documentaire – le plus souvent résumée par la méthode SANDI (Source, Auteur, Nature, Date, Intention). Car, si cette méthode est parfois jugée artificielle par les élèves, elle trouve une justification, pour ainsi dire immédiate, dans la critique de l’archive photographique.
À lire aussi : Quelle éducation aux images à l’heure des réseaux sociaux ?
En effet, le regard porté par les élèves sur l’image photographique change radicalement une fois connue son histoire.
Cette approche documentaire est d’autant plus nécessaire que les élèves et les étudiants s’informent aujourd’hui de plus en plus sur les réseaux sociaux, des réseaux où les photographies sont relayées par des armées de comptes sans scrupules méthodologiques et parfois orientées par des lectures complotistes du passé.
Il faut encore ajouter une autre donnée pour comprendre l’enjeu pédagogique qui attend les enseignants d’histoire dans les années à venir : d’ici 2026, selon un rapport d’Europol, la majorité du contenu disponible sur le web sera généré par l’IA. Cela impliquera probablement la publication de fausses photographies de plus en plus crédibles et sophistiquées, lesquelles tiendront lieu de preuve à des fictions déguisées en histoire.
La prolifération des IA génératives, l’accélération des échanges de photographies inventées, détournées ou décontextualisées constituent un véritable défi pédagogique. Comment enseigner l’histoire aux élèves sans leur transmettre les outils pour affronter la désinformation historique en ligne ? Comment expliquer aux élèves l’environnement numérique dans lequel ils sont immergés (IA, algorithmes, vitalités des images) sans proposer un cours d’histoire qui soit aussi un cours d’histoire numérique ?
Pour répondre à ces défis, l’Encyclopédie d’histoire numérique de l’Europe (EHNE-Sorbonne Université) et les équipes d’informaticiens du CERES-Sorbonne Université élaborent un nouvel outil qui vise autant un public d’enseignants que d’éditeurs et les journalistes : le projet VIRAPIC, une plate-forme numérique dont l’objectif est de repérer les photographies virales (reproduites en ligne à une très grande échelle et/ou sur un laps de temps réduit) lorsque celles-ci sont inventées, détournées ou décontextualisées des évènements historiques qu’elles prétendent illustrer.
L’objectif est double. Il s’agit d’injecter du contenu historique autour des photographies virales (source, légende, commentaire historiques) et d’analyser les viralités numériques des photographiques (Qui les publie ? Sur quels supports ? Avec quelle temporalité ?). Le projet VIRAPIC aborde surtout le problème de la désinformation historique par une approche pragmatique : lutter contre la viralité de la désinformation par le référencement du travail historien sur les moteurs de recherche.
L’originalité de cet outil tient en effet à la possibilité d’agir directement sur les pratiques des internautes grâce au référencement de l’Encyclopédie EHNE dont les pages web apparaissent dans les premiers résultats des moteurs de recherche. Ainsi, les internautes recherchant des photographies pour illustrer les évènements historiques verront apparaître les pages web EHNE/VIRAPIC dans les premiers résultats de recherche comme Google Images.
En constituant une base de référencement des photographies virales, détournées, décontextualisées ou inventées autour d’évènement historiques, le projet VIRAPIC permettra d’accéder rapidement à un contenu historique solide et critique sur les images que les élèves, enseignants ou éditeurs souhaitent publier en ligne ou utiliser en cours.
Science et Société se nourrissent mutuellement et gagnent à converser. La recherche peut s’appuyer sur la participation des citoyens, améliorer leur quotidien ou bien encore éclairer la décision publique. C’est ce que montrent les articles publiés dans notre série « Science et société, un nouveau dialogue », publiée avec le soutien du ministère de l’Enseignement supérieur et de la Recherche.
Mathieu Marly a reçu des financements du CNRS
Gaël Lejeune a reçu des financements de BPI France.
20.11.2024 à 17:11
Adrien Mével, Docteur en science politique, Université de Rennes 1 - Université de Rennes
Amorcé par le précédent gouvernement, le Beauvau des polices municipales reprend le 21 novembre et devrait rendre ses conclusions en mars prochain. L’enjeu est de baliser la future « loi-cadre » que le ministre délégué chargé de la Sécurité du quotidien, Nicolas Daragon, appelle de ses vœux. Ce dernier souhaite renforcer les prérogatives de la police municipale.
Aujourd’hui s’ouvre une nouvelle séquence du Beauvau des polices municipales, un espace de discussion associant ministres, représentants de syndicats de la fonction publique territoriale, associations d’élus locaux, parlementaires et membres de l’institution judiciaire. L’objectif explicite est de trouver des moyens d’augmenter le pouvoir des polices municipales : le ministre délégué à la Sécurité du quotidien, Nicolas Daragon a déclaré que si la police municipale est « bel et bien la troisième force de sécurité du pays, (elle est bridée) dans sa capacité à intervenir ». L’extension de ses pouvoirs s’inscrirait en particulier dans le cadre de la répression du trafic de stupéfiants.
Les policiers municipaux sont placés sous l’autorité du maire, et n’ont pas de pouvoir d’enquête. Contrairement aux policiers nationaux, ils ne peuvent par exemple pas réaliser de contrôle d’identité ou de fouille de personnes ou de véhicules. Depuis la loi de 1999 qui a fixé le cadre légal de la profession, les pouvoirs des agents sont restés globalement inchangés.
Plusieurs tentatives de renforcement des pouvoirs des policiers municipaux ont déjà eu lieu : en 2011, la loi d’orientation et de programmation pour la performance de la sécurité intérieure II et plus récemment, en 2020, la proposition de loi « sécurité globale », qui listait une série de délits pour lesquels les policiers municipaux auraient été autorisés à agir de manière autonome. Ces dispositions ont été censurées par le Conseil constitutionnel qui a jugé qu’elles contrevenaient au principe de placement de la police judiciaire sous le contrôle de l’autorité judiciaire. D’où la recherche par le pouvoir central d’une nouvelle solution, le placement temporaire et optionnel des policiers municipaux sous l’autorité du procureur de la République.
Nicolas Daragon a insisté sur le caractère facultatif de cette délégation, échouant toutefois à désamorcer l’expression de réticences de la part d’élus locaux. Bien que la prise de plainte par les policiers municipaux – une possibilité que redoutent les maires et les agents car elle entraînerait un important transfert de charge administrative de la police nationale vers les polices municipales – n’est pas sur la table aux dires du ministre, il est à prévoir que les maires n’accueilleront pas tous favorablement une mesure qui se traduirait par une diminution de leur mainmise sur la police municipale. Même s’il a été présenté comme procédant du libre choix des communes, ce placement pourrait vite devenir un objet de négociation dans l’établissement des conventions de coordination entre villes et services étatiques.
Le ministre a annoncé trois mesures phares pour les polices municipales : le droit de consulter des fichiers (comme le fichier des personnes recherchées, le système des immatriculations de véhicule ou le fichier national des permis de conduire), d’effectuer des contrôles d’identité, et la possibilité d’infliger des amendes forfaitaires délictuelles (AFD) pour le délit de détention de stupéfiants.
Concernant l’AFD, il ne s’agit pas du premier essai de ce type, l'article premier de loi dite « sécurité globale » visait à donner ce pouvoir aux agents de police municipale, et a fait partie des éléments censurés par le Conseil constitutionnel.
À lire aussi : Comment le fichage policier est-il contrôlé ?
Si la solution qu’explore le gouvernement permettait de passer cette fois l’épreuve du contrôle de constitutionnalité, les policiers municipaux pourraient alors verbaliser le délit de détention de stupéfiants dans certains cas. Cependant, les études sur ce dispositif mettent surtout en lumière des effets socio-économiques négatifs sur les populations visées (avec une multiverbalisation qui peut générer de très importantes dettes au Trésor public), et peut créer chez les personnes mises à l’amende un sentiment d’un arbitraire policier de fait affranchi du contrôle judiciaire. La Défenseure des droits a d’ailleurs préconisé l’abandon de ce dispositif, arguant entre autres des problèmes en matière d’accès aux juges par les personnes sanctionnées et de respect des droits de la défense.
Pour ce qui est de l’accès aux fichiers administratifs, le gouvernement souhaite que les agents puissent les consulter sans avoir besoin de solliciter la police nationale. L’objectif est de leur permettre d’accéder rapidement à des informations sur les individus qu’ils contrôlent. Si cet enjeu est devenu aussi important, c’est en partie car les usages de ces bases de données par les policiers nationaux se sont multipliés. Les policiers municipaux, eux, n’ont qu’un accès indirect et limité à ces informations.
Nicolas Daragon souhaite que les policiers municipaux puissent effectuer des contrôles d’identité. Cet outil est massivement utilisé par les policiers nationaux tandis que les agents de police municipale ne peuvent, en droit, réaliser que des relevés d’identité. Ils peuvent demander la présentation de documents d’identité lorsqu’il s’agit de verbaliser une infraction mais ne peuvent pas obliger les personnes contrôlées à justifier leur identité. Dans les faits pourtant, les pratiques des policiers municipaux peuvent s’avérer assez proches de celles des agents de police nationale.
J’ai pu constater au cours de mes enquêtes de terrain que les policiers municipaux utilisent des infractions prétextes (avoir traversé en dehors du passage clouté par exemple) pour obtenir les papiers d’identité d’individus. Ils peuvent aussi jouer sur l’ambiguïté entre des injonctions légales et des demandes cherchant à obtenir le consentement des individus ciblés. Par exemple, demander : « est-ce que vous pouvez ouvrir votre sac s’il vous plaît ? », sachant qu’ils n’ont pas le pouvoir de l’imposer mais comptant sur le consentement et l’ignorance de la loi des personnes contrôlées.
Si elles devaient être adoptées, les mesures envisagées renforceraient clairement le pouvoir des policiers municipaux. Elles interrogent néanmoins le rôle des polices municipales, et présentent des risques de dégradation des rapports de ces agents à la population en les dotant d’outils générateurs de conflits.
Mais dans les faits, cette réforme ne signerait pas une évolution notable des missions de police municipale vers la répression de la délinquance, elle ne ferait qu’accompagner un processus déjà bien engagé.
En s’appuyant sur l’article 73 du Code de procédure pénale, les policiers municipaux sont déjà en mesure d’interpeller dans le cadre du flagrant délit. J’ai pu observer que le recours à cet article ne se fait pas seulement lorsque des policiers municipaux tombent « par hasard » sur un délit en train de se commettre. La possibilité d’interpeller ouvre en fait la possibilité d’une recherche active du flagrant délit, c’est-à-dire d’orientation des patrouilles et des modes de présence dans l’espace public pour maximiser les chances d’assister à un délit, avec une focalisation croissante des agents sur la vente de stupéfiants.
Bien que diversement investie en fonction des villes, des unités et des profils d’agents, la répression de la détention et de la vente de stupéfiants est déjà prise en charge par les policiers municipaux. Tout indique qu’elle le sera de plus en plus, avec ou sans extension des compétences judiciaires, sans que cette politique n’ait produit d’effets positifs clairs.
sec
Adrien Mével ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.