03.04.2025 à 20:03
Mélissa Berthet, Docteur en biologie spécialisée en comportement animal, University of Zurich
Les bonobos – nos plus proches parents vivants – créent des combinaisons de cris complexes et avec du sens, semblables aux phrases dans le langage humain. Nos résultats, publiés aujourd’hui dans la revue Science, remettent en question de vieilles croyances sur ce qui rend la communication humaine unique et suggèrent que certains aspects clés du langage ont une origine évolutive ancienne.
Les humains combinent sans effort les mots en phrases, ce qui nous permet de parler d’une infinité de sujets. Cette capacité repose sur la syntaxe compositionnelle (ou « syntaxe » dans la suite de ce texte) – la capacité de créer des combinaisons d’unités porteuses de sens dont le sens global est dérivé du sens des unités et de la façon dont elles sont agencées. Par exemple, l’expression « robe bleue » a un sens dérivé de « robe » et « bleue », elle est compositionnelle – au contraire de « tourner autour du pot », dont le sens n’a rien à voir avec « tourner » et « pot ».
La syntaxe nous permet par exemple de combiner les mots en phrases, elle est omniprésente dans notre communication. Au contraire, quelques rares exemples isolés de syntaxe ont été observés chez d’autres espèces, comme les mésanges japonaises et les chimpanzés. Les scientifiques ont donc longtemps pensé que l’omniprésence de la syntaxe était propre au langage humain et que les combinaisons vocales chez les animaux n’étaient surtout qu’une simple juxtaposition aléatoire de cris. Pour vérifier cela, nous avons mené une étude approfondie de la communication vocale des bonobos dans leur habitat naturel, la réserve communautaire de Kokolopori (République Démocratique du Congo). Nos résultats révèlent que, tout comme le langage humain, la communication vocale des bonobos repose également largement sur la syntaxe.
Étudier la syntaxe chez les animaux nécessite d’abord une compréhension approfondie du sens des cris, isolés et combinés. Cela a longtemps représenté un défi majeur, car il est difficile d’infiltrer l’esprit des animaux et décoder le sens de leurs cris. Avec mes collègues biologistes de l’Université de Zürich et de Harvard, nous avons donc développé une nouvelle méthode pour déterminer avec précision la signification des vocalisations animales et l’avons appliquée à l’ensemble des cris de bonobos, aussi bien les cris isolés que les combinaisons.
Nous sommes partis du principe qu’un cri pouvait donner un ordre (par exemple, « Viens »), annoncer une action future (« Je vais me déplacer »), exprimer un état interne (« J’ai peur ») ou faire référence à un événement externe (« Il y a un prédateur »). Pour comprendre de manière fiable le sens de chaque vocalisation tout en évitant les biais humains, nous avons décrit en détail le contexte dans lequel chaque cri était émis, en utilisant plus de 300 paramètres contextuels.
Par exemple, nous avons décrit la présence d’événements externes (y avait-il un autre groupe de bonobos à proximité ? Est-ce qu’il pleuvait ?) ainsi que le comportement du bonobo qui criait (était-il en train de se nourrir, de se déplacer, de se reposer ?). Nous avons également analysé ce que l’individu qui criait et son audience faisaient dans les deux minutes suivant l’émission du cri, c’est-à-dire tout ce qu’ils commençaient à faire, continuaient à faire ou arrêtaient de faire. Grâce à cette description très détaillée du contexte, nous avons pu attribuer un sens à chaque cri, en associant chaque vocalisation aux éléments contextuels qui lui étaient fortement corrélés. Par exemple, si un bonobo commençait toujours à se déplacer après l’émission d’un certain cri, alors il était probable que ce cri signifie « Je vais me déplacer ».
Grâce à cette approche, nous avons pu créer une sorte de dictionnaire bonobo – une liste complète des cris et de leur sens. Ce dictionnaire constitue une avancée majeure dans notre compréhension de la communication animale, car c’est la première fois que des chercheurs déterminent le sens de l’ensemble des vocalisations d’un animal.
Dans la seconde partie de notre étude, nous avons développé une méthode pour déterminer si les combinaisons de cris des animaux étaient compositionnelles, c’est-à-dire, déterminer si les bonobos pouvaient combiner leurs cris en sortes de phrases. Nous avons identifié plusieurs combinaisons qui présentaient les éléments clés de la syntaxe compositionnelle. De plus, certaines de ces combinaisons présentaient une ressemblance frappante avec la syntaxe plus complexe qu’on retrouve dans le langage humain.
Dans le langage humain, la syntaxe peut prendre deux formes. Dans sa version simple (ou « triviale »), chaque élément d’une combinaison contribue de manière indépendante au sens global, et le sens de la combinaison est la somme du sens de chaque élément. Par exemple, l’expression « danseur blond » désigne une personne à la fois blonde et faisant de la danse ; si cette personne est aussi médecin, on peut également en déduire qu’elle est un « médecin blond ». À l’inverse, la syntaxe peut être plus complexe (ou « non triviale ») : les unités d’une combinaison n’ont pas un sens indépendant, mais interagissent de manière à ce qu’un élément modifie l’autre. Par exemple, « mauvais danseur » ne signifie pas qu’il s’agit d’une mauvaise personne qui est aussi danseuse. En effet, si cette personne est aussi médecin, on ne peut pas en conclure qu’elle est un « mauvais médecin ». Ici, « mauvais » ne possède pas un sens indépendant de « danseur », mais vient en modifier le sens.
Des études antérieures sur les oiseaux et les primates ont démontré que les animaux peuvent former des structures compositionnelles simples. Cependant, aucune preuve claire de syntaxe plus complexe (ou non triviale) n’avait encore été trouvée, renforçant l’idée que cette capacité était propre aux humains.
En utilisant une méthode inspirée de la linguistique, nous avons cherché à savoir si les combinaisons de cris des bonobos étaient compositionnelles. Trois critères doivent être remplis pour qu’une combinaison soit considérée comme telle : d’abord, les éléments qui la composent doivent avoir des sens différents ; ensuite, la combinaison elle-même doit avoir un sens distinct de celle de ses éléments pris séparément ; enfin, le sens de la combinaison doit être dérivé du sens de ses éléments. Nous avons également évalué si cette compositionnalité est non triviale, en déterminant si le sens de la combinaison est plus qu’une addition du sens des éléments.
Pour cela, nous avons construit un « espace sémantique » – une représentation en plusieurs dimensions du sens des cris des bonobos – nous permettant de mesurer les similarités entre le sens des cris individuels et des combinaisons. Nous avons utilisé une approche de sémantique distributionnelle qui cartographie les mots humains selon leur sens, en considérant que les mots avec un sens proche apparaissent dans des contextes similaires. Par exemple, les mots « singe » et « animal » sont souvent utilisés avec des termes similaires, tels que « poilu » et « forêt », ce qui suggère qu’ils ont un sens proche. À l’inverse, « animal » et « train » apparaissent dans des contextes différents et ont donc des sens moins proches.
Avec cette approche linguistique, nous avons pu créer un espace sémantique propre aux bonobos, où l’on a pu cartographier chaque cri et chaque combinaison de cris selon s’ils étaient émis dans des contextes similaires ou non (donc, s’ils avaient un sens proche ou non). Cela nous a permis de mesurer les liens entre le sens des cris et de leurs combinaisons. Cette approche nous a ainsi permis d’identifier quelles combinaisons répondaient aux trois critères de compositionnalité, et leur niveau de complexité (triviale vs non triviale).
Nous avons identifié quatre combinaisons de cris dont le sens global est dérivé du sens de leurs éléments, un critère clé de la compositionnalité. Fait important, chaque type de cri apparaît dans au moins une combinaison compositionnelle, tout comme chaque mot peut être utilisé dans une phrase chez les humains. Cela suggère que, comme dans le langage humain, la syntaxe est une caractéristique fondamentale de la communication des bonobos.
De plus, trois de ces combinaisons de cris présentent une ressemblance frappante avec les structures compositionnelles non triviales du langage humain. Cela suggère que la capacité à combiner des cris de manière complexe n’est pas unique aux humains comme on le pensait, et que cette faculté pourrait avoir des racines évolutives bien plus anciennes qu’on ne le pensait.
Un bonobo émet un subtil “peep” (“Je voudrais… ”) suivi d’un “whistle” (“Restons ensemble”). Ce cri est émis dans des situations sociales tendues, il a un sens proche de “Essayons de trouver un arrangement” ou “Essayons de faire la paix”
Une implication majeure de cette recherche est l’éclairage qu’elle apporte sur l’évolution de la syntaxe dans le langage. Si nos cousins bonobos utilisent de façon extensive la syntaxe compositionnelle, tout comme nous, alors notre dernier ancêtre commun le faisait probablement aussi. Cela suggère que la capacité à construire des sens complexes à partir de plus petites unités vocales était déjà présente chez nos ancêtres il y a au moins 7 millions d’années, voire plus tôt. Ces nouvelles découvertes indiquent que la syntaxe n’est pas propre au langage humain, mais qu’elle existait probablement bien avant que le langage n’émerge.
Mélissa Berthet a reçu des financements du Fond National Suisse (SNF).
03.04.2025 à 17:52
Christophe Vigny, chercheur en géophysique, École normale supérieure (ENS) – PSL
Un séisme a touché l’Asie du Sud-Est le 28 mars 2025. D’une magnitude de 7,7, son épicentre est localisé au Myanmar, un pays déjà très fragilisé par des années de guerre civile. Les secousses sismiques y ont été très destructrices, notamment car elles ont « liquifié » le sol sous les bâtiments dans la plaine sédimentaire de la rivière Irrawady.
Le séisme du 28 mars qui s’est produit au Myanmar (Birmanie) est une catastrophe de très grande ampleur. Il s’agit d’un très gros séisme – la magnitude 7,7 est rarement atteinte par un séisme continental – de l’ordre des séismes de Turquie de février 2023, de Nouvelle-Zélande en novembre 2016, du Sichuan en mai 2008 ou encore d’Alaska en novembre 2002. Le choc principal a été suivi douze minutes plus tard par une première réplique.
Le bilan est très probablement très sous-estimé pour toutes sortes de raisons : difficultés d’accès, pays en guerre… et pourrait, selon mon expérience et l’institut américain de géologie, largement atteindre plusieurs dizaines de milliers de victimes.
Les raisons d’un tel bilan sont multiples : le séisme lui-même est très violent car d’une magnitude élevée, sur une faille très longue et avec une rupture peut-être très rapide. De plus, la faille court dans une vallée sédimentaire, celle de la rivière Irrawady, où les sols sont peu consolidés, ce qui donne lieu à des phénomènes de « liquéfaction », fatals aux constructions, pendant lesquels le sol se dérobe complètement sous les fondations des immeubles. Les constructions elles-mêmes sont d’assez faible qualité (bétons peu armés, avec peu de ciment, mal chaînés, etc.). Enfin, les secours sont peu organisés et lents, alors que de nombreux blessés ont besoin de soins rapides.
À lire aussi : Séisme au Myanmar ressenti en Asie du Sud-Est : les satellites peuvent aider les secours à réagir au plus vite
Le séisme s’est produit sur la faille de Sagaing qui traverse le Myanmar du nord au sud sur plus de 1000 kilomètres de long. Cette faille résulte de la tectonique des plaques dans la région : la plaque indienne « monte » vers le nord à près de 4 centimètres par an. Devant elle, l’Himalaya. Sur les deux côtés, à l’ouest et à l’est, deux systèmes de failles accommodent le glissement entre la plaque indienne et la plaque eurasienne. À l’est, c’est la faille de Sagaing, du nom d’une grande ville du pays.
Des mesures GPS réalisées au Myanmar à la fin des années 1990 par notre équipe ont produit beaucoup de résultats : nous avons tout d’abord observé que la faille était bien bloquée. Ceci implique que le déplacement continu des plaques tectoniques indienne et eurasienne provoque bien de l’« accumulation de déformation élastique » dans les plaques, et que cette déformation devra être relâchée tout ou tard sous forme de séisme, quand l’accumulation dépassera le seuil de résistance de la friction sur le plan de faille.
Mais nous avions fait également une découverte un peu déconcertante : la faille de Sagaing n’accommodait qu’un peu moins de 2 centimètres par an de déformation (exactement 1.8), le reste des 4 centimètres par an imposé par le mouvement des plaques indiennes et eurasiennes devant être accommodé ailleurs… Mais où ? Mystère.
Les études suivantes suggérèrent que cette déformation manquante se produit plus à l’ouest, sur la subduction dite « Rakhine-Bangladesh ».
Il y a eu beaucoup de séismes le long de l’histoire au Myanmar. Les études archéologiques menées au début des années 2000 sur la cité impériale de Pegu, dans le sud du Myanmar, ont révélé que les murs de celle-ci avaient été fréquemment rompus par des séismes (sept depuis la fin du XVIe siècle), mais aussi décalés, car la cité était construite exactement sur la faille. La mesure du décalage total entre deux morceaux de murs (6 mètres en 450 ans) donne une vitesse moyenne sur cette période de 1,4 centimètre par an.
Plus au Nord, la cité impériale de la ville de Mandalay est aussi marquée par les séismes : des statues massives ont été cisaillées par les ondes sismiques des tremblements de terre passés.
Grâce à ces études, nous avons aujourd’hui une meilleure vision de la situation tectonique à Myanmar.
La faille est tronçonnée en segment plus ou moins long, de 50 à 250 kilomètres de longueur. Chacun de ces segments casse plus ou moins irrégulièrement, tous les 50-200 ans, produisant des séismes de magnitude allant de 6 à presque 8.
Le plus long segment est celui dit de Meiktila. Il fait environ 250 kilomètres entre Mandalay et Naypyidaw. Il a rompu pour la dernière fois en 1839, avec un séisme de magnitude estimée entre 7,6 et 8,1. Le calcul est donc finalement assez simple : ici, la déformation s’accumule autour de la faille au rythme de 1,8 centimètre par an et le dernier séisme s’est produit il y a 184 ans : le prochain séisme devra donc relâcher 3,3 mètres, avant que l’accumulation ne reprenne.
Or, un déplacement de 3,3 mètres sur une faille de 250 kilomètres de long et environ 15 kilomètres de profondeur correspond bien à un séisme de magnitude 7,7 – comme celui qui vient de frapper.
Enfin, les toutes premières analyses par imagerie satellitaire semblent indiquer que la rupture se serait propagée largement au sud de la nouvelle capitale Naypyidaw, sur presque 500 kilomètres de long au total. Elle aurait donc rompu, simultanément ou successivement plusieurs segments de la faille.
Sur la base des considérations précédentes (faille bloquée, vitesse d’accumulation de déformation et temps écoulé depuis le dernier séisme), il est assez facile d’établir une prévision : un séisme est inévitable puisque la faille est bloquée alors que les plaques, elles, se déplacent bien. La magnitude que ce prochain séisme peut atteindre est estimable et correspond à la taille de la zone bloquée multipliée par la déformation accumulée (en admettant que le séisme précédent a bien « nettoyé » la faille de toutes les contraintes accumulées).
La difficulté reste de définir avec précision la date à laquelle ce séisme va se produire : plus tôt il sera plus petit, plus tard il sera plus grand. C’est donc la résistance de la friction sur la faille qui va contrôler le jour du déclenchement du séisme. Mais celle-ci peut varier en fonction du temps en raison de paramètres extérieurs. Par exemple, on peut imaginer qu’une faille qui n’a pas rompu depuis longtemps est bien « collée » et présente une résistance plus grande, à l’inverse d’une faille qui a rompu récemment et qui est fragilisée.
Ainsi, plutôt que des séismes similaires se produisant à des intervalles de temps réguliers, on peut aussi avoir des séismes de tailles différentes se produisant à intervalles de temps plus variables. Pour autant, la résistance de la faille ne peut dépasser une certaine limite et au bout d’un certain temps, le séisme devient inévitable. Il est donc logique de pouvoir évoquer la forte probabilité d’un séisme imminent sur un segment de faille donné, et d’une magnitude correspondant à la déformation accumulée disponible. La magnitude de 7,7 dans le cas du récent séisme sur la faille de Sagaing correspond exactement aux calculs de cycle sismique.
Par contre, la détermination de la date du déclenchement du séisme au jour près reste impossible. En effet, si la déformation augmente de quelques centimètres par an, elle n’augmente que de quelques centièmes de millimètres chaque jour, une très petite quantité en termes de contraintes.
Il y a toujours des répliques après un grand séisme, mais elles sont plus petites.
Il y a aujourd’hui au Myanmar assez peu de stations sismologiques, et les plus petites répliques (jusqu’à la magnitude 3) ne sont donc pas enregistrées. Les répliques de magnitude entre 3 et 4,5 sont en général perçues par le réseau thaïlandais, mais seules les répliques de magnitude supérieure à 4,5 sont enregistrées et localisées par le réseau mondial.
Il semble néanmoins qu’il y ait assez peu de répliques dans la partie centrale de la rupture, ce qui pourrait être une indication d’une rupture « super-shear » car celles-ci auraient tendance à laisser derrière elles une faille très bien cassée et très « propre ».
Christophe Vigny a reçu des financements de UE, ANR, MAE, CNRS, ENS, Total.
03.04.2025 à 17:51
Yannick Simonin, Virologiste spécialiste en surveillance et étude des maladies virales émergentes. Professeur des Universités, Université de Montpellier
Une épidémie marquée de chikungunya sévit à La Réunion, depuis le début de l’année 2025. Début avril, on déplorait le décès de deux personnes âgées de 86 et 96 ans, dont l’une présentait des comorbidités, et 14 nouveau-nés étaient en soins intensifs.
On fait le point sur cette maladie qui reste méconnue et sur cette épidémie inédite.
Le chikungunya est une maladie virale transmise à l’humain par la piqûre d’un moustique lui-même préalablement infecté par le virus. Depuis début 2025, l’île de La Réunion connaît une épidémie de grande ampleur. Le pic épidémique pourrait survenir en avril ou en mai.
La situation que vit actuellement La Réunion est atypique. En effet, la dernière grande épidémie de chikungunya à La Réunion remonte à vingt ans, c’était en 2005-2006. Avant cette date, peu de cas de chikungunya avaient été observés sur l’île et de manière très ponctuelle.
Avant cette première grande épidémie, La Réunion n’était pas une zone de circulation du virus chikungunya, car Aedes aegypti, le moustique vecteur principal de ce virus, n’y est pas implanté. En revanche, l’île abritait depuis de nombreuses décennies un autre moustique de la même famille, Aedes albopictus, plus connu sous le nom de moustique tigre. Mais alors le moustique tigre n’était pas connu comme pouvant transmettre ce virus.
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
Pourtant en 2005-2006, à la grande surprise des virologistes, la première grande épidémie de chikungunya à La Réunion fut portée par le moustique tigre. On a découvert plus tard que le virus du chikungunya avait muté au niveau de sa surface, ce qui lui a permis de mieux s’adapter au moustique tigre. L’arrivée du virus sur l’île est ainsi un exemple bien connu et inquiétant de l’adaptation d’un virus à un nouvel environnement.
L’apparition de ce type d’épidémies est toujours très difficile à anticiper. Toutefois, certaines conditions les favorisent, à commencer par la présence en grande quantité du moustique tigre à La Réunion. L’été austral est chaud et humide, ce qui crée un environnement idéal pour sa reproduction.
Les récentes fortes précipitations ont aussi favorisé la stagnation d’eau, ce qui a multiplié les gîtes larvaires pour les moustiques. Ce phénomène a probablement été amplifié aussi par le cyclone Garance, qui a généré des pluies abondantes les 19 et 20 février 2025.
Par ailleurs, dans les zones réunionnaises fortement urbanisées, des gîtes larvaires artificiels, comme des seaux, des pneus usagés, des pots de fleurs, des bidons, des gouttières obstruées et autres objets laissés à l’extérieur et remplis d’eaux stagnantes, jouent également un rôle pour alimenter la ponte et la croissance des œufs.
Enfin, puisque la dernière grande épidémie de chikungunya a eu lieu en 2005, la population locale est très faiblement immunisée contre ce virus, ce qui permet au pathogène de circuler assez aisément, en particulier parmi les populations modestes qui vivent dans des conditions de vie insalubres, favorables à la prolifération des moustiques.
Le virus du chikungunya est présent dans des zones géographiques assez vastes où est implanté Aedes aegypti, le moustique connu à l’origine pour la transmission de ce virus, en Asie, en Océanie, en Afrique et en Amérique. On relève au passage que l’aire de répartition d’Aedes aegypti s’étend. Du fait des changements globaux, en particulier climatiques, les probabilités sont élevées de le voir apparaître un jour en Europe et le cortège des virus qu’il peut transmettre…
À la faveur d’une mutation qui est apparue il y a vingt ans et qui lui a permis de s’adapter au moustique tigre (Aedes albopictus) présent à La Réunion, l’aire de répartition du virus du chikungunya a été largement modifiée. Désormais, plusieurs souches de virus chikungunya circulent, selon qu’elles sont adaptées à Aedes aegypti ou au moustique tigre (Aedes albopictus).
Dans le cas de la France, nous sommes face à des possibilités de transmission du chikungunya à la fois dans les zones où Aedes aegypti est implanté, par exemple aux Antilles françaises (Guadeloupe, Martinique, Saint-Martin, Saint-Barthélemy) ou encore en Guyane, mais aussi dans celles où le moustique tigre (Aedes albopictus) est présent, comme à La Réunion mais également en France hexagonale.
Aedes albopictus y est bien établi dans de nombreuses régions, en particulier dans le Sud mais également en Île-de-France et jusque dans l’Est. En janvier 2024, on considère qu’il s’est implanté dans 78 des 96 départements de l’Hexagone.
À noter que le risque est élevé à Mayotte qui, notamment en raison d’un climat tropical humide favorable, abrite les deux espèces de moustiques.
Des cas autochtones de chikungunya – liés à des infections sur le territoire et non à des voyageurs déjà infectés à leur arrivée – ont déjà été répertoriés par le passé en France hexagonale. La première identification de ce virus en Île-de-France en 2024 illustre parfaitement la possibilité pour lui de s’implanter en Europe, et pas uniquement dans les régions méditerranéennes.
Le virus du chikungunya tout comme celui de la dengue (ou de Zika) sont principalement transmis par les deux grandes catégories de moustiques du genre Aedes : le moustique tigre (Aedes albopictus) et Aedes aegypti.
Ces virus appartiennent à une catégorie de virus appelée arbovirus, une dénomination qui vient de l’anglais arthropod-borne virus qui signifie « virus transmis par les arthropodes ». Si on entend plus souvent parler de la dengue, c’est parce qu’il s’agit de l’arbovirus le plus répandu au niveau mondial, selon l’Organisation mondiale de la santé (OMS).
C’est aussi parce que le taux de mortalité associée à la dengue est plus élevé. Sans prise en charge adaptée, il peut en effet atteindre les 10 % voire 20 % (principalement en raison de symptômes hémorragiques), mais il oscille le plus souvent entre 0,3 % et 2,5 %, suivant les études et les pays.
Le taux de mortalité du chikungunya est, lui, bien plus faible, autour de 0,1 %. La problématique de santé publique associée au chikungunya vient de sa capacité à provoquer des atteintes articulaires chroniques invalidantes chez bon nombre de patients.
À lire aussi : Virus « exotiques » en France : un sujet plus que jamais d'actualité
Les catégories de personnes les plus exposées aux formes sévères du chikungunya, qui peuvent prendre la forme d’atteintes neurologiques comme des encéphalites, sont les personnes âgées, notamment celles qui souffrent déjà d’autres pathologies, des sujets immunodéprimés et les femmes enceintes.
Le chikungunya provoque des douleurs articulaires qui peuvent survenir au niveau des chevilles, des hanches, des épaules, des poignets… et persister très longtemps, jusqu’à plusieurs années après l’infection, chez près de la moitié des personnes contaminées. Cette situation peut se révéler très invalidante au quotidien pour les personnes concernées.
D’ailleurs, chikungunya signifie « qui se recourbe » ou « qui marche courbé » en makondé, une langue parlée en Tanzanie et au Mozambique où la maladie a été initialement décrite. Ceci décrit bien la posture des patients atteints de la maladie, qui peuvent souffrir des douleurs articulaires si intenses qu’ils sont obligés d’adopter une posture voûtée. Souffrir de douleurs et de fatigue chroniques peut être particulièrement invalidante en empêchant, par exemple, de mener une activité professionnelle normale.
Il convient d’insister sur le fait qu’il n’existe pas de traitements spécifiques contre les atteintes chroniques dues au chikungunya, des atteintes qui restent par ailleurs mal comprises.
S’agit-il d’une persistance du virus dans l’organisme ? d’une dérégulation immunitaire entraînant une inflammation prolongée ? La question reste ouverte même si la recherche progresse dans ce domaine.
Il convient de souligner que nous avons la chance de disposer d’un vaccin, ce qui n’est pas le cas pour la majorité des virus transmis par les moustiques. Le vaccin contre le chikungunya est très récent puisqu’il a obtenu une autorisation de mise sur le marché dans l’Union européenne en juin 2024 seulement (vaccin Ixchiq du laboratoire Valneva).
Dans le cadre de l’épidémie à La Réunion, en France, la Haute Autorité de santé (HAS) a estimé que
« les résultats disponibles sont suffisants pour le recommander à des populations à risque de formes graves et/ou chroniques, pour lesquelles le bénéfice attendu est important ».
En pratique, la HAS cible en priorité les personnes âgées de 65 ans et plus, notamment celles avec des comorbidités (hypertension artérielle, diabète, maladies cardiovasculaires, respiratoires, rénales, hépatiques et neurovasculaires) ainsi que les personnes de 18 à 64 ans avec des comorbidités. La HAS ne recommande pas, à ce stade, l’utilisation du vaccin chez les femmes enceintes. Le vaccin est également recommandé aux professionnels de santé et aux professionnels de la lutte antivectorielle (c’est-à-dire spécialisés dans la lutte contre les moustiques).
Pour l’instant, les premières personnes éligibles à la vaccination sont les personnes les plus fragiles, car les doses disponibles sont limitées et le recul manque quant à son efficacité globale, même si on s’attend à une efficacité suffisamment importante d’après les données disponibles.
Mais, à terme, pourrait se poser la question d’élargir cette vaccination pour tenter de freiner la circulation du virus et protéger l’ensemble de la population de La Réunion. À noter que d’autres vaccins sont également en cours de développement.
Pour se protéger contre le chikungunya, des équipes d’experts de la lutte antivectorielle, mandatés par les agences régionales de santé (ARS), sont dépêchées sur place dès qu’un cas de chikungunya est identifié, afin d’éliminer les moustiques adultes et les gîtes larvaires.
À lire aussi : Les pièges à moustiques sont-ils vraiment efficaces ?
Mais pour limiter en amont la propagation des moustiques, il convient d’informer la population afin qu’elle évite de créer des gîtes larvaires artificiels, ces eaux stagnantes qui permettent la ponte et représentent la première source de prolifération des moustiques.
À lire aussi : Lutte contre les moustiques : robot sexeur et insecte stérile, une méthode prometteuse
Enfin, il est important de limiter le risque de piqûres en ayant recours à des moustiquaires, des répulsifs, des insecticides et en portant des vêtements clairs, couvrants et amples afin de limiter le risque de piqûres.
Dans l’avis de l’Agence de sécurité sanitaire (Anses), « Moustique tigre en France hexagonale : risque et impacts d’une arbovirose » de juillet 2024, le groupe d’experts dont je faisais partie a clairement identifié le chikungunya comme étant à potentiel risque épidémique en France hexagonale sur le moyen terme (tout comme la dengue et Zika), la majorité des départements étant désormais colonisée par le moustique tigre.
Une épidémie de chikungunya, de même que celles des autres arbovirus, dépend aussi d’une dynamique de circulation globale du virus et des échanges aériens entre des pays où le virus circule.
Par conséquent, les échanges aériens réguliers entre la France et La Réunion, mais aussi, d’une façon plus générale, avec les départements et régions d’outre-mer (DROM) et des zones actives de circulation du chikungunya peuvent favoriser l’introduction du virus dans l’Hexagone, dès l’été 2025.
Yannick Simonin a reçu des financements de l’Université de Montpellier, de l’ANRS-MIE, de la région Occitanie et de l’Union européenne.
03.04.2025 à 17:50
Audrey Darsonville, Professeur de droit pénal, Université Paris Nanterre – Université Paris Lumières
S’appuyant sur un rapport de la Délégation des droits des femmes, un texte de loi transpartisan préconise d’intégrer le non-consentement dans la définition du viol. Cette proposition a été adoptée en première lecture par l’Assemblée nationale le 1er avril et doit être examinée au Sénat.
Selon le Code pénal, le viol est défini comme un acte de pénétration sexuelle commis avec violence, contrainte, menace ou surprise. Pour condamner un agresseur, les juges doivent donc démontrer que ce dernier a commis l’acte sexuel en recourant à la violence, la contrainte, la menace ou la surprise. L’usage d’un de ces quatre modes d’action démontre l’absence de consentement de la victime. Or, par un curieux paradoxe, l’incrimination du viol est donc tournée vers le défaut de consentement de la victime mais occulte soigneusement de le nommer.
C’est à cette lacune que se propose de répondre la proposition de loi déposée le 21 janvier 2025. Elle énonce que le consentement suppose d’avoir été donné librement, qu’il est spécifique et qu’il peut être retiré à tout moment. Elle décrit des situations dans lesquelles il n’y a pas de consentement, violence, menace, surprise ou contrainte, mais aussi en cas d’exploitation de la vulnérabilité de la victime. La proposition souligne aussi que le consentement de la victime ne peut se déduire du silence ou de l’absence de résistance de la victime. Le célèbre adage « qui ne dit mot consent » serait enfin banni, qui ne dit ne consent pas nécessairement à un acte sexuel.
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
La proposition s’inscrit dans un double objectif, s’aligner avec le contexte européen qui tend à une telle inscription du consentement dans la loi pénale et lutter contre les classements sans suite massifs des plaintes déposées pour des faits de viol ou d’agression sexuelle, comme l’explique la Commission nationale consultative des droits de l’homme le 18 mars 2025 : « Alors que, selon la dernière enquête VRS (vécu et ressenti en matière de sécurité) de l’Insee parue fin 2023, 270 000 femmes affirment avoir été victimes de violences sexuelles, seules 6 % d’entre elles ont déposé plainte. Le taux de classement sans suite est, quant à lui, extrêmement élevé : 86 % dans les affaires de violences sexuelles, atteignant même 94 % pour les viols ».), principalement en raison du caractère insuffisamment caractérisé des faits dénoncés.
Jusqu’à présent, la France ne s’était pas mise en conformité à la Convention sur la prévention et la lutte contre la violence à l’égard des femmes et la violence domestique, dite Convention d’Istanbul, signée en 2011 (et ratifiée par la France en 2014).
Cette Convention traite de la question du consentement dans le viol en ces termes : « Le consentement doit être donné volontairement comme résultat de la volonté libre de la personne considérée dans le contexte des circonstances environnantes ». Le GREVIO (Groupe d’experts sur la lutte contre la violence à l’égard des femmes et la violence domestique), organe de contrôle de l’application de la convention d’Istanbul, a rendu un rapport relatif à la France en 2019. Ce dernier pointe les lacunes de la législation française du fait de son refus d’intégration de la notion de libre consentement.
Enfin, plus d’une quinzaine de pays européens (l’Allemagne, la Belgique, Chypre, la Croatie, le Danemark, l’Espagne, la Finlande, la Grèce, l’Irlande, l’Islande, le Luxembourg, Malte, les Pays-Bas, la Pologne, la République tchèque, le Royaume-Uni, la Slovénie, la Suède et la Suisse) ont changé leur législation dont des pays au système judiciaire proches du notre comme la Belgique.
En outre, la France ne peut occulter ses obligations relatives à la jurisprudence de la Cour européenne. En effet, depuis l’arrêt de la Cour européenne M.C. c. Bulgarie du 4 décembre 2003, les juges de Strasbourg ont imposé aux États une obligation positive de promulguer une législation pénale permettant de punir effectivement le viol par une appréciation de la notion de consentement qui ne soit pas fondée uniquement sur l’exigence d’une violence ou d’une opposition physique de la victime.
Cette décision a été rendue il y a plus de 20 ans et, depuis, la Cour a toujours maintenu cette position comme encore récemment lors de l’arrêt du 12 décembre 2024, affaire Y. c. République tchèque. Le couperet se rapproche cette fois-ci de la France puisque sept requêtes sont actuellement pendantes devant la CEDH concernant le traitement judiciaire français du viol. Sans faire de droit fiction, il est probable que la France soit condamnée en 2025 au regard de la jurisprudence européenne.
Sans attendre cette probable condamnation, La France s’est engagée sur la voie d’une réforme. La proposition de loi déposée en janvier dernier a fait l’objet d’un avis consultatif du Conseil d’État, rendu le 11 mars. Dans cet avis, le Conseil d’État retient que l’inscription du consentement dans la loi sur le viol est opportune car « l’objectif poursuivi par les auteurs de la proposition de loi en recourant à cette rédaction était de renforcer la répression de l’infraction dans les situations de vulnérabilité organisées ou exploitées par l’auteur, notamment celles nées d’un état de sidération ou d’emprise, pour contraindre la victime à un acte sexuel ». Ainsi, la loi permettra de consolider les avancées de la jurisprudence en énonçant des dispositions claires.
Le Conseil d’État critique en revanche certaines formulations de la proposition et a énoncé une nouvelle définition du consentement. Cette formulation a été intégrée par voie d’amendements devant la commission des lois et le texte adopté le 1er avril en première lecture à l’Assemblée nationale retient donc cette définition résultant de l’avis du Conseil d’État.
Le texte adopté expose qu’est une atteinte sexuelle « tout acte sexuel non consenti commis sur la personne d’autrui ou sur la personne de l’auteur » ; « Au sens de la présente section, le consentement est libre et éclairé́, spécifique, préalable et révocable. Il est apprécié́ au regard des circonstances environnantes. Il ne peut être déduit du seul silence ou de la seule absence de réaction de la victime. Il n’y a pas de consentement si l’acte à caractère sexuel est commis avec violence, contrainte, menace ou surprise, quelle que soit leur nature ».
La proposition de loi ne fait pas l’unanimité et, d’ailleurs, elle a été adoptée par 161 voix pour et 56 contre. Le texte fait l’objet de critiques, notamment au regard de la présomption d’innocence de la personne mise en cause. Cet argument a été écarté par le Conseil d’État de même que l’inquiétude relative au fait d’exposer encore davantage la victime dans les poursuites pour viol. C’est même l’inverse qui est postulé par cette réforme dont la finalité est de déplacer le curseur de la victime vers le mis en cause afin de l’interroger sur le fait de savoir s’il s’est assuré du consentement de l’autre.
L’avenir de la loi est désormais entre les mains du Sénat qui adoptera ou non la proposition. Cependant, quelle que soit l’issue du travail parlementaire, cette proposition aura eu le mérite de mettre au cœur du débat sociétal la question du consentement en matière de violence sexuelle. Le procès de Mazan aura éclairé de façon particulièrement cruelle à quel point le consentement de l’autre, et particulièrement celui de la femme, était indifférent pour beaucoup. Combien de fois au cours de ce procès les accusés ont-ils tenu des propos tels que « je pensais qu’elle était d’accord » (en présence d’une femme sous sédation chimique et donc dans l’incapacité de parler pour manifester un accord) ou encore, « son mari était d’accord donc cela suffisait » (en négation absolue du fait que l’épouse n’avait elle pas donné son consentement).
De tels propos trahissent bien que, comme le Conseil d’État l’a rappelé, les viols et les agressions sexuelles sont « avant tout, un viol du consentement ». La loi, si elle est votée définitivement, sera une première étape importante qui devra, pour produire effet, être accompagnée de moyens humains et matériels pour changer l’appréhension judiciaire du viol.
Audrey Darsonville ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
03.04.2025 à 17:49
Frédérique Sandretto, Adjunct assistant professor, Sciences Po
L’expression America First a une longue histoire aux États-Unis. Remis au goût du jour par Donald Trump durant sa campagne présidentielle de 2016, et à nouveau promu en principe fondateur de sa politique depuis son retour à la Maison Blanche en janvier 2025, ce slogan reflète une vision nationaliste et protectionniste qui, pratiquement depuis la naissance du pays, proclame la primauté des intérêts américains en matière de politique étrangère et commerciale.
« Nous sommes réunis aujourd’hui pour annoncer un nouveau décret qu’on entendra dans toutes les villes, toutes les capitales étrangères et tous les centres du pouvoir. À partir d’aujourd’hui, ce sera strictement l’Amérique d’abord. L’Amérique d’abord ! », déclare Donald Trump lors de son discours d’investiture le 20 janvier 2017. Cette formule, « America First », qui avait inquiété les dirigeants du monde entier, a été remise en avant lors de son retour à la Maison Blanche huit ans plus tard.
L’origine de ce slogan devenu un élément central de la rhétorique de Donald Trump remonte en réalité à bien plus tôt dans l’histoire des États-Unis.
En effet, l’isolationnisme ne date pas d’hier dans la politique étrangère des États-Unis. C’est une longue tradition américaine fondée sur l’idée selon laquelle le pays devait éviter de s’engager dans les affaires du monde pour se concentrer sur ses propres préoccupations internes.
C’est à la fin du XVIIIe siècle que cette vision de la politique extérieure trouve son origine, dans le célèbre dernier discours présidentiel de George Washington, « Farewell Adress » en 1796. Le premier président des États-Unis mettait en garde son peuple contre les alliances permanentes avec des puissances étrangères et préconisait plutôt une politique de neutralité et d’indépendance.
Au début du XXe siècle, cette tradition isolationniste a été mise à l’épreuve à plusieurs reprises, notamment avec la Première Guerre mondiale. Mais malgré la participation des États-Unis à la guerre (1917-1918), un très fort sentiment isolationniste est resté enraciné dans le pays. Après la guerre, une grande partie de l’opinion publique américaine souhaitait éviter une nouvelle implication dans les conflits européens. Cette distanciation s’est renforcée par la déception américaine face aux résultats du traité de Versailles, qui ne répondaient pas aux attentes de Washington en ce qui concerne la sécurité internationale.
C’est dans ce contexte des années 1920 que le slogan America First est né, scandé par ceux qui s’opposaient à l’entrée des États-Unis dans des engagements internationaux en lien avec les quatorze points du président Woodrow Wilson et la mise en place de la Société des nations.
La formule America First a été popularisée par le mouvement isolationniste des années 1940 America First Committee (AFC). Ce comité créé par des figures politiques et des intellectuels influents prônait le rejet de l’intervention américaine dans la Seconde Guerre mondiale et favorisait le protectionnisme.
À cette époque, l’expression America First a pris une signification plus forte sous l’influence de l’avocat Robert A. Taft, fils de l’ancien président William Howard Taft (1908-1912), et de l’aviateur Charles Lindbergh, devenu l’un des porte-parole du comité. Le but principal de l’America First Committee ? Faire pression sur le gouvernement des États-Unis pour que celui-ci n’implique pas le pays dans la guerre qui éclatait en Europe et en Asie.
L’America First Committee prônait une politique de non-intervention et s’opposait vigoureusement à l’adhésion des États-Unis aux efforts de guerre des alliés face à l’Allemagne nazie. Pour le comité, s’engager dans la guerre européenne – ou, plus tard, dans le conflit mondial – allait affaiblir les États-Unis et mettre en péril leur souveraineté. Le tout pour un conflit lointain et coûteux.
L’argument principal était le suivant : les États-Unis ayant la capacité de se défendre eux-mêmes, il n’est pas nécessaire de s’impliquer dans les conflits extérieurs. « L’Amérique d’abord » devait se concentrer sur ses intérêts internes, sur la consolidation de son économie et de sa sécurité, plutôt que jouer un rôle de police mondiale.
Le slogan « America First » a trouvé une résonance particulière dans la population américaine qui ne voyait pas l’intérêt d’intervenir dans les affaires européennes ou asiatiques, particulièrement après les horreurs et les pertes humaines de la Première Guerre mondiale. Le comité a ainsi réussi à mobiliser une grande partie de l’opinion publique contre l’intervention des États-Unis dans la Seconde Guerre mondiale.
Cette position a toutefois été contestée au fur et à mesure que l’Allemagne nazie étendait son contrôle sur l’Europe, et que les attaques japonaises se multipliaient dans le Pacifique. L’attaque de Pearl Harbor par le Japon le 17 décembre 1941 a changé la donne et forcé les États-Unis à entrer dans la guerre mettant fin à l’influence de l’AFC. L’opinion publique a alors radicalement basculé en faveur de l’intervention militaire, estimant que la sécurité nationale des États-Unis était désormais en danger. L’America First Committee s’est dissous peu après l’entrée des États-Unis dans le conflit, mais l’impact de ce mouvement sur la pensée politique américaine a persisté.
Le sentiment isolationniste et nationaliste a été réactivé à plusieurs reprises tout au long du XXe siècle, pendant la guerre du Vietnam, les crises économiques, et lors des débats sur le commerce international. Dans les années 1980 et 1990, à l’époque des présidences de Ronald Reagan et George H. W. Bush, bien que les États-Unis soient restés un acteur clé du système international, des voix isolationnistes se sont fait entendre, en réaction aux interventions militaires américaines et à la mondialisation.
Le populisme économique et la critique du libre-échange se sont développés dans des secteurs économiques affectés par la délocalisation et la mondialisation.
Le retour en force du slogan « America First » s’est manifesté de manière marquante sous la première présidence de Donald Trump, qui a réutilisé l’expression pour mettre en avant une politique économique protectionniste, une critique radicale du multilatéralisme et un net désengagement des affaires internationales par rapport aux présidences présidentes de Barack Obama et de George W. Bush.
Trump avait d’ailleurs fait de cette philosophie un axe central de sa campagne électorale de 2016, se présentant comme un défenseur des intérêts des travailleurs américains et des citoyens ordinaires par opposition aux élites politiques et économiques mondialisées.
Ce retour au nationalisme économique, associé à un rejet des accords commerciaux internationaux et des engagements militaires à l’étranger, a ravivé les vieux débats sur la place de l’Amérique dans le monde et son rôle dans les affaires mondiales.
Le succès du slogan « America First » repose également sur sa capacité à mobiliser des récits nationaux profonds. Les discours de Trump se sont appuyés sur une mythologie américaine mettant en avant la prospérité perdue (« Make America Great Again »), le peuple américain comme héros face aux élites corrompues et la nécessité de restaurer un ordre moral et économique qui aurait existé par le passé avant de s’effilocher.
Ces récits s’inscrivent dans une longue tradition politique, où l’Amérique est perçue comme une nation exceptionnelle, destinée à servir de modèle au monde.
La rhétorique de Trump, cependant, se distingue par une rupture avec l’idéal d’une Amérique cosmopolite et ouverte. En mettant l’accent sur le déclin supposé du pays, Trump a réactivé un discours populiste, opposant un peuple « véritablement américain » à des ennemis extérieurs (la Chine, l’Union européenne, l’immigration illégale) et intérieurs (les démocrates, les médias traditionnels, la bureaucratie).
En réactivant et modernisant la doctrine America First Donald Trump a redéfini la politique étrangère et économique des États-Unis selon une vision nationaliste et protectionniste.
Son approche repose sur un rejet du multilatéralisme au profit d’accords bilatéraux plus favorables à Washington, une volonté de relocaliser l’industrie américaine et une posture de fermeté face à la Chine et à l’Europe.
Toutefois, cette modernisation de la doctrine s’est accompagnée de tensions avec les alliés traditionnels des États-Unis et d’une polarisation accrue au sein du pays. Si ses partisans saluent un retour à la souveraineté économique et à une diplomatie musclée, ses détracteurs dénoncent un isolement international et des politiques aux conséquences incertaines sur le long terme.
L’héritage de cette doctrine reste donc sujet à débat : a-t-elle renforcé les États-Unis ou fragilisé leur leadership mondial ? Plus d’un siècle après son émergence, Donald Trump peut-il réellement se poser en héritier légitime de cette doctrine historique, ou en a-t-il dévoyé les principes pour servir une vision plus personnelle du pouvoir ?
Frédérique Sandretto ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
03.04.2025 à 17:49
Gülçin Erdi, Directrice de recherche au CNRS, en affectation à l'Institut français d'études anatoliennes (IFEA) à Istanbul, Université de Tours
Le 19 mars dernier, l’arrestation pour « corruption » et « terrorisme » (cette dernière accusation ayant depuis été abandonnée) d’Ekrem Imamoglu, maire d’Istanbul et principal opposant à Recep Tayyip Erdogan, a provoqué une vaste mobilisation en sa faveur de la société civile. Après un premier article consacré au contexte dans lequel ces événements surviennent, la sociologue Gülçin Erdi, spécialiste de la Turquie et notamment des questions urbaines, analyse ici la composition et les mots d’ordre des foules gigantesques qui se réunissent régulièrement pour contester, au-delà de la mise en détention de l’édile de la plus grande ville du pays, un système que les manifestants jugent largement corrompu et inefficace.
Dans le quartier de Saraçhane, un nouveau lieu emblématique de la contestation politique a émergé, surnommé par les manifestants le « nouveau Taksim », en référence à la contestation de 2013 qui s’était largement déployée autour de cette grande place du centre d’Istanbul.
Cette mobilisation est principalement motivée par un sentiment d’indignation face à un système politique perçu comme corrompu, et face à la détérioration économique et aux restrictions des libertés publiques. C’est ce qu’il ressort des slogans scandés par les participants, mais aussi des discussions que nous avons pu avoir avec eux, lors des nombreux rassemblements auxquels nous avons assisté depuis le début d’un mouvement, qui ne semble pas près de prendre fin.
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
Une observation approfondie du mouvement révèle une prédominance notable, parmi les participants, de jeunes adultes âgés de 18 à 30 ans. Si l’on remarque également un certain nombre de personnes ayant pris part, en 2013, à l’occupation du parc Gezi, actuellement âgées de 40 à 50 ans, ce sont les jeunes qui jouent un rôle principal dans la mobilisation. Parmi eux, deux profils se distinguent particulièrement.
D’une part, des étudiants provenant des établissements universitaires les plus prestigieux d’Istanbul, aux parcours académiques souvent brillants, provenant de diverses facultés (aménagement urbain, sciences sociales, ingénierie, droit…). D’autre part, des jeunes non diplômés, motivés par un sentiment de ras-le-bol et une perception superficielle de la politique, leur engagement se limitant au nationalisme.
Il est à noter que la plupart des manifestants, en particulier les plus jeunes, dissimulent leur identité en couvrant leur visage, une mesure préventive contre une éventuelle détection par les forces de l’ordre. Les jeunes avec qui nous avons eu l’occasion de nous entretenir ont exprimé leur perception d’un climat de répression et de surveillance constante, tout en affirmant leur volonté d’éviter les conflits avec les forces de l’ordre, mais en participant activement à la manifestation, car, à leurs yeux, « il n’y a pas d’autre choix ».
La motivation de la majorité d’entre eux ne se limite pas uniquement à la libération d’Ekrem Imamoglu. Son arrestation est vue avant tout comme un événement symbolique et un prétexte pour descendre dans la rue. L’un de nos interlocuteurs exprime ainsi son exaspération croissante :
« J’en ai marre de l’insécurité et du futur incertain dans ce pays. Je suis étouffé. »
Un étudiant rencontré à Saraçhane abonde dans son sens :
« Nous nous éveillons quotidiennement avec la crainte que notre intégrité physique soit mise en péril à tout instant. »
Un autre, cagoulé et vêtu d’un foulard représentant Atatürk, assène :
« Tous les étudiants présents ici ont pour objectif de défendre la laïcité et de s’opposer au fascisme. […] À la tête de ce pays, il y a actuellement un dictateur et nous voulons le renverser. En ma qualité d’enfant d’Atatürk et de personne de gauche, je me trouve ici pour soutenir la République. »
Il ajoute que si les étudiants n’avaient pas manifesté, l’accusation de terrorisme à l’encontre d’Imamoglu n’aurait pas été retirée et qu’un kayyum (c’est-à-dire un administrateur désigné par l’État) aurait été nommé à la tête de la municipalité.
Les Stambouliotes sortis dans la rue ne croient pas à la culpabilité du maire et considèrent son arrestation comme une injustice supplémentaire dont ils sont les témoins, comme dit l’un des manifestants, « [après] l’accumulation de vingt ans d’oppression ».
« La situation est déterminée par la volonté d’un individu. Cette autorité est celle qui fixe les taux d’intérêt, les modalités de divertissement, etc. »
Frustrés par une situation politique et économique qui rend très difficile, voire impossible, la réalisation de bon nombre de leurs projets personnels, y compris l’acquisition de biens matériels tels qu’un véhicule ou un logement, les contestataires aspirent à un État plus juste, plus libre et plus démocratique, où la nécessité de recourir à des actions collectives, telles que des manifestations pour défendre leurs droits, ne serait pas une option nécessaire. Ils disent aussi vouloir vivre dans un environnement où l’accès à Internet ne soit pas entravé par des restrictions volontaires et des censures de comptes divers pour des raisons politiques et, au-delà, dans un pays où ils n’envieraient pas les habitants d’États démocratiques qui, selon eux, vivent plus librement et dans une plus grande prospérité.
Comme nous l’avons souligné, les jeunes manifestants se divisent en deux catégories en termes de niveau de diplôme ; cependant, l’homogénéité de leurs positions politiques est remarquable, ce qui contraste avec la grande diversité observée lors de mouvements sociaux précédents tels que Gezi. Il semble que les références de la jeunesse actuelle soient différentes en raison du contexte politique des quinze dernières années. Les symboles traditionnels de la communauté LGBT (notamment le drapeau arc-en-ciel) et du mouvement kurde sont quasi absents du quartier de Saraçhane. Ces symboles ne sont pas perçus de manière favorable.
La majorité des manifestants sont imprégnés d’un nationalisme et d’un kémalisme marqués, comme l’illustrent leurs références, devises et slogans. Les portraits d’Atatürk et les drapeaux turcs sont omniprésents, souvent accompagnés du signe des Loups gris, symbole de l’ultra-droite.
Pour autant, il serait erroné de voir dans ces manifestations des rassemblements avant tout mus par le nationalisme.
Les participants sont, dans la plupart des cas, des jeunes qui n’ont connu que le gouvernement de l’AKP et de Recep Tayyip Erdogan, au pouvoir depuis 2003. Ils ont grandi dans un contexte où l’autoritarisme et le conservatisme ont progressivement pris le dessus. Le système éducatif a subi de multiples révisions, introduisant des références marquées à l’histoire ottomane et à l’islam. Parallèlement, la laïcité a été marginalisée, tandis que les confréries musulmanes ont connu une croissance significative dans le pays.
Cette montée en puissance des courants islamiques s’est notamment manifestée dans les recrutements et les contrats publics, marquant ainsi leur ascension au sein de l’appareil étatique à la suite du démantèlement de la confrérie Gülen, accusée d’avoir orchestré la tentative de coup d’État de juillet 2016.
Depuis le mouvement de Gezi, l’opposition au régime d’Erdogan s’articulait principalement autour de deux branches : le mouvement politique kurde et les courants kémalistes, lesquels se sont souvent associés au sentiment antimigrant, très sensible dans un pays qui a accueilli en moins de dix ans plusieurs millions de réfugiés et de migrants, principalement en provenance de Syrie, mais aussi d’Irak, d’Afghanistan et d’Iran. En Turquie, l’idée est répandue que ces migrants sont favorables à Erdogan, qui leur a apporté son soutien et a favorisé leur accueil, et qu’ils voteront en grand nombre pour lui une fois qu’ils seront naturalisés turcs.
Pour les jeunes issus de familles ordinaires, en quête d’identité et de repères politiques, les mouvements de gauche, affaiblis par la répression étatique depuis Gezi et dépourvus d’une base populaire significative, apparaissent aujourd’hui comme une alternative peu crédible. Ce sont les kémalistes qui incarnent la seule opposition tangible et clairement en confrontation avec l’appareil étatique.
Récemment, l’armée a renvoyé certains jeunes diplômés de l’institution militaire après qu’ils ont exprimé leur allégeance à la figure de Mustafa Kemal Atatürk, le fondateur de la République turque, en scandant « Nous sommes les soldats de Mustafa Kemal Atatürk ». Cette expression est un slogan largement diffusé à Saraçhane. Se dire kémaliste, aujourd’hui, ce n’est pas nécessairement embrasser toute la doctrine du fondateur de la République, ni partager en tous points les orientations du CHP, le parti kémaliste d’Ekrem Imamoglu ; c’est avant tout une façon d’exprimer son rejet d’Erdogan et de l’AKP.
Le 26 mars 2025, le dirigeant du CHP Özgür Özel a annoncé l’achèvement des manifestations à Saraçhane, avec pour objectif de propager la contestation à travers le pays, dans diverses localisations et sous différentes formes. Il a également appelé à un rassemblement massif à Maltepe, dans la banlieue est d’Istanbul, le 29 mars. Le succès a été au rendez-vous : selon les estimations de l’opposition, la manifestation de Maltepe aurait réuni environ deux millions de personnes. Bien que ce chiffre puisse paraître quelque peu exagéré, la mobilisation a été indubitablement importante, et l’ensemble des forces politiques d’opposition du pays, y compris le DEM, un parti d’opposition de premier plan étroitement lié à la cause kurde, y ont pris part.
Parallèlement, une campagne de boycott ciblant les chaînes de télévision progouvernementales qui ont refusé de couvrir les manifestations, ainsi que les entreprises dont elles dépendent, a été lancée. Les étudiants ont également initié la création d’une coordination interuniversitaire indépendante et ont commencé à organiser, indépendamment du CHP, des manifestations à Istanbul et dans d’autres villes, malgré les arrestations massives et les interventions brutales des forces de l’ordre.
Il devient d’ailleurs de plus en plus difficile pour le gouvernement de fermer les yeux sur le mécontentement croissant de la société face au traitement subi par les jeunes en garde à vue, qui suscite indignation et colère.
Comme le démontrent Valerie Bunce et Sharon Wolchik en se référant aux exemples postsoviétiques et d’Europe de l’Est, les périodes où la confiance dans l’intégrité et l’équité des élections est mise en doute, et où l’électorat perçoit la victoire du gouvernement comme inévitable, quelles que soient les circonstances, sont celles où les formes d’action non électorales telles que les protestations, les marches de masse et la désobéissance civile s’intensifient.
La Turquie, à l’heure actuelle, est le théâtre d’une dynamique comparable. Alors que l’opposition concentre ses efforts sur les procédures électorales depuis un certain temps, l’intensification des actions de mobilisation dans les espaces publics semble être étroitement liée à la perte de crédibilité de la croyance sociale, selon laquelle la transformation politique peut être atteinte par le biais des élections.
La mobilisation politique s’est étendue au-delà des grandes métropoles, gagnant de nombreuses petites villes conservatrices à travers le pays – un phénomène qui revêt une importance particulière en termes de participation citoyenne et d’impact sur le paysage politique.
Ces mobilisations locales et populaires ne sauraient être réduites à de simples réactions épidermiques sans lendemain ; même lorsqu’elles s’essoufflent, elles ont des effets à long terme qui transforment le comportement des électeurs et repositionnent les partis politiques. Il conviendra donc de poursuivre l’observation du pays dans les semaines à venir, notamment après la fin de la célébration de l’Aïd al-Fitr, dont les congés ont été étendus à la dernière minute par Erdogan jusqu’au 7 avril, probablement dans l’objectif de calmer les mobilisations.
Cependant, si les démonstrations de rue sont ralenties, de nouveaux répertoires d’action ont émergé. Dans plusieurs villes, à 20h30 chaque soir, les habitants frappent sur des casseroles en scandant « droit, loi, justice ». L’appel au boycott de la consommation lancé par la coordination des étudiants, pour le 2 avril, a été largement suivi dans les grandes métropoles, soutenu également par les petits commerçants qui n’ont pas ouvert leur magasin.
Dans ce contexte, on ne peut pas ne pas mentionner la position ambiguë de l’Union européenne – sans parler des États-Unis qui n’ont fait qu’exprimer leur inquiétude pour la stabilité politique d’un pays allié. Les responsables de l’UE se sont contentés de déclarations timides sans apporter un soutien clair aux protestataires, contrairement à la période de Gezi en 2013. Signe que le contexte politique n’est plus le même, et que nous vivons dans une époque où la realpolitik prime sur les principes de droits de l’homme et de démocratie pour les pays européens… qui ont pourtant massivement utilisé ces arguments pendant des décennies pour justifier leur refus de laisser la Turquie adhérer à l’UE.
La crédibilité de cette instance aux yeux des Turcs est de ce fait largement atteinte, d’autant que ses dirigeants considèrent la Turquie d’un point de vue avant tout sécuritaire : elle est appelée à jouer un rôle important dans la défense européenne, et à contenir les migrants qui cherchent à rejoindre les pays de l’UE en provenance du Proche-Orient et d’Afrique. Özgür Özel a par ailleurs accusé l’Europe de soutenir un autocrate en avertissant que la Turquie changera d’ici un an… et que l’Europe ne devrait pas venir frapper à sa porte à ce moment-là.
Gülçin Erdi a reçu des financements de l'ANR.
03.04.2025 à 17:48
Fabrice Raffin, Maître de Conférence à l'Université de Picardie Jules Verne et chercheur au laboratoire Habiter le Monde, Université de Picardie Jules Verne (UPJV)
Nous n’avons jamais été aussi nombreux dans le monde à connaître un niveau de confort et de liberté aussi élevé. Ce mode de vie, même s’ils nous émancipe, est malheureusement indissociable de la destruction de l’environnement. Faudra-t-il que celle-ci devienne une menace tangible pour nous pousser à renoncer à notre « petit confort » ? L’anthropologie permet d'éclairer cette question.
Lorsque j’entre dans la maison de René, ce matin de décembre 2022, dans le village de Beaucourt-en-Santerre, la température est bien plus proche de 25 °C que des 19 °C alors préconisés pour « économiser l’énergie ». René, retraité de la fonction publique, fait partie de ces humains modernes et puissants du XXIe siècle.
Il ne prend pas du tout au sérieux la menace du gouvernement de l’époque concernant les possibilités de rupture d’approvisionnement électrique : « on a des centrales nucléaires quand même ! »
Durant notre échange, René montre qu’il maîtrise la température de sa maison : sans effort, il repousse l’assaut du froid qui règne alors dehors.
« Je n’ai pas travaillé toute ma vie pour me geler chez moi_, déclare-t-il sûr de lui, les écolos, tout ça, ils nous emmerdent ».
Comment expliquer cette inaction pour le moins paradoxale ? La pensée du philosophe Henri Lefebvre est éclairante. Selon lui, l’humain doit éprouver un besoin pour agir, travailler et créer. Pour lui, le véritable besoin naît d’une épreuve, d’un problème qu’il faut régler nécessairement, ce serait même la seule façon d’engendrer une action humaine volontaire.
Ce phénomène pourrait expliquer pourquoi il est si difficile de traduire en actes
« l’urgence écologique ». Peut-on parler « d’urgence » lorsqu’il n’y a pas encore de réelle épreuve ?
La multiplication des tempêtes violentes, des inondations, la montée des océans, la fonte des glaciers, les sécheresses et les incendies, aussi réels et tangibles soient-ils, n’ont peut-être pas encore eu lieu à suffisamment large échelle pour marquer les routines quotidiennes à l’échelle d’un pays entier.
L’hypothèse est la suivante : dans les pays occidentaux, les aléas climatiques ne porteraient pas encore suffisamment à conséquences pour que se ressente un besoin d’agir généralisé.
Autrement dit, les souffrances engendrées par le changement climatique restent peut-être trop éloignées, trop localisées ou trop sporadiques. À peine éprouve-t-on collectivement un malaise au regard de la convergence des avertissements continus des militants écologistes et de la litanie des catastrophes à l’échelle planétaire, mais localisées sur de petits périmètres.
De plus, pour des dégâts locaux et éphémères, si forts soient-ils, les pays occidentaux sont assez équipés pour y remédier économiquement et techniquement, assez riches pour qu’ils ne remettent pas en cause l’organisation socio-économique globale.
Comme une fuite en avant, l’exploitation des ressources naturelles leur donne, la capacité de maîtriser les effets des catastrophes naturelles nées de l’exploitation des ressources naturelles. Jusqu’à où ?
Dès lors, faire évoluer notre mode de vie occidental demeure une option peu envisagée, d’autant plus que ce dernier est perçu comme la dimension la plus fondamentale, l’accomplissement le plus profond et caractéristique des Modernes que nous sommes.
Ce mode de vie couvre avec une efficacité inédite les besoins les plus essentiels que l’humanité a toujours cherché à combler : repousser les limites de la mort, les maladies, alléger le fardeau physique de l’existence dans la lutte pour satisfaire nos besoins biologiques et nous protéger contre un environnement hostile, etc.
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
La recherche du confort matériel est, en cela tout à fait existentielle. Cet existentialisme n’a rien d’écologique. Les besoins de l’humain sont tout entiers tournés vers la production, la réalisation, l’acquisition d’objets, la consommation d’artefacts qui le libèrent. La source de cette prospérité matérielle étant fondée sur l’exploitation du monde vivant et minéral, les humains procrastineront tant que possible le changement d’équilibre de ce rapport à l’environnement.
Devant cette nécessité existentielle, pointer la responsabilité et la rationalité en mobilisant des arguments scientifiques n’a que peu d’effets. Surtout lorsque les appels sont maladroitement portés. Certains militants écologistes ou scientifiques sont ainsi perçus comme des prédicateurs, des prospectivistes ou des moralistes.
C’est qu’ils n’ont, selon moi, pas compris le primat anthropologique de la lutte contre l’environnement : notre mode de vie occidental comble, bien que de manière imparfaite, mais plus que jamais dans l’histoire, les besoins fondamentaux des humains.
Le risque est donc que les Modernes occidentaux se battent tant que possible pour le maintien de ce mode de vie, et ce jusqu’à épuisement des ressources.
Au regard de l’actualité depuis l’élection de Trump et l’invasion de l’Ukraine, il y a fort à parier qu’ils s’attaqueront même aux humains les plus faibles pour le conserver, avant de se battre entre eux. Il est même possible que, pour conserver ce privilège, ils préfèrent sacrifier les humains les plus pauvres.
Parce que ce mode de vie représente la plus grande émancipation vis-à-vis de la mort et de la douleur jamais atteinte pour un nombre d’individus aussi grand, mais aussi la plus grande liberté obtenue par rapport à l’environnement.
Une émancipation continue, bien que non achevée, vis-à-vis de ce que Marx appelait, « le règne de la nécessité ». Et si, pour paraphraser Marx, « un règne de la nécessité subsiste toujours », une bonne partie des occidentaux, même s’ils travaillent, sont « au-delà de ce règne ». Le règne des Modernes ressemble beaucoup à ce moment de l’histoire de l’humanité auquel Marx aspirait où « commence le développement des puissances de l’homme, qui est à lui-même sa propre fin, qui est le véritable règne de la liberté ». Un moment où travailler et consommer ne soient plus seulement réduits à satisfaire des besoins biologiques, mais à l’épanouissement, au bien-être de la personne.
La liberté et le confort qui libèrent le temps et le corps sont les biens les plus précieux de l’humain moderne occidental (et de tous les non-occidentaux devenus Modernes). Il est possible qu’il faille attendre que la menace climatique mette en péril cette liberté de façon palpable pour qu’il ressente le besoin de la défendre. Alors seulement, il pourra pleinement agir pour rééquilibrer son rapport à l’exploitation de l’environnement… s’il est encore temps.
C’est sur cette réalité anthropologique qu’achoppe aujourd’hui l’injonction à l’action écologiste, une injonction d’autant moins efficace qu’elle s’oppose à une quête essentielle de l’humanité depuis son apparition sur terre.
Dans ce contexte, faudrait-il penser que la perspective anthropologique est désespérante ? Non, puisqu’elle permet au contraire d’éviter l’écueil des injonctions militantes naïves, des faux espoirs simplistes, ou encore, de contrer la parole des gourous. L’enjeu est de repartir de l’humain pour engager des actions vraiment efficaces.
Fabrice Raffin ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
03.04.2025 à 17:46
Clodagh Harrington, Lecturer in American Politics, University College Cork
L’escalade du prix des œufs est devenue un problème politique majeur pour le gouvernement Trump, et il n’est pas près de disparaître. Hausse du panier moyen des Américains, épidémie de grippe aviaire, expulsion des migrants – qui représentent 70 % de la main-d’œuvre agricole –, l’œuf est au cœur d’enjeux politiques et géopolitiques majeurs.
Le prix des œufs a considérablement augmenté ces dernières années aux États-Unis. Une douzaine d’œufs coûtaient 1,20 USD en juin 2019. Aujourd’hui, le prix est d’environ 4,90 USD, avec un pic à 8,17 USD début mars.
Certains restaurants ont imposé des suppléments sur les plats à base d’œufs, attirant encore plus l’attention sur l’escalade des coûts. Et il y a aussi des pénuries dans les rayons des supermarchés.
Dans les mois à venir, les États-Unis prévoient d’importer jusqu’à 100 millions de produits de consommation de base. Des représentants du gouvernement s’adressent à des pays, de la Turquie au Brésil, pour s’informer sur les œufs destinés à l’exportation.
La secrétaire à l’agriculture, Brooke Rollins, qui avait précédemment déclaré que l’une des options de la crise était que les gens aient un poulet dans leur jardin a suggéré dans le Wall Street Journal que les prix sont peu susceptibles de se stabiliser avant quelques mois. Et Donald Trump a récemment partagé un article sur le réseau Truth Social appelant le public à « se taire sur les prix des œufs ».
La principale cause du problème est une épidémie de grippe aviaire qui a entraîné l’abattage de plus de 166 millions d’oiseaux aux États-Unis. Environ 98 % des poulets du pays sont produits dans des fermes industrielles, plus propices à la contagion.
Selon les Centers for Disease Control, la grippe s’est déjà propagée à plusieurs centaines de vaches laitières et à un être humain. Le département de l’agriculture des États-Unis a récemment annoncé un plan de 1 milliard de dollars pour contrer le problème, avec des fonds pour l’amélioration de la biosécurité, la recherche de vaccins et l’indemnisation des agriculteurs.
En janvier 2025, l’attachée de presse de Donald Trump à la Maison Blanche Karoline Leavitt a accusé l’administration précédente d’être à l’origine des prix élevés des œufs. Il est vrai que des oiseaux ont été abattus sous la surveillance du président Joe Biden, mais c’était et cela reste une pratique courante lors des épidémies de grippe aviaire et cela avait également été le cas sous les administrations Obama et Trump 1.
Cependant, cela montre à quel point la hausse du prix des œufs est devenue une question politique. Elle a été régulièrement mentionnée dans les discours de campagne comme un symbole des maux de l’économie états-unienne. Donald Trump a promis de fixer le prix des œufs rapidement s’il était élu, mais, jusqu’à présent, il n’en est rien.
Les prix sont toujours à la hausse. Même lorsque les prix baissent soudainement, comme ils l’ont fait cette semaine, les Américains savent à quel point ils étaient moins chers jusque récemment.
Il y a un certain nombre de raisons pour lesquelles le prix des œufs est devenu important pour les hommes et femmes politiques états-uniens. Tout d’abord, presque tout le monde achète des œufs. La pénurie et la hausse des prix qui s’ensuit font donc l’actualité et touchent les consommateurs de toutes les tranches de revenus. Ensuite, ils symbolisent les vulnérabilités économiques du pays. Enfin, les prix des œufs sont politiques en raison de la promesse de Trump de les faire baisser.
Les sondages ont montré que l’économie et l’inflation ont été des facteurs clés dans le choix des électeurs le jour du scrutin présidentiel de 2024. En février 2025, Donald Trump a accordé une interview à NBC News dans laquelle il a déclaré qu’il avait remporté les élections sur les thématiques de l’immigration et des… courses alimentaires !
En matière d’immigration, les électeurs fondent souvent leurs opinions sur ce qu’ils perçoivent comme étant vrai. Une rhétorique dure sur la construction d’un mur peut être associée au sentiment d’avoir un président qui prend des mesures fortes, que quelque chose de tangible se matérialise ou non.
Avec les courses alimentaires, la réalité l’emporte sur la perception. Le prix des œufs est imprimé sur la boîte et le coût est payé directement par les électeurs.
Ensuite, il y a les producteurs d’œufs. Les agriculteurs états-uniens avaient tendance à soutenir massivement Trump. Les zones rurales ont voté pour lui de plus en plus au long de ses trois tentatives électorales. Elles augmentent même leur soutien pour lui en 2020 après des guerres commerciales et des augmentations de prix qui les auraient affectées négativement.
Un autre facteur qui pourrait faire grimper les prix des œufs est qu’on estime que 70 % de la main-d’œuvre agricole est constituée de main-d’œuvre immigrée – dont 40 % sont sans papiers. Si les plans de l’administration Trump pour des tarifs douaniers élevés et des expulsions massives de migrants se concrétisaient, l’industrie agroalimentaire aurait du mal à fonctionner.
De nouvelles augmentations des prix des denrées alimentaires seront inévitables, avec une exacerbation potentielle en raison du gel du financement de certains programmes du département de l’agriculture des États-Unis que Trump a promulgué. En mars 2025, une réduction d’1 milliard de dollars a été annoncée, dont les conséquences se font déjà sentir chez les agriculteurs. Le message « douleur maintenant, pour gain plus tard » est une promesse politique délicate.
À l’ère des turbulences internationales, les élections sont largement gagnées sur des questions plus banales. Plus précisément, l’économie de la « table de cuisine » parle à chaque électeur, peu importe à quel point sa table est grande ou non.
Les Américains savent que, au Canada voisin, les prix des œufs n’ont pas augmenté de façon spectaculaire. Il n’y a pas eu de pénurie. Mais les prix au Canada ont toujours été plus élevés qu’aux États-Unis, du moins en partie parce que les normes agricoles diffèrent.
Les États-Unis n’ont pas de normes de bien-être élevées pour les travailleurs agricoles ni pour les animaux. Cette lacune doit être comblée afin d’aider à réduire le risque futur de grippe aviaire, mais cela risque encore d’augmenter les prix.
Blâmer le précédent président n’est pas une position durable pour Donald Trump. Comme l’ancien président Harry Truman pourrait le lui rappeler : « La responsabilité s’arrête ici. »
Clodagh Harrington ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
03.04.2025 à 17:44
Grégory Miras, Professeur des Universités en didactique des langues, Université de Lorraine
Mélanie Lancien, Maîtresse de Conférence en linguistique
Que racontent les accents des personnages de dessins animés type Disney ou Dreamworks ? Mettent-ils en avant la diversité culturelle ou jouent-ils surtout sur les stéréotypes ?
Chacun se souvient de l’accent hispanophone du Chat Potté dans Shrek, ou (quasi) russophone de Gru, dans Moi, Moche et Méchant. Or, dans les versions originales comme dans les versions doublées, c’est souvent les accents standards, dits « neutres », qui dominent. Qui ne s’est pas déjà demandé pourquoi Mulan et Rebelle dans les dessins animés éponymes, ou encore Tiana, dans la Princesse et la Grenouille, s’expriment comme des présentatrices télé ! Alors quelle est la place des accents, notamment étrangers, dans les dessins animés ? Et comment ces accents dialoguent-ils avec les perceptions que nous en avons dans la vie réelle ?
Dans les années 1990, la chercheuse américaine Rosina Lippi-Green a analysé 24 dessins animés de la franchise Disney, produits entre 1938 et 1994. Cela va de Blanche-Neige au Roi lion – soit 371 personnages au total. Dans les versions originales en langue anglaise de ces films, elle a dénombré 91 personnages qui, en toute logique, ne devraient pas parler anglais : citons le Roi lion qui se déroule objectivement en Afrique avec des patronymes originaires du swahili, une langue parlée en Afrique centrale et orientale (par exemple, mufasa signifie « le roi » ou « celui qui gouverne »).
Or, sur 91 personnages, ils ne sont que 34 à s’exprimer en anglais avec un accent dit « étranger » – cette dénomination étant sujette à débat, car elle pose la question des limites de ce qui est étranger. Les autres personnages n’ont « aucun accent » ou plutôt un accent standard.
Chaque samedi, un éclairage original et décalé (articles, quiz, vidéos…) pour mieux comprendre le monde qui nous entoure. Abonnez-vous gratuitement dès aujourd’hui !
Le cas de l’ours Paddington, personnage de fiction créé par l’écrivain britannique Michael Bond, n’est pas en reste sur la question. Originaire du Pérou où il s’entraîne avec des ressources pédagogiques britanniques, on lui attribue son nom à son arrivée en Angleterre. Or, de nombreux spectateurs se demandent, dans la presse et sur des forums anglophones après la sortie du film, pourquoi il a un accent anglais britannique plutôt qu’un accent hispanophone en anglais. Ils semblent oublier qu’il s’agit d’un personnage fictif qui pourrait donc avoir n’importe quel accent. L’adaptation française a tranché la question en lui attribuant un accent standardisé (dit « sans accent »). Angela Smith, chercheuse en Grande-Bretagne, souligne qu’il est présenté à l’origine, par son créateur, comme ayant une petite voix, loin de l’agressivité d’un ours et sans accent étranger, mais ayant adopté la langue de la culture dominante anglo-saxonne.
Luca Valleriani de l’Université La Sapienza, à Rome, a étudié le cas du long-métrage d’animation Zootopie, produit par Disney, qui met en scène des animaux anthropomorphiques– c’est-à-dire reprenant des traits humains. Dans cette ville peuplée d’animaux, un officier lapin doit collaborer avec un renard arnaqueur pour résoudre une affaire. Dans la version originale, c’est-à-dire anglophone, plusieurs personnages ont des accents états-uniens et trois ont des accents dits « étrangers » : une pop star a l’accent latino-américain (doublée par Shakira), un patron de mafia a l’accent italien américain et un chef de la police a l’accent de l’est londonien avec une touche sud-africaine.
Dans les adaptations danoise et française du film, deux de ces accents (la pop star et le chef de la police) ont été standardisés. En France, l’accent italien du patron de la mafia a presque disparu en étant substitué par une qualité de voix et une prosodie spécifiques qui s’ajoutent à une musique clichée de l’Italie jouée lorsqu’il s’exprime. La version italienne a adapté ces différents accents, en attribuant aux personnages des variétés régionales italiennes : napolitaine, sicilienne et toscane, notamment.
Le film Zootopie est un bon exemple d’usage stéréotypé des accents. Il propose un message humaniste selon lequel la race et l’apparence physique n’ont rien à voir avec le fait d’être mauvais ou bon. Et pourtant, il charge les accents de stéréotypes, particulièrement ceux, régionaux, renvoyant à des dimensions sociales, « provinciale » ou « mafieuse ». La question du doublage devient ainsi majeure puisque la plupart de ces productions sont produites aux États-Unis et renvoient à des stéréotypes ou clichés états-uniens ou anglophones.
Lippi-Green rappelle que le contexte géopolitique se reflète dans les stéréotypes de chaque époque. Prenons les personnages des méchants : pendant la Seconde Guerre mondiale, ils parlaient avec un accent japonais ou allemand ; pendant la guerre froide, avec un accent russe, et pendant les guerres d’Iran ou d’Irak, avec un accent arabe, identifiant ainsi les adversaires du héros ou de l’héroïne comme venant de pays « ennemis » des États-Unis.
Toujours selon la chercheuse Lippi-Green, les producteurs utilisent ces accents pour plusieurs raisons : situer rapidement un espace géographique (accent russe = Russie) ; faire un raccourci en cataloguant un personnage (accent italien = un mafieux) ; produire un effet humoristique (accent belge) ; ou alors, par facilité et pour des questions de coûts, ils vont standardiser les façons de parler. Dans son étude, elle montre aussi, dans les versions en anglais des films, que la proportion de méchants ayant un accent dit « étranger » (40 %) est supérieure à celle qui a un accent américain ou britannique (20 %). Si son travail relève que l’accent français hexagonal est souvent présenté comme ayant une valeur positive, il fait aussi l’objet de stéréotypes ; il est régulièrement associé à des personnages irascibles (le cuisinier dans la Petite Sirène) ou dragueurs (O’Malley dans les Aristochats), reflétant le cliché que l’on se fait des Français aux États-Unis.
Les discriminations liées à l’accent ne sont pas toujours évidentes ni explicites. On peut noter que dans les films d’animation, les personnages qui, en plus d’un accent, ont aussi d’autres caractéristiques très différentes des personnages principaux, sont souvent relégués à des rôles secondaires. Ils peuvent aussi avoir des rôles de premier plan avec des opportunités réduites (le méchant manipulateur doit être vaincu sans rédemption possible). Parallèlement, les études semblent montrer que les personnages de méchants sont régulièrement affublés d’un accent britannique, qui leur donnerait de la crédibilité, car il renverrait à des traits de caractère alliant une intelligence redoutable et une faible moralité. Dans la version anglophone du Roi lion, Mufasa (le roi de la savane) a un accent américain, tandis que son frère, Scar, a un accent britannique.
Si l’on connaît peu l’impact direct de ces accents sur les jeunes enfants, Patricia Kuhl a pu démontrer que les nourrissons américains âgés de 9 à 10 mois peuvent activer un apprentissage phonétique (dans ce cas, le mandarin) à partir d’une exposition humaine en direct, mais que cet apprentissage ne se fait pas avec la télévision. Cela suggère que, chez le très jeune enfant, l’interaction sociale réelle renforce la capacité à s’approprier de nouveaux sons. Kossi Seto Yibokou souligne que les étudiants français qui apprennent l’anglais à l’université sont largement influencés par la prononciation américaine des séries. Il est donc possible de penser que l’impact des écrans sur les accents peut dépendre de l’âge.
Lippi-Green compare l’accent à une Maison des sons que l’on construit, puis décore, aménage et étend en fonction de ses rencontres. Les individus adaptent (in)volontairement leurs accents en fonction des situations et du temps qui passe. Les films, dessins animés, mangas et autres médias peuvent influencer notre perception des accents de manière complexe. Parfois, ils diffusent une image caricaturale des accents, ce qui nous habitue à être plus à l’aise avec ce qui nous est familier (ce que l’on présente comme un « non-accent » ou un accent « neutre ») et méfiants envers ce qui semble différent de nous (les accents que l’on identifie comme « étrangers » par exemple).
Faire entendre des accents différents mais non stéréotypés, dès le plus jeune âge, contribue à favoriser la capacité universelle à se comprendre les uns et les autres, peu importe sa façon de parler. Plutôt que de supprimer ou corriger les accents, on peut aider à mieux les comprendre.
Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.
03.04.2025 à 12:27
Antoine Bouët, Directeur, CEPII
Retour vers le futur. Un voyage dans le temps s’impose pour comprendre les conséquences potentielles des droits de douane mis en place en 2025 par la nouvelle administration Trump. Revenons donc sur les effets de ceux imposés lors de son premier mandat, en 2018 et 2019.
En 2018 et 2019, sous la première administration Trump, les droits de douane avaient concerné environ 300 milliards d’importations de panneaux solaires, machines à laver, acier, aluminium, puis de nombreux produits de Chine, d’Inde et d’Europe : dispositifs médicaux, téléphones, produits chimiques, textiles, avions, fromages, huiles d’olive.
Avec quels bénéfices ? Dans ses déclarations, en 2025, Donald Trump assigne plusieurs objectifs aux droits de douane : le rééquilibrage de la balance commerciale, la réindustrialisation du pays et la création d’emplois dans le secteur manufacturier. Il met en avant une augmentation des recettes publiques de l’État fédéral, tout en soulignant la nécessité de sanctionner la Chine pour ses pratiques jugées déloyales.
Le président états-unien espère attirer des investissements directs étrangers (IDE), qui chercheraient à contourner les barrières tarifaires imposées. Cet argument du tariff-jumping rappelle qu’une entreprise peut établir des filiales aux États-Unis pour éviter de hauts tarifs douaniers.
Pour Donald Trump, les droits de douane sont une taxe sur les exportateurs étrangers, non sur ses concitoyens. Ils ne pèsent pas sur les ménages et les entreprises états-uniennes, qui, dès lors, ne devraient pas voir les prix des biens qu’ils achètent augmenter.
S’il considère la possibilité de représailles commerciales, il en minore les effets, car les contre-représailles que les États-Unis exerceraient sont de nature à renforcer leur poids dans les négociations.
Voyons ce qu’il en a été de ces différents objectifs sous l’administration Trump 1.
Commençons par la balance commerciale (Graphique 1). Le déficit états-unien est passé de 870 milliards de dollars en 2018 à 1 173 milliards en 2022, puis 1 203 milliards en 2024. Si les importations ont connu un léger fléchissement en 2018, et surtout 2020 — année du Covid-19 —, elles ont ensuite repris une tendance haussière.
Les exportations ont enregistré une évolution similaire avec une hausse moins marquée en fin de période. Parmi les facteurs qui ont pu jouer un rôle : l’évolution du dollar. Avec la baisse des importations, la demande de monnaie étrangère se réduit – comme le yuan chinois, la roupie indienne ou l’euro –, ce qui favorise l’appréciation du dollar. Un dollar plus fort équivaut à des produits états-uniens plus chers pour les étrangers. Conséquence : une baisse des exportations du pays de l’Oncle Sam.
Voyons maintenant l’impact des droits de douane de Trump 1 sur la réindustrialisation. Les économistes David Autor, Anne Beck, David Dorn et Gordon Hanson ont estimé les conséquences de la guerre commerciale de 2018-2019 sur l’emploi au niveau des commuting zones (les zones où les individus vivent et travaillent) et ils ont constaté que les droits de douane de la première administration Trump n’ont pas eu d’effet sur l’emploi au niveau local.
Quant aux recettes douanières, elles ont bien augmenté à partir de mai 2018, puis en mai 2019 (Graphique 2). Pourtant, elles ne représentent qu’une faible partie des recettes de l’État fédéral : environ 1 % en 2018, 2 % en 2019, loin derrière les revenus tirés de la taxation sur le revenu des ménages ou le bénéfice des sociétés. Augmenter davantage les recettes douanières pourrait se faire, mais seulement au prix de distorsions considérables. Nous avons démontré que le droit de douane maximisant les recettes douanières serait une taxe d’environ 80 % sur les importations de tous les produits en provenance de tous les pays. Elle équivaut à un peu plus de 800 milliards de dollars, soit 15,3 % des recettes totales de l’État fédéral en 2024.
S’agissant de l’inflation, sujet sensible aux États-Unis, les droits de douane ont toutes les chances de l’accélérer. Comment ? Par les hausses de prix intérieurs qu’ils risquent fort d’engendrer, aussi bien pour les ménages que pour les entreprises achetant des biens nécessaires à leur activité. Les analyses empiriques montrent qu’il y a eu un pass-through des droits de douane aux prix des biens importés par les États-Unis en 2018-2019. Les entreprises répercutent directement la hausse de ces droits de douane sur leurs produits et services. Autrement dit, les prix avant droits de douane n’ont pas baissé.
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
Le coût de ces droits a été quasi intégralement payé par les ménages américains. Mary Amiti, Stephen J. Redding et David E. Weinstein concluent que les droits de douane de l’administration Trump 1 ont augmenté le prix moyen des biens manufacturés aux États-Unis de 1 point de pourcentage. Les chercheurs Fajgelbaum, Goldberg, Kennedy et Khandelwal concluent à un pass-through complet. La perte de revenu réel pour les ménages et les entreprises qui achètent des produits importés a été de 51 milliards de dollars… soit de 0,27 % du PIB américain.
Quant aux droits de douane, dont une partie a été mise en place au titre de la section 301 du Tariff Act de 1974, il semblerait qu’ils n’aient pas pleinement atteint leur objectif. Ils avaient été créés pour sanctionner la Chine après une enquête américaine sur les politiques du gouvernement chinois liées aux transferts de technologie. Selon certains observateurs, une autre raison : réduire les dépendances des chaînes de valeur américaines vis-à-vis de ce pays.
À lire aussi : « Tariffs are coming » : menace de taxes douanières et rapports de force sous Trump II
Si la part des exportations chinoises dans les importations états-uniennes de biens a bien baissé, l’évolution en valeur n’est pas claire. Les importations américaines en provenance de Chine ont en effet augmenté de 2016 à 2018, baissé en 2019 et 2020, puis de nouveau augmenté en 2022. À cette date, ils ont atteint 536 milliards de dollars et baissé à nouveau autour de 430-440 milliards sur les deux années suivantes.
En revanche les importations américaines ont clairement augmenté entre 2018 et 2024 en provenance de l’Inde – de 54 à 87 milliards de dollars –, du Mexique – de 344 à 506 milliards – et du Vietnam – de 49 à 137 milliards de dollars. Sur la période, la part de la Chine dans les importations états-uniennes a ainsi baissé de 21,5 % à 13,4 %, tandis que celle cumulée des trois autres pays augmentait de 16,9 % à 22,3 %.
Quelle explication potentielle à ces chiffres ? Des sociétés chinoises auraient pu installer des usines dans ces pays pour y fabriquer (ou y assembler ou y faire transiter) des produits traditionnellement fabriqués en Chine, pour les exporter ensuite vers les États-Unis. Cette stratégie contourne les droits de douane américains sur les biens en provenance (directe) de Chine.
Les chercheurs Alfaro et Chor ont constaté que des entreprises chinoises ont davantage investi, notamment au Vietnam et au Mexique. Ce moment coïncide avec l’imposition par les États-Unis de droits de douane discrétionnaires sur les importations en provenance de Chine. Ils ont également constaté une corrélation négative entre les variations de la part de la Chine dans les importations américaines par secteur et les variations de la part du Mexique et du Vietnam, mais aussi de l’Inde, de la Malaisie et de l’Indonésie : la baisse dans un secteur des exportations chinoises vers les États-Unis est corrélée au cours de cette période avec la hausse des exportations dans le même secteur de ces cinq pays vers les États-Unis.
Le rôle de pays connecteurs (G5) joué par l’Inde, l’Indonésie, la Malaisie, le Mexique et le Vietnam peut s’observer à partir du graphique 3. Entre 2018 et 2020, les exportations chinoises vers les États-Unis baissent substantiellement, davantage que celles du reste du monde vers les États-Unis. Les exportations chinoises vers le groupe des cinq pays connecteurs (G5) augmentent fortement, davantage que celles vers le reste du monde. Au total, les exportations mondiales de la Chine n’ont pas diminué à la suite des droits de douane sous la première administration Trump. Elles ont au contraire augmenté de 32 % entre 2017 et 2021.
Dans le même temps on observe bien une réallocation des exportations chinoises, en particulier vers les pays connecteurs (G5). Quant à ces derniers, ils ont à partir de 2017 augmenté significativement leurs exportations vers les États-Unis, de 62 % entre 2017 et 2022. En parallèle, leurs exportations vers le reste du monde ne s’accroissaient que de 46 %.
Les États-Unis sont-ils moins dépendants de la Chine en 2021 par rapport à 2017 ? Clairement, si on considère une relation directe, moins si les relations indirectes sont prises en compte.
Pour terminer, en ce qui concerne l’argument du tariff-jumping et l’impact des droits de douane sur les investissements étrangers aux États-Unis, aucune étude n’a tenté de le mesurer. À partir des seuls flux (Graphique 4), on observe plutôt un recul de ces investissements étrangers depuis 2016, hormis en 2021.
Ce que l’on sait, c’est que le coût des biens intermédiaires intervient dans les décisions des investisseurs. À cet égard, les droits de douane sur l’acier et l’aluminium ne jouent pas en faveur de l’implantation d’entreprises ayant besoin de ces biens dans leur processus de production.
Un argument qui pourrait justifier la décision de mettre en place des droits de douane : leur popularité, surtout auprès de ceux qui travaillent dans les secteurs où ces droits sont imposés. Les chercheurs du National Bureau of Economic Research (NBER) soulignent en effet que les habitants des régions les plus exposées aux droits de douane ont été plus susceptibles de voter pour la réélection de Donald Trump en 2020.
Un argument que ce dernier n’a pas mis en avant dans ses déclarations pour justifier sa « tarifmania », mais qui pourrait bien avoir pesé.
Antoine Bouët ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
03.04.2025 à 11:04
David Ecotière, Chercheur en acoustique environnementale - Directeur adjoint de l’Unité Mixte de Recherche en Acoustique Environnementale (UMRAE), Cerema
Marie-Agnès Pallas, Chercheuse en acoustique environnementale, Université Gustave Eiffel
Des chercheurs en acoustique ont comparé différentes options pour atténuer les nuisances sonores causées par le bruit routier. En fonction des situations, il peut être plus intéressant d’opter pour un moteur électrique plus silencieux, de changer le revêtement des routes ou d’optimiser la vitesse du trafic routier. Mais dans la plupart des cas, la solution optimale est plurielle.
Selon l’Organisation mondiale de la santé (OMS), le bruit est le deuxième facteur de risque environnemental en Europe en matière de morbidité, derrière la pollution de l’air. Il représente un problème majeur pour la santé publique, dont les répercussions socio-économiques globales, estimées à 147 milliards d’euros par an, en 2021, sont trop souvent négligées.
Le bruit des transports, en particulier le bruit routier, est en France la principale cause de ces nuisances. Différentes solutions peuvent pourtant être mises en œuvre pour limiter son impact. Modifier la propagation acoustique en interposant un obstacle de grande dimension entre la source et les riverains (bâtiments, écran acoustique, buttes naturelles…) peut être un moyen très efficace de réduire l’exposition sonore, mais n’est pas toujours techniquement ou financièrement envisageable et ne permet pas de couvrir toutes les situations possibles.
Améliorer l’isolation acoustique des bâtiments est également une très bonne solution technique, mais elle présente l’inconvénient de ne pas protéger les personnes situées à l’extérieur et de perdre en efficacité dès lors que portes ou fenêtres sont ouvertes. La meilleure des options reste ainsi, avant tout, de réduire l’émission sonore à la source.
Dans cette optique, des actions sont régulièrement mises en place, soit dans un cadre réglementaire (étude d’impact de nouvelles infrastructures, opérations de résorption des « points noirs du bruit » etc.), soit de façon volontariste par des collectivités ou des gestionnaires d’infrastructures routières pour lutter contre les nuisances sonores.
Des polémiques récentes sur la façon de réduire le bruit routier peuvent néanmoins brouiller le message auprès du citoyen et nuire ainsi à la crédibilité de ces solutions, dont le rôle reste avant tout de combattre ce fléau environnemental. Qu’en est-il exactement de leur efficacité et de leur pertinence techniques ?
Avant d’explorer les différentes solutions permettant la réduction du bruit routier à la source, il est important de comprendre les causes de ce bruit et les paramètres sur lesquels on peut agir pour le réduire. Les bruits de comportement, liés à un mode de conduite non conventionnel ou inadapté, contre lesquels des mesures de lutte sont en cours d’évaluation dans plusieurs villes, ne seront pas considérés ici.
Le son émis par un véhicule routier provient de deux principales sources :
le bruit de propulsion, dû au système mécanique (moteur, transmission, échappement),
et le bruit de roulement, dû au contact entre les pneumatiques en mouvement et la chaussée.
En conditions normales, le bruit de propulsion prédomine en dessous de 30 à 40 km/h pour les véhicules légers (VL) – ou de 40 à 50 km/h pour les poids lourds (PL) – tandis que le bruit de roulement l’emporte au-delà et augmente rapidement avec la vitesse.
Pour suivre au plus près les questions environnementales, retrouvez chaque jeudi notre newsletter thématique « Ici la Terre ».
Pour les véhicules actuels en fonctionnement standard, les autres sources potentielles de bruit (écoulement de l’air sur le véhicule…) sont négligeables par rapport au bruit de propulsion et au bruit de roulement.
Pour un bruit constant, il est communément admis que l’audition humaine ne perçoit une variation qu’à partir d’un écart de 2 décibels A (dBA) minimum. L’acousticien de l’environnement considère ainsi qu’un changement inférieur à ce seuil est « non significatif », car insuffisamment perceptible. Il utilise, en première approche, ce seuil comme repère pour juger de l’efficacité potentielle d’une solution de réduction du bruit.
Agir sur la motorisation permet de diminuer les émissions sonores à basse vitesse. Les moteurs électriques sont ainsi généralement moins bruyants que les moteurs thermiques, avec une différence qui tend cependant à diminuer pour les véhicules thermiques neufs actuels, moins sonores que par le passé.
La réglementation oblige aussi les véhicules électriques à ajouter un son synthétique en dessous de 20 km/h pour améliorer la sécurité des piétons (dispositif AVAS). Une boîte de vitesse automatique contribue également à réduire l’émission sonore, car elle assure un régime du moteur thermique toujours adapté à l’allure et évite ainsi les excès de bruit dus à des conduites en surrégime.
Hors des restrictions d’accès imposées à certains cœurs de ville, agir sur la motorisation des véhicules n’est cependant généralement pas du ressort d’un gestionnaire d’infrastructure routière. Le changement d’une grande partie du parc roulant est en outre nécessaire pour produire un impact acoustique significatif, ce qui n’est efficace qu’à long terme.
Pour des effets à court terme, une deuxième option consiste à optimiser l’écoulement du trafic en modifiant le débit des véhicules ou leur vitesse. Les gains sonores attendus d’une réduction du débit suivent une loi logarithmique, où une division par 2 du nombre total de véhicules entraîne une diminution de 3 dBA. La diminution de la vitesse permet quant à elle de diminuer les émissions sonores en agissant sur le bruit de roulement.
Dans ce cas, au-delà de 40 km/h, les gains attendus sont de l’ordre de 1 à 1,5 dBA par tranche de réduction de 10 km/h. Toutefois, les émissions sonores des véhicules légers et des poids lourds n'étant pas équivalentes, l'émission sonore globale d'un trafic routier dépendra des proportions de ces véhicules qui y circulent et du revêtement de chaussée. Il est donc difficile de donner ici une estimation synthétique des gains potentiels dans toutes les situations.
L’application en ligne Motor développée par notre équipe permet à chacun de tester, en première approche, des scénarios de trafic en modifiant les différents paramètres d’influence du bruit afin de juger de leur efficacité potentielle sur la réduction de l’émission sonore d’une voirie routière.
Une troisième solution consiste à modifier le type de revêtement de chaussée afin d’agir sur le bruit de roulement.
On peut comparer les performances acoustiques de très nombreux revêtements de chaussées, par exemple à l’aide de notre application en ligne BDECHO, qui tire parti de la base nationale des performances acoustiques des revêtements de chaussées français.
Celle-ci montre ainsi que les revêtements les moins bruyants sont ceux dont la couche de surface est à faible granulométrie (enrobés à petits agrégats) et qui présentent une certaine porosité. À l’inverse, celle des plus bruyants a une plus forte granulométrie et n’est pas poreuse.
Si chaque solution peut contribuer à la réduction du bruit routier, chacune comporte également des inconvénients.
Changer un revêtement bruyant par un autre moins bruyant peut engendrer une réduction du bruit de 2 dBA à 10 dBA au maximum, et ce, dès 25 km/h pour les véhicules légers et dès 40 km/h pour les poids lourds.
Onéreuse, cette solution nécessite une mise en œuvre lourde et une intervention conséquente sur la voirie. Les performances acoustiques des revêtements ont aussi l’inconvénient d’évoluer au fil du temps, avec une dégradation des performances plus rapide pour les revêtements les moins bruyants. Une dispersion importante des performances (de l’ordre de plusieurs dBA) est également observée au sein de chaque catégorie de revêtement, ce qui entraîne une plus grande incertitude sur la prévision des performances attendues.
La réduction de vitesse, quant à elle, n’est pas toujours possible. Ou encore, son efficacité peut être limitée, par exemple si les vitesses de l’infrastructure existante sont déjà modérées ou que la réduction de vitesse ne peut pas être appliquée aux poids lourds, plus bruyants, et que ces derniers sont déjà en proportion non négligeable dans le trafic. Les gains attendus peuvent également être moindres qu’espérés si les vitesses pratiquées sont inférieures aux vitesses réglementaires de l’infrastructure, par exemple en situation chronique de ralentissements ou de congestion.
C’est ce qui a par exemple été constaté lors de mesures acoustiques récentes sur le périphérique parisien, où les gains théoriques ont été atteints uniquement la nuit, lorsque la circulation est fluide. Notons que ce type de solution peut cependant apporter des co-bénéfices intéressants en matière de pollution atmosphérique ou d’accidents de la route, sans nécessairement nuire significativement au temps de parcours perçu.
Réduction des vitesses, revêtements peu bruyants, restriction du trafic, changements de motorisation… quelle est finalement la meilleure méthode pour faire chuter les émissions sonores routières ?
Réduire le trafic global engendrera toujours une chute des émissions, audible sous réserve d’une baisse du trafic d’au moins 30 à 40 %, si la solution est appliquée seule.
Pour les autres options, en zone à vitesse réduite (inférieure à 40km/h), jouer sur la motorisation est la solution la plus efficace. Cela peut passer par l’incitation à l’adoption de véhicules électriques ou d’autres motorisations moins bruyantes, les méthodes agissant sur le bruit de roulement étant dans ce cas moins efficaces.
Dans des voiries où la vitesse moyenne des véhicules est plus élevée, les chaussées peu bruyantes ou la diminution des limites de vitesse peuvent apporter des réductions intéressantes. Mais leur pertinence devra être étudiée au cas par cas en amont, en fonction des propriétés initiales de l’infrastructure considérée (vitesse, structure du trafic, revêtement de chaussée existant, etc.).
Les trois solutions étant compatibles entre elles, l’idéal consiste bien entendu à les associer afin de cumuler avantageusement les gains apportés par chacune d’entre elles.
David Ecotière a reçu des subventions publiques du Ministère de la Transition écologique.
Marie-Agnès Pallas a reçu des financements du Ministère de la Transition écologique, de l’Union européenne et de BpiFrance.
02.04.2025 à 17:34
Yeonsin Ahn, Professeur assistant, stratégie et politique d'entreprise, HEC Paris Business School
Eric Yuan was not happy at Cisco Systems even though he was making a salary in the high six figures, working as vice president of engineering on the videoconferencing software Cisco WebEx.
“I even did not want to go to the office to work,” Yuan told CNBC Make It in 2019.
Yuan was unhappy with the culture at Cisco, where new ideas were often shut down and change was slow. When he suggested building a new, mobile-friendly video platform from scratch, the idea was rejected by Cisco’s leadership. Frustrated by the resistance to innovation, Yuan left the company in 2011 and founded Zoom, whose value increased astronomically during the Covid pandemic years as it became the go-to app for remote work.
One might think that founders who, like Yuan, expressed unhappiness with their previous employers’ culture would establish new companies with very different values. However, we found that, on average, whether they want to or not, founders are likely to replicate the culture of their previous employer in their new venture.
Yuan’s story includes the idea that many people have of the lumbering tech giant versus the agile startup. Yet our research found that this distinction is actually not so clear.
More than 50 percent of US tech startup founders have previous experience in other companies, often in giants like Google or Meta. The work culture of these huge organizations is not always so easy to shake off when entrepreneurs go on to start their own companies.
In our research, we identified 30 different cultural elements of companies. These include cultures of work-life balance, teamwork, authority, innovation, and compensation-oriented vs customer-oriented culture, to name a few.
Previous research has shown that startup founders transfer knowledge and technology from former jobs. We found empirical evidence that they also transfer work culture.
In our research, we identified startup founders and used their LinkedIn profiles to find companies where they had previously worked. Our team applied natural language processing, namely Latent Dirichlet allocation topic modelling, to text on Glassdoor, a site that allows current and former employees to anonymously review companies. We used the processed reviews to characterize the cultures of “parent” companies and startup companies, or “spawns”. We also identified a match or “twin” for the spawn organization that had a similar size, product and number of years in business.
Then, we compared the culture of each spawn startup to the culture of its parent organization, and the culture of each spawn’s “twin” to the culture of the same parent, in a given year. If a spawn was more similar to its parent than the twin was to the parent, this supported our hypothesis that founders tend to transfer their previous work cultures to their new ventures.
And we found that there are three conditions that favour such a transfer.
First, the longer years founders have been at an organization, the more likely they are to transfer its culture to their new startup, because they have become very familiar with that culture.
The second condition is the congruency of culture, i.e., the degree to which culture is composed of elements that are consistent in their meanings, and hence, have internal compatibility.
For example, in our data, there a cloud-based location services platform that has high congruency in its culture. The company has three highly salient cultural elements: it is adaptive, customer-oriented and demanding. These elements consistently point to a culture of customer responsiveness. Our data also includes an e-commerce clothing platform with two cultural elements – growth orientation and work-life balance – that are poorly aligned in their meanings, reducing the congruency of its culture.
We found that the more internally congruent a parent organization’s culture is – and thus, the easier it is to understand and learn – the more likely it is that founders will transfer its elements to their new companies.
Third, the more atypical an organization is – the more it stands out from others in its field – the more likely it is that its culture will be transferred to the startup.
In an atypical culture, it is easy for employees to identify cultural elements, and to remember and incorporate them once they found a startup. Because an atypical culture draws a stronger boundary that distinguishes an organization from others, employees become more aware that the organization has chosen them and that they have chosen to work in it. This creates a cognitive attachment in the employee toward the organization, and also increases how well they learn its culture.
In our study, each startup’s cultural atypicality was measured by calculating the cultural distances between all organizations within the same product category for a given year.
It’s common for founders to describe their culture as distinctive or one-of-a-kind. However, we found that’s not necessarily the case. Founders tend to replicate the culture of their previous employers because they’re accustomed to that way of working.
Many students tell me they’re drawn to more creative and innovative work environments – something they often associate with startups rather than traditional, established companies.
But our research suggests this perception might not be entirely accurate.
Job seekers looking for unique or forward-thinking cultures may be surprised to find that startup environments resemble those of larger tech companies more often than expected.
And for founders – especially those who left previous roles because of frustrating workplace cultures – it can be a wake-up call to realize how easy it is to unintentionally recreate the very environments they may have hoped to avoid.
Yeonsin Ahn ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
02.04.2025 à 16:55
Alain Somat, Professeur de psychologie sociale, Université Rennes 2
Fabien Girandola, Professeur de Psychologie Sociale, Aix-Marseille Université (AMU)
Stéphane Amato, Maître de conférences en sciences de l'information et de la communication, Université de Toulon
Droits de douane exorbitants, volonté d’annexer certains pays voisins, humiliation du président ukrainien… La tactique incendiaire de Donald Trump choque et déstabilise la scène internationale. Mais ses techniques de négociation et de manipulation sont bien connues des chercheurs en psychologie sociale.
Traiter le président Volodymyr Zelensky de « dictateur », avancer qu’« il joue avec la troisième guerre mondiale », menacer de taxer de 200 % le champagne français et les vins européens, vouloir « annexer » le Canada un jour puis le Groenland le lendemain et poursuivre avec le canal de Panama pour prétendre ensuite que la bande de Gaza sera la future « Riviera du Proche-Orient ». Autant de déclarations, en première analyse, qui peuvent apparaître plus insensées les unes que les autres. Il reste qu’elles permettent au 47e président des États-Unis d’envahir, jour après jour, semaine après semaine, l’espace médiatique national et international.
Pour les observateurs occidentaux les plus avisés, Donald Trump recourt, ce faisant, à un rapport de force permanent, contrastant avec les traditions diplomatiques entre États souverains. Certains analystes politiques ont qualifié cette stratégie de « carpet bombing » : envoyer d’abord un tapis de bombes pour mieux négocier par la suite.
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
La question n’est pas tant de savoir si cette méthode a été arrêtée de façon unilatérale par le président Trump ou si elle a été le fruit d’une concertation avec ses conseillers et son administration. L’interrogation est tout autre : cette stratégie présente-t-elle un bénéfice quelconque ?
Sur la base des travaux réalisés par les psychologues sociaux (Joule et Beauvois, 2024), nous pouvons légitimement penser – qu’on le déplore ou qu’on s’en réjouisse – que cette « brutalité assumée » est redoutablement efficace. Regardons de plus près pour se donner les moyens de l’analyse.
Dans un premier temps, on formule une demande totalement inacceptable, en montrant « ses muscles » dans un double but : premièrement, mettre la barre très, très haut ; deuxièmement, effrayer ainsi la partie adverse. Pensons, par exemple, à la demande initiale adressée par le président Trump au sujet de l’accès des États-Unis aux terres rares ukrainiennes en compensation de l’aide militaire et financière versée depuis trois ans, demande exorbitante, comportant la mention d’un montant de 500 milliards de dollars !
Puis, dans un second temps, on formule une demande moins déraisonnable, 300 milliards – un « deal » restant très avantageux pour les États-Unis – dans un climat plus apaisé, en affirmant avoir « beaucoup de respect » pour celui qu’on avait, la veille, qualifié de dictateur. Tel est, pour le président Trump, la meilleure manière d’arriver à ses fins sur le terrain de la négociation.
Le comble : en acceptant, ses interlocuteurs auraient, en prime, le sentiment d’avoir échappé au pire ! Pensons à la manière dont ont été négociés les accords de libre-échange sous l’administration Trump en 2017 en justifiant, par des raisonnements biaisés, des augmentations très significatives des droits de douane (se référer aux négociations sur l’Alena entre le Mexique, le Canada et les États-Unis).
Les volte-face du président états-unien – souffler le chaud et le froid – pour imprévisibles qu’elles puissent paraître, sont sous-tendues par une option stratégique exposée, dès 1987, dans son ouvrage autobiographique The Art of the Deal (co-signé avec le journaliste Tony Schwarz) :
« Je vise très haut, et je continue à pousser, pousser et pousser pour obtenir ce que je veux. »
À y regarder de près, Trump recourt à deux techniques d’influence – pour ne pas dire de « manipulation » – décrites et explicitées par Joule et Beauvois dans leur célèbre best-seller Petit traité de manipulation à l’usage des honnêtes gens(2024).
L’efficacité de chacune de ces techniques, prises isolément, est expérimentalement démontrée, ce qui signifie qu’en recourant à l’une ou à l’autre de ces procédés, on augmente significativement ses chances de parvenir à ses fins.
La première, la technique dite de la « porte-au-nez », consiste à formuler une requête exorbitante (demander à quelqu’un de s’arrêter de fumer pendant un mois) avant de faire une proposition plus acceptable néanmoins encore coûteuse (demander de s’arrêter de fumer pendant vingt-quatre heures). Cette technique s’apparente aux pratiques de marchandage : on part d’une position extrême en vue de parvenir durant la transaction à l’accord le plus avantageux possible.
On doit à Cialdini et à ses collègues la première démonstration expérimentale du phénomène de « porte-au-nez ». Il s’agissait d’obtenir d’étudiants qu’ils veuillent bien accompagner durant deux heures de jeunes délinquants en visite au zoo. En formulant directement cette requête (groupe contrôle), les chercheurs obtinrent un taux d’acceptation de 16,7 %. En utilisant la technique de la « porte-au-nez », ils obtinrent un taux d’acceptation de 50 %.
Cette fois, ils formulèrent, d’abord, une demande démesurée :
« Nous sommes en train de recruter des étudiants qui accepteraient de travailler comme conseillers bénévoles au centre de détention pour jeunes délinquants de la région. Ce travail exige que vous leur consacriez deux heures hebdomadaires pendant au moins deux ans. Vous seriez amenés à tenir le rôle du grand frère de l’un des garçons du centre de détention. Seriez-vous intéressé ? »
Évidemment, tous les étudiants sollicités refusèrent.
La seconde requête était présentée différemment :
« Nous recrutons également des étudiants pour accompagner un groupe de jeunes du centre de détention lors d’une visite au zoo. Ici encore nous avons besoin de bénévoles et cela vous prendrait environ deux heures dans l’après-midi ou la soirée. Seriez-vous intéressé ? »
La technique de la « porte-au-nez » permit donc de tripler le nombre de personnes qui acceptèrent d’accompagner des délinquants en visite au zoo.
La seconde technique, dite de « la crainte-puis-soulagement », consiste d’abord à faire peur voire très peur (en informant les participants d’une expérience scientifique, alors qu’ils ne s’y attendaient pas, qu’ils vont devoir recevoir des chocs électriques), puis à se montrer rassurant (en leur faisant savoir qu’ils n’auront finalement pas à endurer ces chocs). En procédant ainsi, les chercheurs ont observé que les personnes acceptaient ensuite plus facilement de faire ce qu’on souhaitait les voir faire, même avec des demandes coûteuses (collecter pendant plusieurs heures de l’argent dans la rue).
Dolinsky et Nawrat) furent les premiers à étudier expérimentalement la technique de la « crainte-puis-soulagement ».
Une de leur recherche concerne des automobilistes s’étant garés à un endroit interdit. En revenant, ils trouvaient sous l’essuie-glace du véhicule, un papier paraissant être un PV. Dans un cas, il s’agissait d’une simple publicité, dans l’autre, d’une injonction les enjoignant à se présenter au poste de police pour stationnement illicite. L’expérimentatrice, cachée pour l’occasion, laissait l’automobiliste lire le message, puis elle se présentait :
« Bonjour, je suis étudiante… Voudriez-vous remplir un questionnaire pour me rendre service ? Cela ne prendra que quinze minutes. »
Le taux d’acceptation fut de 32 % dans le groupe contrôle, groupe dans lequel les automobilistes n’avaient trouvé aucun papier sur leur pare-brise, contre 62 % dans la condition de « crainte-puis-soulagement » (chez les personnes ayant été confrontées à la publicité). Du simple au double donc.
Ce taux est très différent pour les personnes assignées à comparaître au commissariat : 8 % seulement. C’est donc bien sur la spécificité du couple « crainte-soulagement », et non pas sur la peur en tant que telle, que repose la performance de ce procédé.
Quand on sait que l’articulation de ces deux techniques de manipulation permet encore de gagner en efficacité et considérant la manière dont Donald Trump les esquisse dans son ouvrage The Art of the Deal, nous sommes en droit de nous poser une question essentielle.
Le président des États-Unis, plutôt qu’un bateleur de foire, ne serait-il pas un habile stratège, qui utiliserait, à escient, ces mécanismes dont l’efficience est démontrée, depuis plusieurs décennies, lors de recherches de laboratoire et de terrain ?
Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.
02.04.2025 à 16:55
Blandine Chelini-Pont, Professeur des Universités en histoire contemporaine et relations internationales, Aix-Marseille Université (AMU)
François David, Professeur des Universités, Université Littoral Côte d'Opale
L’énergie déployée par Donald Trump et son administration pour mettre en œuvre un programme consistant, pour une large partie, à défaire profondément l’État fédéral et certaines mesures prises en contournement des lois existantes ont provoqué l’ire de plusieurs juges fédéraux et des remontrances de la Cour suprême. Si cette confrontation entre l’exécutif et le judiciaire venait à se durcir, le pays pourrait entrer dans une période extrêmement troublée, et il reviendrait peut-être à l’armée de jouer un rôle déterminant.
Face aux recours de toutes parts et aux injonctions judiciaires que provoquent les décrets/ordres exécutifs du président des États-Unis ainsi que les multiples atteintes administratives ou de confidentialité commises par le bureau de la gestion et du budget (OMB) ou le département de l’efficacité gouvernementale (DOGE), les deux principaux outils à travers lesquels Donald Trump cherche à démanteler l’administration et une bonne partie des agences fédérales, peut-on envisager la possibilité d’une crise constitutionnelle prochaine ?
Si la Cour suprême des États-Unis désavouait le président ou les organes placés sous sa responsabilité exécutive et si ces derniers passaient outre les décisions de la Cour, en l’accablant d’opprobre, jusqu’où une telle confrontation pourrait-elle aller ?
Le moment semble se rapprocher où la Cour suprême devra se prononcer en ultime recours soit sur différentes plaintes collectives, soit sur les multiples injonctions émises par des juges fédéraux contre le gouvernement, comme elle l’a fait le 5 mars dernier, en donnant raison (en résumé) aux deux injonctions d’un juge de district du Rhode Island qui avait exigé, sans succès, la reprise des versements de fonds votés par le Congrès, provisionnés mais suspendus à l’Agence USAid.
À lire aussi : La fin des programmes d’aide internationale des États-Unis (et leur baisse ailleurs) : une folle indifférence aux malheurs du monde
Le 18 mars 2025, le président de la Cour suprême John Roberts Jr est intervenu, fait rarissime, pour rappeler mais sans le nommer à Donald Trump que la bonne procédure quand on voulait contester une décision judiciaire fédérale était de faire appel plutôt que de réclamer la destitution (« impeachment ») du juge, une procédure exceptionnelle.
Le gouvernement a donc fait appel, le 20 mars, de l’ordre par lequel le juge de Washington James Boasberg (nommé successivement par Bush fils et Barack Obama, puis confirmé chaque fois par le Congrès) avait suspendu l’expulsion sans vérification scrupuleuse de 200 membres présumés d’un gang vénézuélien vers une prison du Salvador, sur la base contestable d’une loi d’exception du XVIIIe siècle.
Cet ordre a été émis avant le décollage de l’appareil qui emmenait ces expulsés vers le Salvador, ce qui peut signifier qu’il a été délibérément ignoré par les autorités, même si l’administration Trump affirme que l’injonction a été portée à sa connaissance alors que l’avion volait déjà au-dessus des eaux internationales.
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
Trump a publiquement taxé le juge Boasberg de « dingue d’extrême gauche » et son secrétaire d’État, Marco Rubio, a reposté le message moqueur du président du Salvador Nayiub Bukele, allié de Trump ravi de l’assister dans ses procédures d’expulsion : « Oups… trop tard ! »
Si la Cour suprême reconnaissait, à l’occasion de cette affaire très symbolique, ou à l’occasion d’autres décisions à venir, que le président du pays ou des membres de son cabinet s’étaient rendus coupables d’un abus de pouvoir exécutif et/ou de la violation des lois et de la Constitution fédérale, il y a fort à parier que l’exécutif fédéral refuserait catégoriquement une telle interprétation.
Beaucoup d’observateurs s’attendaient à voir une Cour aux ordres de Trump, étant donné que les conservateurs y sont majoritaires et que trois juges particulièrement radicaux ont été nommés durant le premier mandat Trump. Mais sa décision du 5 mars et le rappel à l’ordre du juge Roberts montrent qu’elle est prête à faire front, contrairement à ce qu’on pensait.
Or, la Cour est souveraine. Depuis 1803, elle s’est attribué, avec l’arrêt Marbury v. Madison, le droit de juger de la constitutionnalité des décisions de l’exécutif, selon le texte de la Constitution, mais aussi selon ses principes et ses valeurs, lesquelles ont évolué au fil des décennies. La Cour est également garante de l’équilibre constitutionnel entre les pouvoirs, de leurs compétences respectives et de l’équilibre des compétences entre l’État fédéral et les États fédérés.
Que se passerait-il si le président des États-Unis et son entourage continuaient d’agir en ignorant délibérément les décisions défavorables à leurs actions et jetaient la Cour suprême en pâture à la vindicte populaire, en l’accusant d’aller à l’encontre des attentes du peuple souverain ?
Sous l’effet de l’indignation, un tel développement pourrait pousser inexorablement une partie de la population à se mobiliser massivement pour défendre la position d’un président qui apparaîtrait une fois de plus comme entravé dans son action par cet « État profond » qu’il ne cesse de pourfendre, tandis que l’autre partie s’alarmerait au contraire d’un basculement dans la « dictature ».
Devant la virulence des manifestants hostiles à ses projets, Donald Trump pourrait en appeler à ses partisans et aux « milices patriotes », resurgies comme un spectre de la marche sur le Capitole, le 6 janvier 2021. Il pourrait aussi chercher à utiliser les services les plus opérationnels de la police fédérale voire faire appel à la Garde nationale et à l’armée elle-même, en activant l’Insurrection Act de 1807, au nom de la protection du territoire national, enclenchant au passage la loi martiale. Les affrontements violents pourraient dégénérer dans les villes et les gouverneurs des États fédérés, selon leur bord politique, pourraient ordonner à leurs forces de sécurité de contenir l’un ou l’autre des camps.
Le pire n’est jamais sûr. Mais dans ce scénario catastrophe, la seule force institutionnelle capable de s’opposer frontalement à un tel engrenage serait paradoxalement celle qui a tous les moyens d’agir derrière le président : l’armée des États-Unis.
Cette dernière pourrait déclarer, à l’occasion même de son déploiement, qu’elle ne reconnaît plus le président comme son commandant en chef, parce qu’il outrepasse la Constitution. Toutefois, la probabilité d’une telle attitude paraît très faible, et ce, pour deux raisons.
Selon la Constitution, le président est le commandant en chef des armées. Si les généraux américains lui désobéissaient, ils seraient des factieux. Or le droit militaire en matière de felony est impitoyable.
De plus, quand dans le passé l’armée a pris parti dans un conflit constitutionnel, sa partie factieuse a directement contribué au déclenchement de la guerre civile (1861-1865) où un bon tiers des généraux et des officiers supérieurs étaient passés à la Confédération. Depuis, elle a interdiction formelle, à travers le Posse Comitatus Act de 1878, de se mêler des affaires du gouvernement civil, de la justice et des procédures judiciaires.
Cependant, le chef d’état-major interarmées (chairman of the Joint Chiefs of Staff), entouré des plus hauts gradés, pourrait décider en conscience que les corps militaires cessent d’obéir temporairement aux ordres d’un président qui se place au-dessus de la Constitution fédérale et qui ne se conforme pas aux décisions souveraines de la Cour suprême.
Déjà en juin 2020, au cours de son premier mandat, quand Trump avait avancé l’idée d’envoyer l’armée d’active pour disperser les manifestations consécutives à la mort de George Floyd, sa menace avait provoqué une levée de boucliers militaires de la part d’anciens hauts gradés, parmi lesquels deux anciens chefs d’état-major d’une des trois armées, l’amiral Michael Mullen (2007-2011) et le général Martin Dempsey (2011-2015), mais aussi James Miller, ancien sous-secrétaire à la défense chargé de la politique, le général John Allen, ancien envoyé spécial du président dans la coalition contre Daech, l’amiral James Stavridis, ancien commandant suprême des forces alliées en Europe, ou encore le général John Kelly, directeur de cabinet de la Maison Blanche de 2017 à 2019.
Le 5 juin de la même année, le Washington Post publiait une lettre de 89 anciens officiels de la défense – dont plusieurs anciens secrétaires à la défense comme Ashton Carter ou Leon Panetta – exprimant leur inquiétude face à la perspective que l’armée soit utilisée pour s’en prendre à des manifestants. Enfin, Jim Mattis, véritable légende du corps des Marines, premier secrétaire à la défense du premier mandat de Donald Trump, mais démissionnaire en décembre 2018, était sorti de son silence en juin 2020 pour condamner les divisions créées par ce dernier dans la société américaine et son instrumentalisation de l’armée.
Les dispositions du Titre 10 de l’US Code obligent les forces armées à être loyales envers la Constitution des États-Unis, pas envers le président de l’exécutif. Rappelons au passage que le président a la même obligation envers la Constitution.
De même, les forces armées sont censées obéir à des ordres légaux (vaste débat) et à refuser des ordres illégaux, une attitude qui est rappelée dans le cadre du Code of Conduct militaire. Ce document dresse la liste détaillée des situations où le corps militaire doit refuser des ordres contraires à l’éthique et au droit international des conflits armés.
L’armée peut bloquer toute tentative d’insurrection avec armes sur le territoire. Elle pourrait s’arroger de facto le pouvoir de maintien de l’ordre territorial jusqu’à ce que l’exécutif se plie aux décisions judiciaires fédérales et reconnaisse ses limites dans l’exercice de son autorité. Dans l’attente de cette résolution de crise, l’armée pourrait collaborer avec la justice des États, dans une sorte de qualified martial law, où la force armée maintient l’ordre, arrête les perturbateurs mais les remet au juge civil.
En un mot, l’armée pourrait devenir un dernier recours pour protéger les mécanismes et les rouages abîmés de la démocratie américaine, si jamais la souveraineté de l’appareil judiciaire fédéral était contestée et si le pays versait ouvertement, outre l’affrontement entre citoyens, dans l’arbitraire et la dictature larvée.
Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.
02.04.2025 à 16:54
Gülçin Erdi, Directrice de recherche au CNRS, en affectation à l'Institut français d'études anatoliennes (IFEA) à Istanbul, Université de Tours
L’arrestation du maire d’Istanbul, qui devait affronter Recep Tayyip Erdogan à la prochaine présidentielle, a mis le feu aux poudres en Turquie. Une large partie de la population est en effet excédée par le durcissement politique constant du pouvoir, qui se déploie sur fond de graves difficultés économiques et de déréliction du système éducatif.
Les mobilisations récentes en Turquie, qui ont débuté à Istanbul le 19 mars, sont les plus vastes depuis le mouvement de Gezi en 2013, qui avait profondément ébranlé le pouvoir de l’AKP (le Parti de la justice et du développement, islamo-nationaliste, de Recep Tayyip Erdogan). Cette contestation trouve son origine dans l’arrestation, le 19 mars dernier d’Ekrem Imamoglu, maire d’Istanbul et candidat du CHP (Parti républicain du peuple, kémaliste, laïque et social-démocrate) à l’élection présidentielle prévue pour 2028, ainsi que d’une centaine d’autres personnes, dont deux maires d’arrondissement d’Istanbul (Beylikdüzü et Sisli).
Imamoglu, accusé par le pouvoir de corruption dans le secteur immobilier et de soutien au Parti des travailleurs du Kurdistan (PKK), considéré comme une organisation terroriste, a remporté les élections municipales à trois reprises face à l’AKP. Sa dernière victoire, en mars 2024, est liée, d’une part, à sa capacité à unir différents courants politiques de gauche, dont le Parti de l’égalité et de la démocratie des peuples (DEM Parti), issu du mouvement politique kurde, et d’autre part à mettre en œuvre des projets sociaux, tels que l’ouverture de crèches, de cantines populaires et de résidences étudiantes, ainsi que des programmes de rénovation d’ampleur. Sous sa férule, des bâtiments et des sites industriels, mais aussi des édifices historiques en mauvais état ont été réhabilités.
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
Ces projets, conçus pour servir la population d’Istanbul – avec par exemple l’installation de bibliothèques et de cafétérias à faible coût au sein des bâtiments restaurés – ont significativement contribué à la popularité d’Imamoglu, lui assurant un soutien considérable de l’électorat, à Istanbul mais aussi ailleurs dans le pays. D’où la profonde indignation que les poursuites judiciaires le visant ont suscitée au sein de la société turque.
Depuis le début de la pandémie de Covid-19, la Turquie est confrontée à de graves problèmes économiques qui se sont encore accentués depuis deux ans. L’inflation persiste, le taux de change du nouveau lira turc s’érode, la dette publique du pays s’accroît, le secteur industriel est en déclin et le coût de la vie pèse sur une large part de la population, dont les revenus sont érodés par l’inflation, malgré une croissance actuellement proche de 3,8 %.
Cette conjoncture économique est associée à un niveau de vie précaire, à une flexibilité accrue du marché du travail et à un taux de chômage élevé, notamment parmi la population des jeunes adultes âgés de 18 à 25 ans. Un nombre significatif de jeunes diplômés éprouve des difficultés à trouver un emploi qui correspond à leurs compétences, nous y reviendrons.
On observe un fort sentiment d’insécurité professionnelle et une paupérisation croissante affectant tant les actifs, spécialement les jeunes, que les retraités, dont les pensions ne couvrent plus les dépenses élémentaires telles que le loyer. Des difficultés exacerbées par l’affaiblissement des syndicats de travailleurs, un cadre législatif favorisant les intérêts des employeurs et diverses réglementations qui restreignent le droit de grève. La sécurité de l’emploi est globalement faible.
Malgré ce contexte économique pénible pour la population, les dispositifs d’aide sociale de l’État sont limités ou inexistants. L’assurance chômage, qui correspond à 40 % du salaire des quatre derniers mois, est soumise à des conditions d’accès rigoureuses et la durée de son octroi est limitée à dix mois au maximum. En outre, l’absence de politiques de logement social et d’aides spécifiques à l’accès au logement constitue un défi majeur pour les travailleurs, spécialement les précaires.
Par ailleurs, les Turcs sont nombreux à estimer qu’il existe une corrélation nette entre l’accès à l’emploi et la proximité avec l’AKP. L’opacité du déroulement des concours publics et les cas de clientélisme favorisant les proches des membres de l’AKP contribuent à la baisse du soutien des Turcs au gouvernement.
À ces difficultés s’ajoute une conjoncture politique particulièrement tendue. Depuis la tentative de coup d’État avortée de 2016, on observe un durcissement du caractère autoritaire du régime, qui instille délibérément un climat de peur, n’hésitant pas à engager des procès à l’encontre d’hommes politiques, de médias d’opposition, de journalistes, d’écrivains, de représentants syndicaux, d’étudiants et de citoyens ordinaires s’exprimant dans les médias télévisuels, pour « incitation à la haine et à l’hostilité à l’égard du président », ainsi que pour « injures publiques » et « propagande terroriste ».
À la suite d’événements majeurs tels que le séisme dévastateur de février 2023, les autorités ont régulièrement recours à des mesures de restriction des réseaux sociaux et de fermeture de sites d’information et de comptes de citoyens, souvent accusés de propagande terroriste quand ils critiquent le pouvoir.
Parallèlement à ce climat d’intimidation, les droits des femmes sont de plus en plus foulés aux pieds, et les féminicides atteignent des niveaux alarmants. Cette conjonction de facteurs a des répercussions sur le bien-être social en Turquie : le pays se situe entre la 112e et la 98e place sur l’indice mondial du bonheur.
À lire aussi : Violences faites aux femmes : l’inquiétante évolution de la Turquie
C’est dans ce climat de tension croissante que les mobilisations ont commencé, initiées par les étudiants de l’Université d’Istanbul, laquelle venait d’annoncer l’annulation du diplôme qu’Imamoglu y avait obtenu en 1994 – or la détention d’un diplôme universitaire est une condition sine qua non pour être candidat à l’élection présidentielle. S’estimant victimes d’une atteinte à la réputation de leur diplôme et de leur université, puisque celle-ci donnait l’image d’être au service du gouvernement, les étudiants se sont rassemblés devant le campus de leur université, situé à proximité du bâtiment de la mairie d’Istanbul, et ont réussi à surmonter le dispositif policier pour y accéder.
Le mécontentement couvait depuis longtemps chez ces jeunes nés dans les années 2000, ayant grandi dans un système éducatif qui, ces dernières années, a subi des réformes visant à promouvoir une éducation conservatrice et prosélyte, où l’enseignement de matières telles que la sociologie, les sciences physiques ou encore les mathématiques a été nettement réduit.
Depuis le milieu des années 2000, l’accès à une éducation de qualité devient un enjeu financier majeur pour les familles qui souhaitent inscrire leurs enfants dans des établissements scolaires privés, leur permettant de se soustraire à l’endoctrinement politique de l’État. Ces établissements privés pratiquent des frais de scolarité souvent exorbitants, ce qui contribue à l’aggravation des inégalités sociales. Par conséquent, de nombreux jeunes se trouvent dans l’incapacité de s’imaginer un avenir au sein de leur pays et se tournent souvent vers l’émigration.
Ceux qui obtiennent un diplôme universitaire ne sont pas nécessairement en mesure de trouver un emploi à la fois gratifiant sur le plan personnel et financièrement avantageux. En outre, l’accès à un emploi stable, ne suffit pas à garantir un épanouissement et un confort dans une économie incertaine qui empêche de faire des projets à moyen terme et dans un pays où la dégradation des libertés individuelles ne permet pas aux gens de vivre et d’organiser leur vie comme ils le souhaitent, même lorsqu’ils disposent d’un bon salaire.
Par ailleurs, la crise économique actuelle contribue à limiter la réalisation des projets personnels de vie, tels que le mariage, l’accession à la propriété ou l’achat d’une voiture. Ces facteurs cumulés peuvent conduire à un sentiment de désespoir et un mal-être accru chez les jeunes, qui se trouvent privés des rêves et des aspirations qu’ils avaient construits. Cette situation est exacerbée par une tendance croissante au clientélisme dans divers secteurs de la société, ce qui tend à renforcer les inégalités et l’insatisfaction.
Tout cela a explosé après l’arrestation d’Imamoglu, que la majorité des citoyens turcs perçoivent comme une tentative du pouvoir, lequel contrôle de plus en plus étroitement la justice, d’éliminer le seul candidat susceptible de contester la suprématie d’Erdogan lors des prochains scrutins. Le poids politique d’Imamoglu a en effet été étayé par la primaire symbolique qu’a organisée le CHP, après son arrestation, pour l’investir comme candidat officiel du parti face à Erdogan en vue de la prochaine présidentielle, à laquelle ont participé pas moins de 15 millions de citoyens.
Dans un second article qui sera tout publié tout prochainement, nous analyserons plus en détail la mobilisation actuelle, ses mécanismes et ses perspectives.
Gülçin Erdi a reçu des financements de l'ANR
02.04.2025 à 16:53
Xavier Bonnet, Directeur de Recherche CNRS en biologie et écologie des reptiles, Centre d'Etudes Biologiques de Chizé
Karl Zeller, Docteur en Écologie Évolutive, Muséum national d’histoire naturelle (MNHN)
Une étude d’ampleur inédite montre que la peur que nous ressentons envers certains animaux n’a pas grand-chose à voir avec le danger qu’ils représentent. Mais ces émotions peuvent en revanche avoir des effets très néfastes sur la protection de la biodiversité.
En 1872, Charles Darwin décrivait la peur comme une puissante alliée pour éviter ou pour fuir les dangers. Au cours des plus de 50 millions d’années d’évolution des primates et pendant la presque totalité de l’histoire humaine, grands carnivores, crocodiles ou serpents venimeux étaient de terribles menaces. En avoir peur était donc nécessaire à la survie.
Mais aujourd’hui, notre peur des animaux ne s’arrête pas aux espèces dangereuses. Certains animaux inoffensifs nous terrifient également. Pourquoi ce décalage entre danger réel et terreur ? Des facteurs socioculturels et le succès de théories contestables pourraient l’expliquer.
Pour mieux comprendre la peur des animaux nous avons sondé plus de 17 000 participants à travers le monde, en leur proposant un questionnaire sous forme de jeu en ligne fondé sur des portraits photographiques d’animaux. Le panel comprenait 184 espèces : des mammifères, des reptiles, des oiseaux, des arthropodes (insectes et araignées) et des amphibiens. En pratique, au cours d’une aventure imaginaire, des paires de photos (un lion et une mésange, par exemple) étaient tirées au sort et présentées à l’écran, 25 fois de suite.
Chaque participant devait choisir l’animal qui lui faisait le plus peur, cliquer sur sa photo, passer à la paire suivante puis, à la fin du jeu, répondre à quelques questions.
Nous avons ainsi obtenu les résultats sur plus de 400 000 duels de photos, une mine d’or statistique. L’analyse des choix et des temps de réponse ont permis de classer les 184 animaux selon le niveau de crainte qu’ils inspirent. La diversité des participants (âge, genre, pays d’origine, études, etc.) a révélé des relations complexes entre danger réel (ou écologique) et influences socioculturelles.
Une constante est cependant apparue : dans toutes les zones géographiques et classes d’âges, des animaux inoffensifs pour l’humain, comme les chauves-souris, les araignées ou les serpents non venimeux, ont suscité des réactions de peur très marquées, autant voire plus qu’avec des espèces potentiellement très dangereuses comme l’hippopotame ou l’ours brun. La logique de terrain, celle énoncée par Darwin, était donc bien prise en défaut.
Pour expliquer cette discordance, certaines théories très en vogue depuis plus de quinze ans proposent que la peur des serpents et des araignées soit figée, innée et codée dans nos gènes.
Mais comment la sélection naturelle aurait-elle produit un résultat aussi illogique ? Comment savoir également si les premiers humains avaient peur des araignées et des serpents, surtout que de nombreux primates ne les fuient pas et, au contraire, les mangent ? Les serpents sont également toujours considérés comme des délices culinaires et sont largement consommés dans différentes régions du monde. Les théories patinent un peu sur ces points cruciaux.
D’autres explications semblent nécessaires. Un autre cadre théorique pointe les facteurs socioculturels dans la transmission d’émotions, notamment les peurs, y compris celle des animaux. Combinée à l’absence de contact avec la nature, la transmission familiale et sociale de la peur du vivant conduirait jusqu’à la biophobie, c’est-à-dire la peur ou même la haine du vivant.
Des facteurs culturels pourraient effectivement expliquer pourquoi de nombreuses personnes croient à tort que les araignées sont dangereuses et tuent fréquemment des humains alors que seulement 0,5 % des araignées sont potentiellement dangereuses pour l’humain, les accidents graves sont rarissimes et les décès vraiment exceptionnels. Dans notre étude, certains participants ont même déclaré avoir peur d’être mangés par une araignée, une idée totalement irrationnelle.
Des préjugés, un sentiment général de dégoût, mais surtout le manque de connaissances naturalistes laissent ainsi la place aux légendes et aux peurs exagérées qui les accompagnent. La distorsion est amplifiée par les médias et les films, où les araignées et serpents géants sont trop souvent monstrueux et féroces.
Un mécanisme central est que les peurs exacerbées peuvent être transmises en un clin d’œil et voyager de génération en génération. Cet effet est marqué chez les plus jeunes, un parent effrayé par une petite araignée de maison peut inoculer sa terreur à ses enfants en quelques secondes. Ainsi renforcées, les représentations déformées des animaux dans les films peuvent devenir des croyances ancrées, puis des « vérités ». Ce décalage entre le danger perçu et la réalité quotidienne s’accroît dans les sociétés urbanisées, où la déconnexion avec la nature augmente constamment.
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
Bien sûr, les animaux potentiellement dangereux, comme le lion, suscitent aussi des réactions fortes et rationnelles de peur. De nombreux cas de prédation, d’attaques ou de morsures mortelles sont documentés à travers le monde. Dans notre étude, les crocodiles, les grands félins et les serpents venimeux sont effectivement perçus comme très effrayants. Les participants ont clairement exprimé leur peur d’être tués par une énorme vipère du Gabon ou d’être mangés par un tigre.
Inversement, la grande majorité des animaux inoffensifs, comme le lapin, la tortue ou le koala, n’ont suscité aucune peur. Ces résultats confirment donc une définition générale de la peur comme un état émotionnel adaptatif, qui incite les animaux à réagir de façon appropriée face à des stimulus potentiellement dangereux.
Mais il reste difficile de distinguer ce qui relève de mécanismes innés plutôt que des biais culturels dans la peur des animaux. La grande taille (un bison adulte est impressionnant), les dents de carnassier, le regard fixe du prédateur ou les signaux d’avertissement (bandes colorées sur les serpents venimeux ou les guêpes) sont probablement des messages clairs compris de tous, indépendamment de la culture, mais cela reste à démontrer. Les visions purement innées ou purement culturelles, extrêmement rigides, correspondent particulièrement mal à une réalité qui semble davantage complexe et intriquée.
Une chose reste certaine : les peurs exacerbées, irrationnelles et invalidantes, c’est-à-dire des phobies, ont des conséquences. Elles gâchent la vie, y compris celle des animaux qui en font les frais. Le déclin des serpents en témoigne. Il progresse à une vitesse alarmante, aussi bien en Europe que sur le plan mondial. Il est donc urgent de les protéger. En outre, ces animaux jouent des rôles écologiques clés et sont des auxiliaires de l’agriculture. Pourtant ils sont souvent persécutés et tués.
Or, la peur qu’il inspirent est le principal déclencheur de cette attitude agressive et violente. Le pire est que, lorsqu’il s’agit de serpents venimeux, le risque d’être mordu par riposte augmente considérablement. Au cours d’une rencontre, il est prudent de laisser les serpents tranquilles ou de s’enfuir plutôt que de leur taper dessus. La peur exagérée et les gestes dangereux et mal contrôlés entraînent des drames pour les humains et les autres animaux.
L’aversion forte pour certains animaux couplée à la perte de contact avec la nature est aussi associée à la dégradation de la santé mentale. L’expérience directe avec la nature semble nécessaire aux équilibres psychologique et physiologique.
Or, la manière dont nous percevons la nature influence directement notre investissement dans sa préservation. Les espèces perçues comme effrayantes, souvent à tort, sont malheureusement fortement négligées par les programmes de conservation. La biophobie rend difficile l’éducation à l’environnement et la protection de la biodiversité. La répugnance pour de nombreux arthropodes et reptiles s’accompagne d’un faible effort de conservation par rapport aux espèces charismatiques (par exemple, les dauphins ou les ours). Il est pourtant nécessaire de protéger des ensembles.
La note positive est qu’il a été montré expérimentalement qu’une simple sortie nature, un bref contact avec les serpents, suffit à changer la donne, tout au moins chez des enfants. Ce résultat souligne le rôle majeur de la culture et de l’éducation, par rapport aux hypothèses fondées sur la peur innée des serpents.
Il est donc essentiel d’étudier le développement et la persistance des perceptions positives et négatives vis-à-vis des animaux pour améliorer le confort de vie, la santé, mais aussi pour réduire les conflits entre l’humain et la nature. Élargir des actions de sensibilisation à toutes les espèces est fondamental pour guider les efforts de protection. Détruire pour délit de faciès n’est pas acceptable. En outre, la destruction de populations ou d’espèces peut perturber des écosystèmes et avoir un bilan mitigé voire négatif.
La peur est notre alliée, mais, mal domptée, elle peut se retourner contre nous et contre notre environnement. Il serait sage d’en tenir compte dans les programmes d’éducation.
Karl Zeller a reçu des financements de l'Initiative Biodiversité Écologie, Évolution, Société (IBEES) de l'Alliance Sorbonne Université.
Xavier Bonnet ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
02.04.2025 à 16:52
Marina Ferreira Da Silva, Enseignant-chercheur en Sciences de Gestion, Université de Rouen Normandie
Si les jeux vidéo en ligne dessinent de nouveaux espaces d’échanges entre adolescents, ils peuvent être sources de pression sociale quand l’obsession de la victoire devient trop forte.
52 % des 12-17 ans passent plus de trois heures par jour devant les écrans. Si les réseaux sociaux occupent une place de choix dans leurs pratiques numériques, les jeux vidéo sont également largement plébiscités : 93 % des 10-17 ans y joueraient, parmi lesquels 62 % quotidiennement.
Si les consoles et PC restent des supports importants, la généralisation des smartphones dès l’entrée au collège a permis une plus grande accessibilité, offrant aux adolescents la possibilité de plonger partout et à tout moment dans leurs univers ludiques favoris.
De Fortnite à Roblox, de Minecraft à Brawl Stars… les jeux en ligne sont devenus de véritables lieux de rassemblement et d’interaction pour les jeunes. S’ils peuvent susciter des inquiétudes et des conflits au sein des familles, il faut voir aussi qu’ils constituent des outils de socialisation privilégiés pour les jeunes générations.
L’adolescence est une période intense de questionnement et d’exploration, pendant laquelle les jeunes construisent leur identité sociale. Les groupes de pairs prennent une place centrale, devenant une référence essentielle pour ces individus en quête d’interactions, d’approbation et de reconnaissance.
Dans ce contexte, les jeux vidéo participent de la culture adolescente. Ils ouvrent un espace dans lequel ils vont pouvoir créer, maintenir ou renforcer les liens avec leurs pairs, mais aussi développer leur confiance en eux. Ainsi, dans leurs pratiques vidéoludiques, les jeunes privilégient largement les modes de jeux qui leur permettent de vivre une expérience collective : 81 % des 10-17 ans préfèrent jouer à plusieurs (en ligne ou en local), et 48 % ont le sentiment, grâce aux jeux, de faire partie d’une communauté.
Pendant les sessions, les adolescents prennent plaisir à retrouver leurs amis pour partager un moment ludique, riche en interactions. Les systèmes de chats (vocaux ou textuels) proposés par les jeux renforcent l’hédonisme de l’expérience : « je joue avec des amis, qui sont drôles, qui pendant le jeu vont faire des petites blagues, enfin c’est ça, c’est toujours chercher la petite vanne qui va faire rigoler l’équipe », note le participant d’une enquête en cours.
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
En fonction du jeu, ils sont amenés à collaborer pour résoudre des énigmes, coconstruire des structures, ou encore battre des équipes adverses. Ils doivent alors communiquer, élaborer des stratégies et se coordonner, ce qui renforce les liens et offre un terrain d’apprentissage de nombreuses compétences psychosociales (solidarité, gestion des conflits, leadership, empathie…). La coopération dans les jeux vidéo favoriserait les comportements prosociaux des enfants, même dans le cas de contenus violents comme Fortnite, comparativement au mode solo.
Les systèmes de teams, clans, clubs ou guildes, offrent des occasions de créer de nouvelles amitiés fondées sur une passion commune. Les adolescents peuvent également décider d’entrer en compétition contre leurs amis, le jeu leur permet alors d’obtenir la reconnaissance des pairs en cas de victoire et de renforcer l’estime de soi.
Au-delà de l’expérience, le fait de jouer aux jeux plébiscités par le groupe de pairs permet à l’adolescent de prendre part aux conversations, de donner son opinion, de partager des anecdotes et un langage commun (par exemple, les joueurs Fortnite utiliseront à tout va des termes comme « spawn », « crack », ou « bambi »). Celui qui ne joue pas se retrouvera en position de spectateur et pourra se sentir exclu du groupe.
Si les jeux vidéo en ligne sont des espaces de rencontre, d’amusement et d’échanges, ils peuvent également générer une pression sociale sur les jeunes joueurs.
Les mécaniques de compétition mobilisées dans certains jeux peuvent en effet amener les adolescents, qui se comparent aux autres, à être toujours plus exigeants envers eux-mêmes : les performances individuelles doivent constamment être améliorées, car les enjeux sont importants. Il s’agit à la fois d’être reconnu et valorisé par les pairs, mais aussi de ne pas être responsable de la défaite de son équipe, au risque d’en être exclu.
Si au départ les équipes se font par affinités (il s’agit de passer un bon moment avec les amis), elles peuvent très vite se restructurer en fonction de la montée en compétences des joueurs (l’idée est alors de constituer l’équipe la plus performante possible) : « on recrute des personnes, on doit être la faction la plus puissante pour gouverner toutes les autres », raconte un joueur.
Cette pression sociale engendre une implication émotionnelle forte et peut aboutir à l’adoption de pratiques « tryhard ». Elles se manifestent par une obsession de la victoire et de la performance, qui pousse un joueur à consacrer un temps et des efforts considérables dans le jeu et qui peut, in fine, mener à des phénomènes de dépendance et à un isolement social.
L’obsession du ranking devenant plus importante que le plaisir de jouer, la dynamique sociale au sein des communautés peut rapidement devenir anxiogène et oppressante envers les moins bons joueurs, et les expose à des risques de cyberintimidation voire de harcèlement.
En effet, bien que les différentes plateformes proposent des restrictions d’interactions pour protéger les jeunes joueurs (par exemple, un chat limité aux amis ou membres du club, un filtrage des mots grossiers…), les adolescents peuvent facilement les contourner, en utilisant notamment d’autres outils de communication en ligne (tels que Discord), ou encore en saisissant un âge supérieur lors de la création de leur compte.
Enfin, la volonté d’être reconnu et valorisé par le groupe pousse les adolescents à vouloir réaliser toujours plus d’achats « in-app » : il s’agit, par exemple, d’obtenir des avantages stratégiques pour gagner davantage de trophées, ou encore des « skins » ou objets rares et précieux, signes de statut et de prestige dans certaines communautés de joueurs.
Face à ces dérives, la tentation est grande pour les parents de limiter drastiquement les temps de jeu, voire d’en bloquer complètement l’accès. Or, le jeu vidéo en ligne, lorsque son usage n’est pas excessif, répond aux besoins de sociabilité et d’appartenance des adolescents. Il s’agit donc davantage de favoriser le dialogue et de responsabiliser les jeunes.
Des règles peuvent être imaginées ensemble, concernant notamment les temps de jeu (une limite temporelle raisonnable et souple, permettant de ne pas couper le jeu en pleine session), les interactions (un chat limité aux amis proches), ou encore les moments de jeux (conditionnés à la réalisation d’autres activités sans écran). L’important est d’ouvrir un espace de discussion permettant à l’adolescent de profiter des bénéfices du jeu vidéo, en le préservant de ses dangers.
Marina Ferreira Da Silva a reçu des financements de : Agence Nationale de la Recherche (ANR) - Projet ALIMNUM - ALIMentation et NUMérique.
02.04.2025 à 15:08
Frédéric Fréry, Professeur de stratégie, CentraleSupélec, ESCP Business School
Microsoft celebrates its 50th anniversary. This article was written using Microsoft Word on a computer running Microsoft Windows. It is likely to be published on platforms hosted by Microsoft Azure, including LinkedIn, a Microsoft subsidiary with over one billion users. In 2024, the company generated a net profit of $88 billion from sales worth $245 billion. Its stock market value is close to $3,000 billion, making it the world’s second-most valuable company behind Apple and almost on a par with NVidia. Cumulative profits since 2002 are approaching $640 billion.
And yet, 50 years ago, Microsoft was just a tiny computer company founded in Albuquerque, New Mexico by two former Harvard students, Bill Gates and Paul Allen, aged 19 and 22. The twists and turns that enabled it to become one of the most powerful companies in the world are manifold, and can be divided into four distinct eras.
At the end of the 1970s, IBM was the computer industry’s undisputed leader. It soon realized that microcomputers developed by young Silicon Valley entrepreneurs, such as the Apple II, would eventually eclipse IBM’s mainframes, and so the IBM PC project was launched. However, it soon became clear that the company’s hefty internal processes would prevent it from delivering a microcomputer on schedule. It was therefore decided that various components of the machine could be outsourced using external suppliers.
A weekly e-mail in English featuring expertise from scholars and researchers. It provides an introduction to the diversity of research coming out of the continent and considers some of the key issues facing European countries. Get the newsletter!
Several specialized companies were approached to provide the operating system. They all refused, seeing IBM as the enemy to be destroyed, a symbol of centralized, bureaucratic computing. Mary Maxwell Gates, who sat on the board of an NGO next to the IBM chairman, suggested the name of her son William, nicknamed Bill, who had just founded Microsoft, and the first contact was established in 1980.
The problem was that Microsoft was focused on a programming language called BASIC and certainly not specialized in operating systems. Not that this was ever going to be a problem for Bill Gates, who, with considerable nerve, agreed to sign a deal with IBM to deliver an operating system he didn’t have. Gates then purchased the QDOS system from Seattle Computer Products, from which he developed MS-DOS (where MS stands for Microsoft).
Gates, whose father was a founding partner of a major Seattle law firm, then made his next move. He offered IBM a non-exclusive contract for the use of MS-DOS, which gave him the right to sell it to other computer companies. IBM, which was not used to subcontracting, was not suspicious enough: the contract brought fortunes to Microsoft and misery to IBM when Compaq, Olivetti and Hewlett-Packard rushed to develop IBM PC clones, giving birth to a whole new industry.
Success followed for Microsoft. It not only benefited from IBM’s serious image, which appealed to businesses, but also received royalties on every PC sold on the market. In 1986, the company was introduced on the stock market. Bill Gates, Paul Allen and two of their early employees became billionaires, while 12,000 additional Microsoft employees went on to become millionaires.
In the mid-1980s, microcomputers were not very functional: their operating systems, including Microsoft’s MS-DOS, ran with forbidding command lines, like the infamous C:/. This all changed in 1984 with the Apple Macintosh, which was equipped with a graphic interface (icons, drop-down menus, fonts, a mouse, etc.). This revolutionary technology was developed in Xerox’s research laboratory, even though the photocopy giant failed to understand its potential. On the other hand, Steve Jobs, Apple’s CEO, was largely inspired by it: to ensure the success of the Macintosh computer, Jobs asked Microsoft to develop a customized version of its office suite, in particular its Excel spreadsheet. Microsoft embraced the graphic interface principle and launched Windows 1 in 1985, which was soon followed by the Office suite (Word, Excel and PowerPoint).
Over the following years, Windows was further improved, culminating in Windows 95, launched in 1995, with an advertising campaign costing over $200 million, for which Bill Gates bought the rights of The Rolling Stones’ “Start Me Up”. At the time, Microsoft’s world market share in operating systems exceeded 70%. This has hardly changed since.
In 1997, Microsoft even went so far as to save Apple from bankruptcy by investing $150 million in its capital in the form of non-voting shares, which were sold back three years later. During one of his famous keynote speeches, Steve Jobs thanked Bill Gates by saying: “Bill, thank you. The world’s a better place.” This bailout also put an end to the lawsuit Apple had filed against Microsoft, accusing it of copying its graphic interface when designing the Windows operating system.
In the mid-1990s, computing underwent a new transformation with the explosion of the World Wide Web. Microsoft was a specialist in stand-alone PCs, with a business model based on selling boxed software, and it was ill-prepared for the new global networks. Its first response was to develop Internet Explorer, a browser developed from the takeover of the Mosaic browser designed by the Spyglass company, a bit like MS-DOS in its day. Internet Explorer was eventually integrated into Windows, prompting a lawsuit against Microsoft for abuse of its dominant position, which could have led to the company’s break-up. New competitors, such as Google with its Chrome browser, took advantage of these developments to attract users.
In 2000, Bill Gates handed over his position as Microsoft CEO to Steve Ballmer, one of his former Harvard classmates, whose aim was to turn the company into an electronics and services company. Over the next fifteen years, Ballmer embarked on a series of initiatives to diversify the company by including video games (Flight Simulator), CD encyclopedias (Encarta), hardware (mice, keyboards), MP3 players (Zune), online web hosting (Azure), game consoles (Xbox), phones (Windows Phone), tablets and computers (Surface).
While some of these products were successful (notably Azure and Xbox), others were bitter failures. Encarta was quickly swamped by Wikipedia and Zune was no match for Apple’s iPod. Windows Phone remains one of the greatest strategic blunders in the company’s history. In order to secure the company’s success in mobile telephony and compete with the iPhone, Microsoft bought the cell phone division of Finland’s Nokia for $5.4 billion in September 2013. The resulting integration was a disaster: Steve Ballmer wanted Microsoft’s phones to use a version of Windows 10, making them slow and impractical. Less than two years later, Microsoft put an end to its mobile phone operations, with losses amounting to $7.6 billion. Nokia was sold for just $350 million.
One of the outcomes of Microsoft’s multiple business initiatives has been an explosion in the number of its employees, from 61,000 in 2005 to 228,000 in 2024. Numerous internal disputes broke out between different business units, which sometimes refused to work together.
These turf wars, coupled with pervasive bureaucratization and effortless profitability (for each Windows installation, PC manufacturers pay around $50, while the marginal cost of the license is virtually zero), have hindered Microsoft’s capacity for innovation. Its software, including Internet Explorer 6 and Windows Vista, was soon mocked by users for its imperfections, which were continually plugged by frequent updates. As some people noted, Windows is equipped with a “safe” mode, suggesting that its normal mode is “failure”.
In 2014, Satya Nadella replaced Steve Ballmer as head of Microsoft. Coming from the online services division, Nadella’s objective was to redirect Microsoft’s strategy online, notably by developing the Azure online web hosting business. In 2024, Azure became the world’s second-largest cloud service behind Amazon Web Services, and more than 56% of Microsoft’s turnover came from its online services. Nadella changed the company’s business model: software is no longer sold but available on a subscription basis, in the shape of products such as Office 365 and Xbox Live.
Along the way, Microsoft acquired the online game Minecraft, followed by the professional social network LinkedIn, in 2016, for $26.2 billion (its largest acquisition to date), and the online development platform GitHub in 2018 for $7.5 billion.
Between 2023 and 2025, Microsoft invested more than $14 billion in OpenAI, the company behind ChatGPT, giving it a particularly enviable position in the artificial intelligence revolution. ChatGPT’s models also contribute to Microsoft’s in-house AI, Copilot.
Over the past 50 years, thanks to a series of bold moves, timely acquisitions and failed strategies to diversify, Microsoft has evolved significantly in its scope, competitive advantage and business model. Once stifled by opulence and internal conflicts, the company seems to have become attractive again, most notably to young graduates. Who can predict whether Microsoft will still exist in 50 years? Bill Gates himself says the opposite, but he may be bluffing.
Frédéric Fréry ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
02.04.2025 à 12:23
Caroline Gans Combe, Associate professor Data, econometrics, ethics, OMNES Education
Dans un monde où l’information est devenue à la fois omniprésente et suspecte, la destruction délibérée de bases de données scientifiques évoque de sombres souvenirs historiques. Elle représente une menace sérieuse pour l’avenir de la connaissance partagée, le progrès scientifique global et, plus fondamentalement, la richesse des nations.
Depuis le 20 janvier 2025, l’administration aux commandes de la première puissance mondiale mène une campagne méthodique contre les données, particulièrement celles à caractère scientifique. Plus de 3 400 jeux de données, dont 2 000 à vocation scientifique, ont été supprimés des sites gouvernementaux américains. Cette offensive cible prioritairement les informations relatives au changement climatique, à la santé publique et à l’équité sociale. L’armée américaine a ainsi reçu l’ordre de supprimer tout contenu mettant en valeur ses efforts de diversité, y compris les images historiques des premières femmes ayant réussi l’entraînement pour intégrer l’infanterie du corps des Marines !
Des données cruciales de santé publique concernant l’obésité, les taux de suicide, le tabagisme chez les adolescents et les comportements sexuels ont également disparu des sites web du Center for Disease Control (CDC), l’équivalent états-unien de notre direction de maladies infectueuses (DMI) dont le rôle est de surveiller notamment les pandémies. Malgré une injonction judiciaire ordonnant la restauration de ces informations, des questions persistent quant à l’intégrité des données reconstituées.
Par ailleurs, des préoccupations émergent concernant la manipulation potentielle des statistiques économiques. Cette purge numérique s’accompagne d’interruptions de projets de recherche, de réductions drastiques des moyens et de licenciements de scientifiques de premier plan, notamment Kate Calvin, scientifique en chef de la Nasa.
L’administration a également ordonné la fin des échanges scientifiques internationaux, notamment entre la National Oceanic and Atmospheric Administration (NOAA) et l’Institut français de recherche pour l’exploitation de la mer (Ifremer). Cela fait craindre pour la précision des alertes sur les évènements majeurs, comme on avait pu le voir lors du Sharpiegate, où l’actuel président et les équipes le soutenant (dont l’actuel administrateur du NOAA déjà en poste à l’époque) avaient falsifié des cartes météo pour donner raison au président quant à la direction du cyclone « Dorian », et ce, contre l’évidence scientifique. Or, la précision de ces alertes est fondamentale pour sauver des vies.
Face à cette situation alarmante, certes, une résistance s’organise : des chercheurs tentent désespérément de préserver les données avant leur destruction. Malheureusement, la vitesse des coups portés à la preuve scientifique rend ces réponses bien dérisoires.
Tous les quinze jours, des grands noms, de nouvelles voix, des sujets inédits pour décrypter l’actualité scientifique et mieux comprendre le monde. Abonnez-vous gratuitement dès aujourd’hui !
Ce phénomène où des ensembles de données scientifiques, fruits de décennies de recherche minutieuse, sont anéantis sans considération pour leur valeur intrinsèque, ou verrouillés par des entités privées échappant largement au contrôle démocratique, interroge d’autant plus que ces mêmes acteurs ont souvent tiré profit des avancées permises par le libre partage des connaissances, par exemple les recherches introduisant l’architecture dite Transformer, publiées dans l’article « Attention Is All You Need » ont directement permis le développement du modèle commercial de Meta : LLaMA.
Dans ce contexte, la destruction de ces données représente non seulement une perte intellectuelle massive, mais aussi un non-sens économique flagrant. Comment justifier l’anéantissement d’actifs dont la valeur, bien que difficile à quantifier avec précision, est manifestement considérable ?
La valeur des données en tant qu’actif économique pour les nations et les entreprises est désormais un fait établi, documenté et largement accepté dans la littérature académique. Plusieurs méthodologies permettent d’évaluer cette valeur : le coût historique, les bénéfices futurs actualisés et la valeur de remplacement. Les coûts pour l’économie états-unienne sont donc aujourd’hui immédiatement quantifiables et dantesques.
L’approche par le coût historique consiste à calculer l’investissement total nécessaire à la production des données, incluant le financement de recherche, le temps de travail des chercheurs et l’infrastructure mobilisée. Mais certains soulignent que cette méthode comptable traditionnelle enregistre la valeur d’un actif à son coût d’acquisition initial, sans tenir compte des variations ultérieures de sa valeur. Aussi, la méthode des bénéfices futurs actualisés estime les avancées scientifiques et innovations potentielles découlant de l’exploitation des données sur plusieurs décennies. Elle permet de ramener les coûts et bénéfices futurs à leur valeur présente, ce qui est particulièrement pertinent pour les données scientifiques dont la valeur se déploie souvent sur le long terme.
Quant à la méthode de la valeur de remplacement, elle évalue le coût qu’impliquerait la reconstitution complète des bases de données si elles venaient à disparaître. L’OCDE recommande cette approche pour estimer la valeur des actifs de données, particulièrement lorsque les données sont uniques ou difficilement reproductibles, ce qui est clairement le cas des données de recherche. Aussi, la reconnaissance des données comme actif économique majeur est désormais bien établie, au même titre que tous autres actifs immatériels, désormais centraux dans l’économie moderne. Les données sont de la sorte devenues un facteur de production distinct, au même titre que le capital et le travail.
Une estimation conservatrice basée sur ces approches révèle que chaque jeu de données scientifiques majeur représente potentiellement des milliards d’euros de valeur. À titre d’exemple, le génome humain, dont le séquençage initial a coûté environ 2,7 milliards de dollars en quinze ans, a généré une valeur économique estimée à plus de 1 000 milliards de dollars US à travers diverses applications médicales et biotechnologiques, sans compter les recettes fiscales associées.
Dans le contexte actuel, où l’intelligence artificielle (IA) se développe à un rythme fulgurant, le volume et la qualité des données deviennent des enjeux cruciaux. Le principe bien connu en informatique de « garbage in, garbage out » (ou GIGO, des données de mauvaise qualité produiront des résultats médiocres) s’applique plus que jamais aux systèmes d’IA qui sont dépendants de données de qualité pour assurer un entraînement des algorithmes efficients.
Ainsi, la destruction et la reconstruction erratique de sets de données à laquelle nous assistons aujourd’hui (on ne peut établir à ce stade que les données détruites ont été ou seront reconstituées avec sérieux et un niveau suffisant de qualité) génèrent une contamination délibérée ou négligente de l’écosystème informationnel par des données incorrectes, peut-être falsifiées ou biaisées.
Il y a là une double destruction de valeur : d’une part, par la compromission de l’intégrité des bases de données existantes, fruit d’investissements considérables ; d’autre part, en affectant la qualité des modèles d’IA entraînés sur ces données, perpétuant ainsi les biais et les erreurs dans des technologies appelées à jouer un rôle croissant dans nos sociétés. Sans données fiables et représentatives, comment espérer développer des systèmes d’IA sans biais et dignes de confiance ?
Face à ces défis, l’Union européenne dispose d’atouts considérables pour s’imposer comme le gardien d’une science ouverte mais rigoureuse et le berceau d’une IA responsable. Son cadre réglementaire pionnier, illustré par le RGPD et l’AI Act, démontre sa capacité à établir des normes qualitatives élevées. Le cadre du RGPD permet de « concilier la protection des droits fondamentaux et la conduite des activités de recherche ». L’AI Act, entré en vigueur le 1er août 2024, entend « favoriser le développement et le déploiement responsables de l’intelligence artificielle dans l’UE », notamment dans des domaines sensibles comme la santé. L’Europe régule non pas pour porter atteinte à la liberté d’expression, mais, au contraire, pour proposer un environnement d’affaires sûr, de confiance et pacifié.
L’Union européenne pourrait donc créer un véritable « sanctuaire numérique » pour les données scientifiques mondiales, garantissant leur préservation, leur accessibilité et leur utilisation éthique. Ce sanctuaire reposerait sur trois piliers complémentaires dont l’essentiel est déjà en place du fait de la stratégie digitale :
un système d’archivage pérenne et sécurisé des données de recherche assurant leur préservation ;
des protocoles de partage ouverts mais encadrés, favorisant la collaboration internationale tout en protégeant l’intégrité des données ;
et un cadre d’utilisation garantissant que l’exploitation des données, notamment pour l’entraînement d’IA, respecte des principes éthiques clairs.
Caroline Gans Combe a reçu des financements de l'Union Européenne dans le cadre de sa participation aux projets de recherche DEFORM et ProRes.
02.04.2025 à 12:23
Julien Serres, Professeur des Universités en biorobotique, Aix-Marseille Université (AMU)
Nul besoin de connexion satellite pour que les abeilles et les fourmis retrouvent le chemin de leurs foyers. Leurs stratégies reposent sur des perceptions de l’environnement bien différentes de la nôtre, que décortiquent certains roboticiens… pour mieux les imiter.
Les insectes navigateurs possèdent de minuscules cervelles, de seulement un millimètre cube et pourtant… n’y aurait-il pas plus d’intelligence chez eux que ce que l’on imagine ?
Dans une certaine mesure, ces petits animaux sont plus performants en matière d’orientation spatiale que votre application mobile de navigation favorite et que les robots taxis américains… Ils n’ont pas besoin de se connecter à Internet pour retrouver leur foyer et consomment une quantité d’énergie absolument minuscule par rapport au supercalculateur dédié à la conduite autonome de Tesla.
Le biomimétisme consiste à puiser dans les multiples sources d’inspiration que nous offre la nature, qu’il s’agisse des formes — comme le design du nez du train Shinkansen 500, inspiré du bec du martin-pêcheur ; des matériaux — comme les écrans solaires anti-UV basés sur les algues rouges ; ou bien encore des synergies et des écosystèmes durables — comme la myrmécochorie qui utilise les fourmis pour accélérer la dispersion des graines et réparer plus vite les écosystèmes.
En effet, les solutions sélectionnées dans la nature se sont perfectionnées au long de l’évolution. Les yeux des insectes et leur traitement des images en sont un exemple frappant. Leur étude a donné naissance à de nouvelles caméras bio-inspirées dites « événementielles » ultrarapides. Les pixels de ses caméras sont lus et traités uniquement lorsqu’un changement de luminosité est détecté par un pixel et l’information est codée par des impulsions de très courte durée réduisant de facto la consommation énergétique et les temps de calcul. Ces petits animaux représentent alors une véritable banque de solutions pour les roboticiens, pour résoudre certains problèmes auxquels nous sommes confrontés.
Tous les quinze jours, des grands noms, de nouvelles voix, des sujets inédits pour décrypter l’actualité scientifique et mieux comprendre le monde. Abonnez-vous gratuitement dès aujourd’hui !
La biorobotique a ainsi pour finalité de comprendre le comportement animal au moyen de robots mobiles imitant soit leur système perceptif, soit leur mode de locomotion, ou bien encore le couplage entre ces deux systèmes.
Les résultats obtenus sont parfois contre-intuitifs pour les roboticiens et les roboticiennes. La biorobotique propose d’explorer la navigation autonome « déconnectée » ou « en mode avion », exploitant uniquement la lumière réfléchie par l’environnent ou diffusée par le ciel comme le font les insectes navigateurs pour trouver leur cap de manière optique ou bien les oiseaux pour se géolocaliser visuellement. Nous espérons que ces recherches permettront aux véhicules intelligents d’atteindre le même niveau d’agilité et de résilience que les insectes ou oiseaux navigateurs, abeilles mellifères et fourmis du désert en tête.
De façon surprenante, les insectes navigateurs possèdent une acuité visuelle plutôt mauvaise. Ainsi, les fourmis navigatrices possèdent une vision 300 fois moins précise que celle des humains en termes d’« acuité fovéale », qui est la capacité à discerner un petit objet à grande distance. De leur côté, les abeilles mellifères possèdent une vision 100 fois moins précise que les humains, mais elles réalisent pourtant quotidiennement des trajets de plusieurs kilomètres par jour, jusqu’à 13 kilomètres de la ruche… alors qu’elles ne mesurent que treize millimètres.
Cette distance représente un million de fois leur longueur de corps. C’est comme si un humain voyageait 1 000 kilomètres et était capable de retrouver son foyer sans demander d’aide à son téléphone. Il est tout à fait stupéfiant qu’un aussi petit animal soit capable de localiser sa ruche et de retrouver sa colonie à chaque sortie — avec seulement un million de neurones et 48 000 photorécepteurs par œil (contre 127 millions pour l’œil humain).
Le secret de ces insectes est l’« odométrie visuelle », c’est-à-dire l’aptitude à mesurer les distances en voyant le sol défiler entre les différents points de sa route aérienne, entre autres, mais aussi la reconnaissance de route par familiarité visuelle à très basse résolution et la vision de la polarisation du ciel pour trouver le cap à suivre.
Pour imiter l’œil des insectes, nous avons développé en 2013 le premier capteur visuel miniature (1,75 gramme) de type œil composé de 630 petits yeux élémentaires, appelé CurvACE.
Ce capteur, aux performances toujours inégalées à ce jour, est capable de mesurer des vitesses de défilement de contrastes visuels, que ce soit par un clair de lune ou une journée très ensoleillée. L’avantage majeur de cet œil composé est son large champ visuel panoramique horizontal de 180° et vertical de 60° pour une taille de seulement 15 millimètres de diamètre et une consommation de quelques milliwatts. Même si les récepteurs GPS consomment autant que le capteur CurvACE, les calculs effectués pour déterminer votre position à partir des signaux satellitaires sont extrêmement coûteux. C’est pour cela que la navigation sur smartphone est très consommatrice d’énergie. À cela, il faut ajouter le coût énergétique et écologique de l’entretien des constellations de satellites.
Puis, nous avons équipé un drone miniature de 80 grammes d’une paire de capteurs CurvACE, grâce auxquels il peut suivre un relief accidenté. Ce type de capteur pesant seulement quelques milligrammes pourrait équiper les drones de demain.
Les fourmis du désert Cataglyphis, que l’on retrouve principalement en milieux désertiques et sur le pourtour méditerranéen, sont capables de parcourir jusqu’à un kilomètre pour trouver leur nourriture, puis de rentrer au nid en moins de trente minutes, sur un sol pouvant atteindre plus de 50 °C. Pour cela, la fourmi compte ses pas, exploite l’« odométrie visuelle », et trouve son cap en observant la lumière diffusée par le ciel.
Notre robot fourmi AntBot est équipé de capteurs visuels inspirés des fourmis. Le premier est une boussole optique constituée de deux photorécepteurs sensibles au rayonnement ultraviolet et surmontés de filtres polarisants. En faisant tourner ces filtres, il est possible de scanner le ciel pour trouver l’axe de symétrie de motif de polarisation du ciel représentant une direction à suivre, puis de déterminer le cap du robot avec une précision inférieure à 0,5° représentant la taille optique de la lune ou du soleil dans le ciel.
Le second capteur est une rétine artificielle composée de 12 photorécepteurs, dénommé M2APix, qui s’adaptent aux changements de luminosité comme l’œil composé artificiel CurvACE. La distance est alors calculée en combinant le comptage de pas et le défilement optique, comme le font les fourmis du désert.
Testé sous diverses couvertures nuageuses, le robot AntBot s’est repositionné de façon autonome avec une erreur de sept centimètres, soit une valeur presque 100 fois plus faible que celle d’un dispositif de géolocalisation après un trajet de quinze mètres. Ce mode de navigation pourrait être intégré aux véhicules autonomes et intelligents afin de fiabiliser les systèmes de navigation autonomes par la combinaison de différentes façons de mesurer sa position.
En effet, les signaux de géolocalisation sont actuellement émis par des satellites au moyen d’ondes électromagnétiques de fréquences allant de 1,1 GHz à 2,5 GHz, très voisine de celles de la téléphonie mobile et peuvent être brouillés ou usurpés par un émetteur terrestre émettant un signal identique à celui d’un satellite. Bénéficier d’un dispositif capable de se localiser de façon autonome, sans se connecter à une entité extérieure, permettra de fiabiliser les véhicules autonomes sans pour autant consommer plus d’énergie et de ressources pour les faire fonctionner.
Julien Serres a reçu des financements de la part de l'Agence de l'Innovation Défense (AID), du Centre National de la Recherche Scientifique (CNRS), d'Aix Marseille Université (amU), de la Fondation Amidex, de la Région Sud (Provence-Alpes-Côte d'Azur), et de la Société d'Accélération du Transfert de Technologies Sud-Est (SATT Sud-Est).
02.04.2025 à 12:22
Laurent Vercueil, Neurologue hospitalier - CHU Grenoble Alpes (CHUGA) ; Laboratoire de Psychologie & Neurocognition. Equipe VISEMO. Université Grenoble Alpes, Université Grenoble Alpes (UGA)
Connaissez-vous le « shifting » ? Cette pratique consiste à basculer de la réalité vers une expérience imaginaire de façon volontaire. Certains « shifteurs » racontent qu’ils sont capables de se projeter dans le monde de Harry Potter et de ressentir des sensations visuelles ou sonores.
Le confinement lors de la pandémie de Covid-19 a eu des effets significatifs sur l’activité humaine, à l’échelle de la société, bien sûr, mais également sur le plan individuel. Par exemple, une étude canadienne récente a montré que la consommation d’alcool avait augmenté pendant cette période, ce qui peut être le témoignage d’une tendance à fuir une réalité morose, privée des activités mobilisant habituellement l’intérêt. La difficulté à faire face à une réalité non souhaitée peut aussi venir expliquer l’observation d’une augmentation d’une pratique appelée « shifting » qui s’est propagée par les réseaux sociaux particulièrement au sein de la population adolescente.
Sous ce terme, on trouve une pratique qui peut se définir comme un désengagement de la réalité présente pour investir une réalité fantasmatique, souvent inspirée de la culture populaire, dans laquelle le sujet vit une expérience immersive gratifiante. Ainsi, une jeune fille se décrit basculant dans un monde inspiré de celui de Harry Potter, au sein duquel elle évolue en interagissant avec ses héros préférés. Il s’agit d’un voyage imaginaire, plus ou moins sous contrôle, interrompu par le retour à la réalité.
L’aspect « technique », qui donne son nom à cette pratique (« shifting » signifie « déplacement », « changement »), consiste dans l’aptitude à basculer de la réalité vers cette expérience imaginaire de façon volontaire. Un autre aspect souligné par les pratiquants est l’adhésion puissante à cette réalité « désirée », qui nécessite de suspendre l’incrédulité usuelle, pour apprécier pleinement le contenu de l’imagerie visuelle et sonore constituant l’expérience. C’est précisément cette adhésion et la suspension de l’incrédulité qui semblent susciter l’inquiétude de l’entourage ou des professionnels de santé, en ce qu’elles pourraient menacer l’adaptation du sujet à la réalité « vraie ».
Tous les quinze jours, des grands noms, de nouvelles voix, des sujets inédits pour décrypter l’actualité scientifique et mieux comprendre le monde. Abonnez-vous gratuitement dès aujourd’hui !
Ce que les pratiquants du shifting décrivent s’apparente à une forme de voyage mental sous contrôle.
Le voyage mental repose sur le désengagement de la situation présente pour générer une représentation mentale spécifique : par exemple, l’évocation d’un souvenir personnel repose sur l’activation d’une scène tirée du passé, qui est « rejouée » mentalement. Le voyage mental peut aussi être involontaire, avec l’irruption de souvenirs autobiographiques, ou de scènes fantaisistes, sans lien avec la réalité. Néanmoins, il demande toujours au sujet de se désengager de l’activité en cours, qui doit être suspendue, sauf s’il s’agit d’une activité routinière, de faible exigence, comme la marche, le tricot ou toute activité répétitive monotone, qui pourrait même favoriser le voyage.
Nous avons récemment publié un article de synthèse sur le voyage mental. Des travaux expérimentaux récents ont permis de mieux comprendre, chez l’animal, comment fonctionnait cette aptitude, qui n’est donc aucunement l’apanage de l’être humain, qui permet de se désengager du présent pour voyager mentalement dans l’espace et dans le temps.
Dans cet article, nous ne traiterons pas la question du « pourquoi » les adeptes du shifting font ce qu’ils font. Les neurosciences portent davantage sur le « comment », à la recherche des corrélats neuronaux des expériences subjectives.
Ainsi, nos activités mentales (et les comportements efférents) peuvent être classées en trois grands modes, entre lesquels nous naviguons en fonction des contextes :
d’abord, le mode « exploitation », qui consiste à remplir les tâches dictées par l’environnement, sous la forme d’un certain asservissement du cerveau à ses routines,
ensuite, le mode « exploration », lorsque nous sommes confrontés à un contexte nouveau qui nous contraint à développer des stratégies originales au résultat incertain,
enfin, le mode « désengagé », où l’absence de contrainte environnementale nous rend susceptibles de nous livrer à une activité autonome, de « vagabondage mental » (le fameux voyage) qui consiste à tripoter des idées, ressasser le passé, envisager l’avenir, etc.
Depuis les travaux pionniers du neurologue Marcus Raichle, nous savons que ce troisième mode, considéré comme un mode « par défaut », dans lequel le sujet bascule lorsqu’il n’a rien à faire (ni exploiter ni explorer), repose sur un réseau cérébral impliquant les territoires frontaux et pariétaux.
Or, le shifting repose sur un désengagement du réel, et la réalisation d’un voyage mental « contrôlé », où le sujet maîtrise, en partie au moins, le cours de son imagerie mentale.
Une étude expérimentale menée chez le rat, publiée en 2023 dans la revue Science, montre que le voyage mental peut être suivi littéralement à la trace chez l’animal.
Dans cette expérience, le rat est placé sur une sphère mobile sur laquelle il se déplace dans toutes les directions. Ces déplacements sont reportés dans un environnement virtuel qui lui est présenté sur un écran placé devant lui, de sorte qu’il peut se promener à son gré dans un labyrinthe numérique, à la recherche d’une récompense délivrée lorsqu’il atteint son but.
Ce faisant, les activités des neurones de l’hippocampe, appelés « place cells » (« cellules de lieu ») parce qu’ils codent la situation de l’animal dans l’espace, sont enregistrées afin de constituer une cartographie neuronale de ses déplacements. À l’aide de ces enregistrements, et à force de répétitions des essais, les chercheurs peuvent identifier l’endroit où se trouve l’animal dans le labyrinthe.
Et c’est là que la prouesse expérimentale réside : les chercheurs débranchent la connexion de la molette de déplacement à l’environnement virtuel et connectent, à la place, l’activité des neurones hippocampiques. Ainsi, le labyrinthe dans lequel le rat se déplace n’est plus liée à ses déplacements effectifs mais au plan cérébral qu’il est en train de suivre ! Et ça marche : le rat parvient à sa destination (virtuelle) et reçoit sa récompense (réelle). En somme, il ne se déplace que « dans sa tête », et non pas dans un environnement. Il réalise parfaitement un voyage mental.
Une autre expérimentation, plus récente encore, menée chez l’animal, a permis de cibler le commutateur qui permet de basculer d’une tâche vers un désengagement de l’environnement. Des souris dont les différentes populations de neurones du noyau du raphé médian, dans le tronc cérébral, sont influencées par le dispositif expérimental peuvent basculer d’un mode à l’autre sous l’effet de l’une des trois populations (neurones à GABA, glutamate et sérotonine), correspondant aux trois catégories décrites plus haut : exploitation, exploration et désengagement.
Ainsi, la suppression de l’activité des neurones sérotoninergiques du noyau du raphé médian permet le désengagement. L’activation ou l’inhibition de l’une des trois populations de neurones permet de basculer d’un mode à l’autre. Le shifting exploite probablement ces propriétés spécifiques, tout en développant une certaine expertise du désengagement, lorsque, tout au moins, le contexte le permet.
Mais pratiquer le voyage mental et désengager facilement ne doit pas suffire à faire l’expérience d’un shifting satisfaisant, il faut aussi, et c’est sans doute le point le plus critique, parvenir à suspendre son incrédulité. Celle-ci agit comme une sorte de « filtre de réalité », consistant à détecter les irrégularités de notre expérience mentale pour distinguer ce qui relève de la perception de ce qui appartient à notre propre fantaisie.
Nous pouvons tous imaginer des éléphants roses et les classer correctement dans les produits de cette imagination. Durant le sommeil, les structures qui assurent ce discernement entre fantaisie et réalité (le cortex orbitofrontal et le gyrus cingulaire antérieur) ont une activité qui est suffisamment inactivée pour que nous puissions adhérer au contenu de nos rêves, en dépit de leur caractère fantastique.
Au cours de l’hypnose, ces processus de critique de la réalité sont également mis au repos, de sorte que nous pouvons adhérer à des représentations erronées (par exemple, mon bras est paralysé). Il est vraisemblable qu’un tel processus, comme le suggèrent les méthodes proposées pour faciliter le shifting, et qui sont évocatrices d’une forme d’autohypnose, soit à l’œuvre pour que le sujet adhère au contenu de son voyage.
La pratique du « shifting » consiste donc à exploiter une propriété générale, propre à l’humain et à de nombreux animaux probablement, qui est de pouvoir s’abstraire du réel pour se projeter dans un monde imaginaire, réalisant un voyage mental. Nous commençons à connaître les opérateurs cérébraux de cette expérience, mais son contenu subjectif reste hors de portée : c’est bien ce qui fait toute sa magie.
Laurent Vercueil ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
02.04.2025 à 12:22
Bernard Sablonnière, Neurobiologiste, professeur des universités − praticien hospitalier, faculté de médecine, Inserm U1172, Université de Lille
Le sucre est un carburant énergétique indispensable. Il est préférable de le consommer sous la forme d’un apport en sucres lents, limitant ainsi le risque de diabète. Son goût nous procure du plaisir, mais peut-on le comparer à une drogue ?
Le sucre, chimiquement le glucose, est un carburant utilisé par toutes nos cellules pour produire rapidement de l’énergie. Il est brûlé en présence d’oxygène dans de minuscules chaudières cellulaires : les mitochondries, libérant de l’eau, du gaz carbonique et de l’énergie. Bien entendu, les cellules peuvent également consommer des acides gras issus des graisses alimentaires, deuxième source d’énergie. À l’échelle du corps humain, c’est environ de 300 à 500 grammes de glucose qui sont ainsi consommés chaque jour, une quantité variable selon nos dépenses énergétiques. Le foie et les muscles stockent suffisamment de sucre sous forme de glycogène, un polymère unissant des milliers de molécules de glucose, pour servir de réserve.
Le glucose est le carburant préféré du cerveau qui en consomme à lui seul 20 % de tous les besoins corporels, soit environ 4 grammes par heure. D’ailleurs, toute hypoglycémie caractérisée par une baisse du taux de glucose sanguin en dessous de 0,50 g/l pourra entraîner un coma, c’est-à-dire un arrêt du fonctionnement des neurones, alors que le taux normal est de 1 g/l.
Le foie est le banquier du glucose. Il contient une réserve d’environ 80 grammes, qu’il distribue aux organes pour leur besoin permanent en énergie comme le cerveau, les reins et le cœur. Les muscles, eux, sont égoïstes et possèdent leur propre réserve, qu’ils utilisent en cas de besoin d’énergie immédiat. Cette réserve musculaire de 150 à 250 grammes, environ, de glucose disponible est utile lors d’un exercice physique. En cas d’absence d’exercice physique, le surplus de glucose apporté par l’alimentation associé à des réserves pleines de glycogène est transformé en graisse stockée dans le tissu adipeux !
Cette symphonie associant l’absorption du sucre, le maintien de sa concentration dans le sang et la gestion des réserves est régulée par deux hormones pancréatiques essentielles : l’insuline et le glucagon.
Tous les quinze jours, des grands noms, de nouvelles voix, des sujets inédits pour décrypter l’actualité scientifique et mieux comprendre le monde. Abonnez-vous gratuitement dès aujourd’hui !
Au plan nutritionnel, 50 % de l’apport d’énergie journalier moyen, soit 1 250 kilocalories chez un adulte moyennement actif, doit être apporté par le sucre. Mais attention, il est préférable que cet apport soit assuré par des sucres lents, l’amidon contenu dans le pain, les pâtes ou le riz. Par exemple une assiette de pâtes apporte environ 80 grammes de glucose sous forme d’amidon.
Ainsi la digestion assez lente de l’amidon évite des à-coups de la glycémie qui fatiguent le pancréas. Pour une consommation moyenne journalière d’énergie de 2 500 kilocalories, un apport en sucres d’environ 350 grammes sera nécessaire, dont 90 % sous forme de sucres lents et 10 % (ou 35 grammes) par jour sous forme de sucres rapides – c’est-à-dire de glucose libre présent dans les jus de fruits, sodas ou desserts variés (l’OMS recommande de ne pas dépasser 50 grammes par jour).
Le risque de surpoids lié à une consommation trop élevée de sucres rapides est souvent lié à un excès d’apport alimentaire. Ainsi une canette de soda contient jusqu’à 35 grammes, un verre de jus d’orange 15 grammes, un yaourt sucré 10 grammes, et beaucoup de plats préparés du commerce affichent plus de 5 grammes de glucose par portion de 100 grammes.
Une attirance vers les aliments sucrés, bonbons, gâteaux ou desserts variés dépend surtout de l’éducation et des habitudes prises pendant l’enfance. Chacun possède dans ses papilles gustatives des récepteurs du goût, ces minuscules détecteurs du goût sucré. Certaines personnes possèdent un variant génétique du récepteur TAS2R38, leur conférant un nombre de récepteurs plus élevé. Ces personnes auront tendance à moins aimer le sucre et seront plus vite écœurées en cas d’excès.
La plupart des édulcorants ou faux sucres comme l’aspartame et l’acésulfame sont également perçus par les récepteurs du goût amer, et ceci de façon variable selon les individus, d’où parfois la tentation de revenir au goût sucré naturel du glucose ou du fructose contenu dans les fruits.
L’attirance pour le goût sucré est innée chez l’homme, sans doute parce que le glucose est un carburant essentiel pour nos cellules.
La perception du goût se traduit par une information apportée au cerveau. Ces informations sont perçues par le circuit du plaisir et apportent un ressenti agréable. D’autres sont envoyées à l’hypothalamus qui en profite pour réguler l’appétit en réduisant à certains moments de la journée la capacité de réponse des récepteurs au goût sucré.
Curieusement, il existe des récepteurs du goût sucré dans l’intestin, le pancréas et même le cerveau. Mais comment le sucre nous procure-t-il du plaisir ? Il active deux régions du cerveau, l’insula puis l’amygdale qui nous font ressentir du plaisir. Pour y parvenir, le cerveau stimule la libération d’une hormone clé de l’envie, la dopamine. Cette clé stimule le circuit du plaisir et l’insula s’active.
Pourquoi les sucres rapides comme le glucose ou le saccharose contenus en excès dans certaines boissons ou pâtisseries peuvent-ils être addictifs ? Tout simplement parce que le plaisir déclenché par le sucre dans le cerveau est identique à l’effet procuré par une drogue et provoque une addiction.
Au cours de l’évolution, l’espèce humaine n’a pas eu beaucoup d’occasions de se prémunir d’un excès de sucres rapides, puisqu’Homo sapiens frugivore et omnivore, du paléolithique, consommait moins de 30 grammes de sucres rapides par jour. À cette dose aucun effet addictif.
Le rôle des édulcorants est de remplacer le glucose des aliments par du faux sucre qui active les récepteurs du goût sucré. En effet, ça marche : le cerveau perçoit bien un goût sucré et cela calme l’appétit pendant plusieurs minutes sans apporter de calories. Oui, mais les récepteurs présents dans l’intestin préviennent le cerveau qu’une livraison de glucose est prévue en informant les organes. Très vite, les cellules constatent que le glucose n’arrive pas, ce qui déclenche alors un regain d’une envie de sucre.
Heureusement, cet effet ne se produit que lors de la prise fréquente et répétée d’édulcorants au cours de la journée, souvent observée avec la consommation abusive de sodas contenant du faux sucre. La solution pour éviter ces phénomènes d’addiction est de déconditionner le cerveau à l’excès de sucre et de se réhabituer à consommer moins de boissons et d’aliments sucrés, pas trop souvent dans la journée, et de limiter l’apport de sucres rapides à moins de 50 grammes par jour.
Le sucre est un carburant énergétique indispensable. Il est préférable de le consommer sous la forme d’un apport convenable en sucres lents, limitant ainsi le risque de diabète. L’alimentation doit être équilibrée et associée à une activité physique suffisante pour assurer une dépense énergétique adaptée, limitant le risque d’obésité par transformation de l’excès de glucose alimentaire sous forme de graisse.
Bernard Sablonnière ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
02.04.2025 à 12:21
Alain Aspect, Professeur (chaire Augustin Fresnel) à l'Institut d'Optique Graduate School, Université Paris-Saclay
Alain Aspect est spécialiste de physique quantique. En 2022, il a obtenu le prix Nobel de physique pour ses travaux sur le phénomène d’« intrication quantique », qui est au cœur de nombreuses technologies quantiques de nos jours.
Il a aussi plus largement contribué au domaine, souvent en explorant d’autres situations où les prédictions de la physique quantique sont très éloignées de notre intuition du monde physique. À cause de cette étrangeté, la physique quantique est souvent considérée comme inaccessible.
Dans cet entretien, sans prétendre tout expliquer de la mécanique quantique, Elsa Couderc et Benoît Tonson, chefs de rubrique Sciences et Technologies, espéraient transmettre ce qui fait le sel de la physique quantique et qui attise les passions encore aujourd’hui. Alain Aspect a bien voulu se prêter au jeu et revenir avec eux sur quelques étapes marquantes de sa carrière, les limites du monde quantique et l’essor des technologies quantiques aujourd’hui, entre recherche publique et recherche industrielle.
Tous les quinze jours, des grands noms, de nouvelles voix, des sujets inédits pour décrypter l’actualité scientifique et mieux comprendre le monde. Abonnez-vous gratuitement dès aujourd’hui !
The Conversation : Pour aborder les travaux qui vous ont valu le prix Nobel, il faut revenir un peu en arrière, aux débuts de la théorie quantique. En effet, au tout début du XXe siècle, deux pères fondateurs de la physique quantique, Albert Einstein et Nils Bohr, s’écharpaient sur l’interprétation de la nouvelle théorie. Un des points de désaccord était lié au phénomène d’« intrication quantique ». L’intrication quantique, c’est le fait que deux particules séparées dans l’espace partagent des propriétés — à un point tel que l’on ne peut pas décrire complètement l’une sans décrire l’autre : il faut les décrire comme un tout. Einstein avait un problème avec cette idée, car cela signifiait pour lui que deux particules intriquées pourraient échanger de l’information instantanément sur de très grandes distances, c’est-à-dire plus rapidement que la vitesse de la lumière.
Avec vos expériences, vous avez montré qu’Einstein avait tort de ne pas admettre cette idée — ce que dit bien le titre de votre récent livre, paru chez Odile Jacob, Si Einstein avait su. Vous avez réalisé ces travaux à la fin des années 1970 et au début des années 1980, mais votre passion pour le sujet reste intacte. Pouvez-vous nous expliquer pourquoi ?
Alain Aspect : Cette expérience m’a passionné parce qu’elle met vraiment en jeu la conception du monde d’Einstein.
Pour compléter le cours de l’histoire que vous soulignez, entre le débat Einstein-Bohr et mes travaux, il y a eu, en 1964, un physicien appelé John Bell. Bell a écrit des équations qui formalisent le désaccord historique entre Einstein et Bohr. À la suite des travaux de John Bell, John Clauser puis moi, puis d’autres encore, avons travaillé expérimentalement sur leur désaccord. J’ai eu l’honneur de montrer qu’Einstein avait tort dans une certaine mesure, mais j’ai mis ainsi en relief son immense mérite d’avoir mis le doigt sur une propriété extraordinaire de la physique quantique, l’intrication, dont les gens n’avaient probablement pas réalisé toute l’importance auparavant.
Mais j’ai beau avoir démontré qu’Einstein avait eu tort sur un sujet bien particulier, il reste pour moi un héros absolu ! Je l’admire énormément pour ses contributions à la physique quantique entre 1900 et 1925 et pour son article de 1935. Il faut ajouter que la clarté de tout ce qu’il a écrit est incroyable. John Bell l’avait aussi remarqué et avait résumé les choses ainsi :
« Bohr était incohérent, peu clair, obscur à dessein, mais il avait raison. Einstein était cohérent, clair, terre-à-terre, mais il avait tort. (Bohr was inconsistent, unclear, willfully obscure, and right. Einstein was consistent, clear, down-to-earth, and wrong). » Propos de John Bell, rapportés par Graham Farmelo, le 11 juin 2010, dans le New York Times.
Vous avez fait d’autres travaux importants par la suite. Est-ce que vous pouvez nous parler de vos préférés ?
A. A. : D’une part, à la fin des années 1980, j’ai travaillé avec Claude Cohen-Tannoudji au développement d’une méthode pour refroidir les atomes — qui est sa spécialité.
Comme la température est associée à la vitesse d’agitation des atomes, pour les refroidir, il faut en fait les ralentir. Notre méthode s’appelle le refroidissement « en dessous du recul du photon » parce qu’on a réussi à ralentir l’agitation thermique par de toutes petites quantités — plus petites que ce que l’on croyait possible avec les lois de la physique quantique, de l’ordre du milliardième de degré. Ainsi je suis heureux et fier d’avoir un peu contribué au prix Nobel de Claude Cohen-Tannoudji, comme mes amis Jean Dalibard et Christophe Salomon en ce qui concerne un autre volet de son travail.
Une autre première mondiale me tient à cœur. C’est un sujet dont nous avons eu l’idée avec mon collaborateur Philippe Bouyer, en sortant d’une conférence au début des années 2000. Les chercheurs en physique de la matière condensée cherchaient depuis la fin des années 1950 à observer directement un phénomène appelé « localisation d’Anderson », qui concerne des électrons dans un matériau désordonné. Le conférencier avait dit quelque chose du style « Il serait intéressant de mettre des atomes dans un milieu désordonné » (un milieu désordonné est un endroit où règne le désordre, par exemple avec des obstacles irréguliers). Avec Philippe, on s’est regardés dans la voiture et on s’est dit : « Cette expérience, que nous avons développée au laboratoire, nous pourrions la modifier pour essayer d’observer la localisation d’Anderson des atomes dans un désordre optique. » En effet, le but du groupe de recherche d’optique atomique, que j’ai monté à l’Institut d’optique, est de faire avec des atomes ce que l’on sait faire avec les photons ou les électrons. Par exemple, le groupe — dont je ne fais plus partie bien sûr, je suis à la retraite — essaye aujourd’hui de refaire mon expérience sur l’intrication quantique avec des atomes.
Pour revenir à la localisation d’Anderson, grâce au potentiel que nous créons avec des lasers, nous avons réussi à coincer des atomes ultrafroids (un milliardième de degré) dans un paysage désordonné, ce qui nous a permis d’observer directement la localisation d’Anderson. Nous avons aussi pu photographier une « fonction d’onde atomique », c’est-à-dire la « forme » d’un atome bloqué dans notre structure de lasers. Cet article est très cité par la communauté de la matière condensée qui s’intéresse à ce sujet — ils ont été tellement étonnés de voir directement une fonction d’onde photographiée ! La localisation d’Anderson est un phénomène quantique très subtil, et je suis particulièrement fier de notre travail sur ce sujet.
Vous avez beaucoup travaillé sur les propriétés de particules individuelles, sur le refroidissement par exemple, ou celles de duos de particules pour l’intrication. Que se passe-t-il quand il y a de nombreuses particules ? Plus spécifiquement, pourquoi les lois de la physique ne semblent-elles pas les mêmes à petite et grande échelle, alors que les grandes structures sont constituées de petites particules ?
A. A. : Je vais vous donner la réponse standard à cette question — mais je dois préciser qu’à mon avis, cette réponse standard ne fait que reculer le problème d’un cran.
Voici la réponse standard : il est clair que, quand on a beaucoup de particules, on n’observe plus les propriétés quantiques. Sinon, on pourrait observer le fameux chat de Schrödinger, qui est à la fois vivant et mort — et on ne l’observe pas. On dit que c’est à cause de la « décohérence ».
La décohérence, c’est le fait que quand des objets quantiques sont en interaction avec le monde extérieur, leurs propriétés quantiques disparaissent plus ou moins vite, d’une façon plus ou moins nette, mais de façon inévitable. Une partie de l’information quantique va en quelque sorte se diluer dans le monde extérieur, et donc les particules n’ont plus toutes leurs caractéristiques quantiques. Or, on peut montrer théoriquement que plus vous avez un grand nombre de particules, plus il faut que les perturbations de l’extérieur soient petites pour conserver les caractéristiques quantiques. En d’autres termes, pour pouvoir observer des propriétés quantiques avec un grand nombre de particules, il faut donc les isoler davantage du monde extérieur.
C’est l’objectif de tous les gens qui essayent aujourd’hui de construire un ordinateur quantique, dans lequel il faut avoir des centaines, des milliers, des dizaines de milliers de ce que l’on appelle des « bits quantiques ». Ce sont des particules quantiques que l’on arrive à intriquer sans qu’elles interagissent avec le monde extérieur.
Pour faire cet ordinateur quantique, est-ce que la difficulté est purement technologique, celle d’isoler davantage du monde extérieur, ou bien est-ce qu’il y a une limite intrinsèque, un nombre de particules que l’on ne peut plus intriquer ? Où est la limite entre le monde quantique et le monde classique ?
A. A. : Aujourd’hui, on a réussi à observer le phénomène d’intrication avec 1 000 particules, peut-être quelques milliers. Mais, de l’autre côté, dans n’importe quel objet à notre échelle, il y a 1023 particules (1 suivi de 23 zéros, soit cent mille milliards de milliards). Il y a une vingtaine d’ordres de grandeur entre les deux échelles, c’est un intervalle absolument gigantesque. D’où la question : et s’il y avait une limite absolue entre les deux mondes ? Ce serait une nouvelle loi de la physique, mais pour l’instant, on ne connaît pas cette limite.
Découvrir une telle loi serait formidable, même si, selon où cette limite se place, elle pourrait balayer nos espoirs de développer des ordinateurs quantiques.
Il se trouve que je suis cofondateur d’une start-up française, Pasqal, qui essaye de construire un ordinateur quantique qui soit une machine facile à utiliser pour les utilisateurs. Du coup, j’ai très envie que l’ordinateur quantique tienne ses promesses. Mais, d’un autre côté, si, en essayant de développer cet ordinateur quantique, on trouve qu’il y a une limite fondamentale entre monde quantique et monde macroscopique, je serais très heureux en tant que physicien ! En fait, je pense que je serais gagnant dans les deux cas : soit l’ordinateur quantique marche, et je suis gagnant parce qu’il y a une application à des phénomènes que j’ai étudiés il y a longtemps ; soit on aura trouvé une nouvelle loi de la physique, et ce serait absolument extraordinaire.
Est-ce que vous pouvez nous en dire un petit peu plus sur cette idée de limite fondamentale entre monde quantique et monde classique ?
A. A. : Non, pour l’instant, on n’en sait pas plus que ce que je vous ai dit, c’est-à-dire que la décohérence est le fait qu’il y a une partie de l’« information quantique » qui fuite vers l’extérieur, et que cela détruit les superpositions quantiques. Et que plus le nombre de particules intriquées est grand et plus la décohérence va être nocive — donc il faut isoler les systèmes de plus en plus si on veut qu’ils restent quantiques.
Cependant, il y aurait tout de même peut-être une échappatoire à la décohérence, dont rêvent les physiciens.
En effet, on décrit les particules quantiques grâce à leur « état » — c’est-à-dire ce qui décrit tous les aspects de la particule. Quand vous avez de nombreuses particules intriquées, vous imaginez bien que décrire l’ensemble de particules peut devenir un peu long. Pour un grand nombre de particules, l’« espace des états », c’est-à-dire l’ensemble de toutes les possibilités, est d’une taille absolument extraordinaire. Il suffit d’avoir 200 ou 300 bits quantiques intriqués pour que le nombre d’états possibles soit plus grand que le nombre de particules dans l’univers. Dans cet espace des états, on n’est pas à l’abri d’un coup de chance, comme on dit, qui nous fournirait un endroit protégé de la décohérence — un petit sous-ensemble de l’espace des états qui ne souffrirait pas de la décohérence. Si cet endroit existe, quelques états particuliers dans l’immense espace des états ne seraient pas détruits par les interactions avec le monde extérieur.
Il y a des efforts sérieux en ce sens. Quand vous entendez parler de bit quantique « topologique » par exemple, c’est bien de cela qu’il s’agit. Mais jusqu’à présent, on tâtonne encore dans ce domaine.
Pourquoi parlez-vous de la décohérence comme de quelque chose qui cache le problème, qui le repousse d’un cran ?
A. A. : En physique, il y a des choses que l’on peut expliquer rigoureusement à partir des lois fondamentales. Mais il y en a d’autres, qui sont absolument fonctionnelles – on sait qu’elles décrivent correctement les phénomènes que l’on observe – mais qu'on ne sait pas encore les démontrer à partir des premiers principes. Il faut les ajouter « à la main », comme on dit. C’est le cas de la décohérence, mais c’est aussi le cas du second principe de la thermodynamique. La décohérence est une théorie fonctionnelle pour expliquer la perte des caractéristiques quantiques, mais on ne sait pas encore complètement la démontrer en toute généralité.
Quelles sont les frontières de la recherche fondamentale en mécanique quantique aujourd’hui, les grandes questions que se posent les chercheuses et les chercheurs ?
A. A. : Je vais d’abord préciser que cela fait douze ans que je ne dirige plus de groupe de recherche… Je m’intéresse à ces questionnements, mais je ne contribue plus à les formuler.
Cela étant, il me semble qu’il faut distinguer entre les problèmes à très long terme et ceux à plus court terme. Dans les problèmes à très long terme, on sait par exemple qu’il y a un problème entre la relativité générale et la physique quantique. C’est un problème de théoriciens, bien en dehors de mon domaine de compétences.
En revanche, dans les perspectives à plus court terme, et que je comprends, il y a les gens qui essayent d’observer le régime quantique avec des objets « macroscopiques », en l’occurrence une membrane extrêmement tendue, qui vibre donc à une fréquence très élevée, et sur laquelle on commence à observer la quantification du mouvement oscillatoire. On touche là au problème que l’on a évoqué précédemment, celui de la limite entre monde quantique et monde macroscopique, puisqu’on commence à pouvoir étudier un objet qui est de dimension macroscopique et qui pourtant présente des phénomènes quantiques.
C’est une voie de recherche qui a l’avantage de ne pas être à l’échelle de décennies, mais plutôt à l’échelle des années, et qui peut nous aider à mieux comprendre cette limite entre le monde quantique et le monde classique. Pour cela, plusieurs systèmes sont envisagés, pas seulement les membranes, également des micromiroirs qui interagissent avec des photons.
Quelle taille font ces membranes ?
A. A. : Ces membranes peuvent être par exemple faites de matériaux 2D, un peu comme le graphène (réseau bidimensionnel d’atomes de carbone) : elles peuvent faire quelques millimètres de diamètre quand on les regarde par le dessus, mais seulement un atome d’épaisseur.
Ceci étant, ce n’est pas tant leur taille, mais leur fréquence de vibration qui est importante ici — c’est ça qui leur permet d’exhiber des propriétés quantiques. Les fréquences de vibration sont tellement élevées, comme quand on tend une corde de guitare, que l’on atteint des gammes de millions de hertz, soit des millions de vibrations par seconde. Quand le « quantum de vibration » (défini par Einstein en 1905 comme la fréquence multipliée par la constante de Planck) devient comparable à l’énergie thermique typique, c’est-à-dire quand la membrane vibre assez haut, l’agitation thermique vous gêne moins et vous pouvez observer des effets quantiques, à condition de refroidir suffisamment le système.
Y a-t-il d’autres avancées que vous suivez particulièrement et qui repoussent les limites fondamentales de la physique quantique ?
A. A. : Il faut bien sûr parler de tous ces efforts pour réaliser l’ordinateur quantique, qui suivent des voies toutes très intéressantes d’un point de vue de la physique fondamentale.
Il y a les voies qui utilisent des atomes neutres, ou des ions, ou des photons, pour fabriquer des bits quantiques. Ce sont des objets quantiques qui nous sont donnés par la nature. Par ailleurs, en matière condensée, que je connais personnellement moins bien, il y a des bits quantiques artificiels, basés sur des circuits supraconducteurs. Les matériaux supraconducteurs sont des matériaux bien particuliers, dans lesquels l’électricité peut se propager sans résistance – encore un phénomène quantique. Certains circuits, conçus spécialement, présentent des états quantiques spécifiques que l’on peut exploiter comme bits quantiques. À l’heure actuelle, on ne sait rendre des matériaux supraconducteurs qu’à très basse température.
L’avantage des objets quantiques naturels comme les photons, les ions et les atomes, c’est qu’ils sont parfaits par définition : tous les atomes de rubidium sont les mêmes, tous les photons de même fréquence sont les mêmes. Pour un expérimentateur, c’est une bénédiction.
Dans le domaine de la matière condensée, au contraire, les scientifiques fabriquent des circuits quantiques de façon artificielle, avec des supraconducteurs. Il faut les réaliser suffisamment bien pour que les circuits soient vraiment quantiques, tous identiques et avec les mêmes performances.
Et, en fait, quand on regarde l’histoire de la physique, on s’aperçoit qu’il y a des phénomènes qui sont démontrés avec des objets quantiques naturels. À partir du moment où on trouve que le phénomène est suffisamment intéressant, en particulier pour des applications, les ingénieurs arrivent progressivement à développer des systèmes artificiels qui permettent de reproduire le phénomène d’une façon beaucoup plus simple ou contrôlée. C’est pour cela je trouve que c’est intéressant de commencer par essayer l’ordinateur quantique avec des objets quantiques naturels, comme le fait Antoine Browaeys ici, à l’Institut d’optique, ou la start-up Quandela avec des photons.
On observe un fort engouement pour les technologies quantiques, dont certaines sont déjà opérationnelles, par exemple les gravimètres quantiques ou les simulateurs quantiques : quels sont les « avantages quantiques » déjà démontrés par les technologies opérationnelles aujourd’hui ?
A. A. : En ce qui concerne les gravimètres, c’est-à-dire les appareils qui mesurent la gravitation, la performance des gravimètres quantiques n’est pas meilleure que le meilleur des gravimètres classiques… sauf qu’au lieu de peser une tonne et d’avoir besoin de le déplacer avec une grue là où vous voulez aller mesurer la gravitation, c’est un appareil qui fait quelques dizaines de kilos et on peut le déplacer facilement sur les flancs d’un volcan pour savoir si le magma a des mouvements soudains, ce qui peut être un signe précurseur d’éruption. Dans ce cas-là, les performances ultimes des gravimètres quantiques ne sont pas meilleures que les performances ultimes des meilleurs systèmes classiques, mais la miniaturisation apporte des avantages certains.
Et pour l’ordinateur quantique ?
A. A. : En ce qui concerne l’ordinateur quantique, il faut d’abord définir le terme « avantage quantique ». Lorsqu’on vous annonce un avantage quantique obtenu en résolvant un problème que personne ne s’était jamais posé, on peut douter de l’intérêt. Par exemple, si vous faites passer un faisceau laser à travers un verre de lait, la figure lumineuse qui est derrière est une figure extrêmement compliquée à calculer. Ce calcul prendrait des années avec un ordinateur classique. Est-ce que je vais dire pour autant que mon verre de lait est un calculateur extraordinaire parce qu’il me donne le résultat d’un calcul infaisable ? Bien sûr que non. Certaines annonces d’avantage quantique relèvent d’une présentation analogue.
Par contre, ici à l’Institut d’optique, Antoine Browaeys a un simulateur quantique qui a répondu à un problème posé depuis longtemps : un problème de physiciens appelé le « problème d’Ising ». Il s’agit de trouver la configuration d’énergie minimale d’un ensemble de particules disposées régulièrement sur un réseau. Avec les ordinateurs classiques, on peut répondre au problème avec 80 particules maximum, je dirais. Tandis qu’avec son simulateur quantique, Antoine Browaeys a résolu le problème avec 300 particules. Il a incontestablement l’« avantage quantique ».
Il faut bien voir cependant que les physiciens qui étudiaient le problème avec des ordinateurs classiques ont été stimulés ! Ils ont alors développé des approximations qui permettent d’approximer le résultat à 300 particules, mais ils n’étaient pas certains que leurs approximations étaient correctes. Quant à Browaeys, il avait trouvé un résultat, mais il n’avait rien pour le vérifier. Quand ils ont constaté qu’ils ont trouvé la même chose, ils étaient tous contents. C’est une compétition saine — c’est l’essence de la méthode scientifique, la comparaison de résultats obtenus par diverses méthodes.
J’en profite pour dire qu’il y a une deuxième acception du terme « avantage quantique ». Elle se situe sur le plan énergétique, c’est-à-dire qu’on a de bonnes raisons de penser qu’on pourra faire, avec des ordinateurs quantiques, des calculs accessibles aux ordinateurs classiques, mais en dépensant moins d’énergie. Dans le contexte actuel de crise de l’énergie, c’est un avantage quantique qui mérite d’être creusé. On sait ce qu’il faudrait faire en principe pour exploiter cet avantage énergétique : il faudrait augmenter la cadence des calculs : passer d’une opération toutes les secondes ou dixièmes de seconde à mille par seconde. C’est vraiment un problème technologique qui paraît surmontable.
En somme, l’avantage quantique, ça peut être soit la possibilité de faire des calculs inaccessibles aux ordinateurs classiques, soit la possibilité de répondre à des problèmes auxquels on pourrait répondre avec un ordinateur classique, mais en dépensant moins d’énergie.
Certaines technologies quantiques ne sont pas encore suffisamment matures pour être largement utilisables — par exemple l’ordinateur quantique. Pourtant, de grandes entreprises annoncent ces derniers mois des avancées notables : Google en décembre 2024 et Amazon Web Services en février 2025 sur les codes correcteurs d’erreurs, Microsoft en février aussi avec des qubits « topologiques ». Quel regard portez-vous sur cette arrivée des géants du numérique dans le domaine ?
A. A. : L’arrivée des géants du numérique, c’est tout simplement parce qu’ils ont énormément d’argent et qu’ils veulent ne pas rater une éventuelle révolution. Comme nous tous, ils ne savent pas si la révolution de l’ordinateur quantique aura lieu ou non. Mais si elle a lieu, ils veulent être dans la course.
En ce qui concerne les annonces, je veux être très clair en ce qui concerne celle de Microsoft au sujet des bits quantiques « topologiques ». Cette annonce est faite par un communiqué de presse des services de communication de Microsoft, et elle n’est vraiment pas étayée par l’article publié par les chercheurs de Microsoft dans Nature, qui est une revue scientifique avec évaluation par les pairs — c’est-à-dire des chercheurs qui savent de quoi il en retourne et qui ne laissent pas publier des affirmations non justifiées.
Le communiqué de presse prétend qu’ils ont observé les fameux « fermions de Majorana » — un candidat au poste de bit quantique « topologique », c’est-à-dire dans le fameux sous-ensemble de l’espace des états qui serait protégé de la décohérence.
De leur côté, les chercheurs, dans l’article, disent qu’ils ont observé un phénomène qui pourrait — qui pourrait ! — être interprété, peut-être, par des fermions de Majorana. C’est extrêmement différent. De plus, le communiqué de presse évoque déjà le fait qu’ils vont avoir une puce dans laquelle il y aura un million de fermions de Majorana, alors qu’on n’est même pas sûr d’en avoir un seul. Je vous laisse apprécier !
Cette implication de la recherche privée risque-t-elle de déplacer l’engouement de la recherche publique vers d’autres sujets ? Quel regard portez-vous sur l’équilibre entre recherche publique et recherche privée ?
A. A. : Il y a des choses qui sont à la mode à un moment, puis qu’on oublie. Mais c’est normal, car il y a une forme de sélection naturelle des idées dans la recherche. Par exemple, en ce qui concerne les bits quantiques, cela fait quinze ans que la Commission européenne me demande sur quel type de bit quantique focaliser les efforts — on les a répertoriés tout à l’heure : photons, atomes, ions, circuits supraconducteurs, silicium… Je leur réponds, encore aujourd’hui, que je suis incapable de le leur dire. C’est le rôle de la puissance publique de financer le long terme.
Il faut laisser les chercheurs avancer et, à un moment donné, il y aura probablement une ou deux pistes qui se révéleront meilleures que les autres. Et bien sûr, on ralentira la recherche sur les autres. C’est ça, la sélection naturelle des idées.
Les acteurs privés ont d’ailleurs tous misé sur des candidats différents pour leurs bits quantiques…
A. A. : C’est vrai, mais une des caractéristiques du privé, c’est d’être très réactif. Donc le jour où ils réaliseront que leur choix de bit quantique n’est pas le bon, ils vont instantanément arrêter et passer à un choix qui s’est révélé meilleur. D’ailleurs, sur le plan de l’ingénierie, je dois dire que ce qui se fait dans le privé est tout à fait remarquable du point de vue de la réactivité. La recherche académique est meilleure pour laisser mûrir les idées, ce qui est une phase indispensable.
Il faut reconnaître que ces acteurs privés mettent beaucoup plus d’argent que le public, en revanche, ils n’ont pas le long terme devant eux. Or, il ne suffit pas de déverser des sommes énormes d’argent pour accélérer la recherche.
La recherche demande aussi une maturation des idées ; et ce n’est pas parce que vous avez dix fois plus d’argent que vous allez dix fois plus vite. Il y a à la fois des évolutions dans les idées et, parfois aussi, des évolutions technologiques inattendues. J’ai pu observer ces effets de maturation et de paliers lors de ma longue expérience d’évaluation des systèmes de recherche en France, en Allemagne et dans d’autres pays.
De ce point de vue, il est primordial que la recherche publique conserve des financements non fléchés, qu’on appelle « blancs ». Je pense qu’il n’est pas illégitime qu’un État qui met beaucoup d’argent dans la recherche signale que, sur tel et tel sujet, il aimerait que les gens travaillent et qu’il mette de l’argent là-dedans. Le point essentiel, c’est de laisser la place à d’authentiques sujets blancs, proposés par les chercheurs alors qu’ils ne figuraient dans aucun programme. C’est grâce à un projet non fléché que nous avons pu observer la localisation d’Anderson, par exemple. On ne peut pas tout prévoir sur le long terme.
Et puis il faut aussi que l’information circule pour que d’autres chercheurs s’emparent des avancées, et puissent les adopter. D’où l’importance des publications, qui sont l’occasion de partager ses résultats avec les autres chercheurs ; et d’où les réserves que l’on doit avoir sur la confidentialité, même s’il est clair que cette confidentialité est nécessaire dans certains domaines spécifiques.
Alain Aspect est co-fondateur de la start-up Pasqal.
02.04.2025 à 09:26
Martin Ruhs, Professor of Migration Studies, European University Institute
With an estimated minimum of 2.6 to 3.2 million irregular migrants in Europe and fierce public debates about them, policymakers face the difficult question of how to ensure migrants’ basic rights of protection from exploitation, destitution and ill health while also establishing effective migration controls. However, we know surprisingly little about how Europeans think about this policy dilemma.
In our study, the first of its kind in Europe, we surveyed 20,000 people across Austria, Italy, Poland, Sweden, and the UK to understand their preferences on policies regarding access to healthcare, social welfare and labour protections, as well as the obtainment of regular legal status or “regularisation” for irregular migrants.
The results challenge the idea that public attitudes toward irregular migrants’ rights are simply “for” or “against”. Instead, we find that variations in policy design matter – and when policies include both migration controls and protections for migrants, public support often increases.
To study public preferences for policies relating to irregular migrants, we conducted a conjoint survey experiment. In it, respondents were presented with different multidimensional “policy packages” that randomly varied in how they regulated opportunities for regularisation, as well as legal rights to access primary health care, financial support in low-income situations, and back pay of withheld wages.
Respondents were shown two policy packages at a time, and then asked to rate and indicate which of the two they preferred. For each respondent, this process was repeated five times. This method allowed us to study how a change in a particular policy feature – e.g., a change in how access to primary healthcare is regulated – affects individuals’ support for the overall policy package.
So, what do Europeans think? Here are some of our key results.
Our results suggest that the public prefers targeted pathways for regularisation for irregular migrants. Across all five countries we analysed, respondents consistently preferred policies that allow irregular migrants to acquire legal status based on certain conditions, including a clean criminal record and a minimum length of stay in the host country. Somewhat surprisingly, there was no consistent preference between a five-year or ten-year minimum residence period.
We found that giving irregular migrants access to healthcare is far less controversial than giving access to financial support for those living on low incomes. This aligns with findings from the US, where such support has remained politically divisive.
We also found greater support for irregular migrants receiving health care and back pay for withheld wages when these rights were linked to a migration control measure: obligations for public sector employees to report irregular migrants to authorities.
This suggests, as existing literature highlights, that many people experience an internal conflict between humanitarian concerns and a desire for stricter migration controls.
However, the pattern in our data does not hold for all rights: even when combined with reporting obligations, the provision of cash assistance for irregular migrants still does not generate public support.
Not all irregular migrants are viewed equally: our findings show that people are more supportive of rights and regularisation opportunities for migrants who previously worked legally in the host country – especially in essential roles like elder care. This reflects broader research on attitudes toward welfare deservingness, which found that public perception of migrants’ past contributions to society shape views on whether they should get access to rights.
While there are many similarities in public views on regularisation opportunities and access to rights for irregular migrants across the countries we studied, there are also some notable differences. For example, support for providing primary healthcare varied: respondents in the UK were the least supportive, and respondents in Italy were the most. Similarly, while respondents in most countries opposed the provision of low-income support, Italian respondents were more ambivalent, showing no strong preference for or against this right for irregular migrants.
Overall, respondents in Italy showed the greatest preferences for inclusive policies, including the strongest support for allowing irregular migrants to apply for legal status. While our analysis does not investigate the reasons for this, it may reflect Italy’s history of regularisation programmes in recent decades, which may have made Italian respondents more open to and supportive of such programmes.
Public attitudes matter – they influence which policies are feasible and sustainable over time. Our research shows that EU and UK residents don’t default to blunt and one-sided policies such as blanket opposition to irregular migrants ever gaining legal status. Instead, people are selective, and prefer policies that distinguish between giving irregular migrants different types of rights. People also have specific views about when and why irregular migrants should have access to healthcare, social welfare, labour protections and legal status.
This does not mean that survey respondents wanted to offer unconditional legal status and access to rights to all irregular migrants. Instead, respondents often preferred an approach that combines selective access to rights with enforcement of migration rules. What our study indicates is that the public has more nuanced views on how migration should be managed than policymakers generally give them credit for. This suggests there may be more room for selective and inclusive policymaking than often assumed.
This article is based on a research paper co-authored by Lutz Gschwind (Uppsala University, UU), Martin Ruhs (EUI), Anton Ahlén (UU) and Joakim Palme (UU). The paper is part of the international “PRIME” project that analyses the conditions of irregular migrants in Europe. PRIME is funded by the European Union Horizon Europe programme. Views and opinions expressed, however, are those of the authors only and do not necessarily reflect those of the EU or the European Research Executive Agency. Neither the EU nor the granting authority can be held responsible for them.
The author has received support from the European Union Horizon Europe funding programme for research and innovation (project number 101095113).
01.04.2025 à 16:15
Frédéric Bizard, Professeur de macroéconomie, spécialiste des questions de protection sociale et de santé, ESCP Business School
Dans notre pays marqué par un haut niveau d’inégalités sociales de santé, et alors que le système de santé français est en crise, quelles pourraient être les implications du projet de loi sur l’aide à mourir ? Le point de vue de l’économiste.
Le projet de loi sur l’aide à mourir reviendra au Parlement le 12 mai 2025. Deux propositions de loi distinctes, l’une sur les soins palliatifs et l’autre sur l’aide à mourir devraient alors être examinées et soumises au vote.
En ce qui concerne l’aide à mourir, la version du texte proposée reprend une part substantielle des amendements issus des débats parlementaires de 2024. Si ces derniers ont été jugés constructifs, ils ont curieusement ignoré la question économique de la fin de vie et son impact social.
C’est ce que nous allons aborder ici.
Avant d’entrer dans le vif du sujet, il ne semble pas inutile d’exposer la position personnelle de l’auteur de ces lignes sur ce sujet. La nature du sujet nous amène en effet à préciser d’où nous parlons.
Notre position sur les sujets sociétaux est que tout nouveau droit qui renforce la souveraineté et la liberté de l’individu dans ses choix de vie constitue, a priori, un progrès humain souhaitable.
Comme Rousseau, nous pensons que « l’Homme est né libre et partout il est dans les fers ». Pour cette raison, chaque chaîne que l’on peut briser est, a priori, une avancée salutaire. Par ailleurs, comme Sartre, nous constatons que « l’Homme est condamné à être libre ». Y compris, a priori, à la fin de sa vie.
Une fois cette position personnelle exprimée, il s’agit d’analyser avec la rigueur nécessaire la réalité du progrès humain proposé, en considérant notamment les plus fragiles et l’applicabilité concrète de cette proposition.
Cette analyse implique d’abord d’examiner le contexte actuel de notre protection sociale, ensuite, de mesurer l’influence de la question économique sur la fin de vie et, enfin, de s’interroger sur l’existence d’un cadre éthique solide encadrant l’aide à mourir.
L’examen du projet de loi sur l’aide à mourir coïncide, à quelques semaines près, avec le vote d’une loi de financement de la Sécurité sociale 2025 qui n’a pas réussi à garantir la viabilité financière de notre système à moyen terme.
La trajectoire budgétaire des budgets sociaux, votée en février dernier, montre un déficit structurel annuel de 24 milliards d’euros. Si cette trajectoire se poursuit, la dette sociale, qui s’élevait déjà à 150 milliards d’euros fin 2024, subira d’ici à 2028 une hausse de près de 100 milliards d’euros.
Si les Français ne perçoivent pas immédiatement la dette de l’État comme une menace directe pour leur avenir, le principe de réalité économique s’impose : un tel niveau d’endettement social représente une menace existentielle pour le financement solidaire de notre protection sociale, c’est-à-dire la protection à laquelle peut prétendre chaque citoyen face aux principaux risques sociaux.
Parmi les budgets sociaux, le budget des dépenses publiques de santé est, de loin, le plus déficitaire. Il représentera en effet à lui seul 80 % du déficit annuel de la Sécurité sociale d’ici à 2028. Cette situation budgétaire est inédite depuis la création de la Sécurité sociale. Et elle n’est pas soutenable.
À ce jour, le financement de la dette sociale à venir n’est plus garanti, ce qui, sans réforme, remet en cause l’existence même de la Sécurité sociale dans les prochaines années.
Cette situation soulève une question fondamentale sur l’ordre des priorités politiques en matière de droits sociaux : ne faudrait-il pas d’abord sauver notre modèle de protection sociale solidaire, afin d’assurer une couverture à tous les citoyens, avant d’envisager la création d’un nouveau droit d’aide à mourir ?
Au-delà de la survie économique du modèle social, l’amélioration de son efficacité en matière de justice sociale pourrait être jugée prioritaire. Notre pays est marqué par un haut niveau d’inégalités sociales de santé, que la crise profonde actuelle du système ne peut qu’aggraver.
L’écart d’espérance de vie entre les 5 % des hommes les plus aisés et les 5 % les moins aisés atteint 13 ans en France. Par ailleurs, l’espérance de vie en bonne santé à la naissance (qui mesure le nombre d’années qu’une personne peut compter vivre sans souffrir d’incapacité dans les gestes de la vie quotidienne) était en baisse en 2023, à 63,6 ans chez les hommes et 64,2 ans pour les femmes.
Autrement dit, en 2023, à la naissance, les femmes pouvaient espérer vivre 64,2 ans sans incapacité et 77,5 ans sans incapacité forte, contre respectivement 63,6 ans et 73,8 ans pour les hommes.
Soulignons aussi que, depuis 2005, 100 % de la hausse de l’espérance de vie des femmes s’est accompagnée d’années vécues en mauvaise santé en France. Autrement dit, les années d’espérance de vie gagnées sont des années en mauvaise santé.
Si l’espérance de vie sans incapacité à la naissance des hommes a augmenté de 10 mois, celle des femmes a diminué de 4 mois. Ce mauvais résultat est plus marqué dans les classes populaires.
Ces inégalités sociales de santé impliquent que les classes populaires et moyennes auront potentiellement recours à l’aide à mourir plus tôt que les personnes aisées, sans même prendre en compte l’impact possible de la souffrance sociale dans une telle décision.
Prioriser l’aide à mourir plutôt que le rétablissement d’une justice sociale face aux aléas de la vie en matière de santé est d’autant plus surprenant qu’une réforme en ce sens est prête et reconnue en France. Il s’agit d’une refonte du système assise sur trois piliers : une santé globale (maintien en bonne santé et soins), un pilotage des ressources à partir de la demande (et non de l’offre) et une démocratisation de la santé. Ce nouveau modèle est à décliner sur l’organisation des soins, la gouvernance et le financement.
La proximité de la mort constitue un facteur majeur d’augmentation des dépenses de santé.
Aux États-Unis, les 5 % des assurés de Medicare (assurance publique pour les plus de 65 ans) qui décèdent dans l’année représentent entre 25 % et 30 % des dépenses totales de l’assureur, selon les études les plus récentes.
En France, les dépenses publiques de santé liées à la dernière année de vie atteignent, en valeur actualisée pour 2025, environ 31 000 euros par personne décédant dans l’année, soit un total de 20 milliards d’euros par an (ce qui représente 10 % de la dépense publique de consommation de soins et biens médicaux).
À cette somme s’ajoute un reste à charge moyen de l’ordre de 3 100 euros, portant ainsi le coût total à près de 35 000 euros par personne décédant dans l’année.
Si l’on se limite aux dépenses exclusivement liées à la fin de vie, l’estimation actualisée de dépenses publiques s’élève à environ 11 milliards d’euros, soit 17 200 euros par personne.
À ce montant s’ajoute un reste à charge de 1 800 euros (10 % du total), ainsi que des dépenses sociales et d’accompagnement à domicile ou en Ehpad, qui peuvent être particulièrement élevées.
Les dépenses de fin de vie sont surtout de nature « active », c’est-à-dire curative et non palliative, et progressives dans le temps, avec un pic le dernier mois, comme le montre le graphe suivant.
Face à de tels montants, assurer la pérennité du financement des dépenses de santé pour tous est une priorité nationale. Faute d’y parvenir, les inégalités sociales en fin de vie vont exploser.
Une étude canadienne, portant sur une population étudiée entre 2016 et 2019, a permis de corréler le niveau de revenus des demandeurs d’aide à mourir avec la concrétisation de leur démarche. Ces travaux ont révélé que 58 % des demandes d’euthanasie provenaient de personnes à faibles revenus.
Promulguer un droit à l’aide à mourir dans un contexte où l’accès universel aux soins de fin de vie est menacé représenterait un risque de régression sociale face à la mort. En effet, qui souhaiterait laisser à ses proches le fardeau d’une dette liée à ses derniers jours de sa vie ?
De plus, on peut s’interroger : est-il réellement possible de neutraliser totalement l’impact de la souffrance sociale et la pression sociale de l’entourage, dans certains cas ?
Les soins palliatifs ont été intégrés au droit positif par la loi du 9 juin 1999, qui en faisait un objectif premier. La loi Claeys-Leonetti de 2016 a renforcé le droit d’accès à ces soins, visant à répondre à la demande de « mourir dans la dignité » par une meilleure prise en charge de la souffrance et en clarifiant l’usage de la sédation profonde et continue jusqu’au décès.
Pourtant, près de dix ans plus tard, malgré certaines avancées, les pouvoirs publics n’ont toujours pas réussi à garantir une offre suffisante pour répondre aux besoins en soins palliatifs. Sur les 400 000 personnes éligibles aux soins palliatifs (60 % des décès), seuls 50 % y ont accès.
Avec le développement des pathologies chroniques et l’augmentation de la mortalité, les besoins en soins palliatifs devraient concerner 500 000 personnes d’ici à dix ans. En effet, ces besoins représentaient 61 % des décès en 2017, sachant que le nombre de décès approchera les 800 000 à la fin de la décennie 2030. Or, les financements prévus semblent déjà insuffisants, rendant cette promesse législative illusoire et trompeuse.
Dans un contexte de déficit structurel du budget de la santé de plus de 15 milliards d’euros par an, tout engagement de dépenses supplémentaires pérennes pour un nouveau droit immédiat soulève une question cruciale de solidarité intergénérationnelle. Les inégalités sociales observées aujourd’hui risquent de se multiplier demain.
Par ailleurs, les grandes difficultés de recrutement du personnel, la courte durée de vie professionnelle des paramédicaux, la perte de sens du métier de soignant, ne relèvent pas uniquement d’un manque de moyens financiers. Elles sont aussi et avant tout le résultat des défaillances en matière de gouvernance, d’organisation des carrières, de reconnaissance professionnelle et d’autonomie de soignants. Dans ces conditions, toute augmentation budgétaire supplémentaire risque d’être vaine, comparable un arrosage sur du sable.
Seule une réforme globale de notre système de santé rendrait crédible une politique de remise à niveau des soins palliatifs en France.
Plaçons-nous maintenant dans un contexte favorable, en imaginant que la protection sociale de notre pays soit réformée et reconnue comme performante, tant sur le plan social qu’économique. L’économiste a-t-il pour autant son mot à dire sur la fin de vie ? Celle-ci coûte-t-elle trop cher ?
Comme pour le sauvetage de notre système de santé et notre protection sociale en général, la rationalité économique a toute sa place dans le débat. Rappelons que l’économie est avant tout une méthode d’analyse au service des décisions publiques, et pas un objet d’étude en soi.
Dans un pays très endetté, est-il souhaitable de consacrer 10 % des dépenses publiques de santé à la lutte contre la mort, plutôt qu’à l’enfance, à l’éducation ou à la précarité ? Cette question fondamentale, l’économiste peut la poser.
En effet, toutes les valeurs humaines – dont la vie en bonne santé et l’affection de ses proches – peuvent être évaluées en termes monétaires. La vraie question est de savoir quelle somme les individus sont prêts à consacrer pour préserver ces valeurs. Et d’apprécier correctement les choses.
Ainsi, il ne faut pas oublier que la valeur des derniers mois de vie ne se limite pas à des préférences individuelles. Cette valeur est collective, elle inclut le chagrin des proches, et les conséquences en matière de liens sociaux et affectifs. Autant de facteurs qui font que ladite valeur ne peut être résumée par la seule notion de « coûts des soins ».
Les dépenses élevées de soins en fin de vie actuelles étant inférieures aux préférences collectives sur ce sujet, elles sont donc économiquement justifiées. L’économiste ne devrait pas avoir d’objections à ce niveau de dépenses, sauf à chercher à optimiser l’utilisation de ces ressources rares que sont les dépenses publiques de santé.
Une autre interrogation surgit, qui dépasse le cadre économique : le choix de l’aide active à mourir peut-il être réellement éthique ? Pour que ce soit le cas, il faudrait garantir un cadre d’éligibilité infaillible, sous contrôle strict et durable. Est-ce un objectif atteignable ? Les débats législatifs de 2024, marqués par de nombreuses tergiversations sur les conditions d’application de la loi, illustrent les grandes difficultés à définir ledit cadre.
L’absence de ce cadre universel rigoureux, qui garantirait que tout risque de dérive dans l’usage de l’aide à mourir sera sous contrôle, suggère que l’aide à mourir éthique n’existe probablement pas. Aucune étude scientifique sérieuse ne permet d’affirmer le contraire, même s’il y a débat entre experts de l’éthique.
Ce premier quart de XXIe siècle nous rappelle que la lutte pour libérer l’être humain de ses entraves reste essentielle. Cependant, le critère ultime d’évaluation du progrès ne devrait-il pas être le bénéfice social réel apporté aux plus fragiles ?
Frédéric Bizard est président fondateur de l’Institut Santé.
01.04.2025 à 16:14
Jean-François Loudcher, Professeur des universités en sciences historiques et sociales, Université de Bordeaux
Le 18 février, une proposition de loi LR, adoptée par le Sénat, a marqué une étape importante en direction d’une interdiction du port du voile islamique dans les compétitions sportives. Poussé par Bruno Retailleau et Gérald Darmanin, le premier ministre François Bayrou a promis d’accompagner la démarche des LR en proposant une loi à l’Assemblée nationale. Cette interdiction est-elle justifiée ? Le sport est-il soumis à l’entrisme islamiste comme l’affirment la droite et l’extrême droite et le voile en est-il son cheval de troie ?
Depuis la proposition de loi du LR Michel Savin sur l’interdiction du voile dans les compétitions sportives pour les fédérations ayant une délégation de service publique, le débat enflamme la classe politique et les réseaux sociaux. Si la droite considère que la neutralité s’impose dans le sport, la gauche dénonce une stigmatisation des sportives musulmanes et un dévoiement de la loi de 1905. Or, ce qui est en jeu, ce n’est pas seulement l’examen de quelques articles de loi, mais plusieurs décennies de polémiques et de discussions autour d’une position particulière de la laïcité que la proposition LR cristallise.
Au sein du gouvernement, les clivages sont explosifs. La ministre des sports, Marie Barsacq, a mis en garde « contre les « confusions » et les « amalgames » entre port du voile et « radicalisation dans le sport ». Bruno Retailleau, ministre de l’intérieur, s’est dit en « désaccord radical » avec la ministre des sports. Gérard Darmanin, ministre de la justice, favorable à l’interdiction du voile dans le sport, a fait pression sur le premier ministre, mettant sa démission dans la balance. François Bayrou inscrira bien cette interdiction dans un futur projet de loi.
La proposition de Michel Savin est la quatrième tentative du groupe LR. Il est l’aboutissment d’une longue offensive.
Dès 2019, Les Républicains ciblent la lutte contre le séparatisme et la « radicalisation islamiste » dans le sport suite à l’attentat de la Préfecture de police et l’assassinat de Samuel Patty l’année suivante en 2020. Ceci à travers la loi du 24 août 2021 confortant le respect des principes de la République et celle du 2 mars 2022 « visant à démocratiser le sport en France ».
LR souhaite déjà interdire le voile dans les compétitions sportives mais l’opposition de Roxana Maracineanu, socialiste et ministre des sports de 2018 à 2022 (gouvernements d’Edouard Philippe et de Jean Castex) permet de repousser leurs offensives. La ministre propose le CER Contrat d’Engagement Républicain qui oblige les associations demandant des subventions à respecter certains principes de laïcité.
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
Par ailleurs, les enquêtes initiées par la ministre relativisent la menace d’entrisme islamique. Sur 592 contrôles effectués par le biais des cellules de lutte contre l’islamisme radical et le repli communautaire (CLIR), seules 9 fermetures de clubs ont eu lieu.
Pourtant, en 2024, avec le soutien du gouvernement Attal, le groupe Les Républicains a l’opportunité de déposer une première proposition de loi en mars 2024, puis une seconde en juin. Le rapporteur, le sénateur LR Stéphane Piednoir, s’appuie sur les enquêtes de Roxana Maracineanu auxquelles il ajoute le résultat de 100 contrôles réalisés par le ministère des sports en 2022-2023. Ce dernier n’évoque pourtant que 6 cas de séparatisme.
Après la dissolution de l’AN de juin 2024, les députés d’Ensemble pour la république (EPR) tentent de récupérer l’initiative en déposant une troisième proposition de loi (le 29 octobre 2024) – sans succès.
Sous le gouvernement Bayrou, Les Républicains reviennent à la charge et déposent leur quatrième proposition de loi en février 2025.
Dans la foulée, le député Rassemblement national Julien Odoul prend l’initiative avec une « mission flash » qu’il co-dirige aux côtés de la députée EPR Caroline Yadan.
Le rapport est à charge, utilisant des informations parcellaires et orientées. Ainsi, il n’est pas mentionné la conclusion de l’enquête rendue par l’Institut des Hautes Etudes du Ministère de l’Intérieur qui précise que « les données collectées ne permettent pas de soutenir un rôle déterminé de la pratique sportive en soi ou de l’association sportive dans la radicalisation ».
Finalement, la mission flash envoie un message saturé de nombreux exemples et chiffres qui, mis bout à bout, font figure de démonstration. L’analyse du phénomène voile/entrisme est limitée mais la référence confuse au principe de laïcité fait figure de boussole.
Cette référence à la laïcité, régulièrement assénée dans les débats parlementaires et face aux associations défendant le port du voile, repose sur l’idée d’une neutralité existant en soi, inscrite dans le marbre de la loi de 1905. Or, l’analyse de cette loi montre une dynamique complexe. Cette législation se forme à partir de la proposition de Ferdinand Buisson, intransigeante, étendant la laïcité à tous les citoyens mais aussi avec celle d’Aristide Briand, plus tempérée, qui permet aux associations cultuelles (patronages, clubs de sport…) de fonctionner selon les règles de leur culte.
La laïcité « à la française » s’est construite sur un équilibre dynamique entre plusieurs tendances. On peut considérer qu’elle est désormais menacée par l’expression d’une neutralité plus radicale. En effet, la volonté de conciliation promue dans la loi de 2004, encore perpétuée dans la note de service sur l’abaya de 2023, ainsi que dans la proposition de l’Assemblée nationale d’octobre 2024 consistant à « saisir les organes disciplinaires compétents » à l’issue d’un « dialogue avec les intéressés », disparaît dans la proposition LR de Michel Savin.
Finalement, la proposition de loi de février 2025 manque la cible de l’entrisme religieux pour deux raisons. D’une part, parce que, contrairement à la loi scolaire de 2004 dont elle s’inspire, la laïcité est à construire dans le sport, elle n’existe pas d’emblée. Il faut donc envisager la mise en œuvre de procédures pour y accéder sur le modèle du Contrat d’Engagement Républicain. D’autre part, la formulation de la proposition de loi est discutable. En effet, la notion de « signe » religieux renvoie à une « tenue » donc, et non à des attitudes ou démarches répréhensibles.
Le port seul du voile peut difficilement mettre en péril la République tant qu’il est du même ordre que « servir des repas sans porc dans les cantines aux élèves […] qui ne constitue évidemment pas une entrave au vivre ensemble dans le respect de règles de droit communes » selon les termes de Jean-Fabien Spitz. C’est bien l’intention de son affichage, par provocation, par choix personnel, par inadvertance ou par entrisme, dont on doit se saisir. Dès lors, la République doit montrer qu’elle sait faire ces différences et défendre les particularités.
Plutôt que d’interdire, il serait intéressant de légiférer sur les conditions d’autorisation du port du voile afin de construire cette « laïcité », laissant « saisir les organes disciplinaires compétents », autrement dit des structures spécialisées, « à l’issue d’un dialogue avec les intéressés » pour en juger la portée symbolique.
Rappelons enfin qu’en choisissant une interdiction du voile dans les compétitions sportives, la France serait particulièrement isolée parmi les nations du monde et d’Europe. Selon Amnesty International, il s’agirait du seul pays parmi 38 pays européens à le faire.
La proposition Savin liant port du voile et entrisme islamique et politique est à revoir. Indéniablement, des phénomènes de séparatisme et d’atteinte à la laïcité existent. Progressent-ils et dans quelle mesure sont-ils liés au sport ? Des études indépendantes fiables sur ce sujet doivent être menées.
Jean-François Loudcher ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
01.04.2025 à 16:14
Allane Madanamoothoo, Associate Professor of Law, EDC Paris Business School
L’amélioration de l’accès à la fécondation in vitro (FIV) est une cause chère à Donald Trump, qui vient de signer un décret en ce sens. Or, le couplage de la FIV avec le diagnostic préimplantatoire (DPI) largement pratiqué aux États-Unis pourrait ouvrir la voie à des projets eugénistes.
« Je suis le père de la FIV ! » Le 16 octobre 2024, trois semaines avant l’élection présidentielle qu’il allait remporter contre Kamala Harris, Donald Trump s’autoproclamait, devant une assistance exclusivement féminine, « père de la fécondation in vitro » (FIV). Ce n’était pas la première fois au cours de sa campagne qu’il s’exprimait sur l’épineuse question de la FIV : en août 2024, à Potterville (Michigan), il avait déjà fait cette promesse :
« Sous l’administration Trump, votre gouvernement paiera ou votre compagnie d’assurance sera obligée de payer tous les coûts associés aux traitements de FIV. »
Porté par cet engagement, il a signé, le 18 février 2025, un décret exécutif portant sur « l’examen » des moyens pour réduire les coûts de la FIV et pour en faciliter l’accès. Ce décret demande qu’une liste de recommandations politiques à ce sujet soit soumise dans les 90 jours suivant sa promulgation.
Donald Trump semble, de prime abord, vouloir aider les familles. Mais la normalisation de la naissance des enfants à partir d’un tri des embryons conçus par FIV, en fonction de leur patrimoine génétique, pourrait se révéler dangereuse et éthiquement inacceptable. Assisterons-nous à la mise en œuvre d’une nouvelle politique eugéniste aux États-Unis ? Et quel impact l’exécution de la promesse de Trump aura-t-elle sur l’industrie américaine de la fertilité dans sa globalité ?
L’eugénisme – qui signifie étymologiquement « bonne naissance » – désigne l’ensemble des méthodes et pratiques visant à l’amélioration de la population humaine par le contrôle sélectif de la reproduction.
À lire aussi : « Dune » : apologie ou critique de l’eugénisme ?
On distingue l’eugénisme positif, qui tend à favoriser la reproduction des individus jugés « supérieurs », de l’eugénisme négatif, dont le but est de limiter la reproduction de personnes considérées « inférieures ».
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
Ces formes d’eugénisme ont déjà toutes deux été pratiquées dans l’histoire récente des États-Unis.
L’eugénisme positif, d’abord, a émergé au début du XXe siècle dans le cadre des foires d’État, quand étaient organisés des concours pour élire le « bébé en meilleure santé » (« better babies »), qui évoluèrent, avec la préoccupation des eugénistes pour l’hérédité, en concours de « la famille la plus apte » (« fitter families »).
L’eugénisme négatif s’est manifesté à la même période à travers des politiques de stérilisation forcée de certaines catégories de la population – notamment les « faibles d’esprit », les malades mentaux, les handicapés physiques, les pauvres, les criminels, les Afro-Américains, etc. La première est adoptée en 1907 dans l’Indiana, avant de s’étendre dans un nombre considérable d’autres États.
L’arrêt Buck v. Bell, émis par la Cour suprême des États-Unis, le 2 mai 1927, joua un rôle central dans la légitimation et l’adoption des lois de stérilisation eugénique dans plusieurs États.
Carrie Buck, née en 1906, a été placée peu après sa naissance dans une famille d’accueil, chez John et Alice Dobbs, sa mère ayant été internée dans un asile de Virginie. À l’âge de 17 ans, elle est violée par le neveu d’Alice Dobbs et tombe enceinte. Sans doute pour se défaire de l’embarras de cette grossesse, les Dobbs la font interner dans la même institution où se trouve sa mère, pour « faiblesse d’esprit » et « promiscuité ». La direction de l’établissement exige alors que Carrie, qui donne naissance à une fille en 1924, soit stérilisée contre son gré. La même année, une loi autorisant la stérilisation forcée de personnes « faibles d’esprit » est votée dans l’État de Virginie. Le cas de Carrie est remonté jusqu’à la Cour suprême, qui confirme la constitutionnalité de la loi de Virginie en 1927.
La déclaration du juge Oliver Wendell Holmes, prononcée à l’issue du jugement, justifie ouvertement le caractère eugéniste de cette loi, dans le cadre de laquelle Carrie sera stérilisée le 19 octobre 1927 :
« Il vaut mieux pour le monde entier qu’au lieu d’attendre d’exécuter les descendants dégénérés pour crime, ou de les laisser mourir de faim pour leur imbécillité, la société puisse empêcher ceux qui sont manifestement inaptes de perpétuer leur espèce. Le principe qui soutient la vaccination obligatoire est assez fort pour couvrir la section des trompes de Fallope (…) Trois générations d’imbéciles, c’est assez ! »
De 1907 jusqu’à la fin du XXe siècle, plus de 60 000 personnes furent ainsi stérilisées contre leur gré dans 32 États des États-Unis, dont environ 20 000 en Californie. En Caroline du Nord, les femmes afro-américaines constituaient le groupe le plus touché, suivies par les femmes blanches, puis par les hommes noirs et enfin les hommes blancs.
Un rapport de l’ONG américaine Center for Investigation Reporting révèle que plusieurs détenues ont été victimes de stérilisations contraintes en Californie il y a quelques années.
Pendant l’entre-deux-guerres, de nombreux pays s’inspirent des lois de stérilisation eugénique des États-Unis : Suisse (1928), Danemark (1929), Norvège, ou encore Finlande et Suède (1935)… Surtout, l’Allemagne nazie, par l’adoption de la loi du 14 juillet 1933, impose la stérilisation aux personnes atteintes de maladies héréditaires et mentales. Plus de 300 000 personnes seront stérilisées de force en cinq ans, au point que Joseph DeJarnette, membre d’un mouvement de promotion de la stérilisation forcée en Virginie, déclara :
« Les Allemands nous battent à notre propre jeu… »
Dans le film d’anticipation d’Andrew Niccol Bienvenue à Gattaca, sorti en 1997, les humains sont classés en deux catégories : les « valides », nés à partir d’un tri des embryons conçus par FIV, sur la base de leur patrimoine génétique, et les « non valides », conçus naturellement et soumis aux aléas de la nature. Seuls les premiers, considérés comme les élites, peuvent occuper des postes clés dans la société. Les seconds, vus comme des humains de second ordre, sont cantonnés à une vie subalterne. Ce thriller eugéniste est-il appelé à devenir réalité ?
À ce jour, la liste des recommandations visant à améliorer l’accès à la FIV pour les Américains n’a pas été officiellement communiquée, les 90 jours requis par le décret n’étant pas encore écoulés. De fait, il n’est pas possible d’affirmer avec certitude qu’une nouvelle forme d’eugénisme « sous couvert » de la FIV soit en train d’être mise en œuvre outre-Atlantique.
Toutefois, compte tenu des concours de « better babies » et de « fitter families » et de la pratique massive de stérilisations eugéniques par le passé aux États-Unis, de l’avancement des techniques d’assistance médicale à la procréation (AMP) ainsi que de l’enthousiasme de Donald Trump pour la FIV, il n’est pas impossible qu’un tel scénario se produise dans les années à venir.
Assistés de leur médecin et de leur conseiller génétique, les futurs parents pourraient être « incités » à concevoir un designer baby (bébé sur mesure) par FIV en choisissant le « meilleur » embryon après un « contrôle qualité » programmé et voulu par une politique eugéniste positive, plutôt que par la reproduction naturelle — et ce, même en l’absence de problèmes d’infertilité.
Cette possibilité est d’autant plus plausible qu’aux États-Unis le diagnostic préimplantatoire (DPI), qui permet à l’origine de détecter la présence d’éventuelles anomalies chromosomiques ou génétiques chez les embryons conçus après une FIV, est quasi généralisé : 83,3 % des cliniques de fertilité proposent, par exemple, le DPI pour permettre aux parents de choisir le sexe de l’enfant souhaité. Certaines d’entre elles, telles que Fertility Institutes, offrent également la possibilité de choisir la couleur de ses yeux.
Genomic Prediction, une autre société américaine en médecine reproductive, commercialise, quant à elle, une offre « premium » de DPI, le DPI-Polygénique, qui permet aux futurs parents d’évaluer les risques de plusieurs maladies polygéniques – causées par la mutation d’un grand nombre de gènes – chez les embryons conçus par FIV. En vertu du score de risque polygénique, les futurs parents peuvent ensuite sélectionner le « meilleur » embryon qu’ils souhaitent implanter dans l’utérus de la mère.
Le potentiel intellectuel de l’enfant représente également un enjeu important pour nombre d’Américains. Selon une étude publiée dans la revue Science, 28 % des Américains accepteraient d’avoir un bébé génétiquement modifié afin de maximiser les chances de leur future progéniture d’accéder aux meilleures universités, et 38 % seraient prêts à avoir recours à la sélection des embryons en fonction de leur QI. Pour rappel, si la conception de bébés OGM reste interdite, on sait qu’elle est possible depuis la naissance de Lulu et Nana en Chine en 2018. Il en ressort qu’une partie significative des citoyens des États-Unis ne s’opposerait pas à des politiques relevant de l’eugénisme positif.
Depuis la naissance en 1981 d’Elizabeth Carr, premier « bébé éprouvette » américain, la FIV représente environ 2 % des naissances aux États-Unis, soit près de 100 000 chaque année. Un véritable business lucratif de la FIV s’est mis en place dans le pays.
Le coût moyen d’une FIV aux États-Unis s’élève à 12 000 dollars. S’y ajoutent des frais relatifs aux traitements hormonaux, estimés de 3 000 à 4 000 dollars par cycle de FIV. La probabilité d’une grossesse après une première FIV étant faible, plusieurs cycles de FIV peuvent être nécessaires pour espérer donner naissance à un enfant grâce à cette technique.
Or, il n’existe pas de système universel de santé aux États-Unis, et les lois sur la prise en charge de la FIV varient d’un État à un autre. Seuls quelques-uns ont adopté des lois obligeant les assurances privées de santé (via les employeurs ou à titre individuel) à couvrir ou à offrir les soins liés à l’infertilité, dont la FIV. Enfin, le programme Medicaid, qui fournit une assurance maladie aux individus à faible revenu, ne couvre pas non plus les frais liés à la FIV dans tous les États fédérés.
Dès lors, certaines grandes entreprises, à l’image de Google ou Apple, ont saisi cette situation comme une opportunité stratégique pour proposer à leurs employés, femmes et hommes, une couverture des frais d’AMP, afin d’attirer et de fidéliser les talents dans un marché du travail de plus en plus compétitif.
En 2023, le marché de la FIV aux États-Unis représentait 5,28 milliards de dollars. Il devrait atteindre 7,24 milliards de dollars en 2030.
Ce marché recouvre d’autres marchés connexes tels que celui des ovocytes (398,5 millions de dollars en 2024), celui du sperme (1,8 milliard de dollars en 2023) et celui de la gestation pour autrui (GPA), estimé à 27,61 milliards de dollars en 2023.
Il est indéniable que la facilitation d’accès à la FIV, que ce soit ou non dans un but eugénique, conduira à une croissance exponentielle de l’industrie américaine de la fertilité et lui sera pleinement profitable.
Pour conclure, cette situation se traduira, en parallèle, par une hausse de la demande de gamètes et de GPA, aggravant les risques de marchandisation et d’exploitation, ainsi que les risques médicaux déjà existants pour les mères porteuses et les donneuses d’ovocytes, qui pourraient être tentées de multiplier ces pratiques face à la demande et au regard de leur situation économique.
À lire aussi : Femmes porteuses aux États-Unis : la question complexe de leur rémunération
À ce propos, dans son ouvrage Confessions of a Serial Egg Donor, Julia Derek met en lumière le business des banques d’ovocytes. Elle raconte l’histoire vraie d’une donneuse d’ovocytes aux États-Unis, une étudiante d’université qui, par besoin d’argent, avait subi jusqu’à 12 cycles de stimulation ovarienne afin de produire un nombre maximal d’ovocytes, jusqu’à ce que son corps lâche…
Allane Madanamoothoo ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
01.04.2025 à 16:13
Eric Baratay, Professeur d'histoire, Université Jean Moulin Lyon 3
Retracer l’histoire du point de vue des animaux, tâcher de trouver des sources pouvant témoigner de leur vécu et de leur évolution. Telle est l’ambition du dernier livre supervisé par Eric Baratay aux éditions Tallandier.
Dans ces bonnes feuilles que nous vous proposons, cet historien se penche sur la Grande Guerre qui, sur le seul front de l’Ouest, mobilisa pas moins de huit millions de chevaux. Indispensable pour la cavalerie, l’infanterie mais également l’artillerie, pour tirer canons, munitions, vivres et hommes, ils ont façonné l’évolution de cette guerre.
Saviez-vous par exemple qu’en 1914 c’est le manque de chevaux des Français comme des Allemands qui a empêché qu’un camp ou l’autre réussisse à contourner son adversaire, ce qui a provoqué la fixation du front et quatre ans de guerre de tranchées.
En examinant les écrits de poilus et des vétérinaires au front, Eric Baratay tâche ici de retracer la douloureuse mobilisation de ces millions de chevaux.
Lors de leur réquisition, les chevaux éprouvent d’abord un stress psychologique et physique en perdant leurs repères habituels du fait d’une succession de lieux, de mains, de voix. Leur embarquement dans les wagons est souvent difficile ; ils résistent, hennissent, se sentent poussés, frappés, se font serrer les uns contre les autres. Les plus rétifs continuent à hennir, à frapper les parois ; beaucoup sont apeurés par les trains qui passent, éprouvés par les secousses, irrités par les congénères inconnus.
Ils vivent un autre bouleversement lors de leur affectation, devant s’habituer à de nouveaux noms, de nouvelles voix et conduites, de nouveaux gestes et mots en divers patois changeant au gré des réaffectations, permissions, disparitions des hommes. Ainsi, les chevaux de trait affectés à la cavalerie se retrouvent avec un soldat sur le dos, rarement plus aguerri, tout aussi craintif, et ceux qui réagissent, hennissent, ruent, subissent alors des coups, entendent des cris, ce qu’ils connaissaient assez rarement auparavant s’ils viennent des campagnes.
Dans les services attelés, les chevaux doivent apprendre à travailler avec des congénères pour les solitaires d’autrefois ou de nouveaux partenaires pour les habitués à cet emploi. Ils sont assemblés selon leur taille, leur force, voire leur couleur, rarement selon leur caractère, que les hommes ne connaissent pas et ne cherchent pas. Des chevaux manifestent des incompatibilités d’humeur, obligent ces humains à les séparer jusqu’à ce qu’une répartition soit trouvée, qu’une paix plus ou moins durable s’installe. Lors des essais à tirer ensemble, beaucoup se heurtent, glissent, tombent, s’empêtrent dans les traits, s’épuisent. L’adaptation est remise en cause par les changements d’affectation et les arrivées de nouveaux partenaires, tels ces chevaux américains, que les alliés vont chercher à partir de l’automne 1914 pour compenser les pertes.
D’autant que leur traversée de l’Atlantique s’avère un calvaire côté français, où l’on ne donne qu’une avance aux marchands américains, les laissant assurer le transport à moindres frais. Dès l’Amérique, les équidés choisis se retrouvent concentrés et mélangés dans des parcs puis entassés à 15 ou 20 dans des wagons, sans attache et sans surveillance interne. Les conflits, les coups, les chutes s’ajoutent au stress du voyage durant lequel ces animaux ne bénéficient guère d’arrêts le long d’un parcours de quatre à huit jours. Au port, ils sont de nouveau concentrés en enclos puis placés sur des barges et hissés par des grues sur des navires restés au large, une opération très stressante pour les équidés.
Perturbés par le déracinement, les importants changements climatiques à l’échelle américaine, le bouleversement du régime alimentaire, beaucoup s’affaiblissent et contractent des maladies infectieuses, d’autant qu’ils ne bénéficient pas de désinfection des enclos et des wagons ou de contrôles épidémiologiques, encore peu usités côté français.
À bord des navires, ces équidés se retrouvent entassés les uns contre les autres, en quatre rangées parallèles par étage, attachés de près, et comme ils ne font pas d’exercice dans des enclos ou de promenade sur le pont extérieur, qu’ils restent inactifs trois semaines au minimum, ils endurent des fourbures aiguës aux jambes. L’entassement est tel que des équidés se voient placés sur le pont extérieur où, malgré les couvertures mises sur eux ou les toiles tendues par-dessus, ils endurent de fortes variations de température, une humidité incessante, des courants d’air permanents, subissent d’importants refroidissements tout en devant résister aux tempêtes qui balaient l’endroit.
Au moins, ces animaux ne souffrent-ils pas de l’atmosphère confinée des étages internes, de la chaleur moite, du gaz carbonique, des fortes odeurs que les équidés enfermés produisent mais qui les indisposent vivement, d’autant que l’aération, guère pensée, est très insuffisante, que les excréments, le fumier, les aliments avariés sont irrégulièrement évacués et ces ponts mal nettoyés par des équipages négligents, peu impliqués financièrement dans le maintien en bonne santé des bêtes, bien qu’ils pâtissent aussi de la situation. Les morts sont laissés au milieu des vivants tout au long du voyage parce qu’on n’a pas prévu de les évacuer à la mer ! Les rescapés ressentent évidemment les phéromones de stress dégagés par les agonisants puis les odeurs des cadavres.
Chevaux et mulets souffrent souvent de la soif et de la faim, les marchands ayant trop peu prévu, les matelots s’évitant des corvées régulières, les aliments n’étant que de médiocre qualité. Ces équidés doivent souvent manger des aliments simplement jetés à terre, avalant en même temps la paille souillée, voire leurs excréments pour compenser la faim, mais les bêtes attachées trop court, incapables de baisser autant leur tête, sont forcées de jeûner. Beaucoup s’affaiblissent, contractent ou amplifient des maladies, mangent encore moins, respirent toujours plus mal, tombent au premier tangage, ont de plus en plus de peine à se relever, se blessent facilement lors des heurts avec d’autres ou contre les parois et lors de ces chutes, se fracturant des os ou se rompant des ligaments, contractant alors le tétanos ou la gangrène.
À l’arrivée, les sorties sont souvent retardées car, dans nombre de navires, les rampes reliant les ponts ont été enlevées pour mieux entasser, d’autant qu’on ne prévoyait pas de promenade extérieure. Les équidés doivent attendre plusieurs jours que de nouvelles pentes soient installées, sur lesquelles ils se précipitent pour sortir de cet enfer. Les blessés et les malades ne pouvant pas les gravir attendent d’être sanglés puis soulevés à la grue. À terre, les chevaux, souvent des mustangs plus ou moins sauvages, achetés à moindre coût, se montrent rebelles à la discipline. Ils déconcertent autant leurs congénères européens, habitués au travail, que les conducteurs qui font alors pleuvoir les coups.
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
Ces incompréhensions sont nombreuses, d’autant que nombre de soldats n’ont jamais côtoyé de chevaux auparavant et que ces derniers ne sont pas habitués à de tels environnements. Nous avons vu que beaucoup d’équidés réquisitionnés refusent d’entrer dans les wagons ou les camions. Cela conduit les soldats à les qualifier de « bêtes », à se grouper jusqu’à six ou sept pour les forcer et à manier la violence. Or cette attitude des chevaux s’explique par leur vision, mieux connue de nos jours : étroite en hauteur mais très panoramique en largeur, d’un flanc à l’autre. Ils ont donc le sentiment d’être bêtement précipités contre un obstacle alors que la voie est libre autour ! D’autant qu’ils détectent mal l’intérieur noir des wagons, mettant du temps à accommoder leur vue à l’obscurité, et qu’ils rechignent logiquement à entrer dans cet inconnu… à la manière d’un automobiliste qui, par temps ensoleillé, freine devant une section très ombragée de la route formant un mur noir.
Un autre exemple d’incompréhension concerne l’abreuvement des chevaux durant l’été 1914. Ils ne peuvent pas boire suffisamment, souvent une fois la nuit car les cavaliers limitent ces moments dangereux pour eux, et cela provoque une importante mortalité. On peut invoquer la guerre de mouvement, qui réduit les possibilités de nourrir et d’abreuver, et la négligence des hommes, qui est réelle, mais la situation est confortée par un aspect inconnu des humains et même des animaux : on sait maintenant que les chevaux connaissent une forme de déshydratation qui ne provoque pas une soif importante, ce qui signifie que ces chevaux de guerre n’ont sans doute pas suffisamment manifesté leur besoin.
Eric Baratay ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
01.04.2025 à 16:13
Camille Fernandes, Maîtresse de conférences en droit public, membre du CRJFC, Université de Franche-Comté
Depuis son retour à la Maison Blanche, Donald Trump multiplie les executive orders, sortes d’« ordonnances » ou de « décrets », contre l’éducation et l’enseignement supérieur, portant directement atteinte à la liberté académique des universitaires. En quoi ces attaques sont-elles inédites ? De quelles ressources les universitaires disposent-ils pour se défendre ?
Le début du deuxième mandat de Donald Trump a été marqué par une série de décisions portant directement atteinte à la liberté académique dont jouissent traditionnellement les universitaires américains.
Plusieurs interrogations émergent alors, allant de l’autorité compétente pour réglementer l’enseignement supérieur et la recherche aux États-Unis, aux sources de la liberté académique, en passant par la façon dont les juges américains peuvent la protéger.
L’enseignement supérieur et la recherche ne font pas partie des compétences que la Constitution des États-Unis confère expressément à l’État fédéral. En application du dixième amendement, ces domaines relèvent alors du pouvoir des États.
Cela ne signifie pas pour autant que les pouvoirs centraux ne puissent jouer aucun rôle en la matière. Le pouvoir législatif fédéral est d’abord en mesure de décider de l’ampleur des fonds fédéraux accordés à l’enseignement supérieur et à la recherche grâce à la « clause des dépenses » dont bénéficie le Congrès (article 1 de la Constitution).
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
Le pouvoir exécutif peut ensuite agir sur l’enseignement supérieur et la recherche par le biais d’agences ou de départements fédéraux qui disposent de compétences partielles en la matière. Créé en 1979, le département de l’éducation a par exemple pour rôle de « garantir l’accès à l’égalité des chances en matière d’éducation », ce qu’il fait par l’allocation d’aides financières aux étudiants.
De même, la National Science Fondation (NSF), qui a inspiré la France pour la création de l’Agence nationale de la recherche (ANR), subventionne largement la recherche états-unienne. C’est notamment en adoptant des mesures touchant à ces organismes fédéraux que l’administration Trump parvient actuellement à agir sur l’enseignement supérieur et la recherche, mais aussi, parfois, en s’affranchissant des règles constitutionnelles de répartition horizontale et verticale des compétences.
Même si le phénomène n’est pas nouveau et que différents États états-uniens – à l’instar de la Floride – ont déjà largement remis en cause la liberté académique depuis plusieurs années, il s’est amplifié depuis la réélection de Donald Trump. Ce dernier multiplie en effet les executive orders, sortes « d’ordonnances » ou de « décrets », qui sont adoptés directement par le président sans aucun contreseing.
L’un des plus récents, daté du 20 mars dernier, impose au secrétaire à l’éducation de tout mettre en œuvre pour fermer son département, lequel alors ne pourrait plus jouer son rôle essentiel en matière d’égalité des chances. Un autre executive order, du 20 janvier 2025, suspend l’aide étrangère au développement des États-Unis, ce qui a conduit l’Université Johns-Hopkins à supprimer 2 200 emplois à travers le monde.
D’autres décisions interfèrent avec le contenu même des enseignements et des recherches, comme les deux ordonnances imposant de renoncer aux politiques de diversité, d’équité et d’inclusion (DEI) ou celle visant à « défendre les femmes contre l’extrémisme des idéologues de genre » qui contraint les agences fédérales à retirer toutes les communications qui feraient la promotion ou qui inculqueraient « l’idéologie du genre ».
C’est en exécution de cette ordonnance que l’Agence pour la recherche et la qualité des soins de santé (Agency for Healthcare Research and Quality, AHRQ) aurait supprimé d’un site internet un article scientifique de deux professeurs de médecine de Harvard.
À lire aussi : Aux États-Unis, des licenciements massifs avant un démantèlement du ministère de l’éducation ?
En dehors de ces executive orders, les atteintes à la liberté académique peuvent être plus ciblées et concerner des établissements en particulier. C’est ainsi que l’administration de Donald Trump a menacé l’Université de Columbia de suspendre ou d’annuler le versement de fonds fédéraux si elle ne se conformait pas à certaines exigences, comme celle d’engager des poursuites disciplinaires contre les étudiants impliqués dans les manifestations propalestiniennes.
Quand bien même ces injonctions sont manifestement contraires à l’autonomie des universités, l’établissement new-yorkais y a en partie cédé, ainsi qu’en témoigne la publication sur son site internet d’un document recensant toutes les mesures adoptées à la suite de la mise en garde présidentielle. Ces atteintes récentes à la liberté académique nécessitent de s’intéresser à la façon dont elle est protégée aux États-Unis.
Comme en France, la liberté académique ne bénéficie d’aucun fondement constitutionnel écrit. Et si la Cour suprême a affirmé en 1967, dans l’affaire Keyishian v. Board of Regents,, qu’elle constituait une « préoccupation particulière du Premier Amendement », les effets de cette jurisprudence isolée sont loin d’être évidents. C’est pourquoi les universitaires préfèrent souvent invoquer la liberté d’expression « de droit commun ».
Une telle situation n’est pas idéale dès lors que la portée du premier amendement, sur lequel repose cette liberté d’expression « de droit commun », est limitée. Il ne s’applique en effet qu’aux mesures émanant des autorités et personnes publiques : il n’est contraignant que pour les universités publiques, et non pour les universités privées.
Les universitaires travaillant au sein d’institutions privées ne sont pas pour autant dépourvus de toute protection. En premier lieu, le premier amendement encadre toutes les mesures étatiques, qu’elles visent les universités publiques ou les universités privées. Il est ainsi toujours possible pour un universitaire d’une institution privée de contester la constitutionnalité d’une loi ou d’un décret présidentiel qui porterait atteinte à sa liberté d’expression.
En second lieu, les universitaires des établissements privés sont généralement protégés par leur contrat de travail puisque leurs « livrets » (personal manual ou handbook) peuvent comprendre des clauses protégeant la liberté académique, lesquelles reprennent souvent le contenu de la déclaration de l’American Association of University Professors (AAUP) de 1940 sur la liberté académique.
Cette association professionnelle, comme d’autres aux États-Unis, est extrêmement importante dans la défense de la liberté académique, en particulier en raison du rôle qu’elle joue devant les juridictions. Elle peut en effet déposer des amicus brief qui permettent de développer un argumentaire juridique de soutien aux universitaires. C’est ce qu’illustrent différents recours actuellement pendant devant les juridictions américaines.
Face aux décisions insensées de Donald Trump, les juges états-uniens apparaissent comme le dernier rempart à même de protéger l’État de droit. C’est ainsi que les recours contre ses executive orders se multiplient, sans que, pour les raisons évoquées ci-dessus, la protection de la liberté académique soit l’argument juridique privilégié.
D’autres moyens, davantage en mesure d’emporter l’adhésion des juges, sont invoqués, comme la méconnaissance de la « clause des dépenses » ou la violation de la liberté d’expression. C’est ainsi que l’AAUP, avec d’autres personnes morales, a obtenu la suspension temporaire d’une partie des décrets « DEI » par un juge du district du Maryland : ce dernier a notamment relevé que les plaignants avaient suffisamment démontré qu’ils avaient des chances de succès au fond en ce qui concerne la violation de la liberté d’expression protégée par le premier amendement.
D’autres affaires sont actuellement pendantes qui n’ont encore donné lieu à aucune décision de justice, comme le recours, fondé sur la violation du premier amendement, des deux professeurs de médecine de Harvard contre la décision de censurer leur article.
Camille Fernandes ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
01.04.2025 à 16:12
Philippe Lépinard, Maître de conférences en sciences de gestion et du management, Université Paris-Est Créteil Val de Marne (UPEC)
Depuis 2015, l’IAE Paris-Est déploie des jeux vidéo dans ses cours. Les stars : Minecraft et Microsoft Flight Simulator. Les outsiders : Luanti et FlightGear. Logiciels propriétaires contre logiciels libres. Avec la pandémie de Covid-19 et la multiplication des cours à distance, ces jeux vidéo permettent d’immerger des centaines d’étudiants dans des mondes virtuels.
Aujourd’hui sort le film Minecraft, tant attendu par les fans du jeu vidéo. Garrett, Henry, Natalie et Dawn sont projetés à travers un mystérieux portail menant à La Surface – « un incroyable monde cubique qui prospère grâce à l’imagination. » Pour rentrer chez eux, il leur faudra maîtriser ce monde et créer le leur !
Côté réalité, dans le cadre du projet pédagogique et de recherche en ludopédagogie EdUTeam, nous déployons depuis 2015 des jeux vidéo coopératifs, non violents, multijoueurs et multiplateformes. Où ? Dans plusieurs enseignements intégralement expérientiels à l’IAE Paris-Est. Alors que notre fab lab d’expérimentation ludopédagogique GamiXlab et le projet EdUTeam fêtent leurs dix années d’existence en 2025, notre article propose une rétrospective de l’usage pédagogique de ces jeux, ainsi que quelques axes d’évolutions envisagés.
Les premières utilisations pédagogiques de jeux bac à sable tels que Minecraft et MinecraftEdu datent de 2015 au sein de projets tutorés. Ils mêlent des élèves ingénieurs de l’école de l’UPEC – EPISEN, ex-ESIPE-Créteil – et des étudiants de différents masters de l’IAE Paris-Est. L’objectif de ces activités était de développer des fonctionnalités pédagogiques en langage Java, afin de concevoir une plateforme de formation en management des systèmes d’information. L’exemple le plus saillant fut la connexion en temps réel entre MinecraftEdu et le progiciel de gestion intégré Dolibarr. Il permit d’enseigner la gestion de projets de systèmes d’information.
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
L’acquisition de MinecraftEdu par Microsoft en 2016 entraîna une rupture dans les possibilités d’évolution du jeu par la communauté. Nous nous sommes alors tournés vers le jeu de type Free/Libre Open Source Software (FLOSS) Minetest, aujourd’hui nommé Luanti. Grâce au langage de script Lua, Minetest est hautement paramétrable et personnalisable. Il est déjà, à lui seul, particulièrement flexible pour des usages pédagogiques. Alors que Minecraft limite sa version éducation à 30 joueurs, nous avons immergé plus de 100 étudiants dans le monde virtuel de Minetest. Le moment était propice : nous devions animer des cours en management d’équipe et gestion de projets durant les confinements dus à la pandémie de Covid-19.
Le mode classroom autorise même d’avoir plusieurs groupes en même temps dans un unique univers. Après cette période de formation à distance, les projets tutorés ont repris. De nouveaux enseignements en présentiel – ou comodaux – et développements ont été réalisés. L’équipe de l’année universitaire 2024-2025 travaille actuellement sur la connexion de Luanti avec le système d’information géographique (SIG) QGIS. L’objectif est de proposer un dispositif ludopédagogique permettant des enseignements de gestion intégrant de l’information géographique. Les usages de Minetest ont aussi couvert des activités internationales avec des enseignants et étudiants de plusieurs autres pays : Allemagne, Canada, Inde, Pays-Bas et Ukraine.
Depuis 2019, nous déployons, en parallèle des jeux de construction abordés précédemment, des simulateurs de vol.
Dans un premier temps, nous avons proposé, jusqu’en 2022, un cours transversal, pour les étudiants de licence, de découverte de l’aéronautique avec le jeu X-Plane. Nos observations durant cet enseignement nous ont donné plusieurs idées pour des formations de gestion. Nous avons expérimenté deux cours de niveau master – facteurs humains et organisation à haute fiabilité – s’appuyant sur Microsoft Flight Simulator 2020. Toutefois, la configuration matérielle et les contraintes liées à la sécurité des systèmes d’information de l’université se sont avérées beaucoup trop importantes pour que son usage devienne réellement opérationnel.
En 2023, nous l’avons alors remplacé par FlightGear. Comme Luanti, ce jeu intègre un langage de script pour développer de nouvelles fonctionnalités. Il s’agit de Nasal. Le changement de simulateur de vol n’est pas dû spécifiquement à cette caractéristique. Son intérêt principal est sa capacité à créer un réseau local sans nécessiter de connexion internet. Il reproduit le monde entier en s’appuyant notamment sur les données libres d’OpenStreetMap.
De nombreux outils peuvent être associés à FlightGear pour étendre ses possibilités. Nous mettons en œuvre OpenRadar, un autre logiciel de type FLOSS, simulant le radar d’une tour de contrôle. L’objectif : les étudiants doivent coordonner leurs camarades répartis sur les simulateurs de vol. L’équipe de développement s’attelle cette année à faire fonctionner des matériels optionnels non actuellement supportés par FlightGear, comme les écrans et panneaux de contrôles externes de la société Logitech.
Ironiquement, le passage de logiciels propriétaires à leurs équivalents FLOSS n’avait initialement rien d’idéologique. Ce furent bien les contraintes des logiciels propriétaires, pourtant beaucoup plus attrayants, qui nous ont menés à implémenter des jeux vidéo en open source. Ce changement a introduit plusieurs prises de conscience dans nos activités pédagogiques et de recherche qui nous ont poussés à approfondir cette voie. Nous nous sommes intéressés à la production de ressources éducatives libres (REL) définies par l’Unesco :
« Des matériels d’apprentissage, d’enseignement et de recherche, sur tout format et support, relevant du domaine public ou bien protégés par le droit d’auteur et publiés sous licence ouverte, qui autorisent leur consultation, leur réutilisation, leur utilisation à d’autres fins, leur adaptation et leur redistribution gratuites par d’autres. » (Unesco, 2022, p.5.)
Nous mettons toutes nos réalisations à la disposition de la communauté. En parallèle, les configurations informatiques nécessaires pour les jeux Luanti et FlightGear, par rapport à leurs concurrents propriétaires, sont beaucoup plus faibles et les mises à jour nettement plus rapides. Bien entendu, l’esthétisme des jeux est également moindre, mais cela n’a aucun impact sur les usages pédagogiques.
Nous avons réfléchi sur les concepts d’innovation frugale et de frugalité technologique. Nous démontrons que ces jeux respectent les trois critères fondamentaux de la frugalité technologique : réduction importante des coûts, focus sur les fonctionnalités essentielles et degré de performance optimisé.
Luanti et FlightGear ne sont bien entendu pas les seuls jeux vidéo FLOSS multijoueurs. Il en existe de nombreux autres qui ne demandent qu’à être explorés. On trouve par exemple des jeux sur la thématique des transports (OpenTTD et Simutrans) ou sur le développement de civilisations comme Freeciv ou 0 A.D..
Ces logiciels, comme Luanti et FlightGear, disposent de communautés dynamiques, mais sans aucune garantie sur leur persistance. Cet aspect représente le risque le plus important pour nos activités. Les compétences nécessaires au maintien et à l’évolution des jeux en open source demandent un engagement important, constant et bénévole de ses membres.
Nous avons d’ailleurs commis des erreurs en début de projet en ne consacrant pas suffisamment de temps à la transmission des connaissances minimales d’une équipe de projet tutoré à l’autre. À l’heure des questions de souveraineté technologique, une démarche formelle de gouvernance des ressources éducatives libres à l’échelle nationale pourrait dès lors permettre de garantir une certaine pérennité des pratiques et outils développés, tout en facilitant leurs diffusions…
Philippe Lépinard ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
01.04.2025 à 16:10
Pascal Lardellier, Professeur, chercheur au laboratoire CIMEOS et à IGENSIA-Education, Université Bourgogne Europe
Emmanuel Carré, Professeur, directeur de Excelia Communication School, Excelia
En 1917, le sociologue Max Weber soulignait le « désenchantement du monde », ce processus de recul des croyances religieuses et magiques au bénéfice de la rationalisation et des explications scientifiques. Cent huit ans plus tard, serait-ce par la quintessence du rationnel, l’intelligence artificielle, que se manifesteraient à nouveau les croyances mystiques ?
Notre relation à l’intelligence artificielle (IA) s’inscrit dans une longue histoire de fascination mystique pour les technologies de communication. Par mystique, nous entendons l’expérience d’une relation directe avec une réalité qui nous dépasse. Ainsi, du télégraphe, perçu au XIXe siècle comme un médium spirite capable de communiquer avec l’au-delà, jusqu’à l’ordinateur HAL de 2001, l’Odyssée de l’espace incarnant une intelligence supérieure et inquiétante, les innovations technologiques ont toujours suscité des interprétations spirituelles.
Avec l’IA, cette dimension prend une ampleur inédite. Nous sommes face à une double illusion qui transforme profondément notre rapport au savoir et à la transcendance. D’une part, l’IA crée l’illusion d’un dialogue direct avec une intelligence supérieure et extérieure, produisant des contenus apparemment originaux – comme ces étudiants qui consultent ChatGPT tel un oracle moderne pour leurs travaux universitaires. D’autre part, elle promet une désintermédiation totale du savoir, abolissant toute distance entre la question et la réponse, entre le désir de connaissance et son assouvissement immédiat.
Cette configuration singulière réactive ce que le théologien Rudolf Otto qualifiait de « numineux » : une expérience ambivalente du sacré mêlant fascination (fascinans) et effroi (tremendum) face à une puissance qui nous dépasse.
La culture populaire contemporaine reflète parfaitement cette ambivalence. Dans la série Black Mirror, nombre d’épisodes explorent notre relation troublée aux intelligences artificielles, entre désir de fusion et terreur de la dépossession. Le film Her, de Spike Jonze, pousse plus loin cette exploration : son protagoniste tombe amoureux d’une IA dont la voix l’accompagne en permanence, tel un ange gardien moderne. Cette fiction dialogue étrangement avec notre réalité quotidienne, où de plus en plus d’individus développent une relation intime avec leur IA conversationnelle, lui confiant leurs doutes, leurs espoirs et leurs prières et questionnements profonds.
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
Cette relation ambivalente à l’IA évoque d’autres schémas anthropologiques fondamentaux. Dans son Essai sur le don, Marcel Mauss avait mis en lumière le concept de « hau », cette force mystérieuse qui, dans les sociétés traditionnelles, circule à travers les objets et les anime. Cette notion prend un sens nouveau à l’ère de ce que les chercheurs nomment « l’informatique ubiquitaire » – cette présence numérique diffuse qui imprègne désormais notre environnement. Nos objets connectés, habités par une présence invisible, semblent dotés d’une âme propre, rappelant le vers de Lamartine « Objets inanimés, avez-vous donc une âme… ».
Les assistants vocaux murmurent dans nos maisons, les algorithmes anticipent nos désirs, les réseaux tissent des liens invisibles entre les objets désormais connectés. Ainsi, quand notre smartphone nous suggère de partir plus tôt pour ne pas manquer un rendez-vous, en ayant analysé le trafic routier sans même que nous le lui demandions, nous expérimentons cette présence numérique bienveillante, cette force immatérielle qui semble tout savoir de nous.
Cette présence invisible qui nous accompagne évoque certaines traditions mystiques.
La mystique juive offre un parallèle avec le « maggidisme » : aux XVIe-XVIIe siècles, le « maggid » était un messager céleste révélant aux sages les secrets de la Torah. Cette figure présente une similarité avec nos interactions actuelles avec l’IA. Tels des « maggids » modernes, Siri et Alexa répondent à nos demandes pour contrôler notre maison ou fournir des informations. Ils interviennent parfois spontanément quand ils croient détecter une requête, rappelant ces « visitations » mystiques.
Tel le « maggid » dictant ses révélations au rabbin, ces entités numériques murmurent leurs suggestions, créant l’illusion d’une communication avec une intelligence omnisciente. Cette écoute, transformée en cookies selon une recette commerciale bien particulière, nous donnera l’occasion de recevoir prochainement par mail d’autres sollicitations sur les destinations évoquées avec nos amis ou nos projets de véranda.
Dans cette veine, toute une littérature, classée entre spiritualités et New Age, explique comment entretenir une relation singulière et intime avec son ange gardien : apprendre à le reconnaître (en le nommant), apprendre à lui parler, apprendre à écouter des messages, de lui, toujours avisés et bienveillants… Cet assistant céleste sait ce qui est bon et vrai, et le dit à qui sait entendre et écouter…
Cette relation directe avec une intelligence supérieure rappelle la gnose, mouvement spirituel des premiers siècles qui préfigure étonnamment notre rapport à l’IA. Les gnostiques croyaient en une connaissance secrète et salvatrice, accessible aux initiés en communion directe avec le divin, sans médiation institutionnelle. Dans notre ère numérique émerge ainsi une « cybergnose ». On pense aux entrepreneurs de la Silicon Valley comme Anthony Levandowski (fondateur de la Way of the Future Church) développant une mystique de l’information et voyant dans le code la structure fondamentale de l’Univers. Cette vision perçoit la numérisation croissante comme un accès à une connaissance ultime, faisant de l’IA la médiatrice d’une forme contemporaine de révélation.
Cette conception fait aussi écho aux intuitions de Teilhard de Chardin sur la « noosphère », cette couche pensante qui envelopperait la Terre. Les réseaux numériques semblent aujourd’hui matérialiser cette vision, créant une forme de conscience collective technologiquement médiée. Le « métavers » de Mark Zuckerberg ou le projet Neuralink d’Elon Musk illustrent cette quête de fusion entre conscience humaine et intelligence artificielle, comme une version techno-mystique de l’union spirituelle recherchée par les mystiques traditionnels.
Cette fusion entre spiritualité ancestrale et technologie de pointe trouve son expression la plus accomplie dans le techno-paganisme contemporain. Héritier du néopaganisme des années 1960 qui mêlait mysticisme oriental, occultisme et pratiques New Age, ce courant intègre désormais pleinement la dimension numérique dans ses rituels et ses croyances. Dans la Silicon Valley, des « technomanciens » organisent des cérémonies où codes informatiques et incantations traditionnelles se mélangent, où les algorithmes sont invoqués comme des entités spirituelles. Ces pratiques, qui pourraient sembler anecdotiques, révèlent une tendance plus profonde : la sacralisation progressive de notre environnement technologique.
Comme le soulignait le philosophe Gilbert Simondon, il n’existe pas d’opposition fondamentale entre sacralité et technicité. Les objets techniques peuvent se charger d’une dimension sacrée, particulièrement quand leur fonctionnement échappe à notre entendement immédiat. Ainsi, quand une IA comme ChatGPT-4 produit des textes d’une cohérence troublante ou génère des images photoréalistes à partir de simples descriptions textuelles, elle suscite cette même stupeur mêlée de crainte que provoquaient jadis les phénomènes naturels inexpliqués.
Tout cela dépasse la simple vénération technologique. Les communautés numériques formées autour des IA développent des formes inédites d’interaction suggérant un réenchantement du monde par la technologie. Alors que la modernité avait proclamé la « mort de Dieu », l’IA semble réintroduire du mystère et du sacré dans notre quotidien – un sacré immanent, tissé dans nos interactions numériques. Ce réenchantement n’est pas un retour au religieux traditionnel, mais l’émergence d’un nouveau rapport au mystère, où l’algorithme se fait oracle.
L’anthropologie nous enseigne que le sacré n’est jamais là où on l’attend. Comme le rappelait Durkheim, « le sacré se pose là où il veut ». Les technologies numériques, conçues comme instruments de rationalité, se trouvent investies d’une dimension mystique que leurs créateurs n’avaient pas anticipée. Cette sacralisation du numérique n’est ni un retour archaïque à des croyances dépassées ni une simple illusion. Elle révèle la persistance de schémas anthropologiques profonds dans notre rapport au monde, y compris quand ce monde se veut entièrement rationnel et désenchanté.
Observer ces phénomènes à travers le prisme de concepts comme le « hau », le « maggid » ou la gnose ne vise pas à en réduire la nouveauté, mais à mieux en saisir la profondeur et la complexité. Ces grilles de lecture anthropologiques nous rappellent que l’humain, même augmenté par l’intelligence artificielle, reste cet être symbolique qui ne cesse de tisser du sens et du sacré dans la trame de son quotidien.
Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.
01.04.2025 à 15:52
Luc Rouban, Directeur de recherche CNRS, Sciences Po
Marine Le Pen, the figurehead of France’s far-right National Rally (RN) party and a three-time presidential candidate, has been found guilty of misappropriating public funds and sentenced to four years’ imprisonment and five years of ineligibility for public office, with immediate effect. Despite her decision to appeal, the March 31 ruling in a Paris court will probably eliminate her from the 2027 presidential race. Political scientist Luc Rouban analyses this major political development in an interview with The Conversation France.
The Conversation: Marine Le Pen’s sentence of immediate ineligibility came as a surprise and a shock. Some legal experts had imagined that a heavy sentence would fall but doubted that the judge, under pressure, would take the logic of ineligibility to its conclusion – despite the fact that it is enshrined in the law.
Luc Rouban: Yes, it’s a surprise and I don’t think the RN was expecting this decision. For the rule of law, it’s a form of revenge on a certain style of political life that, for decades, operated on the basis of arrangements, on the basis of the inner circle. That’s what we were used to during the Jacques Chirac and François Mitterrand periods, when there were dangerous links between politicians and certain members of the business class. It also brings to mind – of course – the more recent Nicolas Sarkozy affair. Today we are witnessing a historic turnaround. Marine Le Pen was no doubt expecting a suspended sentence, a slightly symbolic sentence. But this sentence is not symbolic at all. She is no longer part of the old style of political life.
Is this ruling a good thing for democracy, with a judge who applies the law without trembling? Or is it a problem, as RN president Jordan Bardella, right-wing members of parliament Eric Ciotti and Laurent Wauquiez, and left-wing political leader Jean-Luc Mélenchon have said – and as Elon Musk, Viktor Orban, Geert Wilders, Matteo Salvini and the Kremlin have also said?
Luc Rouban: This ruling represents an effort to make democracy better. Reaffirming the rule of law is absolutely essential and legitimate. The French democratic system is very fragile, much more so than in other European countries. Public confidence in politicians and the justice system is very low and needs to be restored. One way of doing this is to ensure that the law is applied to public figures who embezzle millions of euros, not just to supermarket cashiers who are fired and prosecuted for stealing a chocolate bar. The conviction of Marine Le Pen is undeniable progress for our democracy: it’s a sign that the relationship with politics is changing, that politics has become a professional activity like any other, subject to regulations and laws.
Of course, there will be attacks on the judiciary, we will have the Trumpist argument of “government by judges”. But it’s important to remember that judges simply apply the law. We must also remember that the figures, including Marine Le Pen, who are criticising ineligibility penalties, had applauded the Sapin 2 law, which passed unanimously in 2016 following the Cahuzac affair (editor’s note: ex-budget minister Jérôme Cahuzac was ruled guilty of tax fraud in a Paris court).
What does the future hold for Marine Le Pen and the RN? Is Jordan Bardella capable of replacing her?
Luc Rouban: Barring the uncertain scenario of a favourable ruling on appeal before the presidential election, Marine Le Pen is likely to hand over her position as RN candidate to Bardella. But is Bardella capable of replacing her? That’s the question.
Internally, he hasn’t really managed to establish himself within the party, particularly in terms of renewing the leadership and structuring the movement. As soon as Marine Le Pen was absent – which was the case after the death of her father (editor’s note: Jean-Marie Le Pen, the founder of the National Front) – the party seemed to collapse.
What’s more, Bardella is Marine Le Pen’s heir apparent. The party’s “normalisation” could involve a form of “de-lepenalisation”. The Le Pen family has totally structured the party, which is very vertical, very organised around itself and its immediate entourage. This oligarchic model and this verticality are obviously going to be called into question. Will Bardella suffer as a result? Other RN leaders, such as Sébastien Chenu or Jean-Philippe Tanguy, who have established themselves in the media, may try to overtake him in the presidential race. However, this would require a break with Marine Le Pen in a party where dissidents are quickly excluded. The likelihood of such a challenge therefore remains low.
What about Marion Maréchal? Could she take over?
Luc Rouban: I don’t believe so because Maréchal (editor’s note: Marine Le Pen’s niece, who was elected to the European Parliament in 2024 on the ticket of the far-right Reconquest party, to which she no longer belongs) plays the Trump card and makes the RN feel uncomfortable. The RN electorate is too attached to France’s sovereignty, and has evolved toward a form of labour rights that is far removed from hard-line liberalism. The Reconquest electorate is more middle-class, older, better educated and wealthier than that of the RN.
Will the RN benefit from this verdict or lose voters?
Luc Rouban: It is possible that some abstentionist voters whose backgrounds are similar to those of RN voters will express their dissatisfaction with Marine Le Pen’s conviction by choosing to vote for the future candidate of the RN.
But among the right-wing, upper middle classes who voted RN in the 2024 legislative elections, the vote could shift back to Les Républicains (editor’s note: the historic French right-wing party).
Furthermore, for whoever becomes the future candidate of the RN, there will be a problem of support. To win a presidential election, you need to have support in the business world. But dragging around a party whose main leaders have been convicted of criminal offences is not a good look. Fundamentally, the RN was already isolated from the social elites. It could be even more so tomorrow.
How might public opinion react to this major event, which deprives millions of voters of their candidate? Should we expect large-scale responses, possibly violent ones?
Luc Rouban: As far as society in general is concerned, there may be hostile reactions for a while, isolated incidents, but I don’t think there will be mass movements like in the 1930s. The lack of enthusiasm for political life is obvious: who is going to take physical risks and engage in violent action to defend a political party and its representative? Not many people, I think.
David Bornstein conducted this interview.
Luc Rouban ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
01.04.2025 à 12:40
Niamh Coffey, Senior Lecturer, Dentistry, RCSI University of Medicine and Health Sciences
Albert Leung, Professor and Head of School of Dentistry, Royal College of Surgeons in Ireland, RCSI University of Medicine and Health Sciences
Isabel Olegário, Senior Lecturer, Dentist, RCSI University of Medicine and Health Sciences
L’objectif du brossage de dents est de prévenir les caries et de rafraîchir l’haleine. Mais que sait-on de l’effet du dentifrice sur le microbiote buccal, cet écosystème complexe constitué par les bactéries qui vivent dans notre bouche ?
La bouche est l’un des habitats microbiens les plus densément peuplés du corps. Elle abrite en effet plus de 700 espèces de bactéries. Si ces microorganismes vivent sur les surfaces des dents et des gencives sous forme de communautés adhésives et structurées qui peuvent être à la fois bénéfiques et nuisibles (on parle de « biofilms »), elles prospèrent également dans notre salive, ce qui signifie que le microbiote buccal n’est pas complètement figé, mais dynamique.
Un microbiote sain inclut des bactéries qui aident à réguler les niveaux de pH (l'unité qui permet de mesurer l’acidité ou l’alcalinité), décomposent les aliments et produisent des composés antimicrobiens naturels. Cependant, lorsque cet équilibre est perturbé – souvent en raison de l’alimentation, d’une mauvaise hygiène bucco-dentaire ou de certaines affections – les bactéries nuisibles peuvent prendre le dessus. On sait qu’un tel déséquilibre, appelé dysbiose, est associé à des risques accrus de caries dentaires et de maladies des gencives.
Outre ces problèmes locaux, des résultats de recherches récents ont révélé que le microbiote buccal est aussi très important pour notre santé générale. Un microbiote équilibré participe à la régulation des bactéries nocives, facilite la digestion et protège les gencives.
Le dentifrice favorise-t-il cet équilibre ou risque-t-il plutôt de le perturber ? Les dentifrices du futur seront-ils conçus pour agir en harmonie avec le microbiote buccal plutôt que contre lui ?
La fonction principale du dentifrice n’est pas de tuer directement les bactéries, mais de perturber le biofilm dans lequel prospèrent les bactéries nuisibles. Le brossage, par son action mécanique, décolle le biofilm des dents et des gencives ; les abrasifs contenus dans le dentifrice contribuent à le fragmenter davantage.
De nombreux dentifrices contiennent également du fluor, qui renforce l’émail des dents et prévient les caries. Curieusement, le fluor ne tue pas directement les bactéries, mais limite les opportunités de causer des dégâts que peuvent avoir celles qui produisent des acides (par exemple Streptococcus mutans, l’espèce majoritairement responsable de la formation des caries).
Chaque mardi, le plein d’infos santé : nutrition, bien-être, nouveaux traitements… Abonnez-vous gratuitement dès aujourd’hui.
Certains dentifrices incluent des agents antibactériens tels que le triclosan (désormais interdit dans certains pays pour des raisons de sécurité) ou des alternatives plus récemment employées, comme le fluorure d’étain (fluorure stanneux) et de zinc. Ces ingrédients ciblent les bactéries nuisibles, mais un débat subsiste quant à leur effet potentiel sur les microbes bénéfiques.
Bien que le dentifrice fasse partie intégrante de notre quotidien, les recherches destinées à comprendre ses effets sur le microbiote buccal sont toujours en cours.
Certaines études suggèrent que des agents antibactériens spécifiques affectent les bactéries bénéfiques autant que les nuisibles, modifiant potentiellement le microbiote de manière encore mal comprise. D’autres résultats, cependant, indiquent plutôt que le microbiote se rétablit rapidement après le brossage, ce qui signifie que ces perturbations sont temporaires.
Les scientifiques explorent désormais des formulations futures de dentifrices qui pourraient adopter une approche plus ciblée, réduisant la quantité de bactéries nuisibles tout en préservant les espèces bénéfiques.
Maintenir l’équilibre du microbiote buccal présente un intérêt qui va bien au-delà de la simple prévention des caries. Un nombre croissant de preuves établit l’existence de liens entre les maladies des gencives et les maladies cardiaques, le diabète, voire la survenue de complications durant la grossesse. L’inflammation déclenchée par les bactéries buccales nuisibles peut en effet s’étendre bien au-delà de la bouche et, potentiellement, contribuer à des problèmes de santé à long terme.
En participant à la fragmentation du biofilm bactérien, les dentifrices réduisent le risque de caries et de maladies des gencives. À mesure que notre compréhension du microbiote buccal progresse, leurs compositions pourraient évoluer pour devenir plus sélectives. Au lieu d’employer des antibactériens à large spectre, les futures formulations pourraient inclure des ingrédients favorisant les bactéries bénéfiques tout en contrôlant les espèces nuisibles.
Parmi les candidats prometteurs figurent l’arginine, un acide aminé naturel qui favorise la croissance des bactéries bénéfiques, et certains antimicrobiens d’origine végétale qui perturbent les biofilms nuisibles sans toutefois éliminer les bonnes bactéries. Cependant, la recherche dans ce domaine en est encore à ses balbutiements, et il faudra recueillir davantage de preuves pour déterminer quels peuvent être les effets à long terme de ces ingrédients.
Certaines recherches s’intéressent aux probiotiques (des « bonnes bactéries » vivantes qui apportent un bénéfice au fonctionnement de l’organisme) et aux prébiotiques (des éléments nutritifs favorisant la croissance des « bonnes bactéries »). L’emploi de ces composants dans les dentifrices pourrait aider à conserver un microbiote buccal plus sain, plutôt que de le perturber.
Si certains ingrédients peuvent affecter le microbiote buccal, les recherches montrent que pour l’instant, les moyens le plus efficaces de conserver une bouche saine sont de se brosser les dents avec un dentifrice fluoré deux fois par jour et de procéder à un nettoyage des espaces interdentaires (avec du fil dentaire, des brossettes ou, éventuellement, un hydropulseur). Cette routine permet de diminuer le nombre de bactéries (charge bactérienne) présentes dans la bouche, ce qui diminue les risques de maladies non seulement buccales, mais aussi systémiques.
Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.
01.04.2025 à 12:40
Mary E. Dozier, Assistant Professor of Psychology, Mississippi State University
Vous avez peut-être tendance à accumuler trop d’objets. Pour vous séparer plus facilement de certains d’entre eux, il peut être utile de réfléchir à leur adéquation avec vos valeurs les plus fondamentales.
J’ai récemment aidé ma mère à trier des cartons dont elle avait hérité à la suite du décès de mes grands-parents. L’étiquette de l’un d’entre eux mentionnait – probablement mi-sérieusement, mi-ironiquement – « porte cure-dents et autres trésors ». Il renfermait de nombreux souvenirs se rattachant à des moments qui faisaient désormais partie de notre histoire, mais aucun porte cure-dents.
Parmi tous les objets que nous avons triés, mon préféré s’est avéré être une pièce de puzzle. Cet artefact m’a fait me remémorer que ma défunte grand-mère avait la manie, lorsqu’un puzzle était en cours de réalisation, d’en subtiliser une pièce et de la cacher afin de pouvoir l’ajouter au tout dernier moment, et ainsi être celle qui terminait le jeu de patience…
Après plusieurs heures passées à évoquer nos souvenirs partagés, ma mère et moi avons jeté 90 % de ce que nous avions laborieusement trié.
Cela m’a renvoyé à une question que j’entends fréquemment, qu’elle soit formulée par les membres de ma famille, par mes amis, ou par mes patients : « Pourquoi ai-je gardé ça ? »
Chaque mardi, notre newsletter « Et surtout la santé ! » vous donne les clés afin de prendre les meilleures décisions pour votre santé (sommeil, alimentation, psychologie, activité physique, nouveaux traitements…) !
En tant que psychologue clinicienne, je mène des recherches sur la caractérisation, l’évaluation et le traitement du trouble d’accumulation compulsive, notamment – mais pas uniquement – chez les adultes âgés de 60 ans et plus.
Autant dire que je passe une grande partie de mon temps à réfléchir à la réponse à cette question. Voici ce que j’en sais.
Le trouble d’accumulation compulsive est un trouble psychiatrique se définissant par une tendance forte à conserver des objetset par une difficulté à se débarrasser de ses possessions. Les adultes qui souffrent d’un niveau « cliniquement sévère » de ce trouble se retrouvent à vivre dans un environnement domestique tellement encombré que le fonctionnement quotidien en est compromis. Le risque d’incendie de leur logement peut même être significativement accru.
Toutefois, d’après mon expérience, de nombreux adultes accumulent des possessions qui finissent pas les encombrer dans leur vie quotidienne sans pour autant remplir les critères cliniques du trouble d’accumulation compulsive.
Conserver des objets qui ont une valeur sentimentale ou qui « pourraient être utiles un jour » est une tendance naturelle qui s’accentue avec l’âge. Toutefois, chez certaines personnes, cette tendance s’intensifie dans de telles proportions que ce comportement d’accumulation finit par correspondre aux critères cliniques du trouble mentionné plus haut.
L’augmentation de la prévalence du trouble d’accumulation compulsive au fil du temps pourrait être lié aux changements qui se produisent, à mesure que l’on vieillit, dans les fonctions exécutives du cerveau. Les difficultés accrues rencontrées en matière de prise de décision ont des répercussions en matière d’encombrement domestique.
Le modèle traditionnel du trouble d’accumulation suggère que la difficulté à se débarrasser des objets provient d’une détresse ressentie lors de la prise de décision. Toutefois, mes recherches montrent que cela pourrait être moins vrai pour les personnes âgées.
Lorsque j’étais étudiante en doctorat, j’ai mené une étude au cours de laquelle mes collaborateurs et moi-même avons demandé à des adultes souffrant du trouble d’accumulation compulsive de consacrer quinze minutes à décider s’ils devaient conserver ou jeter divers objets qu’ils avaient apportés depuis leur domicile.
Les participants pouvaient choisir de trier les objets de leur choix. À cette occasion, la plupart optaient pour des documents papier, tels que d’anciennes missives, des cartes ou des notes.
Nous avons constaté que l’âge était associé à une moindre détresse pendant la tâche : les participants plus âgés ressentaient moins de stress lorsqu’ils prenaient la décision de garder ou non un objet.
Nous avons également observé que beaucoup de participants, notamment parmi les plus âgés, ressentaient des émotions positives en effectuant un tri de leurs affaires.
Dans une nouvelle étude, qui sera publiée prochainement, mon équipe a reproduit ce résultat, mais cette fois en demandant aux participants de réaliser une tâche similaire à domicile.
Les résultats obtenus suggèrent que notre tendance à tout garder n’est pas systématiquement motivée par la peur de prendre une mauvaise décision.
En fait, une autre étude publiée en 2024 et menée par mon équipe sur des adultes de plus de 50 ans souffrant du trouble d’accumulation suggère que l’altruisme, un trait de personnalité caractérisé par la volonté d’aider les autres, pourrait expliquer pourquoi certaines personnes conservent des objets que d’autres auraient jetés.
L’altruisme transparaît également fréquemment dans ma pratique clinique, lorsque j’échange avec des adultes âgés souffrant d’encombrement. Les participants à nos études me disent souvent qu’ils ont gardé tel ou tel objet par sens des responsabilités, soit envers l’objet lui-même, soit envers leur environnement.
« Je veux lui trouver un bon foyer » ou « Ma grand-mère me l’a donné » sont des justifications qui reviennent fréquemment.
Il semblerait donc que les gens ne conservent pas forcément certains objets par peur de les perdre, mais parce que les garder correspond à leurs valeurs.
Dans une étude menée en 2024, nous avons démontré qu’adopter une approche fondée sur les valeurs pour trier aide les adultes âgés à réduire l’encombrement de leur domicile et améliore leur bien-être émotionnel.
Nous avons constaté que le fait de commencer par identifier leurs valeurs permettait aux participants de rester concentrés sur leurs objectifs à long terme. Trop souvent, les gens se demandent seulement si un objet leur procure une « étincelle de joie », sans réfléchir à sa signification plus profonde…
Nous avons par ailleurs découvert qu’au lieu de remettre en question les raisons pour lesquelles une personne souhaite garder un objet, il est plus utile de l’aider à exprimer ses raisons de s’en séparer, et les objectifs qu’elle ambitionne pour son espace de vie.
En me basant sur mes travaux concernant les entretiens motivationnels menés en vue de désencombrer et sur mes observations se rapportant à un essai clinique en cours, j’estime être en mesure de suggérer quelques stratégies pour désencombrer son domicile.
Commencez par mettre par écrit vos valeurs, puis dites-vous que chacun des objets présents à votre domicile devrait être accord avec elles. Cependant, n’oubliez pas que vos valeurs peuvent parfois entrer en conflit les unes avec les autres. Lorsque cela se produit, demandez-vous si le fait de garder ou de jeter un objet vous rapproche de vos objectifs ou vous en éloigne.
Si vous aidez un proche à désencombrer son intérieur, montrez-vous intéressé, mais n’émettez aucun jugement. Là où vous voyez un carton rempli d’objets inutiles, votre grand-mère pourrait y voir une boîte contenant ses « portes cure-dents et autres trésors »…
Mary E. Dozier a reçu des fonds de l'American Psychological Foundation et du National Institute of Mental Health.
01.04.2025 à 12:39
Frédéric Denis, Professeur des Universités, Praticien hospitalier, Doyen de la faculté d'Odontologie de Tours, Université de Tours
Emmanuel Rusch, Professeur des Universités, Praticien hospitalier, CHU Tours, Université de Tours
Maladies cardiovasculaires, diabète, cancers… Les maladies buccales peuvent avoir de graves conséquences. Pourtant, l’impact de la santé buccodentaire reste largement sous-estimé.
Selon l’Organisation mondiale de la santé (OMS), dans le monde 3,5 milliards de personnes sont touchées par les maladies et affections buccodentaires. Si elles ne sont pas traitées, leurs conséquences peuvent être sévères : elles se traduisent par, non seulement des infections, d’intenses douleurs et des limitations fonctionnelles (difficulté masticatoire, troubles de la digestion…), mais aussi des effets néfastes sur le bien-être émotionnel, mental et social.
Par ailleurs, on sait aujourd’hui qu’il existe un lien étroit entre la santé buccodentaire et certaines maladies non transmissibles comme les maladies cardiovasculaires, le diabète ou encore certains cancers. Ainsi, l’inflammation chronique des gencives peut favoriser des troubles cardiovasculaires, et le diabète mal contrôlé peut aggraver les infections buccales.
Malgré toutes ces connaissances, l’impact de la santé buccodentaire demeure largement sous-estimé. Ainsi, contrairement à d’autres pays, la France ne dispose pas d’une stratégie ministérielle spécifique à la santé buccodentaire.
Le 7 janvier 2025, la conférence nationale de santé (CNS) a adopté le rapport sur la santé buccodentaire élaboré par un groupe de travail réunissant professionnels, représentants des usagers et des offreurs de services de santé. Voici ce qu’il faut retenir des 44 propositions formulées.
Du 26 au 29 novembre 2024, la première réunion mondiale de l’OMS sur la santé buccodentaire s’est tenue à Bangkok, sous les auspices du gouvernement du Royaume de Thaïlande. Cet événement a rassemblé des délégations de plus de 110 pays ainsi que des hauts responsables représentant des acteurs non étatiques : bailleurs de fonds, organisations de la société civile, personnes touchées par les maladies non transmissibles, universités, organisations philanthropiques et fondations.
Cette réunion a été l’occasion de débattre et réaffirmer l’engagement à soutenir la mise en œuvre du plan d’action mondial pour la santé buccodentaire 2023-2030.
Chaque mardi, le plein d’infos santé : nutrition, bien-être, nouveaux traitements… Abonnez-vous gratuitement dès aujourd’hui.
En France, les derniers rapports officiels sur la santé buccodentaire remontent à 2006 et 2010. Ils concernent principalement des populations ciblées, comme les personnes âgées, les personnes en situation de handicap ou les personnes détenues. Les recommandations de la Haute Autorité de santé (2010) relatives aux « stratégies de prévention de la carie dentaire »
Ce retard est préoccupant, alors même que l’accès aux soins devient de plus en plus difficile, notamment dans les déserts médicaux où les chirurgiens-dentistes se font rares. Dans certains départements, comme l’Indre, la densité en chirurgiens-dentistes est très inférieure à la moyenne nationale : on y recense 36 praticiens pour 100 000 habitants, contre 70 pour 100 000 au niveau national.
Face à ce constat, en juillet 2020, la conférence nationale de santé (CNS), instance consultative de démocratie en santé placée auprès du ministre chargé de la santé, a mis en place un groupe de travail sur le thème de la santé buccodentaire.
Le 7 mai 2024, dans la continuité de la résolution mondiale de la santé de 2023 et du lancement de la stratégie et du plan d’action mondial pour la santé orale 2023–2030, la direction générale de la santé (DGS) demandait que le travail entrepris par la CNS nourrisse sa réflexion en vue de l’élaboration d’une feuille de route « santé buccodentaire ».
Le 7 janvier 2025, le rapport sur la santé buccodentaire, élaboré par un groupe de travail réunissant professionnels, représentants des usagers et offreurs de services de santé, a été adopté par la CNS.
Ce rapport est le fruit de nombreuses auditions d’usagers et de professionnels de la santé buccodentaire. Il documente les angles morts du système de santé français concernant l’accès aux soins et l’organisation du système de santé buccodentaire en général et, plus particulièrement, pour les personnes les plus éloignées du soin.
Parmi les 44 recommandations pour une feuille de route qu’il comporte, les plus emblématiques suggèrent de :
renforcer la taxation des sucres libres/ajoutés et des produits du tabac et des boissons alcooliques pour protéger la santé orale et orienter ces recettes vers la prévention buccodentaire ;
favoriser le déploiement de programmes de prévention et/ou promotion de la santé orale au plus proche des populations ;
maitriser et réduire les dépassements d’honoraires afin de faciliter l’accès aux soins pour tous ;
inscrire le dispositif 100 % santé dans un accès aux soins sans discrimination en ajustant les paniers. En effet, si les assurés bénéficient d’un reste à charge zéro pour plus de la moitié des prothèses dentaires, il n’en reste pas moins que la réforme 100 % santé s’accompagne d’une augmentation des tarifs des complémentaires santé et des mutuelles ;
nommer un délégué interministériel à la santé orale avec sa déclinaison dans toutes les Agences régionales de Santé ;
promouvoir un exercice coordonné des acteurs du système de santé orale et encourager leur insertion au sein des structures de soins primaires ;
accompagner la démocratie en santé et le respect des droits des usagers pour aller vers un changement de paradigme en renforçant la mobilisation des associations dans le pilotage des politiques de santé orale.
Longtemps absente des grands débats de santé publique, la santé buccodentaire pourrait, enfin, trouver sa place au cœur des politiques de santé nationales. L’annonce d’une feuille de route en 2025 marque une avancée significative, visant à réduire les inégalités d’accès aux soins et à renforcer la prévention.
Reste à savoir si ces engagements seront suivis d’effets concrets.
En attendant, la Déclaration de Bangkok met en lumière un enjeu longtemps sous-estimé et constitue un rappel essentiel : « Pas de santé sans santé buccodentaire ».
Emmanuel RUSCH est Président de la Conférence Nationale de santé, membre de la Société française de santé publique et Président de la Fédération régionale des acteurs en promotion de la santé (Région Centre Val de Loire).
Frédéric Denis ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
31.03.2025 à 19:44
Luc Rouban, Directeur de recherche CNRS, Sciences Po
Marine Le Pen a été reconnue coupable de détournement de fonds publics et condamnée à quatre ans de prison et cinq ans d’inéligibilité avec application immédiate. Malgré sa décision de faire appel, cette décision de justice l’élimine probablement de la course à la présidentielle en 2027. Le politiste Luc Rouban nous livre une analyse de ce fait politique majeur. Entretien.
The Conversation : La condamnation de Marine Le Pen à une peine d’inéligibilité avec application immédiate est une surprise et un choc. Certains juristes imaginaient une lourde peine mais doutaient que le juge, sous la pression, aille au bout de la logique d’inéligibilité – pourtant inscrite dans la loi…
Luc Rouban : Oui c’est une surprise et je crois que le RN ne s’attendait pas à cette décision. C’est une forme de revanche de l’État de droit sur un certain style de vie politique qui fonctionnait à l’arrangement, à l’entre-soi pendant des décennies. C’est ce à quoi nous avaient habitués la période chiraquienne et la période mitterrandienne, faites de liaisons dangereuses entre le politique et certains membres de la classe économique. On pense aussi – bien sûr – à l’affaire Nicolas Sarkozy, plus récemment. Nous assistons aujourd’hui à un retournement historique. Marine Le Pen s’attendait sans doute à du sursis, à des peines un peu symboliques. Or cette condamnation n’est pas symbolique du tout. Elle ne s’inscrit plus dans cette vie politique à l’ancienne où l’on « s’arrange ».
Pour la démocratie, ce jugement est-il une bonne chose, avec une juge qui applique la loi sans trembler ? Ou est-ce un problème comme le disent Jordan Bardella, Eric Ciotti, Laurent Wauquiez, Jean-Luc Mélenchon, mais aussi Elon Musk, Viktor Orban, Geert Wilders, Matteo Salvini ou le Kremlin ?
L.R. : Ce jugement représente un effort pour que la démocratie aille mieux. La réaffirmation de l’État de droit est tout à fait indispensable et légitime. Le système démocratique français est très fragilisé, bien plus que dans d’autres pays européens. Le niveau de confiance des citoyens envers la classe politique et dans la justice est très bas, il doit être restauré. Cela passe notamment par le fait que la justice s’applique à des personnalités qui détournent des millions d’euros, et pas uniquement à des caissières de supermarché qui se font licencier et sont poursuivies au pénal pour le vol d’une barre chocolatée. Marine Le Pen condamnée, c’est un progrès indéniable de notre démocratie : c’est le signe que le rapport au politique change, que la politique est devenue une activité professionnelle comme une autre, soumise à des réglementations, à des lois.
Bien sûr, il y aura des attaques concernant la justice, on aura l’argument trumpiste du « gouvernement des juges ». Mais il faut rappeler que le juge n’a fait qu’appliquer la loi. Il faut aussi rappeler que ceux, dont Marine Le Pen, qui critiquent les peines d’inéligibilité avaient applaudi la loi Sapin 2, votée à l’unanimité en 2016 à la suite de l’affaire Cahuzac.
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
Quel est l’avenir de Marine Le Pen et du RN ? Jordan Bardella est-il en capacité de remplacer Marine Le Pen ?
L.R. : Hors scénario incertain d’un jugement favorable en appel avant l’élection présidentielle, Marine Le Pen va certainement céder sa place de candidate du RN à Jordan Bardella. Mais Jordan Bardella est-il capable de remplacer Marine Le Pen ? C’est toute la question.
En interne, ce dernier n’a pas vraiment réussi à s’imposer vraiment au sein du parti, notamment pour renouveler les cadres et structurer le mouvement. Dès que Marine Le Pen s’est absentée – ce qui était le cas après le décès de son père – le parti semblait s’affaisser.
Par ailleurs, Jordan Bardella, c’est le dauphin et l’héritier de Marine Le Pen. Or la « normalisation » du parti pourrait passer par une forme de « délepénisation ». La famille Le Pen a totalement structuré ce parti, qui est très vertical, très organisé autour de sa personne, de son entourage immédiat. Il va y avoir une interrogation sur ce modèle oligarchique et sur cette verticalité, évidemment. Est-ce que Bardella va en faire les frais ? D’autres leaders du RN, comme Sébastien Chenu ou Jean-Philippe Tanguy, qui se sont imposés sur la scène médiatique, peuvent tenter de le devancer dans la course à la présidentielle. Cela supposerait pourtant une rupture avec Marine Le Pen dans un parti où les dissidents sont vite exclus. La probabilité d’une telle contestation reste donc faible.
Quid de Marion Maréchal ? Pourrait-elle prendre la relève ?
L.R. : Je n’y crois pas car elle joue la carte du trumpisme, elle met mal à l’aise au RN. L’électorat RN est trop attaché à la souveraineté de la France, il a évolué vers une forme de droite sociale éloignée du libéralisme pur et dur. L’électorat de Reconquête ! est plus bourgeois, plus âgé, plus diplômé, plus fortuné que celui du RN.
Le RN va-t-il tirer un bénéfice de ce procès ou perdre des électeurs ?
L.R. : Il est possible que certains abstentionnistes dont la sociologie est proche des électeurs du RN expriment leur mécontentement face à la condamnation de Marine Le Pen en choisissant de voter pour le futur candidat du Rassemblement national.
Mais du côté des catégories moyennes diplômées supérieures de droite qui ont voté RN au législatives de 2024, le vote pourrait se reporter sur Les Républicains.
À lire aussi : Droite et extrême droite : quand les idées fusionnent
Par ailleurs, quel que soit le candidat futur du RN, va se poser un problème de soutiens. Pour gagner une élection présidentielle, il faut avoir des appuis dans le monde économique. Or traîner un parti dont les principaux dirigeants ont été condamnés au pénal n’est pas une bonne carte de visite. Au fond, le RN était déjà isolé des élites sociales. Il pourrait l’être encore plus demain.
Comment l’opinion pourrait réagir à cet événement majeur qui prive des millions d’électeurs de leur candidate ? Doit-on s’attendre à des réactions populaires, éventuellement violentes ?
L.R. : Du côté de la société en général, il y aura peut-être des réactions épidermiques pendant un temps, des incidents isolés, mais je ne pense pas qu’il y ait des mouvements de masse comme dans les années 30. Le manque d’enthousiasme pour la vie politique est patent : qui va prendre des risques physiques et s’engager dans des actions violentes pour défendre un parti politique et sa représentante ? Pas grand monde je pense.
Entretien réalisé par David Bornstein.
Luc Rouban ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
31.03.2025 à 16:29
Anne-France de Saint Laurent-Kogan, Professeure des Universités en Sciences de l'Information et de la Communication, Université Rennes 2
Depuis les années 1990, la référence à la créativité s’est propagée aux politiques publiques et au monde de l’entreprise. Citoyens, travailleurs et consommateurs sont enjoints à « libérer leur créativité ». Un discours qui accompagne le projet des nouvelles industries créatives, mais dont il est difficile de saisir les retombées.
De BO&MIE, la « boulangerie créative » française, à HP, la multinationale informatique américaine qui propose de « designer votre créativité », la créativité est devenue le nouveau mantra des discours politiques, marketing et managériaux.
Malgré la difficulté à définir les domaines et emplois associés et donc la portée de ces discours, cette injonction à la créativité continue de circuler. Parce qu’elle « sonne bien » et qu’elle est « joyeuse et colorée », mais aussi suffisamment floue pour englober des enjeux contradictoires, elle accompagne aussi bien le capitalisme contemporain que la quête d’un idéal de réalisation de soi.
Des siècles durant, Dieu seul pouvait créer, l’homme n’étant que son médiateur. Il faut attendre le XXe siècle et le processus de laïcisation de la société pour concevoir que l’individu lui-même puisse faire œuvre de création artistique. La notion de créativité – cette capacité à inventer idées originales et voies nouvelles – est donc très récente. Si la création reste associée au domaine des arts, et garde une part de mystère liée à son origine divine, la créativité peut concerner bien d’autres activités, et relève d’un potentiel au même titre que l’intelligence. Elle est en réalité toujours présente, quelle que soit la nature du travail, pour simplement faire face aux imprévus, par exemple.
La mobilisation de la créativité dans d’autres domaines que les arts et la culture va se faire au service d’une nouvelle industrie, dite « créative », qui viendrait prolonger les industries culturelles. Cette notion d’industries culturelles et créatives (ICC) trouve son origine en Grande-Bretagne au milieu des années 1990, dans un think tank du gouvernement travailliste. La promotion des ICC fut une réponse à la désindustrialisation de grands pans de l’économie, notamment en stimulant le développement de l’économie numérique. Les ICC rassemblent alors tout un ensemble d’activités, comme les jeux vidéo, le design, le tourisme, qui auraient pour ressource la créativité individuelle et qui seraient susceptibles de créer de la valeur et des emplois, car difficilement délocalisables.
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
Soutenue par un acteur clé comme l’Unesco, qui publie en 2012, « Politiques pour la créativité. Guide pour le développement des industries culturelles et créatives », la référence créative se propage dans le cadre des politiques publiques, à l’instar des « quartiers de la création » ou du réseau des « villes créatives ».
Dans les entreprises qui ne relèvent pas des ICC, les stratégies managériales en appellent aussi à la créativité de leurs salariés, car elle est devenue un moyen de produire de la différence dans une économie très concurrentielle. Ces entreprises en font aussi un slogan marketing pour susciter la curiosité des consommateurs, comme Adidas et son slogan « Ici pour créer ». Les entreprises du numérique mobilisent aussi largement cette injonction à la créativité dans leur stratégie commerciale pour inciter les usagers à produire du contenu : la suite Adobe devient « Adobe Creative » ; HP propose de « designer votre créativité ».
Une première critique portée à la notion d’ICC est qu’elle préjuge d’un prolongement naturel des activités qui relèvent des industries culturelles à celles qui relèvent des industries créatives. Les premières rassemblent des filières où la création artistique est au cœur d’un produit, tout en étant engagée dans un processus de reproduction à grande échelle : le livre, la musique, les productions audiovisuelles, les jeux vidéo. Alors que les secondes renvoient à des activités beaucoup plus disparates : design, mode, gastronomie, publicité, architecture, etc., qui ne relèvent pas d’une reproduction industrielle. Les industries créatives rassemblent surtout des activités qui produisent du symbolique (un visuel ou une idée originale), mais pour se greffer à des services et produits qui ne relèvent pas des arts ou de la culture.
Ce prolongement permet de récupérer l’aura des produits culturels pour d’autres produits à valeur utilitaire. Cette greffe d’une dimension symbolique (esthétique, identitaire, etc.) à des produits courants permet d’en augmenter la valeur marchande, pour échapper à la concurrence par les prix imposée par la mondialisation. Des gourdes ou des carnets aux couvertures illustrées par des « créatifs » peuvent ainsi se vendre plus cher.
La référence créative traduit aussi un changement d’échelle. Si l’innovation renvoie à l’organisation, la créativité renvoie à l’individu. Ainsi, dans les rapports institutionnels et discours médiatiques, la promotion des ICC passe par l’enchantement de l’individu « créatif » qui, en freelance, peut se libérer du joug du salariat, aspirer à un meilleur équilibre entre vie privée et vie professionnelle et s’épanouir personnellement par le choix d’une activité où il peut exprimer son « authenticité ».
À lire aussi : Le numérique, source de transformations pour les pratiques culturelles
Cet enchantement participe de « la conversion de l’artiste en créatif », formule qui synthétise les différents objectifs portés par ces discours. L’un d’eux est d’enjoindre les artistes et créateurs à se soumettre aux exigences marchandes, sans opposer mais au contraire en articulant les exigences esthétiques à des exigences entrepreneuriales. Ainsi, de nombreux artistes peuvent à la fois exposer en galerie, réaliser des commandes pour des entreprises et proposer des ateliers d’initiation à leur pratique artistique. Un autre objectif est d’inciter tout individu à devenir créateur ou créatrice de contenus numériques pour le nouvel espace médiatique qu’est le Web. YouTube propose par exemple toute une palette de services en ligne pour accompagner cette conversion.
Comment saisir les retombées de ces discours et politiques publiques annoncées ? Pour ce qui concerne les industries culturelles traditionnelles (édition, musique, cinéma/audiovisuel, jeux vidéo), elles se caractérisent par des écarts de rémunération et de réputation extrêmement importants. Pour quelques artistes auréolés, nombreux sont ceux qui survivent en marge du secteur, dans des conditions d’existence précaires faites d’une succession incertaine de contrats courts.
Si l’on considère dans leur ensemble les ICC, les définitions sont trop vastes pour mener des analyses rigoureuses. De plus, si ces travailleurs sont nombreux, ils sont peu visibles dans les statistiques, car ils opèrent sur différents statuts et exercent souvent plusieurs activités en parallèle.
Une enquête réalisée auprès d’une trentaine de travailleurs indépendants du domaine de la création numérique (infographistes, webdesigners, youtubeurs, vidéastes, illustrateurs) révèle que ces « web créatifs freelances » revendiquent cet idéal romantique de l’artiste libéré des contraintes spatio-temporelles, de la subordination salariale, porteur d’aspirations émancipatrices.
Néanmoins, malgré ces revendications, soumis aux impératifs d’un marché concurrentiel et responsables de leurs succès comme de leurs échecs, ils réactualisent certaines normes et valeurs instituées du travail salarié en entreprise : délimitation des sphères de privée/publique/professionnelle ; stratégies de gestion du temps pour réguler leur « liberté » tout en considérant la temporalité comme mesure de leur production ; espaces voués au seul travail, comme les espaces de coworking. Pour répondre aux exigences paradoxales de l’autoentrepreneur de soi-même – répondre aux exigences du marché tout en cherchant à rester soi-même –, les créatifs étudiés font largement appel à des coachs, à des techniques de développement personnel, voire s’investissent en parallèle dans des activités artistiques, des mouvements associatifs ou politiques s’assurant ainsi la réalisation d’un soi authentique. Sur le temps long, ces exigences paradoxales épuisent certains, qui souhaitent revenir au « confort » du salariat.
La référence créative accompagne donc de nombreux enjeux de nature très différente : réindustrialisation, flexibilité du travail, épanouissement individuel. Jusqu’à quel point ? Faire appel à la créativité pour répondre aussi à la crise climatique ? Il n’y a qu’un pas.
Anne-France de Saint Laurent-Kogan ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
31.03.2025 à 16:27
Aicha El Kharraf, Doctorante en chimie des matériaux et environnement à Géosciences Rennes & Institue des sciences chimiques de Rennes, Université de Rennes
Les plastiques sont partout, de nos océans à nos poumons. Mais contrairement à ce que l’on pourrait croire, ils ne disparaissent jamais vraiment. En se fragmentant, ils deviennent des polluants invisibles, encore plus dangereux pour notre environnement et notre santé.
Les plastiques ont été créés pour être résistants et durables. Chaque année, plus de 12 millions de tonnes de plastique finissent dans les océans ; mais contrairement à ce que l’on pourrait croire, leur disparition ne signifie pas qu’ils cessent d’exister. Au contraire, ils se transforment : en microplastiques, en nanoplastiques, libérant même des gaz toxiques et de nombreux additifs chimiques – les fameux bisphénols ou encore des phtalates.
Ironiquement, c’est ce qui les rend si intéressants pour l’industrie et la société en général qui les rend aussi quasiment indestructibles. En effet, les plastiques sont conçus pour durer. Leur structure chimique, qui repose sur un assemblage de longues chaînes de carbone, les rend particulièrement résistants à la dégradation et à la biodégradation. Contrairement au bois, au papier, aux déchets organiques ou au coton, les polymères plastiques ne sont pas digérables par la plupart des microorganismes comme les bactéries et champignons.
Mais leur résistance ne vient pas uniquement de leur structure : des additifs chimiques, comme des stabilisants UV, qui protègent le plastique contre les UV, ou des retardateurs de flamme, sont ajoutés pour améliorer leurs propriétés et ralentir leur dégradation.
Tous les quinze jours, des grands noms, de nouvelles voix, des sujets inédits pour décrypter l’actualité scientifique et mieux comprendre le monde. Abonnez-vous gratuitement dès aujourd’hui !
Au lieu de disparaître, les plastiques se fragmentent sous l’effet du soleil, des vagues et des frottements avec le sable ou les rochers. Cette décomposition progressive génère des microplastiques (moins de 5 millimètres) et des nanoplastiques (moins de 1 000 nanomètres), invisibles à l’œil nu mais persistent dans l’environnement.
L’exposition aux rayons ultraviolets (UV) casse progressivement les liaisons moléculaires des polymères dans un processus appelé photodégradation. Mais même sous une exposition prolongée, il faut des décennies pour qu’un simple sac plastique commence à se fragmenter. Dans les océans, les courants et les vagues accélèrent la fragmentation des déchets plastiques et favorisent la formation des micro et nanoplastiques.
Nos travaux en cours montrent que ce phénomène va bien au-delà de la simple fragmentation. En laboratoire, nous avons observé que le polyéthylène, exposé aux UV et aux forces mécaniques de l’eau, produit des microplastiques et nanoplastiques à un rythme accéléré. Et une libération importante d’additifs chimiques. Après quelques mois d’exposition, des substances telles que le dioxyde de titane migrent hors du polymère et contaminent l’eau.
Pis, notre étude montre que la photodégradation du polyéthylène produit des gaz à effet de serre, notamment du méthane, CH4 et du dioxyde de carbone, CO2 (de l’ordre de 300 grammes par kilogramme de polyéthylène d’après nos expériences). En d’autres termes, le plastique ne se contente donc pas de polluer : il contribue aussi au changement climatique.
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
Les micro et nanoplastiques, légers et quasi invisibles, voyagent à travers tous les compartiments environnementaux. Dans l’eau, ils sont ingérés par les poissons et les mollusques, entrant ainsi dans la chaîne alimentaire. Dans les sols, ils perturbent la biodiversité et la fertilité des terres agricoles. Dans l’air, ils forment des aérosols transportés par le vent, qui peuvent être inhalés par les humains et la faune. Ils ont même été retrouvés dans la neige des montagnes et les pluies des zones protégées.
Plus préoccupant encore, des microplastiques ont été détectés en 2024 dans l’eau potable, tant en bouteille qu’au robinet. Face à cette situation, le Syndicat des eaux d’Île-de-France envisage par exemple d’installer des filtres membranaires pour tenter de limiter la contamination.
Recycler davantage semble une solution évidente, mais en réalité, seule une fraction des plastiques produits dans le monde est réellement recyclée. La majorité est enfouie, incinérée ou dispersée dans l’environnement.
Les réglementations évoluent, mais restent limitées. En France, la loi Agec de 2020 interdit l’utilisation de microbilles plastiques dans les cosmétiques par exemple ; mais 63,1 % des microplastiques issus de l’usure des pneus et des textiles passent encore entre les mailles du filet.
Réduire la production de tous les types de plastiques est la solution la plus efficace. Aujourd’hui, le recyclage reste limité, notamment à cause des additifs chimiques, dont la composition reste souvent secrète. Cette opacité complique leur réutilisation et réduit la qualité des plastiques recyclés. Il est donc crucial de limiter ces additifs, non seulement pour améliorer le recyclage, mais aussi parce que beaucoup sont toxiques pour l’environnement et se retrouvent dans l’eau, l’air et les organismes vivants.
D’autres pistes existent : développer des matériaux réellement biodégradables, améliorer la filtration des eaux usées en prenant en considération l’ensemble des produits de dégradation des plastiques (micro et nanoparticules), mettre en place des méthodes standardisées pour la quantification des micro et nanoparticules dans l’environnement et explorer le potentiel de certaines bactéries capables de dégrader les plastiques.
À lire aussi : Recyclage et valorisation des déchets plastiques : comment ça marche ?
Mais sans une action forte à la source, cette pollution invisible continuera de s’accumuler. Le plastique n’est pas qu’un simple déchet : c’est un polluant insidieux qui s’infiltre partout, des sols à notre alimentation. Il est encore temps d’agir, mais sans une prise de conscience et des mesures drastiques, cette pollution pourrait bientôt devenir irréversible.
À lire aussi : Pollution plastique : pourquoi ne rien faire nous coûterait bien plus cher que d’agir
Aicha El Kharraf a reçu des financements de CNRS.
31.03.2025 à 16:25
Myriam Benraad, Responsable du Département International Relations and Diplomacy, Schiller International University - Enseignante en relations internationales, Sciences Po
Gaza, Ukraine, Syrie, Soudan… L’Arabie saoudite manœuvre entre Washington, Moscou et Téhéran et s’invite à toutes les négociations internationales. Après des années d’isolement, que cache cette stratégie diplomatique ? Comment le prince héritier Mohammed Ben Salmane est-il parvenu à s’imposer comme un médiateur incontournable, au Moyen-Orient et au-delà ?
Alors que beaucoup pensaient que son image et sa réputation avaient été irrémédiablement ternies par l’assassinat du journaliste Jamal Khashoggi, à Istanbul, en octobre 2018 – dans lequel il ne reconnut jamais de responsabilité directe –, et plus largement par un long passif de violations des droits humains, d’affaires de corruption et de scandales financiers dans son entourage, ainsi que pour son intervention brutale dans la guerre au Yémen, le prince saoudien Mohammed Ben Salmane (MBS), 39 ans, fils de l’actuel roi Salmane et officiellement héritier du royaume depuis 2017, a opéré son grand retour sur la scène régionale et internationale.
Ces dernières années, soucieux de placer le royaume, dont il héritera un jour, mais dont il est d’ores et déjà l’homme fort, au rang de protagoniste clé au Moyen-Orient en tant que médiateur tout trouvé pour le règlement des crises régionales, MBS n’a cessé de densifier ses canaux de communication avec diverses parties en conflit, du Soudan à l’Ukraine, de la Syrie à Gaza. Le tout en appuyant au premier chef la diplomatie américaine et en se gardant de toute critique ouverte à l’égard de la Russie. De « paria », MBS serait-il devenu un interlocuteur incontournable ?
De sa qualité d’hôte des discussions entre Washington et Moscou sur le futur de l’Ukraine jusqu’à son rôle dans la négociation d’un « jour d’après » à Gaza qui permettrait également, en faisant d’une pierre deux coups, de détendre la relation entre les États-Unis et l’Iran, l’Arabie saoudite semble sur tous les fronts.
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
Après un isolement diplomatique entrecoupé de frêles phases de réchauffement, comme lors du premier mandat de Donald Trump (2017-2021), MBS a aujourd’hui pour objectif de peser de tout son poids dans le concert des « grands » de ce monde, s’affichant au service d’une recomposition positive et constructive du Moyen-Orient. Dans un entretien avec la chaîne télévisée américaine Fox News en septembre 2023, il déclarait ainsi :
« Nous avons de nombreuses relations sécuritaires et militaires qui renforcent la position de l’Arabie saoudite. »
Mais cette approche est-elle si nouvelle ? Si l’on ne saurait nier le tournant « global » pris par la diplomatie saoudienne sur une période récente, Riyad a toujours eu pour priorité d’éviter coûte que coûte un embrasement généralisé.
Cette anxiété s’était manifestée au cours des guerres du Golfe, de 1990 et 2003, et a retrouvé une actualité brûlante avec l’implosion du Proche-Orient à la suite des tueries du 7-Octobre en Israël.
Soudain, les espoirs d’une normalisation des rapports d’Israël avec ses voisins, un temps portés par les accords d’Abraham, se sont effrités, tandis que décuplaient les tensions entre Tel-Aviv et Washington au sujet de la situation humanitaire prévalant dans la bande de Gaza.
En outre, la dernière année et demie a été marquée par des échanges de tirs de missiles entre Israël et l’Iran et, depuis le retour de Trump à la Maison Blanche, par des menaces américaines à l’encontre du régime de Téhéran. Et, bien que ce dernier soit traditionnellement un adversaire régional majeur de l’Arabie saoudite, celle-ci redoute le chaos qui pourrait y survenir si la République islamique venait à chuter – tout comme elle redoutait les effets de la guerre d’Irak au tournant du nouveau millénaire.
Dans l’absolu, le royaume, qui reste le premier exportateur mondial d’hydrocarbures, le pays le plus riche du Moyen-Orient et le lieu de naissance de l’islam, a toujours occupé une place géopolitique motrice. Parallèlement à son hard power énergétique s’est développé un soft power qui renforce son aura traditionnelle dans le monde arabe et musulman. Après les attentats du 11-Septembre, l’Arabie saoudite avait de surcroît renforcé sa présence médiatique, avant de se lancer dans l’industrie du sport et du divertissement. Elle devrait ainsi accueillir la Coupe du monde de football de 2034, entre autres initiatives lui permettant de rehausser son capital symbolique et d’asseoir ses intérêts stratégiques.
Derrière cet activisme en politique étrangère qui le réhabilite partiellement auprès du monde extérieur, existe chez MBS un agenda de politique intérieure évident.
Le dirigeant est affairé au renforcement de sa légitimité et de sa puissance par l’imposition d’un projet hypernationaliste dont chaque Saoudien, à domicile comme à l’étranger, représente, en quelque sorte, un « sous-produit ». MBS entend non seulement préserver son régime de toute déstabilisation, mais poursuit par ailleurs une entreprise de restructuration de l’économie en anticipant un déclin des revenus pétroliers au cours des prochaines décennies qui n’équivaut cependant pas à un renoncement à la rente.
Rappelons qu’à son arrivée aux commandes, l’Arabie saoudite s’était engagée dans un colossal plan de développement, baptisé « Vision 2030 », au fondement de cet hypernationalisme destiné à transformer le royaume en un hub commercial de premier plan et à en faire une destination lucrative pour tous les investisseurs internationaux. Dix ans après son lancement, ce projet faramineux, dont il est encore difficile d’apprécier pleinement les réalisations et les bénéfices, ne se résume plus à la seule marque d’un prince jeune et fougueux goûtant pour la première fois au pouvoir, mais constitue un véritable enjeu existentiel.
De fait, MBS voit au-delà d’une simple logique de renégociation des prérogatives entre clans ; il souhaite consolider son autorité pour s’ériger en chef le plus puissant de l’histoire du royaume. C’est bien sur ce point que ses deux stratégies, intérieure et extérieure, convergent : sans une diplomatie proactive, axée autour de la stabilisation du Moyen-Orient, MBS sait qu’il ne pourra accomplir ses desseins internes.
On est loin de la posture agressive qu’il avait adoptée par le passé ; à présent, MBS privilégie une dynamique de désescalade des tensions, avec l’Iran notamment – un début de détente entre ces deux poids lourds régionaux avait pris place en 2023 à travers le rétablissement de relations cassées sept ans plus tôt.
Cette revanche silencieuse aboutira-t-elle aux résultats escomptés ? Est-ce vraiment le commencement d’une « nouvelle ère de la diplomatie saoudienne » rompant avec sa posture de confrontation d’il y a une décennie ?
S’il est manifeste que l’Arabie saoudite tend à redevenir un centre de gravité de la diplomatie arabe et moyen-orientale en accueillant de nombreuses conférences et maints sommets au sein de ses frontières, et en facilitant un dialogue autrement impossible entre des acteurs aliénés, elle fait aussi face à plusieurs limites et défis. Une interrogation porte en particulier sur sa capacité effective à arbitrer des crises à répétition.
Dans le cas du Soudan, l’Arabie saoudite n’est pas un médiateur mais un acteur à part entière du conflit du fait de son appui militaire et financier au camp du général conservateur Abdel Fattah al-Burhan, opposé à Mohammed Hamdan Dogolo. Concernant la Syrie, la visite en février 2025 d’Ahmed al-Charaa, le nouvel homme fort de Damas, n’aura ni permis l’arrêt des violences sur le terrain ni abouti à des initiatives pérennes pour la reconstruction de ce pays ravagé par la guerre. Quant à Gaza, le rejet de la proposition de Donald Trump d’une prise de contrôle de l’enclave méditerranéenne ne s’est pas traduit non plus par une énonciation claire des modalités de l’aide que Riyad pourrait apporter aux Palestiniens.
Il faudra donc s’armer de patience pour juger du caractère performatif – ou non – des promesses faites par MBS quant à l’avenir d’un Moyen-Orient actuellement en pleine tourmente.
Myriam Benraad ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
31.03.2025 à 16:22
Bruno Poucet, Professeur émérite des universités en histoire de l'éducation, CAREF, Université de Picardie Jules Verne (UPJV)
Le scandale de Bétharram soulève la question du contrôle des établissements privés sous contrat. Que disent les textes ? Et sont-ils appliqués ? Que vont changer les annonces du ministère de l’éducation ?
À Lestelle-Bétharram, derrière les murs de l’imposant établissement scolaire Le Beau Rameau, à la réputation bien établie, que se passe-t-il pour que plus de 150 plaintes aient été déposées auprès du procureur de la République pour violence et viol ?
Depuis que la parole s’est libérée parmi les anciens élèves de l’école, collège et lycée du Béarn, les révélations de faits de violences se multiplient dans d’autres établissements privés, aux quatre coins de la France, posant la question du contrôle des établissements privés sous contrat.
On considérera seulement les établissements catholiques, les plus nombreux (96 % des élèves scolarisés dans le privé). Que dit la règlementation de leur contrôle ? Qu’en est-il réellement sur le terrain ?
Dans les établissements sous contrat, il faut distinguer trois ordres de réglementation, et donc de contrôle. Certains de ces contrôles concernent l’ensemble des établissements privés : ils sont définis par les lois Falloux (1850) et les lois Goblet (1886) complétées en 2018 et 2021 (article 441-1, 2, 3 du Code de l’éducation).
Il existe un contrôle lors de la création ou des modifications apportées à l’organisation de l’établissement : c’est la déclaration d’ouverture. Celle-ci doit être adressée par le futur directeur à l’administration de l’éducation nationale : elle en accuse réception et transmet la demande, au maire, au préfet et au procureur de la République.
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
Après contrôle du dossier, l’une ou l’autre de ces autorités peut s’opposer à l’ouverture, dans un délai maximum de trois mois. Un refus est motivé selon les critères suivants : intérêt de l’ordre public ou de la protection de l’enfance et de la jeunesse, non-respect des conditions prévues par la personne qui ouvre l’établissement (nationalité, diplômes, casier judiciaire vierge, âge des enfants concernés, respect du socle commun des connaissances, diplômes préparés, plan des locaux, conditions sanitaires, harcèlement scolaire), établissement n’ayant pas le caractère d’un établissement scolaire ou technique, ingérence étrangère.
Par ailleurs, tous les ans, l’établissement doit fournir la liste des enseignants et leurs titres et, à la demande des autorités, les documents budgétaires. Des contrôles pédagogiques sont organisés afin de voir si les exigences de la scolarité obligatoire sont remplies.
Si aucune déclaration d’ouverture n’a été faite ou si les délais n’ont pas été respectés, il s’agit dans ce cas d’une école clandestine : le préfet ordonne sa fermeture immédiate, après avis de l’autorité compétente en matière scolaire. Quant à celui qui ouvre illégalement une école, une peine de prison d’un an peut être prononcée ainsi qu’une amende de 15 000 euros et l’interdiction de diriger ou d’enseigner dans un établissement pendant cinq ans ou à titre définitif.
En cas de refus d’ouverture par l’autorité compétente, le déclarant peut faire appel devant la formation contentieuse du Conseil supérieur de l’éducation nationale et saisir les tribunaux.
Sous contrat, la législation est plus contraignante et complète celle qui régit tout établissement privé. Il y a un contrôle administratif de l’État en matière de respect de la liberté de conscience et d’accueil de tous les élèves, de discrimination en matière religieuse, sociale ou ethnique.
Le passage sous contrat suppose un contrôle du respect des programmes de l’enseignement public. Les enseignants sont de droit public : nommés par le recteur, ils sont soumis aux mêmes contrôles pédagogiques que dans l’enseignement public. En revanche, les activités extérieures au contrat sont librement organisées par l’établissement (vie scolaire, internat, exercices religieux) sous réserve de respecter les principes essentiels de la liberté de conscience et de non-discrimination.
L’autorité rectorale doit être informée en cas de violence, de harcèlement, d’actes humiliants, d’atteintes sexuelles. Un signalement doit être effectué en cas de doute auprès du procureur de la République par tout membre de la communauté éducative afin qu’une enquête soit diligentée.
À lire aussi : Enseignement privé : près de 18 % des élèves français et une grande diversité d’établissements
Les collectivités compétentes siègent aux conseils d’administration des établissements concernés pour tout ce qui concerne les questions budgétaires et exercent ainsi un contrôle sur l’utilisation des fonds. Une commission académique examine les demandes de contrat ou de leur résiliation par l’autorité académique, elle peut se prononcer sur l’utilisation des fonds publics, la mixité sociale.
Qui peut contrôler un établissement sous contrat ? L’ensemble des inspecteurs de l’éducation nationale, les membres du conseil départemental (hors enseignants), le maire, les délégués, la Cour des comptes, l’inspection générale des finances (IGF) ou les centres des finances publiques.
On le voit : les possibilités de contrôle sont nombreuses et variées : administratif, pédagogique et financier. De plus, les établissements catholiques étant à caractère propre, le droit de l’Église catholique intervient également.
Le chef d’établissement lorsqu’il est laïque, et à plus forte raison dans les rares cas où il est religieux, est l’objet d’un contrôle. En effet, le Code de droit canonique, promulgué en 1983 par Jean-Paul II, précise que, dans les cas les plus graves, tels que les atteintes sexuelles contre des mineurs de moins de 16 ans, ou des actes de violence, un clerc peut, après jugement, être renvoyé de l’état clérical (canon 1395). Les laïcs peuvent aussi être condamnés et privés de leurs fonctions, si nécessaire.
Par ailleurs, la constitution apostolique « Pascite gregem Dei », promulguée le 23 mai 2021 par le pape François, renforce le contrôle en considérant ces atteintes comme des délits contre la vie, la dignité et la liberté humaine et ajoute à la liste le détournement de mineur ou la possession et l’exhibition d’images pornographiques commis par des clercs sur des mineurs (canon 1398).
Ajoutons que le statut de l’enseignement catholique de 2013 précise quelles sont les instances de contrôle interne dans la mesure où « l’école catholique est attachée au respect de la personne et à la liberté de conscience » (articles 35 à 37).
L’instance de contrôle s’appelle l’autorité de tutelle : elle est exercée par le directeur diocésain ou le supérieur d’un ordre religieux ou leurs délégués. Elle doit visiter les établissements régulièrement et établir un rapport. Sous la responsabilité de l’évêque du lieu, elle contrôle l’action du chef d’établissement et peut proposer son licenciement en cas de faute grave. Elle doit prêter attention au climat relationnel de l’établissement, à la mise en œuvre du projet pédagogique (articles 178 à 180). La tutelle siège de droit au conseil d’administration de l’établissement.
Force est de constater que la loi et l’organisation interne de l’enseignement catholique prévoient bien une série de contrôles et ont créé des structures pour ce faire. Or, nombre d’établissements privés sous contrat ont connu des situations répréhensibles : comment expliquer de telles dérives ?
Il faut d’abord se rappeler combien en tous domaines, et pas seulement dans les institutions catholiques sous contrat, le silence régnait sur de telles affaires jusque dans les années 2000 : les contrôles rectoraux étaient peu nombreux, faute de personnels en nombre suffisant, comme l’a fait remarquer la Cour des comptes dans un rapport de juin 2023.
La volonté politique n’était pas non plus au rendez-vous. Pour les autorités religieuses, et les familles, il fallait garder le silence pour des raisons de réputation. Au mieux, on déplaçait la personne, les élèves n’en parlaient pas aux parents. Qu’une certaine violence règne dans un établissement scolaire était, au fond admis par les parents, surtout lorsque les résultats scolaires étaient à la hauteur : il s’agissait de dresser, de soumettre des jeunes parfois rebelles.
C’est à partir des années 1990 que la violence à l’école n’est plus admise (circulaire du 6 juin 1991 pour le primaire et circulaire du 3 septembre 2019 pour le secondaire). C’est encore plus récemment dans les années 2010 que les agressions sexuelles sont dénoncées dans l’ensemble des institutions.
L’administration de l’éducation nationale, suite aux débats provoqués par les récentes affaires, a compris que la situation ne pouvait plus durer et a mis à la disposition des rectorats 60 équivalents temps plein pour effectuer ces contrôles sur pièces ou sur place y compris sur le climat scolaire et l’absence de maltraitance. Un guide pratique a été rédigé. Une commission parlementaire a été créée sur les violences scolaires et a commencé ses auditions.
Bruno Poucet ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
31.03.2025 à 16:21
Bernard Laurent, Professeur, EM Lyon Business School
« Laudato si » (2015) est la plus célèbre des encycliques du pape François. Volontairement écologiste, elle remet l’Église et la Terre au centre du village. Que nous dit-elle de la vision de l’Église catholique et de ce pape politique ?
Il y a dix ans, le 24 mai 2015, le pape François rendait publique « Laudato si », de l’italien médiéval « Loué sois-tu », une encyclique qui ne donnait pas dans la demi-mesure. Ce texte surprit plus d’un catholique par ses constats sans concessions et son appel à une transformation en profondeur de nos modes de vie. Elle unissait toutefois, si nous en tenons à la France, les courants conservateurs – courant pour une écologie humaine, créée en 2013 – et des intellectuels catholiques ouverts, comme le jésuite Gaël Giraud, auteur de Produire plus, polluer moins : l’impossible découplage ?.
Le pape se plaçait dans la continuité de ses prédécesseurs. Paul VI, Jean-Paul II ou Benoît XVI s’inquiétaient avant lui des effets dramatiques d’une exploitation abusive de la nature sur l’humanité :
« Une exploitation inconsidérée de la nature de l’être humain risque de la détruire et d’être à son tour la victime de cette dégradation. »
Quels sont les enseignements de cette encyclique ? Que nous dit-elle de la vision de l’Église catholique ? Et du pape François ?
Le pape François dresse le constat d’un environnement particulièrement dégradé :
« La pollution […] affecte tout le monde, [elle est] due aux moyens de transport, aux fumées de l’industrie, aux dépôts de substances qui contribuent à l’acidification du sol et de l’eau, aux fertilisants, insecticides, fongicides, désherbants et agrochimiques toxiques en général. » (§-20.)
Le pape vert publie l’encyclique « Laudato si», en juin 2015, quelques mois avant la conférence de Paris sur le climat. L’objectif : sensibiliser l’opinion publique aux enjeux de réchauffement climatique, en créant une approche relationnelle entre Dieu, l’être humain et la Terre. C’est la première fois qu’une encyclique est entièrement consacrée à l’écologie.
Il s’inquiétait des effets du réchauffement climatique :
« À son tour, le réchauffement a des effets sur le cycle du carbone. Il crée un cercle vicieux qui aggrave encore plus la situation. Il affectera la disponibilité de ressources indispensables telles que l’eau potable, l’énergie ainsi que la production agricole des zones les plus chaudes et provoquera l’extinction d’une partie de la biodiversité de la planète. » (§-24.)
Depuis « Rerum novarum », du pape Léon XIII, les différentes encycliques sociales n’ont cessé de rejeter l’idée libérale d’une société régulée par le seul bon fonctionnement du marché. Le sociologue des religions Émile Poulat résumait parfaitement la position de l’Église en 1977 dans son livre Église contre bourgeoisie. Introduction au devenir du catholicisme actuel : « Elle n’a jamais accepté d’abandonner la marche du monde aux lois aveugles de l’économie. »
En 2015, le pape François rejetait les solutions techniques qui ne seraient que cautère sur une jambe de bois, tout comme la croyance aux vertus salvatrices du marché autorégulé. Il accuse « le paradigme technocratique » de dominer l’homme en subordonnant à sa logique l’économique et le politique (§-101). Des accents qui rappellent le philosophe français protestant Jacques Ellul, injustement oublié, et son idée d’« autopropulsivité » de la technique, sans limites, qui est placée en alpha et oméga de nos sociétés.
La charge contre les vertus supposées du marché était spectaculaire. Le pape stigmatise notamment :
« Étant donné que le marché tend à créer un mécanisme consumériste compulsif pour placer ses produits, les personnes finissent par être submergées, dans une spirale d’achats et de dépenses inutiles. » (§-203.) ;
« Dans certains cercles, on soutient que l’économie actuelle et la technologie résoudront tous les problèmes environnementaux. » (§-109.) ;
« La politique ne doit pas se soumettre à l’économie et celle-ci ne doit pas se soumettre aux diktats ni au paradigme d’efficacité de la technocratie. » (§-189.) ;
« Les plus pauvres sont les premières victimes : de fait, la détérioration de l’environnement et celle de la société affectent d’une manière spéciale la plus faible de la planète. » (§-48.) ;
Le pape François lie très étroitement sauvegarde de la planète et justice sociale. Il s’inscrit dans la lignée des travaux de l’économiste dominicain Louis-Joseph Lebret, fondateur en 1941 de l’association Économie et humanisme (E&H). Le père Lebret souhaitait remettre l’économie au service de l’homme et travailler sur les pays les moins avancés économiquement en défendant les vertus des communautés et de l’aménagement du territoire.
Quant au pape François, il souhaite une rupture radicale de nos modes de vie consuméristes dans les pays riches, en pensant le développement des pays les plus pauvres (§-93). Les réactions des pays développés lui paraissaient insuffisantes à cause des intérêts économiques en jeu, ajoutait-il (§-54).
Nous retrouvons là le principe de la destination universelle des biens, qui est le principe organisateur de la propriété défendu par la doctrine sociale de l’Église. Il commande de se soucier d’une répartition des biens permettant à chaque être humain de vivre dans la dignité.
À lire aussi : Pape François vs. J. D. Vance : fracture au sein du monde catholique
Au-delà des mesures techniques nécessaires et des pratiques individuelles sobres, le pape François invite les citoyens des pays développés à ne pas se contenter de demi-mesures largement insuffisantes. Au contraire, il pousse à changer nos modes de vie dans une logique de décroissance. Le but : permettre aux pays en voie de développement de sortir de la pauvreté, tout en ménageant l’environnement.
« Face à l’accroissement vorace et irresponsable produit durant de nombreuses décennies, il faudra penser aussi à marquer une pause en mettant certaines limites raisonnables, voire à retourner en arrière, avant qu’il ne soit trop tard. […] C’est pourquoi l’heure est venue d’accepter une certaine décroissance, mettant à disposition des ressources pour une saine croissance en d’autres parties. » (§-193.)
Dix ans plus tard, le texte raisonne pleinement avec nos préoccupations. Nous pourrions suggérer aux très catholiques vice-président J. D. Vance et secrétaire d’État Marco Rubio des États-Unis de relire cette encyclique.
Bernard Laurent est adhérent à la CFTC Membre du Conseil Scientifique de l'IRES
31.03.2025 à 15:42
Mathis Navard, Docteur en Sciences de l'information et communication (ISI), Université de Poitiers, IAE de Poitiers
Alors qu’il est un allié incontournable de la lutte contre le changement climatique, le transport ferroviaire est aussi victime de ses effets. Les incidents liés aux aléas climatiques se multiplient, mais la France tarde à agir.
Ce lundi 31 mars, les voyageurs pourront de nouveau traverser en train la frontière franco-italienne. Depuis un an et demi, la ligne Paris-Milan était interrompue en raison d’un impressionnant éboulement survenu sur ses voies en août 2023. Loin d’être un événement isolé, ce type d’incidents se multiplie au fur et à mesure que les effets du réchauffement climatique s’intensifient.
Face à cette situation, il est urgent que l’ensemble des acteurs de la filière ferroviaire (entreprises, collectivités, États…) se mobilise pour adapter les infrastructures à des conditions climatiques de plus en plus imprévisibles et violentes. Et ce, à une période où le nombre de voyageurs ne cesse de croître.
Si certains pays européens se sont déjà engagés dans cette voie, la France tarde à passer à l’action.
La situation est d’autant plus paradoxale que le train constitue un levier important dans la lutte contre le changement climatique. Un trajet en train émet en moyenne 95 % de CO₂ en moins que lorsqu’il est effectué en voiture. Le ferroviaire est donc un incontournable de la décarbonation des mobilités.
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
Un enjeu majeur, puisque le secteur des transports demeure le premier contributeur aux émissions françaises de gaz à effet de serre, comptant pour 30 % du total national. Il est l’un des rares domaines dont ce chiffre ne diminue pas. Plus inquiétant, sa tendance est même à la hausse depuis trois décennies.
Les voyageurs ne s’y trompent pas. Selon une étude réalisée en 2023 pour la SNCF, 63 % d’entre eux disent prendre le train par conviction écologique. Une autre enquête, ayant sondé une plus large partie de la population française, nous apprend que 83 % des répondants reconnaissent les bénéfices écologiques de ce mode de transport.
Chaque année, le trafic ferroviaire de voyageurs bat des records dans notre pays. Selon l’Autorité de régulation des transports, il a progressé de 21 % pour les trains du quotidien et de 6 % pour l’offre à grande vitesse entre 2019 et 2023.
A contrario, le transport de marchandises poursuit son inexorable chute, -17 % en un an.
Plusieurs raisons expliquent cette forte rétractation des services ferroviaires de fret : hausse des coûts de l’énergie, mouvements sociaux… et éboulement sur la ligne Paris-Milan.
Le trafic de voyageurs est lui aussi de plus en plus impacté par des conditions météorologiques toujours plus extrêmes. Interruption totale des circulations en janvier 2025 en raison des inondations en Ille-et-Vilaine, déraillement d’un TER à cause d’une coulée de boue en juillet 2024 dans les Pyrénées-Orientales suivi des deux accidents similaires en octobre en Lozère puis dans l’Aisne… Les exemples ne manquent pas dans l’actualité récente.
Si des aléas de ce type ont toujours existé, leur fréquence et leur intensité augmentent avec l’amplification du changement climatique. Quelle que soit la trajectoire des scénarios du GIEC empruntée, nous savons que cette tendance se poursuivra dans les décennies à venir, de façon plus ou moins marquée en fonction de la vitesse de la réduction de nos émissions de gaz à effet de serre. Les intempéries pourraient ainsi multiplier de 8 à 11 fois les perturbations ferroviaires d’ici à 2100.
Les risques portant sur le réseau sont multiples et concernent à la fois les voies, les télécommunications, les ouvrages et l’alimentation électrique. Parmi les principales menaces, citons la déformation des voies en raison de fortes chaleurs, la déstabilisation des sols provoquée par des cycles de gel-dégel ou de fortes pluies ainsi que d’importants dégâts causés par des incendies et des tempêtes.
La SNCF et ses 27 000 kilomètres de lignes se retrouvent en première ligne face à ces catastrophes. Bien que variable d’une année à l’autre, leur coût direct est estimé annuellement entre 20 millions et 30 millions d’euros.
Un document stratégique d’une trentaine de pages a été publié par SNCF Réseau l’an dernier. Il projette une adaptation à un réchauffement moyen pouvant atteindre +4 °C à l’horizon 2100. Cette feuille de route a été élaborée en collaboration avec Météo France, avec qui la SNCF se met systématiquement en lien en cas d’alertes météorologiques.
L’échange de données est également au cœur de cette stratégie. Un outil d’alerte baptisé Toutatis a par exemple été conçu pour surveiller les voies en cas de fortes pluies. Son homologue Predict anticipe quant à lui les risques de crues dès que certains seuils pluviométriques sont atteints.
Pas de quoi pour autant convaincre la Cour des comptes qui, en 2024, a alerté la SNCF sur l’absence d’un plan d’adaptation structuré intégrant le climat futur. Le rapport souligne également le manque d’informations sur les coûts climatiques.
La juridiction rejoint l’Autorité de régulation des transports sur le sous-investissement chronique dont est victime le réseau français, ce qui renforce mécaniquement sa vulnérabilité. Un milliard d’euros serait encore manquant pour en stabiliser l’état, et ce, alors que son âge moyen est toujours de 28,4 ans.
Déjà en 2019, une équipe de chercheurs avait mené une étude de cas à ce sujet. Leurs résultats mettaient en lumière un important décalage entre les discours de la SNCF et la faible intégration des connaissances scientifiques dans sa gestion ferroviaire. Elle se ferait encore de façon incrémentale, sans transformations profondes, et à partir d’expériences passées plutôt que des projections climatiques futures.
Les inspirations d’adaptation venues de nos voisins européens ne manquent pourtant pas. En Belgique et en Italie, les rails sont par exemple peints en blanc afin de limiter l’accumulation de chaleur et, in fine, leur dilatation.
La Suisse propose une solution alternative en refroidissant les rails avec un véhicule-citerne en cas de fortes chaleurs. La Confédération helvétique ainsi que l’Autriche (avec laquelle elle partage un relief accidenté) se sont engagées dans une démarche d’atténuation visant à davantage protéger les lignes des avalanches et des glissements de terrain tout en améliorant les systèmes de drainage. Cela passe notamment par le renforcement des forêts – un véritable bouclier protecteur – et des ouvrages existants.
Autant de choix politiques structurants qui ont été réalisés dans des pays où l’investissement en faveur du ferroviaire est de 2 à 9 fois plus important qu’en France. Il est donc plus que jamais nécessaire de s’engager dès à présent dans une stratégie d’adaptation plus systémique.
C’est tout l’objet d’un projet européen baptisé Rail4EARTH. Il fait le pari de l’innovation et de la rapidité d’action. Mais le chemin à parcourir est encore long pour que cette ambition se traduise en véritable feuille de route opérationnelle à l’échelle de notre continent.
L’application des données climatiques – actuelles comme futures – au secteur du ferroviaire demeure imparfaite. Le développement d’une gouvernance intégrant des experts en climatologie est souhaité par la SNCF, qui fait partie des partenaires de ce projet.
Il y a urgence à agir. Comme l’a démontré une étude britannique, l’adaptation des infrastructures ferroviaires aux différents scénarios du GIEC est souvent surestimée. Elles sont donc plus vulnérables que ce que les projections laissent penser.
Une raison de plus, s’il en fallait une, pour s’engager dès à présent dans un plan d’action à l’échelle européenne afin de continuer à faire du train un levier majeur de décarbonation de nos déplacements dans un monde qui ne cesse de se réchauffer.
Mathis Navard ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
31.03.2025 à 11:59
Marie-Christine Lichtlé, Professeur des Universités, Co-Responsable de la Chaire MARÉSON, Université de Montpellier
Anne Mione, Professeur de marketing stratégique, management de la qualité et stratégie, Université de Montpellier
Béatrice Siadou-Martin, Professeur des universités en sciences de gestion, Co-responsable de la Chaire MARESON, Université de Montpellier
Jean-Marc Ferrandi, Professeur Marketing et Innovation à Oniris, Université de Nantes, Co-fondateur de la Chaire MARÉSON, Nantes Université
De nouvelles pousses entrepreneuriales émergent pour valoriser des déchets comestibles en biscuits apéritifs ou plats préparés. Une étude menée auprès de 941 consommateurs français questionne l’acceptabilité de cet upcycling alimentaire.
Les entreprises proposant de l’upcycling alimentaire, surcyclage ou valorisation ont le vent en poupe. Hubcycled produit de la farine à partir de lait de soja ou arôme à base de pépins de fraises, la biscuiterie Ouro valorise de la drêche en biscuits apéritifs ou In Extremis valorise des pains invendus en boulangerie dans une proposition de biscuits apéritifs.
« L’upcycling alimentaire est défini comme un aliment dont au moins un des ingrédients serait soit un coproduit ou un résidu de la fabrication d’un autre produit (drêche pour la bière), soit un produit invendu (pain), soit un ingrédient qui était précédemment considéré comme un déchet et/ou gaspillé dans la chaîne d’approvisionnement. »
En raison des coûts liés à la collecte de ces déchets ou invendus et de ceux liés à leur transformation, le prix de vente de ces produits upcyclés est plus élevé que celui des offres traditionnelles. Mais, qu’en est-il de l’acceptabilité de ces produits par le consommateur ? Est-il prêt à consentir ce sacrifice monétaire pour se tourner vers une offre alimentaire durable ? Ce modèle de niche peut-il devenir un business model soutenable ? Telles sont les questions auxquelles nous répondons dans une recherche menée auprès de 941 consommateurs.
En 2021, 8,8 millions de tonnes de déchets alimentaires ont été produits en France. Parmi ces déchets, 4,3 millions de tonnes sont comestibles – aliments non consommés encore emballés, restes de repas, etc. Pour encourager les entreprises dans la transition écologique de leurs modèles de production, le gouvernement a voté en 2020 la loi antigaspillage pour une économie circulaire (Agec). Car l’industrie agroalimentaire est confrontée à des enjeux importants : assurer la sécurité alimentaire, proposer une offre durable, limiter le gaspillage alimentaire à tous les niveaux que ce soit la production, la distribution ou la consommation.
Notre objectif est de mesurer l’acceptabilité des produits upcyclés et d’identifier les attributs susceptibles d’accroître cette acceptabilité – selon qu’ils portent sur l’entreprise, sur la qualité du produit ou du processus de fabrication.
Abonnez-vous dès aujourd’hui !
Chaque lundi, des informations utiles pour votre carrière et tout ce qui concerne la vie de l’entreprise (stratégie, RH marketing, finance…).
Pour mesurer l’acceptabilité des consommateurs vis-à-vis de ces produits upcyclés, notre recherche s’appuie sur une expérimentation menée auprès de 941 consommateurs. Après avoir pris connaissance d’une offre de biscuits apéritifs – prix, poids, visuel du produit, libellés –, ces derniers ont été interrogés à quatre reprises. Les données collectées permettent d’apprécier la réponse comportementale du consommateur, appréhendée par l’attitude envers le produit et le consentement à payer dans un premier temps avec une présentation minimale de l’offre.
Des informations sont également fournies et communiquent sur trois bénéfices potentiels différents : la démarche vertueuse de l’entreprise, la qualité gustative et la qualité processuelle des biscuits.
Notre recherche a trois enseignements principaux. Le premier concerne le consentement à payer. En moyenne, les consommateurs indiquent un consentement à payer de 1,96 euro. Ce prix est bien supérieur au prix de référence du marché (le leader du marché propose le produit à 0,90 euro). Il reste cependant inférieur au coût réel de cette offre ou des offres qualitatives (certaines marques bio sont vendues à plus de 3 euros).
Deuxièmement, l’ajout d’un argument, peu importe sa nature, permet d’améliorer la valeur créée. Le consommateur est alors prêt à payer en moyenne 2,15 euros au lieu de 1,96 euro (soit un gain d’environ 10 %). Cependant, l’ajout d’un ou de deux arguments supplémentaires n’améliore pas le consentement à payer.
Ce nouveau produit n’est pas accepté de la même manière selon tous les consommateurs ; cela justifie la mise en œuvre d’une approche différenciée. En effet, la distance psychologique influence la perception et la représentation du produit upcyclé. Elle est définie par la théorie du niveau de construit comme une expérience subjective associée au degré de proximité ou de distance qu’un individu éprouve à l’égard d’un objet, ici le biscuit. Nous montrons que la distance psychologique explique l’attitude envers le produit et le consentement à payer. Autrement dit, les consommateurs les moins distants du biscuit ont un consentement à payer supérieur à celui des personnes distantes et ont l’attitude la plus favorable. Inversement, les plus distants envers le biscuit ont le consentement à payer le plus faible et l’attitude la plus défavorable.
Cette recherche suggère ainsi des pistes pour améliorer la durabilité de ce business model. En termes de communication, il est important pour les entreprises évoluant sur ce marché d’ajouter un avantage cohérent avec le caractère upcyclé et de communiquer sur celui-ci. Cette communication a pour objectif de renforcer la crédibilité des entreprises sur ce marché. Elle doit s’appuyer sur des arguments concrets afin de réduire la distance psychologique.
Il est inutile de démultiplier les avantages, car ces efforts de communication n’améliorent pas nécessairement le consentement à payer et l’attitude. Ce résultat est convergent avec les effets limités montrés par la multilabellisation des produits alimentaires. Les études montrent qu’avoir plusieurs labels ou certifications n’améliorent pas le consentement à payer pour des produits alimentaires tels que le miel.
Les entreprises doivent clairement s’adresser aux consommateurs sensibles au gaspillage alimentaire et se positionner sur ce marché de niche avant de pouvoir espérer atteindre l’ensemble des consommateurs. Cette segmentation permet d’offrir des pédagogies différenciées adaptées aux différents publics pour réduire leur distance psychologique vis-à-vis des biscuits et… les convaincre d’acheter ce produit avec un consentement à payer plus élevé.
Marie Eppe, fondatrice d’In Extremis, a participé à la réalisation de cette contribution.
Béatrice Siadou-Martin a reçu des financements de l'ADEME et de la Région Pays de la Loire (programme IP-AG).
Jean-Marc Ferrandi a reçu des financements de l'ADEME et de la Région Pays de la Loire (programme IP-AG)
Anne Mione et Marie-Christine Lichtlé ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur poste universitaire.
31.03.2025 à 11:59
Kamel Si Mohammed, researcher, Université de Lorraine
Vanessa Serret, Professor, IAE Metz School of Management – Université de Lorraine
Emprunt émis sur les marchés financiers par un État ou une entreprise pour financer des projets liés spécifiquement à l’environnement, les obligations vertes sont entre deux eaux. D’un côté, les velléités de Donald Trump de mettre fin aux politiques climatiques. De l’autre, un boom de ce marché avec 530 milliards de dollars d’émissions en 2024.
Avec l’élection de Donald Trump, les acteurs de la finance verte grincent des dents. Le président américain a fait réagir en décidant de sortir de l’accord de Paris. Entre 8 100 et 9 000 milliards de dollars par an jusqu’en 2030. C’est l’argent qu’il faudrait mobiliser pour atteindre les objectifs climatiques mondiaux selon le Climate Policy Initiative. Pour lever ces sommes colossales, les gouvernements et les entreprises se tournent de plus en plus vers les obligations vertes.
Dans une étude sur les États-Unis de 2008 à 2022, nous explorons la manière dont ces obligations contribuent à la réduction des risques climatiques. À l’instar des obligations classiques, les obligations vertes sont des emprunts – et donc des dettes – émis sur le marché par des États ou des entreprises. Ces obligations vertes sont destinées uniquement à financer des activités écologiques. Avec quels résultats ?
Les États-Unis, après avoir réintégré l’Accord de Paris en 2021, se sont fixés des objectifs ambitieux : réduire de 50 à 52 % leurs émissions de gaz à effet de serre d’ici 2030 par rapport au niveau de 2005. Pour atteindre ces objectifs, le pays mise sur la finance verte, notamment via les obligations vertes.
Dès 2020, les États-Unis ont été le plus grand émetteur mondial d’obligations vertes, avec 51,1 milliards de dollars émis selon la Climate Bonds Initiative. Cette tendance s’est poursuivie, atteignant 550 milliards de dollars en 2024, se rapprochant du record de 588 milliards de dollars établi en 2021. Fannie Mae, organisme spécialisé dans la garantie des prêts immobiliers, a été un pionnier des obligations vertes.
Apple a émis sa première obligation verte en 2016, avec un montant de 1,5 milliard de dollars, établissant ainsi un jalon important dans le secteur de la finance durable pour une entreprise technologique. Après une légère baisse en 2017, les émissions ont augmenté à partir de 2019, atteignant 4,5 milliards de dollars en 2024.
Notre étude sur le marché américain analyse la période de 2008 à 2022. Elle prend en compte plusieurs événements majeurs, tels que la signature de l’accord de Paris, mais aussi des crises économiques comme la crise financière de 2008 et la pandémie de Covid-19. Les chocs économiques – comme la crise de 2008 ou la guerre en Ukraine – augmentent l’incertitude. Elles rendent les obligations vertes plus attractives en tant que valeurs refuges. Plus l’incertitude économique est élevée, plus les obligations vertes démontrent leur résilience en réduisant les risques climatiques.
Un point clé de cette recherche est l’impact de l’incertitude économique sur les obligations vertes. Pour mesurer cela, nous avons utilisé l’indice d’incertitude politique économique, ou Economic Policy Uncertainty (EPU), ainsi que l’indice des sommets climatiques, ou Climate Summit Index (CSI). Ces indices reflètent la manière dont les événements politiques et les engagements climatiques influencent les marchés financiers.
Les résultats économétriques montrent que les obligations vertes jouent un rôle crucial dans la réduction des risques climatiques. Toutefois, l’efficacité de ces obligations est à nuancer. Par exemple, lorsque les engagements politiques en faveur du climat sont faibles, l’impact des obligations vertes s’avère plus limité.
Pour mener cette analyse, nous avons utilisé la méthode statistique appelée régression quantile-surquantile multivariée. Cette méthodologie permet de mesurer l’impact des obligations qui peut être asymétrique selon une période de faible ou de forte incertitude économique. Ils permettent d’étudier la relation dynamique entre les obligations vertes et les risques climatiques selon différents scénarios de marché.
Nos résultats montrent que lorsque le marché des obligations vertes est encore peu développé, leur capacité à réduire les risques climatiques est plus limitée. Cependant, au fur et à mesure que le marché des obligations vertes se développe, leur impact positif sur la réduction des risques climatiques devient plus prononcé. Autrement dit une plus grande émission d’obligations vertes est associée à une baisse significative des risques climatiques.
L’efficacité des obligations vertes dépend des politiques climatiques mises en place lors des sommets internationaux mesurés par l’indice de sommet climatique. Nous avons constaté que les engagements pris lors de ces sommets influencent directement le marché des obligations vertes. Lorsque les gouvernements prennent des mesures strictes pour réduire les émissions de carbone, la demande pour ces obligations augmente, ce qui renforce leur impact positif sur la réduction des risques climatiques.
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
Notre étude montre que l’indice de risque climatique diminue d’environ 16 %, lorsque l’émission d’obligations vertes est très élevée, illustrant leur effet significatif dans l’atténuation du risque climatique. Cependant, lorsque l’indice des sommets climatiques est faible, l’effet des obligations vertes sur la réduction du risque climatique est plus limité, enregistrant une baisse d’environ 12 %.
Ces résultats soulignent la nécessité d’un cadre réglementaire incitatif pour favoriser l’expansion du marché des obligations vertes et maximiser leur efficacité dans la lutte contre le changement climatique.
Notre étude propose au moins trois recommandations pratiques à destination des décideurs et des investisseurs pour maximiser l’impact des obligations vertes.
Instaurer un cadre incitatif solide : mettre en place des garanties gouvernementales, afin de réduire les risques financiers associés aux obligations vertes et ainsi attirer un plus grand nombre d’investisseurs.
Établir des normes claires : définir précisément les critères qui qualifient une obligation verte. Cela permettra d’accroître la transparence et la confiance des investisseurs, tout en renforçant l’intégrité du marché.
Faciliter l’accès aux obligations vertes, notamment pour les petites entreprises et les investisseurs institutionnels, en développant des plates-formes de trading dédiées comme le Luxembourg Trade Exchange.
Les obligations vertes ne se limitent pas à un simple instrument financier. Elles représentent un levier puissant pour accélérer la transition écologique, réduire les risques climatiques et stabiliser les marchés financiers face aux incertitudes économiques et politiques. Cependant, notre étude met en lumière une limite notable : les résultats se concentrent principalement sur les États-Unis, un marché financier mature. Il serait essentiel d’élargir le champ d’analyse aux pays émergents, où les risques climatiques et les incertitudes économiques sont souvent plus marqués.
En 2023, les émissions d’obligations vertes dans les marchés émergents ont augmenté de 34 %, atteignant 135 milliards de dollars. Ces chiffres soulignent le potentiel croissant de ces instruments dans ces régions. Des recherches futures pourraient explorer comment ces obligations peuvent répondre aux besoins spécifiques des économies émergentes, pays où le risque climatique est souvent plus élevé ainsi que l’incertitude politique.
rien à déclarer
Kamel Si Mohammed ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
31.03.2025 à 11:59
Cécile Cezanne, Maître de conférences-HDR en économie, Université Côte d’Azur
Gaye-Del Lo, Maître de conférences, Centre d'Économie Paris Nord (CEPN), Université Sorbonne Paris Nord
Sandra Rigot, Professeur des Universités en économie, Université Sorbonne Paris Nord, Chaire « Énergie et Prospérité, Chaire Economie du Climat, Université Sorbonne Paris Nord
Une étude menée sur 305 entreprises cotées en France, en Allemagne, au Royaume-Uni et au Japon, met en lumière l’influence du conseil d’administration sur la réduction des émissions de gaz à effet de serre (GES). Une empreinte surtout prégnante dans les entreprises les plus émettrices.
Sous la pression des tensions géopolitiques et des impératifs de compétitivité, l’Union européenne a amorcé un choc de simplification du Green Deal incarné par les directives Omnibus. Inspiré par les conclusions du rapport Draghi sur le décrochage économique de l’Europe, ce texte allège les contraintes réglementaires, notamment en matière de normes dans les domaines environnementaux, sociaux et de gouvernance. Cette inflexion du cadre institutionnel risque de ralentir la transition écologique. À moins que les entreprises s’engagent volontairement à adapter leur gouvernance face aux défis climatiques actuels…
En tant qu’organe de gouvernance par excellence, le conseil d’administration a un rôle crucial à jouer. Notre étude récente menée sur 305 entreprises cotées en France, en Allemagne, au Royaume-Uni et au Japon, entre 2015 et 2021, met en lumière l’influence du conseil d’administration sur la réduction des émissions de gaz à effet de serre (GES). En substance, le conseil d’administration, souvent perçu comme un organe mis au service de la performance strictement financière de l’entreprise, se révèle être un acteur déterminant de la lutte contre le changement climatique. En favorisant la diversité de genres et en structurant des comités dédiés à la durabilité, il peut contribuer à faire des entreprises de véritables moteurs du changement.
La gouvernance d’entreprise, qui désigne l’ensemble des règles et processus encadrant la gestion et le contrôle des sociétés, a connu une évolution significative au fil des décennies. D’abord centrée sur la maximisation des profits et la protection des intérêts de court terme des actionnaires, elle s’est progressivement élargie pour inclure des considérations sociales et environnementales. Aujourd’hui, les entreprises sont évaluées non seulement sur leurs performances financières, mais aussi de plus en plus sur leurs résultats en matière de développement durable.
Le conseil d’administration est l’organe chargé d’orienter et de superviser les décisions stratégiques de l’entreprise et de trancher sur toute question relative à son intérêt social. Il remplit deux fonctions majeures : la gestion des décisions, qui consiste à influencer et soutenir les choix stratégiques des dirigeants, et surtout le contrôle des décisions en veillant à ce que ces choix respectent l’intérêt global de l’entreprise et de ses parties prenantes.
En matière de transition écologique, le conseil d’administration doit adopter des stratégies environnementales basées sur des exigences réglementaires et des normes internationales non obligatoires : GRI, IR, TCFD, CDP, etc. Parmi ces décisions, on peut citer la fixation de cibles environnementales mesurables, le développement de l’économie circulaire et des chaînes d’approvisionnement responsables ou encore l’investissement dans l’innovation verte. Ces démarches sont fondamentales car elles influencent directement la capacité d’une entreprise à réduire ses émissions de GES.
Notre étude montre que la composition du conseil d’administration joue un rôle déterminant sur la performance carbone des entreprises.
Parmi les facteurs essentiels, figure d’abord la diversité de genres au sein de l’instance ; les entreprises ayant une plus forte proportion de femmes administratrices affichent des niveaux d’émissions plus faibles. Le parcours de formation – droit, sciences humaines, sciences de l’éducation – et les dynamiques professionnelles des femmes diffèrent sensiblement de ceux de leurs homologues masculins selon Galbreath et Jaffe & Hyde.
Abonnez-vous dès aujourd’hui ! Chaque lundi, des informations utiles pour votre carrière et tout ce qui concerne la vie de l’entreprise (stratégie, RH marketing, finance…).
Plus enclines à soutenir des initiatives philanthropiques et à valoriser la responsabilité sociétale des entreprises, elles se distinguent par une sensibilité accrue aux enjeux sociaux et environnementaux. Cette orientation les conduit à promouvoir des politiques de durabilité et à exercer une surveillance rigoureuse sur les engagements environnementaux.
Un autre facteur clé est la création de comités spécialisés au sein du conseil d’administration. Notre étude montre que les entreprises disposant d’un comité RSE (responsabilité sociale et environnementale) enregistrent une meilleure performance en matière de réduction des GES. Notamment pour les émissions directes (Scope 1) et indirectes liées à la consommation d’énergie (Scope 2). Même s’ils n’ont aucun pouvoir de décision et que leur mission consiste essentiellement à éclairer les réflexions du conseil d’administration, ces groupes de travail permettent d’instaurer une vigilance accrue sur les objectifs climatiques.
En revanche, la présence de membres indépendants, bien qu’elle garantisse un regard objectif, ne semble pas avoir d’effet direct sur la réduction des émissions. De même, la composition du conseil d’administration n’aurait pas d’influence sur les émissions les plus indirectes (Scope 3), alors que ces dernières représentent environ 80 % des émissions globales des entreprises.
Les résultats varient toutefois selon les domaines d’activité. Les entreprises opérant dans les secteurs à fortes émissions identifiés par le GIEC comme l’énergie, les bâtiments, les transports, l’industrie et l’AFOLU – agriculture, foresterie et autres usages des terres –, bénéficient davantage de ces dispositifs de gouvernance. Dans ces secteurs, la diversité de genres parmi les administrateurs et la présence d’un comité RSE ont un impact particulièrement marqué sur la réduction des émissions. À l’inverse, dans les industries à plus faibles émissions, ces facteurs jouent un rôle moins décisif, probablement en raison d’une empreinte carbone initialement moindre.
Au-delà de la réduction des émissions de GES, le conseil d’administration pourrait se saisir d’une question complémentaire majeure : la préservation de la biodiversité. Essentielle pour assurer la résilience des écosystèmes et garantir la durabilité des activités humaines, elle reste sous-estimée. Or, le conseil a les moyens, outre l’adoption volontaire d’initiatives comme la norme TNFD (Taskforce on Nature-related Financial Disclosures), de pousser les entreprises à limiter activement leur impact sur la biodiversité. Il pourrait veiller à la mise en place de modèles d’affaires attentifs aux écosystèmes, au développement de dispositifs de compensation des atteintes à la biodiversité ou encore à l’adoption de technologies plus respectueuses de la nature. Là encore, la composition du conseil d’administration pourrait être un enjeu de taille. La décision récente de l’entreprise Norsys de faire siéger la nature au sein de son conseil d’administration l’atteste.
Cécile Cezanne est chercheuse associée à la Chaire Énergie et Prospérité (https://chair-energy-prosperity.org/).
Sandra Rigot a reçu le soutien de la Chaire Énergie et Prospérité et de la Chaire Énergie du Climat
Gaye-Del Lo ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
31.03.2025 à 11:58
Florent Noël, Professeur, directeur délégué à la recherche, IAE Paris – Sorbonne Business School
Benoît Grasser, Vice-président adjoint à la politique scientifique, Université de Lorraine
L’autonomie au travail n’est pas toujours désirable. Son attrait dépend notamment de l’environnement de l’organisation. Devenir autonome, cela s’apprend et cela requiert du soutien, une condition nécessaire mais pas suffisante. Car les salariés le savent : dans certaines situations, l’autonomie peut être un piège.
Il ne faut souvent pas longtemps, lors d’une discussion sur la liberté et la responsabilisation dans le travail, pour que s’élève une voix faisant remarquer que certains travailleurs sont réticents, que d’autres en sont incapables et que beaucoup sont les deux à la fois. Or, si certains peuvent revendiquer leur rejet de l’autonomie, c’est peut-être qu’ils n’y ont jamais vraiment goûté ou qu’ils ne savent pas comment être autonome, ou bien encore que l’octroi d’autonomie est considéré comme un marché de dupes au regard du peu de réelle liberté d’agir qui l’accompagne parfois.
On pourrait du reste noter que savoir qu’on ne souhaite pas être autonome ou savoir dans quelle situation on peut l’être ou pas, c’est déjà être en mesure d’exercer un certain niveau d’autonomie.
L’autonomie, entendue comme « le fait de se gouverner soi-même » ne manque pas de charme et on peut avec Jean-Jacques Rousseau (Du contrat social) clamer que « renoncer à sa liberté, c’est renoncer à sa qualité d’homme, aux droits de l’humanité, même à ses devoirs ». On notera toutefois que dans le cadre d’une organisation, des individus reliés par des contrats de travail impliquant toujours un degré de subordination, dépendants les uns des autres pour obtenir les ressources nécessaires à la réalisation de leur travail, coordonnés par des processus pour satisfaire un client, ne sont jamais complètement autonomes.
Inversement, les ergonomes nous l’enseignent, le travailleur « presse-bouton » ne disposant d’aucune marge de manœuvre décisionnelle ou comportementale n’existe pas davantage. Par ailleurs, comme le rappelle Sen, la liberté n’est pas seulement l’absence de contraintes, mais aussi la capacité réelle de pouvoir faire ce qui a de la valeur pour soi. En ce sens, l’autonomie au travail correspond à la fois à la possibilité d’initiative et à la possibilité d’agir dans le sens de ce qui semble être réellement important pour soi.
La question de l’autonomie au travail est un motif récurrent de la théorie des organisations. Faut-il prescrire et contrôler le travail autant que possible comme le suggèrent les approches managériales inspirées du taylorisme ? Ou faut-il au contraire en appeler à l’expertise, au sens de la situation, à la compétence de celui qui fait ? Faut-il trancher cette question au nom de l’efficacité, d’un idéal d’émancipation par le travail ou de la quête de sens et de bien-être ? Les réponses à ces questions mêlent très probablement l’ensemble de ces dimensions, mais le vrai débat porte sur les processus d’autonomisation plus que sur l’autonomie elle-même : comment apprendre individuellement et collectivement à être autonome ?
Cet apprentissage est d’autant plus nécessaire que l’autonomie est au croisement d’intérêts qui ne sont pas forcément contradictoires. L’autonomie est souvent conquise par les salariés. On peut le voir comme une position de principe : s’émanciper ne se discute pas. Mais, ils peuvent également la rechercher parce qu’elle procure des marges de manœuvre qui leur sont nécessaires pour rendre leur travail plus soutenable ou pour faire ce qui à leur sens est du « bon travail ». Exercer un contrôle sur la façon d’exercer son travail, maîtriser les relations dans lesquelles on s’implique sont des moyens de rééquilibrer les exigences du travail et les ressources dont on dispose pour y répondre. Ce faisant, l’exercice de l’autonomie peut conduire à développer des compétences qui en retour renforcent l’autonomie.
À lire aussi : Une entreprise réellement « libérée » est avant tout libérante
De l’autre côté, l’autonomie est aussi souvent requise par l’encadrement. C’est le cas chaque fois que le travail est trop complexe, trop relationnel ou trop peu répétitif pour qu’il puisse être standardisé et prescrit. Accorder de l’autonomie aux salariés, c’est alors s’en remettre à leur expertise et à leur compétence pour que le travail puisse se faire de façon efficace. Ce faisant, lorsque l’autonomie est utilisée à bon escient selon l’employeur, c’est-à-dire de façon à produire de la valeur pour l’organisation, il est probable qu’elle entraîne davantage encore de délégation.
L’apprentissage de l’autonomie est donc une affaire de pilotage fin. Comme nous avons pu l’observer dans des organisations qui ne revendiquent pas un style de management particulièrement fondé sur l’autonomie, en l’occurrence les agences de France Travail (ex Pôle emploi) : les salariés disposent au quotidien d’une certaine marge de manœuvre, soit parce qu’on la leur accorde explicitement, soit parce qu’il y a toujours des failles dans la prescription. Ils ne peuvent toutefois réellement s’en saisir que s’ils ne rencontrent pas d’obstacles individuels – il faut croire en ses capacités et pour cela avoir des capacités – ou d’obstacles collectifs, il faut d’une part que le management accepte voire encourage l’exercice de ces marges de manœuvre et d’autre part que les salariés aient réellement les moyens de faire ce qu’ils jugeraient adaptés à la situation.
Abonnez-vous dès aujourd’hui !
Chaque lundi, recevez gratuitement des informations utiles pour votre carrière et tout ce qui concerne la vie de l’entreprise (stratégie, RH marketing, finance…).
Lorsque ces conditions sont réunies, des boucles vertueuses d’apprentissage peuvent se mettre en place. À mesure que les salariés font usage de leur autonomie pour viser des réalisations ayant de la valeur pour eux, ils font l’expérience de leurs capacités et peuvent découvrir le plaisir qu’il y a à bénéficier d’un certain degré de liberté. Parallèlement, à mesure qu’ils font usage de leur autonomie pour viser des réalisations ayant de la valeur pour l’organisation, il est probable qu’ils conquièrent la confiance de leur encadrement et puissent bénéficier de davantage de ressources, du temps et des budgets qui renforceront également leurs capacités.
Le niveau d’autonomie est donc systématiquement l’objet d’une négociation et d’un apprentissage collectif, d’une interaction entre des capacités et une volonté individuelle et un environnement plus ou moins « capacitant ». « Libérer » le travail ne se décrète pas, cela s’apprend. Il faut explorer les marges de manœuvre dont on dispose réellement, au-delà de ce qui en est dit, et savoir quoi en faire, ce qui questionne les motivations de l’individu et leur alignement sur les finalités de l’organisation. Une fois la dynamique enclenchée, il faut ensuite l’entretenir.
C’est, d’ailleurs, à ce stade que l’autonomie peut être mobilisée pour renforcer l’autonomie elle-même : se mettre en position d’apprendre et s’organiser individuellement et collectivement pour accumuler les ressources permettant de dégager plus de marges de manœuvre. Cela passe par gagner du temps, gagner la confiance du management, redéfinir les priorités, proposer des axes de développement pour soi et pour l’entreprise…
On comprend mieux les réticences affichées que nous rappelions au début de cet article : l’autonomie n’est pas à la portée de tous les salariés et il faut toujours une petite dose de savoir-faire au départ. Cette dernière peut s’acquérir si elle venait à manquer. Mais l’autonomie n’est surtout pas à la portée de toutes les organisations.
L’autonomie est parfois perçue par les salariés comme un piège à éviter. Il y a tout d’abord le risque qu’elle ne soit qu’une injonction paradoxale. C’est le cas lorsque l’autonomie se limiterait à dégager des marges de manœuvre pour viser des objectifs auxquels les salariés n’adhèrent pas voire réprouvent. Il faut donc que l’organisation puisse ouvrir ses finalités aux propositions qui émanent des salariés qui la peuplent.
Ouvrir des espaces d’apprentissage individuel et collectif – et s’en nourrir – est une question de volonté managériale et de design organisationnel. Lorsque l’organisation ne laisse pas faire, n’autorise pas les prises d’initiative ou laisse ceux qui en prennent démunis face aux manques de moyens, le piège de l’autonomie se referme. Sur ce point, le management de proximité doit savoir lâcher prise, c’est une évidence. Il faut aussi réfléchir à la rémanence des contraintes tapies dans les outils de travail et les processus de gestion qu’on déroule, sans toujours prendre pleinement conscience de l’enfermement qu’ils génèrent.
Il y a enfin le risque de polarisation. Il est tout à fait probable que les démarches managériales visant à s’appuyer sur l’autonomie éveillent prioritairement l’intérêt de ceux qui ont le plus confiance dans leur potentiel et qui pensent pouvoir porter des initiatives qui seront accueillies favorablement. Ceux-là ont peu à perdre. Ils ne peuvent que bénéficier du processus d’automatisation.
À l’opposé, ceux qui doutent d’eux-mêmes ou du caractère « capacitant » de leur environnement professionnel pourraient légitimement hésiter à entrer dans ces apprentissages. Ils n’auront pas l’occasion de montrer ce qu’ils peuvent faire, d’expérimenter la satisfaction de se sentir compétents et de participer au développement de leur organisation. Il est fort probable qu’on intensifie pour eux la prescription. La responsabilité initiale leur incombe peut-être, mais on peut encore se demander s’il ne serait pas du devoir et de l’intérêt de l’organisation d’aller les chercher.
Florent Noël est chercheur dans une équipe de recherche dont les travaux reçoivent le concours de l'IPSI (Institution pour le progrès social dans l'industrie). L'IPSI n'est intervenue a aucun moment dans la rédaction de cet article et de la recherche dont il est issu. La recherche dont cet article est issu a été réalisée dans le cadre d'un contrat de recherche avec la direction des statistiques, études & évaluation de Pôle Emploi (devenu depuis France Travail)
La recherche dont cet article est issu a été réalisée dans le cadre d'un contrat de recherche avec la direction des statistiques, études & évaluation de Pôle Emploi (devenu depuis France Travail). Benoît Grasser était membre de l'équipe de chercheurs qui a travaillé dans le cadre de ce contrat de recherche.
31.03.2025 à 11:58
Valérie Petit, Full Professor in Management, ESSCA School of Management
L’hubris des dirigeants est souvent mis en cause quand des dysfonctionnements surviennent. Mais de quoi parle-t-on précisément ? Comment s’en prémunir individuellement, et protéger les entreprises mais aussi la démocratie ?
Huit cents milliards de capitalisation boursière à Wall Street perdus et un recul de 50 % à 80 % des ventes de véhicules : c’est le bilan catastrophique de Tesla ces trois derniers mois. C’est aussi, possiblement, le chiffrage le plus précis de l’hubris d’Elon Musk depuis que ce dernier a pris ses quartiers au cœur du pouvoir politique américain. Si cet effondrement surprend les commentateurs et les investisseurs, en revanche, il n’étonne guère les chercheurs en gestion qui, depuis près de trente ans, se sont attachés à mesurer le coût de l’hubris du dirigeant pour son entreprise.
C’est en 1986 que Richard Roll, professeur de finance à Caltech, au cœur de la Silicon Valley, publie les premiers travaux sur l’hubris du dirigeant. À l’époque, il tente d’expliquer pourquoi certains CEO paient trop cher certaines acquisitions. Après avoir épuisé toutes les explications habituelles, il finit par conclure qu’une partie du surcoût peut être imputée à l’égo du dirigeant et à la perte, par celui-ci, du sens de la mesure : c’est ce que Roll nomme l’hypothèse d’hubris. À sa suite, de nombreux travaux en gestion souligneront l’impact négatif de l’hubris du dirigeant sur les choix stratégiques et la performance financière de leurs entreprises. Dans les années 2000, la révélation de scandales tels qu’Enron, Lehman Brothers ou encore Vivendi Universal, donnant à voir la combinaison dramatique de l’égo, de la mauvaise gestion voire de la corruption placera définitivement le risque d’hubris du dirigeant à l’agenda des scientifiques et des parties prenantes. Mais comment mesurer et prévenir ce risque ?
La chose est compliquée, car il faut d’abord définir ce qu’est l’hubris ; or, le terme fait moins référence à un concept qu’à un ensemble de mythes mettant en scène l’arrogance et l’insolence funestes de l’homme face aux dieux. On pense au mythe d’Icare qui, méprisant les conseils de son père, vole trop près du soleil pour finir dans la mer, mais aussi à celui de Phaéton, qui, tenant à conduire le char du dieu Soleil à la place de son père Apollon, met le feu aux nuages.
Dans l’Antiquité, l’hubris est considérée comme un crime. Pour Platon : « Quand déraisonnablement, un désir nous entraîne vers les plaisirs et nous gouverne, ce gouvernement reçoit le nom d’hybris ». Et Aristote de préciser le plaisir qu’y trouve celui qui en souffre :
À Rome, Suétone brosse le portrait des 12 césars, ces hommes qui disposent d’un pouvoir tellement grand que leur psyché s’en trouve altérée. L’histoire retiendra plutôt la folie de Néron que la modération de Marc Aurèle. Deux mille ans plus tard, les historiens parleront de « césarite », la maladie des césars, pour désigner cette maladie du pouvoir absolu, souvent résumée par la phrase de Lord Acton : « Le pouvoir corrompt, et le pouvoir absolu corrompt absolument. » L’idée que le pouvoir rend fou s’ancre définitivement dans la croyance populaire.
Abonnez-vous dès aujourd’hui !
Chaque lundi, recevez gratuitement des informations utiles pour votre carrière et tout ce qui concerne la vie de l’entreprise (stratégie, RH marketing, finance…).
Mais comment scientifiquement mesurer cela ? Et surtout comment distinguer dans cette « folie » ce qui appartient à l’individu en propre (par exemple, un trouble de la personnalité narcissique) et ce qui relève des effets du pouvoir auquel il est exposé ?
Les premières tentatives de mesure de l’hubris du dirigeant peuvent prêter à sourire : occurrence du pronom « je » dans les discours du dirigeant, taille de sa photo dans le rapport annuel… les chercheurs mobilisent des mesures très approximatives. Par ailleurs, la clarté conceptuelle n’est pas toujours au rendez-vous : sous le label « hubris » se retrouvent des notions pourtant distinctes telles que le narcissisme (un trouble de la personnalité), la surconfiance (un biais cognitif) ou l’orgueil (un vice). En 2009, la recherche connaît un tournant. Lord David Owen, médecin psychiatre et ancien ministre des affaires étrangères britannique, propose un tableau clinique du syndrome d’hubris, regroupant 14 items diagnostiques. Parmi ceux-ci, on retrouve :
des aspects du narcissisme (il affiche une confiance excessive dans son propre jugement et le mépris pour les conseils ou les critiques des autres),
de l’asocialité (il perd le contact avec la réalité, souvent associée à une isolation progressive),
de l’histrionisme (quand les choses tournent mal, il continue d’afficher une grande confiance en soi et ignore les « détails » ou « l’intendance » qui ne suit pas),
enrichie de quelques items originaux (il utilise le « nous » en lieu et place du « je », il se croit le seul qualifié éternellement pour son poste).
En 2012, nous avons transposé ce tableau au contexte de la direction d’entreprise et de l’hubris du dirigeant en décrivant les comportements d’hubris des dirigeants à trois niveaux :
le rapport à soi (style communicationnel théâtral et égocentré, décisions stratégiques hasardeuses, stratégie irréaliste et ambition démesurée, enracinement au pouvoir et incapacité à transmettre le pouvoir),
le rapport aux autres (management destructeur incluant agression, harcèlement, menace, intimidation, refus de toute critique, absence d’empathie pour les salariés)
et le rapport au monde (manquement à l’éthique, contestation de l’autorité de la loi, du marché, de la justice, refus de prendre la responsabilité).
Ces travaux recensaient les principaux symptômes de l’hubris (en termes de comportements). Restait la question que tout le monde se pose : quelle est l’origine de cette maladie du pouvoir ? Pourquoi certains leaders tombent-ils malades et d’autres pas ? Comment éviter la contagion et surtout quels gestes barrières mettre en place pour prévenir les ravages individuels, économiques et politiques de l’hubris des leaders ?
À lire aussi : Du populisme de plateforme au populisme politique : Elon Musk change d’échelle
Récemment, nous avons commencé à formuler des hypothèses radicalement nouvelles sur ce qu’est réellement l’hubris, cette maladie du pouvoir. Pour ce faire, partant de la citation de Lord John Acton (« Le pouvoir corrompt, et le pouvoir absolu corrompt absolument »), nous nous sommes concentrés non pas sur les comportements associés à l’hubris (les symptômes), mais sur la nature même de l’intoxication par le pouvoir de la psyché et des comportements du dirigeant (la maladie). Qu’est-ce qui dans le pouvoir nous corrompt ?
Notre hypothèse s’appuie y compris sur l’expérience politique de l’auteure qui, lors d’un mandat parlementaire de 5 ans, a pu observer et ressentir les effets du pouvoir sur la psyché des leaders. Partant de ce récit auto-ethnographique, nos travaux récents formulent plusieurs propositions pour mieux comprendre et prévenir le risque d’hubris.
Premièrement, l’hubris est bien un syndrome (comme le burn-out), lié aux conditions de travail particulières (l’exercice du pouvoir), qui débute et qui cesse avec l’exposition du dirigeant au pouvoir. En conséquence, la meilleure solution pour prévenir et guérir l’hubris est d’éloigner le dirigeant du pouvoir ou de disperser, encadrer ou partager celui-ci.
Deuxièmement, l’hubris n’est pas la combinaison d’autres troubles (narcissique, asocial, paranoïaque, histrionique, schizotypique), de traits psychologiques (égocentrisme, manque d’empathie, surconfiance) ou encore de comportements dysfonctionnels (violence, agressivité, théâtralité, harcèlement), mais l’intoxication de ceux-ci par le pouvoir. Ainsi, un dirigeant narcissique pourra dire : « Je suis le plus génial entrepreneur que la tech a jamais connu. » S’il souffre d’hubris, il dira plutôt : « Mon entreprise est la meilleure car j’en suis le dirigeant ; sans moi aux manettes, elle n’est rien. »
L’intoxication par le pouvoir résulte d’une relation dysfonctionnelle du leader au pouvoir : lui et le pouvoir ne font plus qu’un, ils fusionnent. Mais là où, par arrogance, le dirigeant croit posséder le pouvoir, c’est en réalité celui-ci qui le possède, faisant de lui son agent, sa créature entièrement dédiée à son culte qu’il confond avec le culte de lui-même. Celui qui prend alors volontiers des postures de dominant dans ses relations avec autrui et le monde vit en réalité, au plus profond de lui, une soumission et une aliénation complète au pouvoir. En conséquence, on ne luttera pas contre l’hubris en se focalisant sur la personnalité ou les comportements du dirigeant, mais en questionnant sa relation (et la nôtre) avec le pouvoir et sa nature addictive et aliénante.
Troisièmement, pour expliquer l’emprise du pouvoir sur l’individu, il faut comprendre la nature particulière de ses effets corrupteurs. Nous faisons l’hypothèse que la relation du dirigeant au pouvoir relève de la sacralisation, et que la nature de sa relation intime avec celui-ci peut être qualifiée de numineuse. Pris dans les filets du pouvoir, sidérée et émotionnellement débordé, le dirigeant est tel un mystique. Ainsi, dans cet univers soi-disant profane de l’entreprise, le sacré et l’irrationnel ressurgissent dans la relation intime, souvent tue, du dirigeant au pouvoir. Continuer à ignorer l’importance de la relation au pouvoir ou en refouler la dimension irrationnelle et spirituelle est l’un des facteurs les plus évidents du risque d’hubris.
Alors que faire pour éviter aux dirigeants et aux entreprises de succomber à l’hubris ?
Une voie individuelle consisterait pour le dirigeant à méditer chaque jour sur le pouvoir et sa relation, sa place, ses effets. C’est ce que fit l’empereur Marc-Aurèle dans ses méditations et qui lui permit d’échapper à la césarite
Une voie institutionnelle consisterait à renforcer les mécanismes de gouvernance d’entreprise favorisant le turnover et le partage des fonctions au sommet des entreprises.
Une voie collective enfin questionnerait notre responsabilité dans cette culture idolâtre du pouvoir qui rend possible la sacralisation et, in fine, l’intoxication par le pouvoir. Ceci supposerait notamment d’en finir avec le mythe du charisme (il nous faut un individu exceptionnel, hors norme, quitte à hériter d’un hors la loi), le mythe de l’incarnation nécessaire (il est l’âme/l’incarnation de l’entreprise, vous comprenez) ou encore l’essentialisation de la direction (les dirigeants, vous savez, ils sont différents, plus agressifs, narcissiques, il faut faire avec).
Ajoutés à une saine obsession de la dispersion du pouvoir, ces quelques gestes barrières contre une culture toxique du pouvoir sont plus que jamais nécessaires face à ce nouveau risque systémique pour les entreprises et les démocraties.
Valérie Petit ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
30.03.2025 à 16:36
Bantignies Frédéric, Directeur de Recherche CNRS, Université de Montpellier
Giacomo Cavalli, Directeur de recherche CNRS, Université de Montpellier
Les marques épigénétiques sont des modifications chimiques de l’ADN qui vont permettre d’activer ou d’éteindre certains gènes. Elles sont reproduites lorsque les cellules se divisent mais peuvent-elles l’être entre deux générations ?
À la base de l’information génétique, l’ADN est la molécule fondatrice de la vie terrestre. Cependant, elle ne peut pas fonctionner seule, car son information doit être interprétée par des protéines présentes dans le noyau des cellules, rajoutant une information supplémentaire que l’on nomme information épigénétique (« épi » provenant du préfixe grec qui signifie « au-dessus »).
À chaque génération, nous héritons de l’ADN contenu dans les chromosomes de nos deux parents, sous la forme de 23 chromosomes de la mère et 23 chromosomes du père, pour aboutir aux 46 chromosomes de l’espèce humaine (ce nombre varie selon les espèces) dans chacune de nos cellules. Au cours du développement, nos cellules se divisent un très grand nombre de fois pour former des individus adultes (constitués de plus de 30 000 milliards de cellules !).
L’équation paraît relativement simple, car la séquence d’ADN des 46 chromosomes se recopie à l’identique (durant la « réplication de l’ADN ») avant de se partager équitablement dans deux cellules « filles » lors de chaque division cellulaire (appelée « mitose »). Malgré cette information génétique identique, nos cellules ne sont pas toutes pareilles. Chacune d’entre elles se différencie pour produire la variété de tissus et d’organes qui constituent notre corps. C’est justement l’information épigénétique qui permet cette différenciation.
Que sait-on de ces mécanismes épigénétiques qui font l’objet d’intenses recherches depuis le début du siècle ? Ils impliquent un grand nombre de facteurs cellulaires, dont on commence à comprendre la fonction. Au sein des chromosomes, l’ADN, chargé négativement, s’enroule autour de protéines chargées positivement, les histones. Des centaines de facteurs se lient, directement à l’ADN ou aux histones, pour former ce que l’on pourrait qualifier de « gaine épigénétique ».
À lire aussi : Épigénétique, inactivation du chromosome X et santé des femmes : conversation avec Edith Heard
Cette gaine est loin d’être homogène. Elle contient des facteurs qui peuvent déposer, sur la molécule d’ADN ou les histones, des petites molécules qui agissent comme des « marque-pages » que l’on pourrait mettre dans un livre à des endroits précis. Ce sont les fameuses « marques épigénétiques » (méthylations, acétylations…) et un grand nombre d’entre elles se retrouve au niveau des gènes qui sont situés tout le long de nos chromosomes. Ces marques sont indispensables, elles diffèrent dans les différents types cellulaires que composent un organisme et contribuent directement à la régulation de l’expression des gènes (par exemple, des gènes importants pour la fonction du foie s’exprimeront dans les cellules du foie, tandis que les gènes spécifiques des neurones ou des cellules musculaires y seront éteints). La question est désormais de savoir si ces mécanismes épigénétiques influencent aussi la transmission de l’information génétique.
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
Prenons tout d’abord le cas le plus simple de la mitose (division cellulaire). La plupart des cellules doivent transmettre leur fonction, c’est-à-dire reproduire l’expression de la panoplie de gènes qui leur sont propres dans leurs cellules filles. Un grand bouleversement se produit lors de la mitose avec un regroupement et une condensation importante des chromosomes et donc de l’ADN qui les composent. Lors de cette étape, l’ADN reste enroulé autour des histones, mais de nombreuses protéines de la gaine s’en trouvent dissociées. En revanche, la plupart des marques sur l’ADN et les histones sont conservées. Ainsi, des repères épigénétiques vont subsister sur et autour de l’ADN. Une fois la mitose terminée, ces marques vont permettre aux cellules filles de reconstruire rapidement l’architecture des gènes le long des chromosomes, qui porteront encore les marques épigénétiques indispensables et pourront à nouveau recruter les facteurs associés à leur fonction. Les mécanismes épigénétiques participent donc directement à l’héritage de la fonction cellulaire.
Est-ce que cette information épigénétique pourrait aussi être transmise aux générations futures ? Dans ce cas, le challenge est bien plus important. L’information doit être transmise aux gamètes mâle et femelle qui fusionnent lors de la fécondation pour former la première cellule de l’embryon. Cette cellule se divisera afin de constituer les différents types cellulaires du futur organisme. Les étapes de réorganisation et de condensation des chromosomes sont ici encore plus drastiques que lors de la mitose. La méthylation de l’ADN, les marques des histones et l’organisation 3D des chromosomes sont largement reprogrammées, comme si l’organisme s’efforçait d’effacer le bagage épigénétique accumulé dans la génération précédente.
Est-ce que l’épigénétique peut néanmoins influencer l’héritage génétique de la descendance ? Aujourd’hui, cette question fait l’objet de recherches intensives, et parfois controversées. Ces recherches visent notamment à comprendre si des facteurs environnementaux, nutritionnels, liés aux stress ou à l’exposition à des facteurs chimiques ou physiques pourraient exercer une influence sur les générations futures.
On a pu décrire des exemples précis de l’effet de l’environnement sur la régulation épigénétique dans de nombreuses espèces animales et végétales.
Chez des reptiles, la température est un déterminant majeur du type sexuel, via le dépôt de marques épigénétiques spécifiques (méthylation des histones). Chez les insectes, de nombreux traits phénotypiques sont liés à des régimes alimentaires qui entraînent des variations épigénétiques, par exemple la distinction entre la reine et les abeilles ouvrières ou la distinction de castes d’ouvrières chez certaines fourmis (via la méthylation de l’ADN et l’acétylation des histones, respectivement).
L’exposition à des facteurs chimiques, tels que l’arsenic ou le bisphénol A peut également être à l’origine de modifications épigénétiques. On essaye aujourd’hui de comprendre les mécanismes par lesquels ces stimuli agissent et s’ils peuvent générer un héritage stable au fil des générations dans l’espèce humaine. Des études épidémiologiques ont bien tenté de faire des liens entre régime alimentaire et influence sur la progéniture, mais ces études se confrontent souvent à des aspects multi-factoriels difficiles à contrôler et souffrent d’un manque de preuves moléculaires.
Des études au niveau d’organismes modèles sont donc nécessaires pour étudier l’influence de modifications épigénétiques sur la transmission de l’information génétique. Des exemples de transmission des états épigénétiques à travers les générations sont actuellement bien décrits chez le ver C.elegans et les plantes, des organismes où il y a moins de reprogrammation de l’état épigénétique lors de la fécondation. Notre équipe travaille sur l’organisme modèle Drosophila melanogaster ou mouche du vinaigre. À la suite de perturbations de l’organisation 3D des chromosomes, nous avons pu mettre en évidence des cas d’héritage de modifications épigénétiques sur un gène responsable de la couleur de l’œil au fil de nombreuses générations.
Dans le modèle souris, des études ont également montré que l’insertion d’éléments génétiques permettait d’induire des modifications épigénétiques, notamment la méthylation d’ADN. Ces modifications conduisent à la répression d’un gène responsable de la couleur du pelage ou de gènes importants du métabolisme qui, lorsqu’ils sont supprimés, provoquent l’obésité ou l’hypercholestérolémie, et ce, de manière héritable sur plusieurs générations.
Dans ces exemples d’héritage transgénérationnel, le premier signal qui induit un changement épigénétique implique la modification d’une petite séquence d’ADN. Même si cette séquence est rétablie à la normale, le changement se maintient. Bien que probablement rares et possiblement influencés par le patrimoine génétique, ces phénomènes pourraient exister dans la nature. Des recherches futures seront nécessaires pour comprendre si d’autres mécanismes épigénétiques pourraient être hérités.
Bien que ces données ne changent pas les lois génétiques actuelles, elles indiquent qu’au-delà de la simple duplication et transmission de la séquence d’ADN aux gamètes mâles et femelles, des informations épigénétiques pourraient contribuer à l’héritage de certains traits chez de nombreuses espèces. Ces recherches pourraient donc servir à mieux comprendre l’évolution et l’adaptation des espèces, ainsi que les mécanismes à la base de certaines pathologies humaines, comme les cancers.
Les recherches au sein du laboratoire Cavalli sont financées par des subventions du Conseil Européen de la Recherche (ERC AdG WaddingtonMemory), de l'Agence Nationale pour la Recherche (PLASMADIFF3D, subvention N. ANR-18-CE15-0010, LIVCHROM, subvention N. ANR-21-CE45-0011), de la Fondation ARC (EpiMM3D), de la Fondation pour la Recherche Médicale (EQU202303016280) et de la Fondation MSD Avenir (Projet EpiMuM3D).
Bantignies Frédéric ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
30.03.2025 à 16:35
Daniel Delbrassine, Chargé de cours honoraire, moniteur pédagogique, Université de Liège
L’annulation par le ministère de l’éducation nationale de sa commande d’une adaptation de la Belle et la Bête pour les élèves de CM2 a déclenché une polémique qui invite à se pencher sur la situation particulière de la littérature de jeunesse et l’attention spécifique qui lui est de longue date accordée dans l’espace public.
La récente affaire du « Livre pour les vacances », décommandé par le ministère de l’éducation nationale avant son impression en 800 000 exemplaires, a surpris nombre d’acteurs du livre et de l’école, à commencer par son auteur Jul qui avait adapté en BD le très classique La Belle et la Bête, de madame Leprince de Beaumont (1711-1776).
Les enfants de CM2 concernés par l’opération, qui vise à leur offrir un livre à lire durant l’été avant leur entrée en sixième, recevront donc un autre titre, mais le dessinateur n’a pas hésité à parler de « censure » de la part de la direction générale de l’enseignement scolaire, qui est intervenue le 17 mars dernier.
Le gros mot était prononcé et cette polémique a mis en lumière la situation particulière de la littérature de jeunesse au sein du champ culturel. Celle-ci fait en effet exception : elle doit à son public d’être le seul lieu où la censure s’exerce ouvertement en démocratie. Cette nécessaire protection du lecteur juvénile s’imposerait même « naturellement », si l’on en croit l’éditrice espagnole Beatriz de Moura.
Mais ce statut singulier pose un certain nombre de questions : comment fonctionne cette « censure » et à partir de quelles réglementations ? Sur quels objets et sur quels sujets s’exerce-t-elle ?
Depuis ses origines, la littérature adressée à la jeunesse est une « littérature sous surveillance », car la religion, l’école et le pouvoir politique ont toujours cherché à en assurer le contrôle.
La surveillance religieuse renvoie à des pratiques fort anciennes (Inquisition et mise à l’Index). Elle s’exprime surtout par des interventions d’ecclésiastiques dans le champ de la littérature, comme l’abbé Louis Bethléem qui publie Romans à lire et romans à proscrire. Essai de classification au point de vue moral des principaux romans et romanciers (1904). En 1927, un procès retentissant vise l’abbé, qui s’était mis en scène déchirant en public des revues « licencieuses ».
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
L’école exerce elle aussi un contrôle sur la littérature de jeunesse. Cette pression institutionnelle s’exerce notamment sur les éditeurs, conscients du rôle de l’école en matière de prescription. La scolarisation de la littérature jeunesse montre ici un de ses revers : le pouvoir d’influence sur les ventes exercé par les autorités de l’enseignement et par les enseignants eux-mêmes.
La surveillance politique de la littérature de jeunesse n’est pas récente. Dès la fin du XIXe siècle, le sénateur René Bérenger (surnommé « Père la pudeur ») crée la Société centrale de protestation contre la licence des rues, et l’arsenal légal se renforce avec la loi sur l’outrage aux mœurs de 1898. Avant la Deuxième Guerre mondiale, la loi du 29 juillet 1939 instaure un Code de la famille, dont 20 articles sont consacrés au « délit d’outrage aux bonnes mœurs ».
Le consensus politique présent à la Libération n’a donc rien d’étonnant, puisque la loi n°49-956 du 16 juillet 1949 sur les publications destinées à la jeunesse est l’aboutissement d’un processus d’un demi-siècle.
La fonction première de la loi n°49-956 du 16 juillet 1949 sur les publications destinées à la jeunesse (mentionné aujourd’hui encore dans tous les ouvrages destinés à l’enfance) n’est pas d’exercer une censure, car elle vise d’abord à instaurer un contrôle ex ante fondé sur l’intimidation.
En effet, son article 3 prévoit une commission de surveillance et de contrôle, dépendant des ministères de la justice et de l’intérieur et chargée de surveiller l’ensemble de la production adressée à la jeunesse, essentiellement à partir des critères définis à l’article 2. La commission reçoit tous les titres à publier et rend des avis, en intervenant parfois auprès des éditeurs. Selon la formule du chercheur Pascal Durand, cette loi organise donc la « soumission des [auteurs et des éditeurs] à un horizon d’attente normative », que l’on qualifiera d’« autocensure ».
Récemment, la loi a subi plusieurs modifications, notamment dans son article 2 qui définit les questions litigieuses, mais l’activité de la commission s’est « très fortement réduite », si l’on en croit Bernard Joubert qui en a recensé les victimes dans son volumineux Dictionnaire des livres et journaux interdits. La censure s’exerce aujourd’hui bien plus efficacement par le biais d’acteurs privés auxquels le champ médiatique offre un terrain favorable, et l’institution semble désormais passée au second plan en termes d’impact sur les acteurs du livre.
Sur le parcours d’un livre, les actions de censure et d’autocensure peuvent donc surgir à toutes les étapes. À la source, les auteurs assument assez spontanément leur part, mais peu en parlent ouvertement, sans doute par volonté de ne pas nuire à la légitimité de leur création.
L’autrice Malika Ferdjoukh confiait ainsi avoir supprimé une phrase qu’elle jugeait délicate dans un roman jeunesse : « L’abeille sniffe sa ligne de glace à la vanille. » Selon elle, cette image gratuite « semblait cautionner et rendre légère une chose qui ne l’est pas ». Dans Titus Flaminius : la fontaine aux vestales (2003), Jean-François Nahmias recourt à des propos très pudiques et à l’ellipse narrative pour évoquer la première nuit d’amour de son personnage. Dans ce roman historique où la description détaillée des mœurs de l’époque sacrifie à la contrainte du genre, l’évocation très chaste de la sexualité des héros crée un paradoxe étonnant.
Les auteurs assument donc leur part d’autocensure, parfois au prix d’acrobaties littéraires, en « adaptant » leur texte à leur public, préoccupés qu’ils sont de « respecter leur lecteur ». Les éditeurs interviennent dans un deuxième temps, aiguillonnés par le cadre légal, mais surtout par les réactions des prescripteurs adultes, qui sont aussi leurs acheteurs…
Certains éditeurs en viennent à retirer spontanément des ouvrages sous la pression de campagnes médiatiques efficaces comme celle qui a visé On a chopé la puberté, (éditions Milan, collection « Les secrets des pipelettes »), documentaire destiné aux pré-ados, publié en février 2018. À la suite d’une pétition recueillant 148 000 signataires en trois jours, la maison d’édition décide d’abandonner toute la collection. La chercheuse Mathilde Lévêque donne une analyse critique et nuancée de cette affaire dans un article intitulé On a chopé la censure.
Parmi les prescripteurs, les bibliothécaires ont toujours pris leur part dans les obstacles dressés entre un livre et ses lecteurs. L’absence intentionnelle dans la liste d’achats, la relégation aux « enfers » (quand ils existent) ou simplement dans le bureau, sont des pratiques fréquentes. Ainsi, en 2016, le Dictionnaire fou du corps (2012), de Katy Couprie, a fait l’objet d’une mesure de retrait dans le réseau de la Ville de Paris.
L’appareil d’État semble avoir aujourd’hui perdu beaucoup de son impact, les acteurs du champ éditorial « négociant » entre eux – sur l’espace médiatique – les termes de ce qui est désormais publiable à l’adresse de la jeunesse. La loi de 1949 reste comme une référence en toile de fond, pour un secteur de l’édition où les groupes de pression occupent désormais la première place en termes d’interventions suivies d’effets.
En pratique, cette situation ressemble de plus en plus à celle qui a toujours prévalu aux États-Unis. L’influence d’outre-Atlantique se concrétise dans la pratique des éditeurs qui mobilisent des « sensitivity readers » et avertissent leurs lecteurs avec des « trigger warnings ».
On notera enfin que la censure s’avère presque exclusivement thématique et manifeste bien l’évolution des sociétés, à travers des thèmes tabous qui perdurent (sexualité, violence, politique), mais aussi l’émergence de nouveaux sujets comme le genre ou la race. Une autre constante apparaît : l’absence de prise en compte des aspects narratifs dans la présentation des thèmes jugés délicats.
Le rôle des procédés littéraires mobilisés pour représenter tel ou tel sujet est passé sous silence dans l’immense majorité des cas. Or, on sait combien cet aspect est important pour évaluer l’innocuité éventuelle d’un récit, mais les censeurs se précipitent sur les contenus, sans vouloir prendre en compte leur traitement ni les « mesures de protection du lecteur » mises en place par les auteurs.
Daniel Delbrassine ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
30.03.2025 à 16:35
Paula Fernandes, Researcher, Cirad
Alain Ratnadass, Senior research scientist, Cirad
François-Régis Goebel, Directeur de Recherches en protection des cultures, gestion des bioagresseurs, Cirad
Gaëlle Damour, chercheuse, Cirad
Il existe chez les plantes des dizaines de mécanismes plus ingénieux les uns que les autres pour réguler naturellement les organismes qui s’attaquent aux cultures. S’appuyer sur ces alliés précieux est indispensable pour diminuer notre dépendance aux pesticides. Cela permet aussi de construire des systèmes agroécologiques plus résilients.
Chaque jardinier connaît l’œillet d’Inde, allié qui éloigne insectes et maladies du potager. Mais saviez-vous qu’il existe de nombreuses autres plantes, dites « plantes de service », précieuses pour une agriculture plus respectueuse de la santé et de l’environnement ?
Des résultats de recherche révèlent qu’une large gamme de plantes, lorsqu’on les intègre aux systèmes de culture, sont capables de réguler les bioagresseurs des champs (insectes et arthropodes, nématodes, champignons, bactéries, virus, adventices), et donc de réduire les besoins en pesticides.
Selon les plantes, elles mobilisent un mécanisme particulier ou en combinent plusieurs. Certaines vont agir contre les bioagresseurs aériens, tels les plantes aromatiques ou le maïs. D’autres sont efficaces contre les bioagresseurs telluriques, comme les crotalaires, le sorgho hybride ou les crucifères.
Penchons-nous dans un premier temps sur les mécanismes mis en œuvre par certains végétaux pour contrer les bioagresseurs aériens.
Les plantes refuges, fréquemment implantées en bordure de parcelle, assurent un habitat favorable aux auxiliaires, en leur fournissant le gîte et le couvert. Ainsi, ces derniers sont déjà présents lorsque les ravageurs arrivent pour attaquer les cultures, ils interviennent plus rapidement (prédation, parasitisme). C’est le cas notamment du tournesol mexicain (Tithonia diversifolia) utilisé aux abords des champs de canne à sucre en Tanzanie pour attirer et préserver les coccinelles prédatrices du puceron jaune Sipha flava, ravageur majeur dans ce pays.
Les plantes d’ombrage, intégrées dans la parcelle, modifient son microclimat. En changeant la luminosité et l’humidité, elles rendent les conditions climatiques défavorables à certains bioagresseurs et plus favorables à d’autres.
C’est notamment le cas des eucalyptus ou érythrines dans les plantations de caféiers, vis-à-vis du champignon Colletotrichum kahawae provoquant l’anthracnose des baies au Cameroun. Ces plantes ont le même effet sur la cochenille Placococcus citri et le champignon Cercospora coffeicola qui provoque au Costa Rica la cercosporiose.
Certaines plantes jouent un rôle de barrière contre les agresseurs. Implantées en bordure, elles forment un rideau végétal qui empêche les ravageurs d’atteindre la culture. C’est le cas des barrières de Crotalaria juncea qui obstruent le passage des aleurodes, qui volent à hauteur d’homme vers les plants de piment.
D’autres végétaux utilisent également l’espace pour freiner l’avancée de l’ennemi. Associés à une culture sensible, ils vont dissimuler cette dernière aux ravageurs en créant un effet de « dilution » visuelle. Ces associations, en générant une discontinuité spatiale, peuvent aussi ralentir la propagation de proche en proche des maladies fongiques.
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
Elles peuvent par ailleurs réguler les adventices par compétition pour les ressources (lumière, eau, nutriments) ou par barrière physique. En bananeraie, des espèces comme Neonotonia wightii ou Arachis pintoi ont révélé de bonnes aptitudes, avec un impact modéré sur la croissance des bananiers.
Les plantes émettrices d’odeurs peuvent être utilisées seules ou bien combinées pour accroître leur efficacité dans un système « push-pull » :
La plante « push », intégrée au milieu de la culture, diffuse un « parfum répulsif » pour les ravageurs. Les plantes aromatiques, telles que le basilic ou le gros thym antillais Plectranthus amboinicus, constituent un vivier intéressant de plantes « push ».
Parallèlement, une plante « pull » est introduite, soit dans la parcelle pour attirer les auxiliaires, soit en bordure pour attirer vers elle le ravageur, le détournant ainsi de la culture. Ainsi, certaines variétés de maïs doux attirent la femelle de la noctuelle de la tomate qui, au lieu de pondre sur les tomates, va le faire sur les soies des épis de maïs – qui constituent des « voies sans issue » car les larves qui éclosent ne peuvent s’y développer.
Les plantes citées jusqu’ici ne s’attaquaient qu’aux bioagresseurs aériens. Mais d’autres mécanismes existent pour combattre les bioagresseurs telluriques.
La rotation des cultures, notamment, permet d’interrompre la reproduction des bioagresseurs. Lorsqu’une plante non sensible à l’agresseur vient remplacer pendant une période la plante sensible, la population de parasites dans le sol diminue fortement.
Une fois que la culture sensible revient sur la parcelle, elle est en mesure de se développer sans incidence majeure tant que la population pathogène reste faible. Une véritable course de vitesse s’engage alors entre le développement de la culture et la multiplication du pathogène.
C’est par exemple le cas en cultures maraîchères ou dans des bananeraies. Créer des jachères assainissantes à base d’espèces non-hôtes (comme Crotalaria juncea ou Brachiaria spp) réduisent les populations de nématodes phytoparasites.
Autre méthode d’attaque contre les telluriques, l’empoisonnement ou l’inhibition – aussi appelée allélopathie. Ici, différentes stratégies existent et ont été mises en évidence.
Certains végétaux, tels que les crotalaires, libèrent via leurs racines des alcaloïdes pyrrolizidiniques toxiques pour plusieurs espèces de nématodes phytoparasites.
Autre moyen, la biofumigation par certains végétaux au moment de leur décomposition. Par exemple des isothiocyanates, composés soufrés à large spectre d’efficacité (champignons, bactéries, nématodes…), issus de la dégradation des glucosinolates largement présents chez les brassicacées (moutarde par exemple) et les alliacées (ail, oignon…).
D’autres plantes, enfin, provoquent la germination des graines de plantes parasites (comme le Striga) ou attirent les pathogènes (nématodes phytoparasites) vers leurs racines en émettant des signaux semblables à ceux d’une plante sensible. Ainsi, le coton, le lin ou le soja, plantes non hôtes, diminuent le potentiel infectieux du sol en engendrant la germination « suicidaire » du Striga, dont les radicules sont alors incapables de se fixer à leurs racines.
De façon générale, les plantes de service peuvent aussi jouer un rôle bénéfique en stimulant la diversité de la microflore et de la macrofaune du sol, de façon globale ou ciblée.
Parmi les communautés du sol se trouvent des espèces antagonistes ou prédatrices des bioagresseurs. En particulier certains nématodes libres, qui se nourrissent de nématodes phytoparasites. Mais aussi des bactéries et champignons, qui peuvent produire des antibiotiques ou encore parasiter ces bioagresseurs. On parle alors de suppressivité spécifique.
En bananeraie, les jachères de Paspalum notatum augmentent ainsi les populations de nématodes libres omnivores ou prédateurs, qui en retour diminuent les populations de nématodes phytoparasites.
D’autres microorganismes du sol, sans réguler directement les pathogènes, occupent des niches où ils sont en compétition avec eux, notamment en colonisant la rhizosphère des plantes, et en utilisant les mêmes ressources.
Ce faisant, ils réduisent les conditions favorables à la croissance des pathogènes. On parle alors de suppressivité générale.
Outre l’accroissement de populations bénéfiques du sol, les plantes de service contribuent également à l’enrichir. Souvent employées comme engrais verts ou plantes de couverture, elles restituent au sol de la matière organique et des nutriments, accessibles ensuite à la plante cultivée.
Du fait de l’amélioration de sa résistance physiologique, via une nutrition plus équilibrée et la disponibilité de certains oligoéléments, celle-ci est moins vulnérable aux attaques des bioagresseurs, telluriques mais aussi aériens.
L’efficacité des plantes de service dépend donc dans une large mesure du contexte. Pour réussir, l’utilisation de plantes de service pour gérer des bioagresseurs requiert une compréhension claire des principes génériques de l’agroécologie couplée à une connaissance fine des espèces impliquées, afin d’adapter et appliquer ces principes à des situations spécifiques.
L’évolution des interactions entre cultures et bioagresseurs nécessite également d’adapter les pratiques au changement, et, le cas échéant, de mobiliser simultanément divers mesures et mécanismes de régulation.
Le 5 juin 1984 naissait le Cirad fondé par décret. Depuis plus de 40 ans, les scientifiques du Cirad partagent et co-construisent avec les pays du Sud des connaissances et des solutions innovantes pour préserver la biodiversité, la santé végétale et animale, et rendre ainsi les systèmes agricoles et alimentaires plus durables et résilients face aux changements globaux.
Paula Fernandes a reçu des financements de bailleurs publics de la recherche pour le developpement
Alain Ratnadass a reçu des financements de bailleurs de fonds publics français, européens et internationaux pour la recherche pour le développement.
François-Régis Goebel est membre de l'International Society of Sugarcane Technologists (ISSCT). Il a reçu des financements de bailleurs de fonds publics français, européens et internationaux pour la recherche pour le développement.
Gaëlle Damour ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.