02.04.2025 à 17:34
Yeonsin Ahn, Professeur assistant, stratégie et politique d'entreprise, HEC Paris Business School
Eric Yuan was not happy at Cisco Systems even though he was making a salary in the high six figures, working as vice president of engineering on the videoconferencing software Cisco WebEx.
“I even did not want to go to the office to work,” Yuan told CNBC Make It in 2019.
Yuan was unhappy with the culture at Cisco, where new ideas were often shut down and change was slow. When he suggested building a new, mobile-friendly video platform from scratch, the idea was rejected by Cisco’s leadership. Frustrated by the resistance to innovation, Yuan left the company in 2011 and founded Zoom, whose value increased astronomically during the Covid pandemic years as it became the go-to app for remote work.
One might think that founders who, like Yuan, expressed unhappiness with their previous employers’ culture would establish new companies with very different values. However, we found that, on average, whether they want to or not, founders are likely to replicate the culture of their previous employer in their new venture.
Yuan’s story includes the idea that many people have of the lumbering tech giant versus the agile startup. Yet our research found that this distinction is actually not so clear.
More than 50 percent of US tech startup founders have previous experience in other companies, often in giants like Google or Meta. The work culture of these huge organizations is not always so easy to shake off when entrepreneurs go on to start their own companies.
In our research, we identified 30 different cultural elements of companies. These include cultures of work-life balance, teamwork, authority, innovation, and compensation-oriented vs customer-oriented culture, to name a few.
Previous research has shown that startup founders transfer knowledge and technology from former jobs. We found empirical evidence that they also transfer work culture.
In our research, we identified startup founders and used their LinkedIn profiles to find companies where they had previously worked. Our team applied natural language processing, namely Latent Dirichlet allocation topic modelling, to text on Glassdoor, a site that allows current and former employees to anonymously review companies. We used the processed reviews to characterize the cultures of “parent” companies and startup companies, or “spawns”. We also identified a match or “twin” for the spawn organization that had a similar size, product and number of years in business.
Then, we compared the culture of each spawn startup to the culture of its parent organization, and the culture of each spawn’s “twin” to the culture of the same parent, in a given year. If a spawn was more similar to its parent than the twin was to the parent, this supported our hypothesis that founders tend to transfer their previous work cultures to their new ventures.
And we found that there are three conditions that favour such a transfer.
First, the longer years founders have been at an organization, the more likely they are to transfer its culture to their new startup, because they have become very familiar with that culture.
The second condition is the congruency of culture, i.e., the degree to which culture is composed of elements that are consistent in their meanings, and hence, have internal compatibility.
For example, in our data, there a cloud-based location services platform that has high congruency in its culture. The company has three highly salient cultural elements: it is adaptive, customer-oriented and demanding. These elements consistently point to a culture of customer responsiveness. Our data also includes an e-commerce clothing platform with two cultural elements – growth orientation and work-life balance – that are poorly aligned in their meanings, reducing the congruency of its culture.
We found that the more internally congruent a parent organization’s culture is – and thus, the easier it is to understand and learn – the more likely it is that founders will transfer its elements to their new companies.
Third, the more atypical an organization is – the more it stands out from others in its field – the more likely it is that its culture will be transferred to the startup.
In an atypical culture, it is easy for employees to identify cultural elements, and to remember and incorporate them once they found a startup. Because an atypical culture draws a stronger boundary that distinguishes an organization from others, employees become more aware that the organization has chosen them and that they have chosen to work in it. This creates a cognitive attachment in the employee toward the organization, and also increases how well they learn its culture.
In our study, each startup’s cultural atypicality was measured by calculating the cultural distances between all organizations within the same product category for a given year.
It’s common for founders to describe their culture as distinctive or one-of-a-kind. However, we found that’s not necessarily the case. Founders tend to replicate the culture of their previous employers because they’re accustomed to that way of working.
Many students tell me they’re drawn to more creative and innovative work environments – something they often associate with startups rather than traditional, established companies.
But our research suggests this perception might not be entirely accurate.
Job seekers looking for unique or forward-thinking cultures may be surprised to find that startup environments resemble those of larger tech companies more often than expected.
And for founders – especially those who left previous roles because of frustrating workplace cultures – it can be a wake-up call to realize how easy it is to unintentionally recreate the very environments they may have hoped to avoid.
Yeonsin Ahn ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
02.04.2025 à 16:55
Alain Somat, Professeur de psychologie sociale, Université Rennes 2
Fabien Girandola, Professeur de Psychologie Sociale, Aix-Marseille Université (AMU)
Stéphane Amato, Maître de conférences en sciences de l'information et de la communication, Université de Toulon
Droits de douane exorbitants, volonté d’annexer certains pays voisins, humiliation du président ukrainien… La tactique incendiaire de Donald Trump choque et déstabilise la scène internationale. Mais ses techniques de négociation et de manipulation sont bien connues des chercheurs en psychologie sociale.
Traiter le président Volodymyr Zelensky de « dictateur », avancer qu’« il joue avec la troisième guerre mondiale », menacer de taxer de 200 % le champagne français et les vins européens, vouloir « annexer » le Canada un jour puis le Groenland le lendemain et poursuivre avec le canal de Panama pour prétendre ensuite que la bande de Gaza sera la future « Riviera du Proche-Orient ». Autant de déclarations, en première analyse, qui peuvent apparaître plus insensées les unes que les autres. Il reste qu’elles permettent au 47e président des États-Unis d’envahir, jour après jour, semaine après semaine, l’espace médiatique national et international.
Pour les observateurs occidentaux les plus avisés, Donald Trump recourt, ce faisant, à un rapport de force permanent, contrastant avec les traditions diplomatiques entre États souverains. Certains analystes politiques ont qualifié cette stratégie de « carpet bombing » : envoyer d’abord un tapis de bombes pour mieux négocier par la suite.
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
La question n’est pas tant de savoir si cette méthode a été arrêtée de façon unilatérale par le président Trump ou si elle a été le fruit d’une concertation avec ses conseillers et son administration. L’interrogation est tout autre : cette stratégie présente-t-elle un bénéfice quelconque ?
Sur la base des travaux réalisés par les psychologues sociaux (Joule et Beauvois, 2024), nous pouvons légitimement penser – qu’on le déplore ou qu’on s’en réjouisse – que cette « brutalité assumée » est redoutablement efficace. Regardons de plus près pour se donner les moyens de l’analyse.
Dans un premier temps, on formule une demande totalement inacceptable, en montrant « ses muscles » dans un double but : premièrement, mettre la barre très, très haut ; deuxièmement, effrayer ainsi la partie adverse. Pensons, par exemple, à la demande initiale adressée par le président Trump au sujet de l’accès des États-Unis aux terres rares ukrainiennes en compensation de l’aide militaire et financière versée depuis trois ans, demande exorbitante, comportant la mention d’un montant de 500 milliards de dollars !
Puis, dans un second temps, on formule une demande moins déraisonnable, 300 milliards – un « deal » restant très avantageux pour les États-Unis – dans un climat plus apaisé, en affirmant avoir « beaucoup de respect » pour celui qu’on avait, la veille, qualifié de dictateur. Tel est, pour le président Trump, la meilleure manière d’arriver à ses fins sur le terrain de la négociation.
Le comble : en acceptant, ses interlocuteurs auraient, en prime, le sentiment d’avoir échappé au pire ! Pensons à la manière dont ont été négociés les accords de libre-échange sous l’administration Trump en 2017 en justifiant, par des raisonnements biaisés, des augmentations très significatives des droits de douane (se référer aux négociations sur l’Alena entre le Mexique, le Canada et les États-Unis).
Les volte-face du président états-unien – souffler le chaud et le froid – pour imprévisibles qu’elles puissent paraître, sont sous-tendues par une option stratégique exposée, dès 1987, dans son ouvrage autobiographique The Art of the Deal (co-signé avec le journaliste Tony Schwarz) :
« Je vise très haut, et je continue à pousser, pousser et pousser pour obtenir ce que je veux. »
À y regarder de près, Trump recourt à deux techniques d’influence – pour ne pas dire de « manipulation » – décrites et explicitées par Joule et Beauvois dans leur célèbre best-seller Petit traité de manipulation à l’usage des honnêtes gens(2024).
L’efficacité de chacune de ces techniques, prises isolément, est expérimentalement démontrée, ce qui signifie qu’en recourant à l’une ou à l’autre de ces procédés, on augmente significativement ses chances de parvenir à ses fins.
La première, la technique dite de la « porte-au-nez », consiste à formuler une requête exorbitante (demander à quelqu’un de s’arrêter de fumer pendant un mois) avant de faire une proposition plus acceptable néanmoins encore coûteuse (demander de s’arrêter de fumer pendant vingt-quatre heures). Cette technique s’apparente aux pratiques de marchandage : on part d’une position extrême en vue de parvenir durant la transaction à l’accord le plus avantageux possible.
On doit à Cialdini et à ses collègues la première démonstration expérimentale du phénomène de « porte-au-nez ». Il s’agissait d’obtenir d’étudiants qu’ils veuillent bien accompagner durant deux heures de jeunes délinquants en visite au zoo. En formulant directement cette requête (groupe contrôle), les chercheurs obtinrent un taux d’acceptation de 16,7 %. En utilisant la technique de la « porte-au-nez », ils obtinrent un taux d’acceptation de 50 %.
Cette fois, ils formulèrent, d’abord, une demande démesurée :
« Nous sommes en train de recruter des étudiants qui accepteraient de travailler comme conseillers bénévoles au centre de détention pour jeunes délinquants de la région. Ce travail exige que vous leur consacriez deux heures hebdomadaires pendant au moins deux ans. Vous seriez amenés à tenir le rôle du grand frère de l’un des garçons du centre de détention. Seriez-vous intéressé ? »
Évidemment, tous les étudiants sollicités refusèrent.
La seconde requête était présentée différemment :
« Nous recrutons également des étudiants pour accompagner un groupe de jeunes du centre de détention lors d’une visite au zoo. Ici encore nous avons besoin de bénévoles et cela vous prendrait environ deux heures dans l’après-midi ou la soirée. Seriez-vous intéressé ? »
La technique de la « porte-au-nez » permit donc de tripler le nombre de personnes qui acceptèrent d’accompagner des délinquants en visite au zoo.
La seconde technique, dite de « la crainte-puis-soulagement », consiste d’abord à faire peur voire très peur (en informant les participants d’une expérience scientifique, alors qu’ils ne s’y attendaient pas, qu’ils vont devoir recevoir des chocs électriques), puis à se montrer rassurant (en leur faisant savoir qu’ils n’auront finalement pas à endurer ces chocs). En procédant ainsi, les chercheurs ont observé que les personnes acceptaient ensuite plus facilement de faire ce qu’on souhaitait les voir faire, même avec des demandes coûteuses (collecter pendant plusieurs heures de l’argent dans la rue).
Dolinsky et Nawrat) furent les premiers à étudier expérimentalement la technique de la « crainte-puis-soulagement ».
Une de leur recherche concerne des automobilistes s’étant garés à un endroit interdit. En revenant, ils trouvaient sous l’essuie-glace du véhicule, un papier paraissant être un PV. Dans un cas, il s’agissait d’une simple publicité, dans l’autre, d’une injonction les enjoignant à se présenter au poste de police pour stationnement illicite. L’expérimentatrice, cachée pour l’occasion, laissait l’automobiliste lire le message, puis elle se présentait :
« Bonjour, je suis étudiante… Voudriez-vous remplir un questionnaire pour me rendre service ? Cela ne prendra que quinze minutes. »
Le taux d’acceptation fut de 32 % dans le groupe contrôle, groupe dans lequel les automobilistes n’avaient trouvé aucun papier sur leur pare-brise, contre 62 % dans la condition de « crainte-puis-soulagement » (chez les personnes ayant été confrontées à la publicité). Du simple au double donc.
Ce taux est très différent pour les personnes assignées à comparaître au commissariat : 8 % seulement. C’est donc bien sur la spécificité du couple « crainte-soulagement », et non pas sur la peur en tant que telle, que repose la performance de ce procédé.
Quand on sait que l’articulation de ces deux techniques de manipulation permet encore de gagner en efficacité et considérant la manière dont Donald Trump les esquisse dans son ouvrage The Art of the Deal, nous sommes en droit de nous poser une question essentielle.
Le président des États-Unis, plutôt qu’un bateleur de foire, ne serait-il pas un habile stratège, qui utiliserait, à escient, ces mécanismes dont l’efficience est démontrée, depuis plusieurs décennies, lors de recherches de laboratoire et de terrain ?
Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.
02.04.2025 à 16:55
Blandine Chelini-Pont, Professeur des Universités en histoire contemporaine et relations internationales, Aix-Marseille Université (AMU)
François David, Professeur des Universités, Université Littoral Côte d'Opale
L’énergie déployée par Donald Trump et son administration pour mettre en œuvre un programme consistant, pour une large partie, à défaire profondément l’État fédéral et certaines mesures prises en contournement des lois existantes ont provoqué l’ire de plusieurs juges fédéraux et des remontrances de la Cour suprême. Si cette confrontation entre l’exécutif et le judiciaire venait à se durcir, le pays pourrait entrer dans une période extrêmement troublée, et il reviendrait peut-être à l’armée de jouer un rôle déterminant.
Face aux recours de toutes parts et aux injonctions judiciaires que provoquent les décrets/ordres exécutifs du président des États-Unis ainsi que les multiples atteintes administratives ou de confidentialité commises par le bureau de la gestion et du budget (OMB) ou le département de l’efficacité gouvernementale (DOGE), les deux principaux outils à travers lesquels Donald Trump cherche à démanteler l’administration et une bonne partie des agences fédérales, peut-on envisager la possibilité d’une crise constitutionnelle prochaine ?
Si la Cour suprême des États-Unis désavouait le président ou les organes placés sous sa responsabilité exécutive et si ces derniers passaient outre les décisions de la Cour, en l’accablant d’opprobre, jusqu’où une telle confrontation pourrait-elle aller ?
Le moment semble se rapprocher où la Cour suprême devra se prononcer en ultime recours soit sur différentes plaintes collectives, soit sur les multiples injonctions émises par des juges fédéraux contre le gouvernement, comme elle l’a fait le 5 mars dernier, en donnant raison (en résumé) aux deux injonctions d’un juge de district du Rhode Island qui avait exigé, sans succès, la reprise des versements de fonds votés par le Congrès, provisionnés mais suspendus à l’Agence USAid.
À lire aussi : La fin des programmes d’aide internationale des États-Unis (et leur baisse ailleurs) : une folle indifférence aux malheurs du monde
Le 18 mars 2025, le président de la Cour suprême John Roberts Jr est intervenu, fait rarissime, pour rappeler mais sans le nommer à Donald Trump que la bonne procédure quand on voulait contester une décision judiciaire fédérale était de faire appel plutôt que de réclamer la destitution (« impeachment ») du juge, une procédure exceptionnelle.
Le gouvernement a donc fait appel, le 20 mars, de l’ordre par lequel le juge de Washington James Boasberg (nommé successivement par Bush fils et Barack Obama, puis confirmé chaque fois par le Congrès) avait suspendu l’expulsion sans vérification scrupuleuse de 200 membres présumés d’un gang vénézuélien vers une prison du Salvador, sur la base contestable d’une loi d’exception du XVIIIe siècle.
Cet ordre a été émis avant le décollage de l’appareil qui emmenait ces expulsés vers le Salvador, ce qui peut signifier qu’il a été délibérément ignoré par les autorités, même si l’administration Trump affirme que l’injonction a été portée à sa connaissance alors que l’avion volait déjà au-dessus des eaux internationales.
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
Trump a publiquement taxé le juge Boasberg de « dingue d’extrême gauche » et son secrétaire d’État, Marco Rubio, a reposté le message moqueur du président du Salvador Nayiub Bukele, allié de Trump ravi de l’assister dans ses procédures d’expulsion : « Oups… trop tard ! »
Si la Cour suprême reconnaissait, à l’occasion de cette affaire très symbolique, ou à l’occasion d’autres décisions à venir, que le président du pays ou des membres de son cabinet s’étaient rendus coupables d’un abus de pouvoir exécutif et/ou de la violation des lois et de la Constitution fédérale, il y a fort à parier que l’exécutif fédéral refuserait catégoriquement une telle interprétation.
Beaucoup d’observateurs s’attendaient à voir une Cour aux ordres de Trump, étant donné que les conservateurs y sont majoritaires et que trois juges particulièrement radicaux ont été nommés durant le premier mandat Trump. Mais sa décision du 5 mars et le rappel à l’ordre du juge Roberts montrent qu’elle est prête à faire front, contrairement à ce qu’on pensait.
Or, la Cour est souveraine. Depuis 1803, elle s’est attribué, avec l’arrêt Marbury v. Madison, le droit de juger de la constitutionnalité des décisions de l’exécutif, selon le texte de la Constitution, mais aussi selon ses principes et ses valeurs, lesquelles ont évolué au fil des décennies. La Cour est également garante de l’équilibre constitutionnel entre les pouvoirs, de leurs compétences respectives et de l’équilibre des compétences entre l’État fédéral et les États fédérés.
Que se passerait-il si le président des États-Unis et son entourage continuaient d’agir en ignorant délibérément les décisions défavorables à leurs actions et jetaient la Cour suprême en pâture à la vindicte populaire, en l’accusant d’aller à l’encontre des attentes du peuple souverain ?
Sous l’effet de l’indignation, un tel développement pourrait pousser inexorablement une partie de la population à se mobiliser massivement pour défendre la position d’un président qui apparaîtrait une fois de plus comme entravé dans son action par cet « État profond » qu’il ne cesse de pourfendre, tandis que l’autre partie s’alarmerait au contraire d’un basculement dans la « dictature ».
Devant la virulence des manifestants hostiles à ses projets, Donald Trump pourrait en appeler à ses partisans et aux « milices patriotes », resurgies comme un spectre de la marche sur le Capitole, le 6 janvier 2021. Il pourrait aussi chercher à utiliser les services les plus opérationnels de la police fédérale voire faire appel à la Garde nationale et à l’armée elle-même, en activant l’Insurrection Act de 1807, au nom de la protection du territoire national, enclenchant au passage la loi martiale. Les affrontements violents pourraient dégénérer dans les villes et les gouverneurs des États fédérés, selon leur bord politique, pourraient ordonner à leurs forces de sécurité de contenir l’un ou l’autre des camps.
Le pire n’est jamais sûr. Mais dans ce scénario catastrophe, la seule force institutionnelle capable de s’opposer frontalement à un tel engrenage serait paradoxalement celle qui a tous les moyens d’agir derrière le président : l’armée des États-Unis.
Cette dernière pourrait déclarer, à l’occasion même de son déploiement, qu’elle ne reconnaît plus le président comme son commandant en chef, parce qu’il outrepasse la Constitution. Toutefois, la probabilité d’une telle attitude paraît très faible, et ce, pour deux raisons.
Selon la Constitution, le président est le commandant en chef des armées. Si les généraux américains lui désobéissaient, ils seraient des factieux. Or le droit militaire en matière de felony est impitoyable.
De plus, quand dans le passé l’armée a pris parti dans un conflit constitutionnel, sa partie factieuse a directement contribué au déclenchement de la guerre civile (1861-1865) où un bon tiers des généraux et des officiers supérieurs étaient passés à la Confédération. Depuis, elle a interdiction formelle, à travers le Posse Comitatus Act de 1878, de se mêler des affaires du gouvernement civil, de la justice et des procédures judiciaires.
Cependant, le chef d’état-major interarmées (chairman of the Joint Chiefs of Staff), entouré des plus hauts gradés, pourrait décider en conscience que les corps militaires cessent d’obéir temporairement aux ordres d’un président qui se place au-dessus de la Constitution fédérale et qui ne se conforme pas aux décisions souveraines de la Cour suprême.
Déjà en juin 2020, au cours de son premier mandat, quand Trump avait avancé l’idée d’envoyer l’armée d’active pour disperser les manifestations consécutives à la mort de George Floyd, sa menace avait provoqué une levée de boucliers militaires de la part d’anciens hauts gradés, parmi lesquels deux anciens chefs d’état-major d’une des trois armées, l’amiral Michael Mullen (2007-2011) et le général Martin Dempsey (2011-2015), mais aussi James Miller, ancien sous-secrétaire à la défense chargé de la politique, le général John Allen, ancien envoyé spécial du président dans la coalition contre Daech, l’amiral James Stavridis, ancien commandant suprême des forces alliées en Europe, ou encore le général John Kelly, directeur de cabinet de la Maison Blanche de 2017 à 2019.
Le 5 juin de la même année, le Washington Post publiait une lettre de 89 anciens officiels de la défense – dont plusieurs anciens secrétaires à la défense comme Ashton Carter ou Leon Panetta – exprimant leur inquiétude face à la perspective que l’armée soit utilisée pour s’en prendre à des manifestants. Enfin, Jim Mattis, véritable légende du corps des Marines, premier secrétaire à la défense du premier mandat de Donald Trump, mais démissionnaire en décembre 2018, était sorti de son silence en juin 2020 pour condamner les divisions créées par ce dernier dans la société américaine et son instrumentalisation de l’armée.
Les dispositions du Titre 10 de l’US Code obligent les forces armées à être loyales envers la Constitution des États-Unis, pas envers le président de l’exécutif. Rappelons au passage que le président a la même obligation envers la Constitution.
De même, les forces armées sont censées obéir à des ordres légaux (vaste débat) et à refuser des ordres illégaux, une attitude qui est rappelée dans le cadre du Code of Conduct militaire. Ce document dresse la liste détaillée des situations où le corps militaire doit refuser des ordres contraires à l’éthique et au droit international des conflits armés.
L’armée peut bloquer toute tentative d’insurrection avec armes sur le territoire. Elle pourrait s’arroger de facto le pouvoir de maintien de l’ordre territorial jusqu’à ce que l’exécutif se plie aux décisions judiciaires fédérales et reconnaisse ses limites dans l’exercice de son autorité. Dans l’attente de cette résolution de crise, l’armée pourrait collaborer avec la justice des États, dans une sorte de qualified martial law, où la force armée maintient l’ordre, arrête les perturbateurs mais les remet au juge civil.
En un mot, l’armée pourrait devenir un dernier recours pour protéger les mécanismes et les rouages abîmés de la démocratie américaine, si jamais la souveraineté de l’appareil judiciaire fédéral était contestée et si le pays versait ouvertement, outre l’affrontement entre citoyens, dans l’arbitraire et la dictature larvée.
Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.
02.04.2025 à 16:54
Gülçin Erdi, Directrice de recherche au CNRS, en affectation à l'Institut français d'études anatoliennes (IFEA) à Istanbul, Université de Tours
L’arrestation du maire d’Istanbul, qui devait affronter Recep Tayyip Erdogan à la prochaine présidentielle, a mis le feu aux poudres en Turquie. Une large partie de la population est en effet excédée par le durcissement politique constant du pouvoir, qui se déploie sur fond de graves difficultés économiques et de déréliction du système éducatif.
Les mobilisations récentes en Turquie, qui ont débuté à Istanbul le 19 mars, sont les plus vastes depuis le mouvement de Gezi en 2013, qui avait profondément ébranlé le pouvoir de l’AKP (le Parti de la justice et du développement, islamo-nationaliste, de Recep Tayyip Erdogan). Cette contestation trouve son origine dans l’arrestation, le 19 mars dernier d’Ekrem Imamoglu, maire d’Istanbul et candidat du CHP (Parti républicain du peuple, kémaliste, laïque et social-démocrate) à l’élection présidentielle prévue pour 2028, ainsi que d’une centaine d’autres personnes, dont deux maires d’arrondissement d’Istanbul (Beylikdüzü et Sisli).
Imamoglu, accusé par le pouvoir de corruption dans le secteur immobilier et de soutien au Parti des travailleurs du Kurdistan (PKK), considéré comme une organisation terroriste, a remporté les élections municipales à trois reprises face à l’AKP. Sa dernière victoire, en mars 2024, est liée, d’une part, à sa capacité à unir différents courants politiques de gauche, dont le Parti de l’égalité et de la démocratie des peuples (DEM Parti), issu du mouvement politique kurde, et d’autre part à mettre en œuvre des projets sociaux, tels que l’ouverture de crèches, de cantines populaires et de résidences étudiantes, ainsi que des programmes de rénovation d’ampleur. Sous sa férule, des bâtiments et des sites industriels, mais aussi des édifices historiques en mauvais état ont été réhabilités.
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
Ces projets, conçus pour servir la population d’Istanbul – avec par exemple l’installation de bibliothèques et de cafétérias à faible coût au sein des bâtiments restaurés – ont significativement contribué à la popularité d’Imamoglu, lui assurant un soutien considérable de l’électorat, à Istanbul mais aussi ailleurs dans le pays. D’où la profonde indignation que les poursuites judiciaires le visant ont suscitée au sein de la société turque.
Depuis le début de la pandémie de Covid-19, la Turquie est confrontée à de graves problèmes économiques qui se sont encore accentués depuis deux ans. L’inflation persiste, le taux de change du nouveau lira turc s’érode, la dette publique du pays s’accroît, le secteur industriel est en déclin et le coût de la vie pèse sur une large part de la population, dont les revenus sont érodés par l’inflation, malgré une croissance actuellement proche de 3,8 %.
Cette conjoncture économique est associée à un niveau de vie précaire, à une flexibilité accrue du marché du travail et à un taux de chômage élevé, notamment parmi la population des jeunes adultes âgés de 18 à 25 ans. Un nombre significatif de jeunes diplômés éprouve des difficultés à trouver un emploi qui correspond à leurs compétences, nous y reviendrons.
On observe un fort sentiment d’insécurité professionnelle et une paupérisation croissante affectant tant les actifs, spécialement les jeunes, que les retraités, dont les pensions ne couvrent plus les dépenses élémentaires telles que le loyer. Des difficultés exacerbées par l’affaiblissement des syndicats de travailleurs, un cadre législatif favorisant les intérêts des employeurs et diverses réglementations qui restreignent le droit de grève. La sécurité de l’emploi est globalement faible.
Malgré ce contexte économique pénible pour la population, les dispositifs d’aide sociale de l’État sont limités ou inexistants. L’assurance chômage, qui correspond à 40 % du salaire des quatre derniers mois, est soumise à des conditions d’accès rigoureuses et la durée de son octroi est limitée à dix mois au maximum. En outre, l’absence de politiques de logement social et d’aides spécifiques à l’accès au logement constitue un défi majeur pour les travailleurs, spécialement les précaires.
Par ailleurs, les Turcs sont nombreux à estimer qu’il existe une corrélation nette entre l’accès à l’emploi et la proximité avec l’AKP. L’opacité du déroulement des concours publics et les cas de clientélisme favorisant les proches des membres de l’AKP contribuent à la baisse du soutien des Turcs au gouvernement.
À ces difficultés s’ajoute une conjoncture politique particulièrement tendue. Depuis la tentative de coup d’État avortée de 2016, on observe un durcissement du caractère autoritaire du régime, qui instille délibérément un climat de peur, n’hésitant pas à engager des procès à l’encontre d’hommes politiques, de médias d’opposition, de journalistes, d’écrivains, de représentants syndicaux, d’étudiants et de citoyens ordinaires s’exprimant dans les médias télévisuels, pour « incitation à la haine et à l’hostilité à l’égard du président », ainsi que pour « injures publiques » et « propagande terroriste ».
À la suite d’événements majeurs tels que le séisme dévastateur de février 2023, les autorités ont régulièrement recours à des mesures de restriction des réseaux sociaux et de fermeture de sites d’information et de comptes de citoyens, souvent accusés de propagande terroriste quand ils critiquent le pouvoir.
Parallèlement à ce climat d’intimidation, les droits des femmes sont de plus en plus foulés aux pieds, et les féminicides atteignent des niveaux alarmants. Cette conjonction de facteurs a des répercussions sur le bien-être social en Turquie : le pays se situe entre la 112e et la 98e place sur l’indice mondial du bonheur.
À lire aussi : Violences faites aux femmes : l’inquiétante évolution de la Turquie
C’est dans ce climat de tension croissante que les mobilisations ont commencé, initiées par les étudiants de l’Université d’Istanbul, laquelle venait d’annoncer l’annulation du diplôme qu’Imamoglu y avait obtenu en 1994 – or la détention d’un diplôme universitaire est une condition sine qua non pour être candidat à l’élection présidentielle. S’estimant victimes d’une atteinte à la réputation de leur diplôme et de leur université, puisque celle-ci donnait l’image d’être au service du gouvernement, les étudiants se sont rassemblés devant le campus de leur université, situé à proximité du bâtiment de la mairie d’Istanbul, et ont réussi à surmonter le dispositif policier pour y accéder.
Le mécontentement couvait depuis longtemps chez ces jeunes nés dans les années 2000, ayant grandi dans un système éducatif qui, ces dernières années, a subi des réformes visant à promouvoir une éducation conservatrice et prosélyte, où l’enseignement de matières telles que la sociologie, les sciences physiques ou encore les mathématiques a été nettement réduit.
Depuis le milieu des années 2000, l’accès à une éducation de qualité devient un enjeu financier majeur pour les familles qui souhaitent inscrire leurs enfants dans des établissements scolaires privés, leur permettant de se soustraire à l’endoctrinement politique de l’État. Ces établissements privés pratiquent des frais de scolarité souvent exorbitants, ce qui contribue à l’aggravation des inégalités sociales. Par conséquent, de nombreux jeunes se trouvent dans l’incapacité de s’imaginer un avenir au sein de leur pays et se tournent souvent vers l’émigration.
Ceux qui obtiennent un diplôme universitaire ne sont pas nécessairement en mesure de trouver un emploi à la fois gratifiant sur le plan personnel et financièrement avantageux. En outre, l’accès à un emploi stable, ne suffit pas à garantir un épanouissement et un confort dans une économie incertaine qui empêche de faire des projets à moyen terme et dans un pays où la dégradation des libertés individuelles ne permet pas aux gens de vivre et d’organiser leur vie comme ils le souhaitent, même lorsqu’ils disposent d’un bon salaire.
Par ailleurs, la crise économique actuelle contribue à limiter la réalisation des projets personnels de vie, tels que le mariage, l’accession à la propriété ou l’achat d’une voiture. Ces facteurs cumulés peuvent conduire à un sentiment de désespoir et un mal-être accru chez les jeunes, qui se trouvent privés des rêves et des aspirations qu’ils avaient construits. Cette situation est exacerbée par une tendance croissante au clientélisme dans divers secteurs de la société, ce qui tend à renforcer les inégalités et l’insatisfaction.
Tout cela a explosé après l’arrestation d’Imamoglu, que la majorité des citoyens turcs perçoivent comme une tentative du pouvoir, lequel contrôle de plus en plus étroitement la justice, d’éliminer le seul candidat susceptible de contester la suprématie d’Erdogan lors des prochains scrutins. Le poids politique d’Imamoglu a en effet été étayé par la primaire symbolique qu’a organisée le CHP, après son arrestation, pour l’investir comme candidat officiel du parti face à Erdogan en vue de la prochaine présidentielle, à laquelle ont participé pas moins de 15 millions de citoyens.
Dans un second article qui sera tout publié tout prochainement, nous analyserons plus en détail la mobilisation actuelle, ses mécanismes et ses perspectives.
Gülçin Erdi a reçu des financements de l'ANR
02.04.2025 à 16:53
Xavier Bonnet, Directeur de Recherche CNRS en biologie et écologie des reptiles, Centre d'Etudes Biologiques de Chizé
Karl Zeller, Docteur en Écologie Évolutive, Muséum national d’histoire naturelle (MNHN)
Une étude d’ampleur inédite montre que la peur que nous ressentons envers certains animaux n’a pas grand-chose à voir avec le danger qu’ils représentent. Mais ces émotions peuvent en revanche avoir des effets très néfastes sur la protection de la biodiversité.
En 1872, Charles Darwin décrivait la peur comme une puissante alliée pour éviter ou pour fuir les dangers. Au cours des plus de 50 millions d’années d’évolution des primates et pendant la presque totalité de l’histoire humaine, grands carnivores, crocodiles ou serpents venimeux étaient de terribles menaces. En avoir peur était donc nécessaire à la survie.
Mais aujourd’hui, notre peur des animaux ne s’arrête pas aux espèces dangereuses. Certains animaux inoffensifs nous terrifient également. Pourquoi ce décalage entre danger réel et terreur ? Des facteurs socioculturels et le succès de théories contestables pourraient l’expliquer.
Pour mieux comprendre la peur des animaux nous avons sondé plus de 17 000 participants à travers le monde, en leur proposant un questionnaire sous forme de jeu en ligne fondé sur des portraits photographiques d’animaux. Le panel comprenait 184 espèces : des mammifères, des reptiles, des oiseaux, des arthropodes (insectes et araignées) et des amphibiens. En pratique, au cours d’une aventure imaginaire, des paires de photos (un lion et une mésange, par exemple) étaient tirées au sort et présentées à l’écran, 25 fois de suite.
Chaque participant devait choisir l’animal qui lui faisait le plus peur, cliquer sur sa photo, passer à la paire suivante puis, à la fin du jeu, répondre à quelques questions.
Nous avons ainsi obtenu les résultats sur plus de 400 000 duels de photos, une mine d’or statistique. L’analyse des choix et des temps de réponse ont permis de classer les 184 animaux selon le niveau de crainte qu’ils inspirent. La diversité des participants (âge, genre, pays d’origine, études, etc.) a révélé des relations complexes entre danger réel (ou écologique) et influences socioculturelles.
Une constante est cependant apparue : dans toutes les zones géographiques et classes d’âges, des animaux inoffensifs pour l’humain, comme les chauves-souris, les araignées ou les serpents non venimeux, ont suscité des réactions de peur très marquées, autant voire plus qu’avec des espèces potentiellement très dangereuses comme l’hippopotame ou l’ours brun. La logique de terrain, celle énoncée par Darwin, était donc bien prise en défaut.
Pour expliquer cette discordance, certaines théories très en vogue depuis plus de quinze ans proposent que la peur des serpents et des araignées soit figée, innée et codée dans nos gènes.
Mais comment la sélection naturelle aurait-elle produit un résultat aussi illogique ? Comment savoir également si les premiers humains avaient peur des araignées et des serpents, surtout que de nombreux primates ne les fuient pas et, au contraire, les mangent ? Les serpents sont également toujours considérés comme des délices culinaires et sont largement consommés dans différentes régions du monde. Les théories patinent un peu sur ces points cruciaux.
D’autres explications semblent nécessaires. Un autre cadre théorique pointe les facteurs socioculturels dans la transmission d’émotions, notamment les peurs, y compris celle des animaux. Combinée à l’absence de contact avec la nature, la transmission familiale et sociale de la peur du vivant conduirait jusqu’à la biophobie, c’est-à-dire la peur ou même la haine du vivant.
Des facteurs culturels pourraient effectivement expliquer pourquoi de nombreuses personnes croient à tort que les araignées sont dangereuses et tuent fréquemment des humains alors que seulement 0,5 % des araignées sont potentiellement dangereuses pour l’humain, les accidents graves sont rarissimes et les décès vraiment exceptionnels. Dans notre étude, certains participants ont même déclaré avoir peur d’être mangés par une araignée, une idée totalement irrationnelle.
Des préjugés, un sentiment général de dégoût, mais surtout le manque de connaissances naturalistes laissent ainsi la place aux légendes et aux peurs exagérées qui les accompagnent. La distorsion est amplifiée par les médias et les films, où les araignées et serpents géants sont trop souvent monstrueux et féroces.
Un mécanisme central est que les peurs exacerbées peuvent être transmises en un clin d’œil et voyager de génération en génération. Cet effet est marqué chez les plus jeunes, un parent effrayé par une petite araignée de maison peut inoculer sa terreur à ses enfants en quelques secondes. Ainsi renforcées, les représentations déformées des animaux dans les films peuvent devenir des croyances ancrées, puis des « vérités ». Ce décalage entre le danger perçu et la réalité quotidienne s’accroît dans les sociétés urbanisées, où la déconnexion avec la nature augmente constamment.
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
Bien sûr, les animaux potentiellement dangereux, comme le lion, suscitent aussi des réactions fortes et rationnelles de peur. De nombreux cas de prédation, d’attaques ou de morsures mortelles sont documentés à travers le monde. Dans notre étude, les crocodiles, les grands félins et les serpents venimeux sont effectivement perçus comme très effrayants. Les participants ont clairement exprimé leur peur d’être tués par une énorme vipère du Gabon ou d’être mangés par un tigre.
Inversement, la grande majorité des animaux inoffensifs, comme le lapin, la tortue ou le koala, n’ont suscité aucune peur. Ces résultats confirment donc une définition générale de la peur comme un état émotionnel adaptatif, qui incite les animaux à réagir de façon appropriée face à des stimulus potentiellement dangereux.
Mais il reste difficile de distinguer ce qui relève de mécanismes innés plutôt que des biais culturels dans la peur des animaux. La grande taille (un bison adulte est impressionnant), les dents de carnassier, le regard fixe du prédateur ou les signaux d’avertissement (bandes colorées sur les serpents venimeux ou les guêpes) sont probablement des messages clairs compris de tous, indépendamment de la culture, mais cela reste à démontrer. Les visions purement innées ou purement culturelles, extrêmement rigides, correspondent particulièrement mal à une réalité qui semble davantage complexe et intriquée.
Une chose reste certaine : les peurs exacerbées, irrationnelles et invalidantes, c’est-à-dire des phobies, ont des conséquences. Elles gâchent la vie, y compris celle des animaux qui en font les frais. Le déclin des serpents en témoigne. Il progresse à une vitesse alarmante, aussi bien en Europe que sur le plan mondial. Il est donc urgent de les protéger. En outre, ces animaux jouent des rôles écologiques clés et sont des auxiliaires de l’agriculture. Pourtant ils sont souvent persécutés et tués.
Or, la peur qu’il inspirent est le principal déclencheur de cette attitude agressive et violente. Le pire est que, lorsqu’il s’agit de serpents venimeux, le risque d’être mordu par riposte augmente considérablement. Au cours d’une rencontre, il est prudent de laisser les serpents tranquilles ou de s’enfuir plutôt que de leur taper dessus. La peur exagérée et les gestes dangereux et mal contrôlés entraînent des drames pour les humains et les autres animaux.
L’aversion forte pour certains animaux couplée à la perte de contact avec la nature est aussi associée à la dégradation de la santé mentale. L’expérience directe avec la nature semble nécessaire aux équilibres psychologique et physiologique.
Or, la manière dont nous percevons la nature influence directement notre investissement dans sa préservation. Les espèces perçues comme effrayantes, souvent à tort, sont malheureusement fortement négligées par les programmes de conservation. La biophobie rend difficile l’éducation à l’environnement et la protection de la biodiversité. La répugnance pour de nombreux arthropodes et reptiles s’accompagne d’un faible effort de conservation par rapport aux espèces charismatiques (par exemple, les dauphins ou les ours). Il est pourtant nécessaire de protéger des ensembles.
La note positive est qu’il a été montré expérimentalement qu’une simple sortie nature, un bref contact avec les serpents, suffit à changer la donne, tout au moins chez des enfants. Ce résultat souligne le rôle majeur de la culture et de l’éducation, par rapport aux hypothèses fondées sur la peur innée des serpents.
Il est donc essentiel d’étudier le développement et la persistance des perceptions positives et négatives vis-à-vis des animaux pour améliorer le confort de vie, la santé, mais aussi pour réduire les conflits entre l’humain et la nature. Élargir des actions de sensibilisation à toutes les espèces est fondamental pour guider les efforts de protection. Détruire pour délit de faciès n’est pas acceptable. En outre, la destruction de populations ou d’espèces peut perturber des écosystèmes et avoir un bilan mitigé voire négatif.
La peur est notre alliée, mais, mal domptée, elle peut se retourner contre nous et contre notre environnement. Il serait sage d’en tenir compte dans les programmes d’éducation.
Karl Zeller a reçu des financements de l'Initiative Biodiversité Écologie, Évolution, Société (IBEES) de l'Alliance Sorbonne Université.
Xavier Bonnet ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
02.04.2025 à 16:52
Marina Ferreira Da Silva, Enseignant-chercheur en Sciences de Gestion, Université de Rouen Normandie
Si les jeux vidéo en ligne dessinent de nouveaux espaces d’échanges entre adolescents, ils peuvent être sources de pression sociale quand l’obsession de la victoire devient trop forte.
52 % des 12-17 ans passent plus de trois heures par jour devant les écrans. Si les réseaux sociaux occupent une place de choix dans leurs pratiques numériques, les jeux vidéo sont également largement plébiscités : 93 % des 10-17 ans y joueraient, parmi lesquels 62 % quotidiennement.
Si les consoles et PC restent des supports importants, la généralisation des smartphones dès l’entrée au collège a permis une plus grande accessibilité, offrant aux adolescents la possibilité de plonger partout et à tout moment dans leurs univers ludiques favoris.
De Fortnite à Roblox, de Minecraft à Brawl Stars… les jeux en ligne sont devenus de véritables lieux de rassemblement et d’interaction pour les jeunes. S’ils peuvent susciter des inquiétudes et des conflits au sein des familles, il faut voir aussi qu’ils constituent des outils de socialisation privilégiés pour les jeunes générations.
L’adolescence est une période intense de questionnement et d’exploration, pendant laquelle les jeunes construisent leur identité sociale. Les groupes de pairs prennent une place centrale, devenant une référence essentielle pour ces individus en quête d’interactions, d’approbation et de reconnaissance.
Dans ce contexte, les jeux vidéo participent de la culture adolescente. Ils ouvrent un espace dans lequel ils vont pouvoir créer, maintenir ou renforcer les liens avec leurs pairs, mais aussi développer leur confiance en eux. Ainsi, dans leurs pratiques vidéoludiques, les jeunes privilégient largement les modes de jeux qui leur permettent de vivre une expérience collective : 81 % des 10-17 ans préfèrent jouer à plusieurs (en ligne ou en local), et 48 % ont le sentiment, grâce aux jeux, de faire partie d’une communauté.
Pendant les sessions, les adolescents prennent plaisir à retrouver leurs amis pour partager un moment ludique, riche en interactions. Les systèmes de chats (vocaux ou textuels) proposés par les jeux renforcent l’hédonisme de l’expérience : « je joue avec des amis, qui sont drôles, qui pendant le jeu vont faire des petites blagues, enfin c’est ça, c’est toujours chercher la petite vanne qui va faire rigoler l’équipe », note le participant d’une enquête en cours.
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
En fonction du jeu, ils sont amenés à collaborer pour résoudre des énigmes, coconstruire des structures, ou encore battre des équipes adverses. Ils doivent alors communiquer, élaborer des stratégies et se coordonner, ce qui renforce les liens et offre un terrain d’apprentissage de nombreuses compétences psychosociales (solidarité, gestion des conflits, leadership, empathie…). La coopération dans les jeux vidéo favoriserait les comportements prosociaux des enfants, même dans le cas de contenus violents comme Fortnite, comparativement au mode solo.
Les systèmes de teams, clans, clubs ou guildes, offrent des occasions de créer de nouvelles amitiés fondées sur une passion commune. Les adolescents peuvent également décider d’entrer en compétition contre leurs amis, le jeu leur permet alors d’obtenir la reconnaissance des pairs en cas de victoire et de renforcer l’estime de soi.
Au-delà de l’expérience, le fait de jouer aux jeux plébiscités par le groupe de pairs permet à l’adolescent de prendre part aux conversations, de donner son opinion, de partager des anecdotes et un langage commun (par exemple, les joueurs Fortnite utiliseront à tout va des termes comme « spawn », « crack », ou « bambi »). Celui qui ne joue pas se retrouvera en position de spectateur et pourra se sentir exclu du groupe.
Si les jeux vidéo en ligne sont des espaces de rencontre, d’amusement et d’échanges, ils peuvent également générer une pression sociale sur les jeunes joueurs.
Les mécaniques de compétition mobilisées dans certains jeux peuvent en effet amener les adolescents, qui se comparent aux autres, à être toujours plus exigeants envers eux-mêmes : les performances individuelles doivent constamment être améliorées, car les enjeux sont importants. Il s’agit à la fois d’être reconnu et valorisé par les pairs, mais aussi de ne pas être responsable de la défaite de son équipe, au risque d’en être exclu.
Si au départ les équipes se font par affinités (il s’agit de passer un bon moment avec les amis), elles peuvent très vite se restructurer en fonction de la montée en compétences des joueurs (l’idée est alors de constituer l’équipe la plus performante possible) : « on recrute des personnes, on doit être la faction la plus puissante pour gouverner toutes les autres », raconte un joueur.
Cette pression sociale engendre une implication émotionnelle forte et peut aboutir à l’adoption de pratiques « tryhard ». Elles se manifestent par une obsession de la victoire et de la performance, qui pousse un joueur à consacrer un temps et des efforts considérables dans le jeu et qui peut, in fine, mener à des phénomènes de dépendance et à un isolement social.
L’obsession du ranking devenant plus importante que le plaisir de jouer, la dynamique sociale au sein des communautés peut rapidement devenir anxiogène et oppressante envers les moins bons joueurs, et les expose à des risques de cyberintimidation voire de harcèlement.
En effet, bien que les différentes plateformes proposent des restrictions d’interactions pour protéger les jeunes joueurs (par exemple, un chat limité aux amis ou membres du club, un filtrage des mots grossiers…), les adolescents peuvent facilement les contourner, en utilisant notamment d’autres outils de communication en ligne (tels que Discord), ou encore en saisissant un âge supérieur lors de la création de leur compte.
Enfin, la volonté d’être reconnu et valorisé par le groupe pousse les adolescents à vouloir réaliser toujours plus d’achats « in-app » : il s’agit, par exemple, d’obtenir des avantages stratégiques pour gagner davantage de trophées, ou encore des « skins » ou objets rares et précieux, signes de statut et de prestige dans certaines communautés de joueurs.
Face à ces dérives, la tentation est grande pour les parents de limiter drastiquement les temps de jeu, voire d’en bloquer complètement l’accès. Or, le jeu vidéo en ligne, lorsque son usage n’est pas excessif, répond aux besoins de sociabilité et d’appartenance des adolescents. Il s’agit donc davantage de favoriser le dialogue et de responsabiliser les jeunes.
Des règles peuvent être imaginées ensemble, concernant notamment les temps de jeu (une limite temporelle raisonnable et souple, permettant de ne pas couper le jeu en pleine session), les interactions (un chat limité aux amis proches), ou encore les moments de jeux (conditionnés à la réalisation d’autres activités sans écran). L’important est d’ouvrir un espace de discussion permettant à l’adolescent de profiter des bénéfices du jeu vidéo, en le préservant de ses dangers.
Marina Ferreira Da Silva a reçu des financements de : Agence Nationale de la Recherche (ANR) - Projet ALIMNUM - ALIMentation et NUMérique.
02.04.2025 à 15:08
Frédéric Fréry, Professeur de stratégie, CentraleSupélec, ESCP Business School
Microsoft celebrates its 50th anniversary. This article was written using Microsoft Word on a computer running Microsoft Windows. It is likely to be published on platforms hosted by Microsoft Azure, including LinkedIn, a Microsoft subsidiary with over one billion users. In 2024, the company generated a net profit of $88 billion from sales worth $245 billion. Its stock market value is close to $3,000 billion, making it the world’s second-most valuable company behind Apple and almost on a par with NVidia. Cumulative profits since 2002 are approaching $640 billion.
And yet, 50 years ago, Microsoft was just a tiny computer company founded in Albuquerque, New Mexico by two former Harvard students, Bill Gates and Paul Allen, aged 19 and 22. The twists and turns that enabled it to become one of the most powerful companies in the world are manifold, and can be divided into four distinct eras.
At the end of the 1970s, IBM was the computer industry’s undisputed leader. It soon realized that microcomputers developed by young Silicon Valley entrepreneurs, such as the Apple II, would eventually eclipse IBM’s mainframes, and so the IBM PC project was launched. However, it soon became clear that the company’s hefty internal processes would prevent it from delivering a microcomputer on schedule. It was therefore decided that various components of the machine could be outsourced using external suppliers.
A weekly e-mail in English featuring expertise from scholars and researchers. It provides an introduction to the diversity of research coming out of the continent and considers some of the key issues facing European countries. Get the newsletter!
Several specialized companies were approached to provide the operating system. They all refused, seeing IBM as the enemy to be destroyed, a symbol of centralized, bureaucratic computing. Mary Maxwell Gates, who sat on the board of an NGO next to the IBM chairman, suggested the name of her son William, nicknamed Bill, who had just founded Microsoft, and the first contact was established in 1980.
The problem was that Microsoft was focused on a programming language called BASIC and certainly not specialized in operating systems. Not that this was ever going to be a problem for Bill Gates, who, with considerable nerve, agreed to sign a deal with IBM to deliver an operating system he didn’t have. Gates then purchased the QDOS system from Seattle Computer Products, from which he developed MS-DOS (where MS stands for Microsoft).
Gates, whose father was a founding partner of a major Seattle law firm, then made his next move. He offered IBM a non-exclusive contract for the use of MS-DOS, which gave him the right to sell it to other computer companies. IBM, which was not used to subcontracting, was not suspicious enough: the contract brought fortunes to Microsoft and misery to IBM when Compaq, Olivetti and Hewlett-Packard rushed to develop IBM PC clones, giving birth to a whole new industry.
Success followed for Microsoft. It not only benefited from IBM’s serious image, which appealed to businesses, but also received royalties on every PC sold on the market. In 1986, the company was introduced on the stock market. Bill Gates, Paul Allen and two of their early employees became billionaires, while 12,000 additional Microsoft employees went on to become millionaires.
In the mid-1980s, microcomputers were not very functional: their operating systems, including Microsoft’s MS-DOS, ran with forbidding command lines, like the infamous C:/. This all changed in 1984 with the Apple Macintosh, which was equipped with a graphic interface (icons, drop-down menus, fonts, a mouse, etc.). This revolutionary technology was developed in Xerox’s research laboratory, even though the photocopy giant failed to understand its potential. On the other hand, Steve Jobs, Apple’s CEO, was largely inspired by it: to ensure the success of the Macintosh computer, Jobs asked Microsoft to develop a customized version of its office suite, in particular its Excel spreadsheet. Microsoft embraced the graphic interface principle and launched Windows 1 in 1985, which was soon followed by the Office suite (Word, Excel and PowerPoint).
Over the following years, Windows was further improved, culminating in Windows 95, launched in 1995, with an advertising campaign costing over $200 million, for which Bill Gates bought the rights of The Rolling Stones’ “Start Me Up”. At the time, Microsoft’s world market share in operating systems exceeded 70%. This has hardly changed since.
In 1997, Microsoft even went so far as to save Apple from bankruptcy by investing $150 million in its capital in the form of non-voting shares, which were sold back three years later. During one of his famous keynote speeches, Steve Jobs thanked Bill Gates by saying: “Bill, thank you. The world’s a better place.” This bailout also put an end to the lawsuit Apple had filed against Microsoft, accusing it of copying its graphic interface when designing the Windows operating system.
In the mid-1990s, computing underwent a new transformation with the explosion of the World Wide Web. Microsoft was a specialist in stand-alone PCs, with a business model based on selling boxed software, and it was ill-prepared for the new global networks. Its first response was to develop Internet Explorer, a browser developed from the takeover of the Mosaic browser designed by the Spyglass company, a bit like MS-DOS in its day. Internet Explorer was eventually integrated into Windows, prompting a lawsuit against Microsoft for abuse of its dominant position, which could have led to the company’s break-up. New competitors, such as Google with its Chrome browser, took advantage of these developments to attract users.
In 2000, Bill Gates handed over his position as Microsoft CEO to Steve Ballmer, one of his former Harvard classmates, whose aim was to turn the company into an electronics and services company. Over the next fifteen years, Ballmer embarked on a series of initiatives to diversify the company by including video games (Flight Simulator), CD encyclopedias (Encarta), hardware (mice, keyboards), MP3 players (Zune), online web hosting (Azure), game consoles (Xbox), phones (Windows Phone), tablets and computers (Surface).
While some of these products were successful (notably Azure and Xbox), others were bitter failures. Encarta was quickly swamped by Wikipedia and Zune was no match for Apple’s iPod. Windows Phone remains one of the greatest strategic blunders in the company’s history. In order to secure the company’s success in mobile telephony and compete with the iPhone, Microsoft bought the cell phone division of Finland’s Nokia for $5.4 billion in September 2013. The resulting integration was a disaster: Steve Ballmer wanted Microsoft’s phones to use a version of Windows 10, making them slow and impractical. Less than two years later, Microsoft put an end to its mobile phone operations, with losses amounting to $7.6 billion. Nokia was sold for just $350 million.
One of the outcomes of Microsoft’s multiple business initiatives has been an explosion in the number of its employees, from 61,000 in 2005 to 228,000 in 2024. Numerous internal disputes broke out between different business units, which sometimes refused to work together.
These turf wars, coupled with pervasive bureaucratization and effortless profitability (for each Windows installation, PC manufacturers pay around $50, while the marginal cost of the license is virtually zero), have hindered Microsoft’s capacity for innovation. Its software, including Internet Explorer 6 and Windows Vista, was soon mocked by users for its imperfections, which were continually plugged by frequent updates. As some people noted, Windows is equipped with a “safe” mode, suggesting that its normal mode is “failure”.
In 2014, Satya Nadella replaced Steve Ballmer as head of Microsoft. Coming from the online services division, Nadella’s objective was to redirect Microsoft’s strategy online, notably by developing the Azure online web hosting business. In 2024, Azure became the world’s second-largest cloud service behind Amazon Web Services, and more than 56% of Microsoft’s turnover came from its online services. Nadella changed the company’s business model: software is no longer sold but available on a subscription basis, in the shape of products such as Office 365 and Xbox Live.
Along the way, Microsoft acquired the online game Minecraft, followed by the professional social network LinkedIn, in 2016, for $26.2 billion (its largest acquisition to date), and the online development platform GitHub in 2018 for $7.5 billion.
Between 2023 and 2025, Microsoft invested more than $14 billion in OpenAI, the company behind ChatGPT, giving it a particularly enviable position in the artificial intelligence revolution. ChatGPT’s models also contribute to Microsoft’s in-house AI, Copilot.
Over the past 50 years, thanks to a series of bold moves, timely acquisitions and failed strategies to diversify, Microsoft has evolved significantly in its scope, competitive advantage and business model. Once stifled by opulence and internal conflicts, the company seems to have become attractive again, most notably to young graduates. Who can predict whether Microsoft will still exist in 50 years? Bill Gates himself says the opposite, but he may be bluffing.
Frédéric Fréry ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
02.04.2025 à 12:23
Caroline Gans Combe, Associate professor Data, econometrics, ethics, OMNES Education
Dans un monde où l’information est devenue à la fois omniprésente et suspecte, la destruction délibérée de bases de données scientifiques évoque de sombres souvenirs historiques. Elle représente une menace sérieuse pour l’avenir de la connaissance partagée, le progrès scientifique global et, plus fondamentalement, la richesse des nations.
Depuis le 20 janvier 2025, l’administration aux commandes de la première puissance mondiale mène une campagne méthodique contre les données, particulièrement celles à caractère scientifique. Plus de 3 400 jeux de données, dont 2 000 à vocation scientifique, ont été supprimés des sites gouvernementaux américains. Cette offensive cible prioritairement les informations relatives au changement climatique, à la santé publique et à l’équité sociale. L’armée américaine a ainsi reçu l’ordre de supprimer tout contenu mettant en valeur ses efforts de diversité, y compris les images historiques des premières femmes ayant réussi l’entraînement pour intégrer l’infanterie du corps des Marines !
Des données cruciales de santé publique concernant l’obésité, les taux de suicide, le tabagisme chez les adolescents et les comportements sexuels ont également disparu des sites web du Center for Disease Control (CDC), l’équivalent états-unien de notre direction de maladies infectueuses (DMI) dont le rôle est de surveiller notamment les pandémies. Malgré une injonction judiciaire ordonnant la restauration de ces informations, des questions persistent quant à l’intégrité des données reconstituées.
Par ailleurs, des préoccupations émergent concernant la manipulation potentielle des statistiques économiques. Cette purge numérique s’accompagne d’interruptions de projets de recherche, de réductions drastiques des moyens et de licenciements de scientifiques de premier plan, notamment Kate Calvin, scientifique en chef de la Nasa.
L’administration a également ordonné la fin des échanges scientifiques internationaux, notamment entre la National Oceanic and Atmospheric Administration (NOAA) et l’Institut français de recherche pour l’exploitation de la mer (Ifremer). Cela fait craindre pour la précision des alertes sur les évènements majeurs, comme on avait pu le voir lors du Sharpiegate, où l’actuel président et les équipes le soutenant (dont l’actuel administrateur du NOAA déjà en poste à l’époque) avaient falsifié des cartes météo pour donner raison au président quant à la direction du cyclone « Dorian », et ce, contre l’évidence scientifique. Or, la précision de ces alertes est fondamentale pour sauver des vies.
Face à cette situation alarmante, certes, une résistance s’organise : des chercheurs tentent désespérément de préserver les données avant leur destruction. Malheureusement, la vitesse des coups portés à la preuve scientifique rend ces réponses bien dérisoires.
Tous les quinze jours, des grands noms, de nouvelles voix, des sujets inédits pour décrypter l’actualité scientifique et mieux comprendre le monde. Abonnez-vous gratuitement dès aujourd’hui !
Ce phénomène où des ensembles de données scientifiques, fruits de décennies de recherche minutieuse, sont anéantis sans considération pour leur valeur intrinsèque, ou verrouillés par des entités privées échappant largement au contrôle démocratique, interroge d’autant plus que ces mêmes acteurs ont souvent tiré profit des avancées permises par le libre partage des connaissances, par exemple les recherches introduisant l’architecture dite Transformer, publiées dans l’article « Attention Is All You Need » ont directement permis le développement du modèle commercial de Meta : LLaMA.
Dans ce contexte, la destruction de ces données représente non seulement une perte intellectuelle massive, mais aussi un non-sens économique flagrant. Comment justifier l’anéantissement d’actifs dont la valeur, bien que difficile à quantifier avec précision, est manifestement considérable ?
La valeur des données en tant qu’actif économique pour les nations et les entreprises est désormais un fait établi, documenté et largement accepté dans la littérature académique. Plusieurs méthodologies permettent d’évaluer cette valeur : le coût historique, les bénéfices futurs actualisés et la valeur de remplacement. Les coûts pour l’économie états-unienne sont donc aujourd’hui immédiatement quantifiables et dantesques.
L’approche par le coût historique consiste à calculer l’investissement total nécessaire à la production des données, incluant le financement de recherche, le temps de travail des chercheurs et l’infrastructure mobilisée. Mais certains soulignent que cette méthode comptable traditionnelle enregistre la valeur d’un actif à son coût d’acquisition initial, sans tenir compte des variations ultérieures de sa valeur. Aussi, la méthode des bénéfices futurs actualisés estime les avancées scientifiques et innovations potentielles découlant de l’exploitation des données sur plusieurs décennies. Elle permet de ramener les coûts et bénéfices futurs à leur valeur présente, ce qui est particulièrement pertinent pour les données scientifiques dont la valeur se déploie souvent sur le long terme.
Quant à la méthode de la valeur de remplacement, elle évalue le coût qu’impliquerait la reconstitution complète des bases de données si elles venaient à disparaître. L’OCDE recommande cette approche pour estimer la valeur des actifs de données, particulièrement lorsque les données sont uniques ou difficilement reproductibles, ce qui est clairement le cas des données de recherche. Aussi, la reconnaissance des données comme actif économique majeur est désormais bien établie, au même titre que tous autres actifs immatériels, désormais centraux dans l’économie moderne. Les données sont de la sorte devenues un facteur de production distinct, au même titre que le capital et le travail.
Une estimation conservatrice basée sur ces approches révèle que chaque jeu de données scientifiques majeur représente potentiellement des milliards d’euros de valeur. À titre d’exemple, le génome humain, dont le séquençage initial a coûté environ 2,7 milliards de dollars en quinze ans, a généré une valeur économique estimée à plus de 1 000 milliards de dollars US à travers diverses applications médicales et biotechnologiques, sans compter les recettes fiscales associées.
Dans le contexte actuel, où l’intelligence artificielle (IA) se développe à un rythme fulgurant, le volume et la qualité des données deviennent des enjeux cruciaux. Le principe bien connu en informatique de « garbage in, garbage out » (ou GIGO, des données de mauvaise qualité produiront des résultats médiocres) s’applique plus que jamais aux systèmes d’IA qui sont dépendants de données de qualité pour assurer un entraînement des algorithmes efficients.
Ainsi, la destruction et la reconstruction erratique de sets de données à laquelle nous assistons aujourd’hui (on ne peut établir à ce stade que les données détruites ont été ou seront reconstituées avec sérieux et un niveau suffisant de qualité) génèrent une contamination délibérée ou négligente de l’écosystème informationnel par des données incorrectes, peut-être falsifiées ou biaisées.
Il y a là une double destruction de valeur : d’une part, par la compromission de l’intégrité des bases de données existantes, fruit d’investissements considérables ; d’autre part, en affectant la qualité des modèles d’IA entraînés sur ces données, perpétuant ainsi les biais et les erreurs dans des technologies appelées à jouer un rôle croissant dans nos sociétés. Sans données fiables et représentatives, comment espérer développer des systèmes d’IA sans biais et dignes de confiance ?
Face à ces défis, l’Union européenne dispose d’atouts considérables pour s’imposer comme le gardien d’une science ouverte mais rigoureuse et le berceau d’une IA responsable. Son cadre réglementaire pionnier, illustré par le RGPD et l’AI Act, démontre sa capacité à établir des normes qualitatives élevées. Le cadre du RGPD permet de « concilier la protection des droits fondamentaux et la conduite des activités de recherche ». L’AI Act, entré en vigueur le 1er août 2024, entend « favoriser le développement et le déploiement responsables de l’intelligence artificielle dans l’UE », notamment dans des domaines sensibles comme la santé. L’Europe régule non pas pour porter atteinte à la liberté d’expression, mais, au contraire, pour proposer un environnement d’affaires sûr, de confiance et pacifié.
L’Union européenne pourrait donc créer un véritable « sanctuaire numérique » pour les données scientifiques mondiales, garantissant leur préservation, leur accessibilité et leur utilisation éthique. Ce sanctuaire reposerait sur trois piliers complémentaires dont l’essentiel est déjà en place du fait de la stratégie digitale :
un système d’archivage pérenne et sécurisé des données de recherche assurant leur préservation ;
des protocoles de partage ouverts mais encadrés, favorisant la collaboration internationale tout en protégeant l’intégrité des données ;
et un cadre d’utilisation garantissant que l’exploitation des données, notamment pour l’entraînement d’IA, respecte des principes éthiques clairs.
Caroline Gans Combe a reçu des financements de l'Union Européenne dans le cadre de sa participation aux projets de recherche DEFORM et ProRes.
02.04.2025 à 12:23
Julien Serres, Professeur des Universités en biorobotique, Aix-Marseille Université (AMU)
Nul besoin de connexion satellite pour que les abeilles et les fourmis retrouvent le chemin de leurs foyers. Leurs stratégies reposent sur des perceptions de l’environnement bien différentes de la nôtre, que décortiquent certains roboticiens… pour mieux les imiter.
Les insectes navigateurs possèdent de minuscules cervelles, de seulement un millimètre cube et pourtant… n’y aurait-il pas plus d’intelligence chez eux que ce que l’on imagine ?
Dans une certaine mesure, ces petits animaux sont plus performants en matière d’orientation spatiale que votre application mobile de navigation favorite et que les robots taxis américains… Ils n’ont pas besoin de se connecter à Internet pour retrouver leur foyer et consomment une quantité d’énergie absolument minuscule par rapport au supercalculateur dédié à la conduite autonome de Tesla.
Le biomimétisme consiste à puiser dans les multiples sources d’inspiration que nous offre la nature, qu’il s’agisse des formes — comme le design du nez du train Shinkansen 500, inspiré du bec du martin-pêcheur ; des matériaux — comme les écrans solaires anti-UV basés sur les algues rouges ; ou bien encore des synergies et des écosystèmes durables — comme la myrmécochorie qui utilise les fourmis pour accélérer la dispersion des graines et réparer plus vite les écosystèmes.
En effet, les solutions sélectionnées dans la nature se sont perfectionnées au long de l’évolution. Les yeux des insectes et leur traitement des images en sont un exemple frappant. Leur étude a donné naissance à de nouvelles caméras bio-inspirées dites « événementielles » ultrarapides. Les pixels de ses caméras sont lus et traités uniquement lorsqu’un changement de luminosité est détecté par un pixel et l’information est codée par des impulsions de très courte durée réduisant de facto la consommation énergétique et les temps de calcul. Ces petits animaux représentent alors une véritable banque de solutions pour les roboticiens, pour résoudre certains problèmes auxquels nous sommes confrontés.
Tous les quinze jours, des grands noms, de nouvelles voix, des sujets inédits pour décrypter l’actualité scientifique et mieux comprendre le monde. Abonnez-vous gratuitement dès aujourd’hui !
La biorobotique a ainsi pour finalité de comprendre le comportement animal au moyen de robots mobiles imitant soit leur système perceptif, soit leur mode de locomotion, ou bien encore le couplage entre ces deux systèmes.
Les résultats obtenus sont parfois contre-intuitifs pour les roboticiens et les roboticiennes. La biorobotique propose d’explorer la navigation autonome « déconnectée » ou « en mode avion », exploitant uniquement la lumière réfléchie par l’environnent ou diffusée par le ciel comme le font les insectes navigateurs pour trouver leur cap de manière optique ou bien les oiseaux pour se géolocaliser visuellement. Nous espérons que ces recherches permettront aux véhicules intelligents d’atteindre le même niveau d’agilité et de résilience que les insectes ou oiseaux navigateurs, abeilles mellifères et fourmis du désert en tête.
De façon surprenante, les insectes navigateurs possèdent une acuité visuelle plutôt mauvaise. Ainsi, les fourmis navigatrices possèdent une vision 300 fois moins précise que celle des humains en termes d’« acuité fovéale », qui est la capacité à discerner un petit objet à grande distance. De leur côté, les abeilles mellifères possèdent une vision 100 fois moins précise que les humains, mais elles réalisent pourtant quotidiennement des trajets de plusieurs kilomètres par jour, jusqu’à 13 kilomètres de la ruche… alors qu’elles ne mesurent que treize millimètres.
Cette distance représente un million de fois leur longueur de corps. C’est comme si un humain voyageait 1 000 kilomètres et était capable de retrouver son foyer sans demander d’aide à son téléphone. Il est tout à fait stupéfiant qu’un aussi petit animal soit capable de localiser sa ruche et de retrouver sa colonie à chaque sortie — avec seulement un million de neurones et 48 000 photorécepteurs par œil (contre 127 millions pour l’œil humain).
Le secret de ces insectes est l’« odométrie visuelle », c’est-à-dire l’aptitude à mesurer les distances en voyant le sol défiler entre les différents points de sa route aérienne, entre autres, mais aussi la reconnaissance de route par familiarité visuelle à très basse résolution et la vision de la polarisation du ciel pour trouver le cap à suivre.
Pour imiter l’œil des insectes, nous avons développé en 2013 le premier capteur visuel miniature (1,75 gramme) de type œil composé de 630 petits yeux élémentaires, appelé CurvACE.
Ce capteur, aux performances toujours inégalées à ce jour, est capable de mesurer des vitesses de défilement de contrastes visuels, que ce soit par un clair de lune ou une journée très ensoleillée. L’avantage majeur de cet œil composé est son large champ visuel panoramique horizontal de 180° et vertical de 60° pour une taille de seulement 15 millimètres de diamètre et une consommation de quelques milliwatts. Même si les récepteurs GPS consomment autant que le capteur CurvACE, les calculs effectués pour déterminer votre position à partir des signaux satellitaires sont extrêmement coûteux. C’est pour cela que la navigation sur smartphone est très consommatrice d’énergie. À cela, il faut ajouter le coût énergétique et écologique de l’entretien des constellations de satellites.
Puis, nous avons équipé un drone miniature de 80 grammes d’une paire de capteurs CurvACE, grâce auxquels il peut suivre un relief accidenté. Ce type de capteur pesant seulement quelques milligrammes pourrait équiper les drones de demain.
Les fourmis du désert Cataglyphis, que l’on retrouve principalement en milieux désertiques et sur le pourtour méditerranéen, sont capables de parcourir jusqu’à un kilomètre pour trouver leur nourriture, puis de rentrer au nid en moins de trente minutes, sur un sol pouvant atteindre plus de 50 °C. Pour cela, la fourmi compte ses pas, exploite l’« odométrie visuelle », et trouve son cap en observant la lumière diffusée par le ciel.
Notre robot fourmi AntBot est équipé de capteurs visuels inspirés des fourmis. Le premier est une boussole optique constituée de deux photorécepteurs sensibles au rayonnement ultraviolet et surmontés de filtres polarisants. En faisant tourner ces filtres, il est possible de scanner le ciel pour trouver l’axe de symétrie de motif de polarisation du ciel représentant une direction à suivre, puis de déterminer le cap du robot avec une précision inférieure à 0,5° représentant la taille optique de la lune ou du soleil dans le ciel.
Le second capteur est une rétine artificielle composée de 12 photorécepteurs, dénommé M2APix, qui s’adaptent aux changements de luminosité comme l’œil composé artificiel CurvACE. La distance est alors calculée en combinant le comptage de pas et le défilement optique, comme le font les fourmis du désert.
Testé sous diverses couvertures nuageuses, le robot AntBot s’est repositionné de façon autonome avec une erreur de sept centimètres, soit une valeur presque 100 fois plus faible que celle d’un dispositif de géolocalisation après un trajet de quinze mètres. Ce mode de navigation pourrait être intégré aux véhicules autonomes et intelligents afin de fiabiliser les systèmes de navigation autonomes par la combinaison de différentes façons de mesurer sa position.
En effet, les signaux de géolocalisation sont actuellement émis par des satellites au moyen d’ondes électromagnétiques de fréquences allant de 1,1 GHz à 2,5 GHz, très voisine de celles de la téléphonie mobile et peuvent être brouillés ou usurpés par un émetteur terrestre émettant un signal identique à celui d’un satellite. Bénéficier d’un dispositif capable de se localiser de façon autonome, sans se connecter à une entité extérieure, permettra de fiabiliser les véhicules autonomes sans pour autant consommer plus d’énergie et de ressources pour les faire fonctionner.
Julien Serres a reçu des financements de la part de l'Agence de l'Innovation Défense (AID), du Centre National de la Recherche Scientifique (CNRS), d'Aix Marseille Université (amU), de la Fondation Amidex, de la Région Sud (Provence-Alpes-Côte d'Azur), et de la Société d'Accélération du Transfert de Technologies Sud-Est (SATT Sud-Est).
02.04.2025 à 12:22
Laurent Vercueil, Neurologue hospitalier - CHU Grenoble Alpes (CHUGA) ; Laboratoire de Psychologie & Neurocognition. Equipe VISEMO. Université Grenoble Alpes, Université Grenoble Alpes (UGA)
Connaissez-vous le « shifting » ? Cette pratique consiste à basculer de la réalité vers une expérience imaginaire de façon volontaire. Certains « shifteurs » racontent qu’ils sont capables de se projeter dans le monde de Harry Potter et de ressentir des sensations visuelles ou sonores.
Le confinement lors de la pandémie de Covid-19 a eu des effets significatifs sur l’activité humaine, à l’échelle de la société, bien sûr, mais également sur le plan individuel. Par exemple, une étude canadienne récente a montré que la consommation d’alcool avait augmenté pendant cette période, ce qui peut être le témoignage d’une tendance à fuir une réalité morose, privée des activités mobilisant habituellement l’intérêt. La difficulté à faire face à une réalité non souhaitée peut aussi venir expliquer l’observation d’une augmentation d’une pratique appelée « shifting » qui s’est propagée par les réseaux sociaux particulièrement au sein de la population adolescente.
Sous ce terme, on trouve une pratique qui peut se définir comme un désengagement de la réalité présente pour investir une réalité fantasmatique, souvent inspirée de la culture populaire, dans laquelle le sujet vit une expérience immersive gratifiante. Ainsi, une jeune fille se décrit basculant dans un monde inspiré de celui de Harry Potter, au sein duquel elle évolue en interagissant avec ses héros préférés. Il s’agit d’un voyage imaginaire, plus ou moins sous contrôle, interrompu par le retour à la réalité.
L’aspect « technique », qui donne son nom à cette pratique (« shifting » signifie « déplacement », « changement »), consiste dans l’aptitude à basculer de la réalité vers cette expérience imaginaire de façon volontaire. Un autre aspect souligné par les pratiquants est l’adhésion puissante à cette réalité « désirée », qui nécessite de suspendre l’incrédulité usuelle, pour apprécier pleinement le contenu de l’imagerie visuelle et sonore constituant l’expérience. C’est précisément cette adhésion et la suspension de l’incrédulité qui semblent susciter l’inquiétude de l’entourage ou des professionnels de santé, en ce qu’elles pourraient menacer l’adaptation du sujet à la réalité « vraie ».
Tous les quinze jours, des grands noms, de nouvelles voix, des sujets inédits pour décrypter l’actualité scientifique et mieux comprendre le monde. Abonnez-vous gratuitement dès aujourd’hui !
Ce que les pratiquants du shifting décrivent s’apparente à une forme de voyage mental sous contrôle.
Le voyage mental repose sur le désengagement de la situation présente pour générer une représentation mentale spécifique : par exemple, l’évocation d’un souvenir personnel repose sur l’activation d’une scène tirée du passé, qui est « rejouée » mentalement. Le voyage mental peut aussi être involontaire, avec l’irruption de souvenirs autobiographiques, ou de scènes fantaisistes, sans lien avec la réalité. Néanmoins, il demande toujours au sujet de se désengager de l’activité en cours, qui doit être suspendue, sauf s’il s’agit d’une activité routinière, de faible exigence, comme la marche, le tricot ou toute activité répétitive monotone, qui pourrait même favoriser le voyage.
Nous avons récemment publié un article de synthèse sur le voyage mental. Des travaux expérimentaux récents ont permis de mieux comprendre, chez l’animal, comment fonctionnait cette aptitude, qui n’est donc aucunement l’apanage de l’être humain, qui permet de se désengager du présent pour voyager mentalement dans l’espace et dans le temps.
Dans cet article, nous ne traiterons pas la question du « pourquoi » les adeptes du shifting font ce qu’ils font. Les neurosciences portent davantage sur le « comment », à la recherche des corrélats neuronaux des expériences subjectives.
Ainsi, nos activités mentales (et les comportements efférents) peuvent être classées en trois grands modes, entre lesquels nous naviguons en fonction des contextes :
d’abord, le mode « exploitation », qui consiste à remplir les tâches dictées par l’environnement, sous la forme d’un certain asservissement du cerveau à ses routines,
ensuite, le mode « exploration », lorsque nous sommes confrontés à un contexte nouveau qui nous contraint à développer des stratégies originales au résultat incertain,
enfin, le mode « désengagé », où l’absence de contrainte environnementale nous rend susceptibles de nous livrer à une activité autonome, de « vagabondage mental » (le fameux voyage) qui consiste à tripoter des idées, ressasser le passé, envisager l’avenir, etc.
Depuis les travaux pionniers du neurologue Marcus Raichle, nous savons que ce troisième mode, considéré comme un mode « par défaut », dans lequel le sujet bascule lorsqu’il n’a rien à faire (ni exploiter ni explorer), repose sur un réseau cérébral impliquant les territoires frontaux et pariétaux.
Or, le shifting repose sur un désengagement du réel, et la réalisation d’un voyage mental « contrôlé », où le sujet maîtrise, en partie au moins, le cours de son imagerie mentale.
Une étude expérimentale menée chez le rat, publiée en 2023 dans la revue Science, montre que le voyage mental peut être suivi littéralement à la trace chez l’animal.
Dans cette expérience, le rat est placé sur une sphère mobile sur laquelle il se déplace dans toutes les directions. Ces déplacements sont reportés dans un environnement virtuel qui lui est présenté sur un écran placé devant lui, de sorte qu’il peut se promener à son gré dans un labyrinthe numérique, à la recherche d’une récompense délivrée lorsqu’il atteint son but.
Ce faisant, les activités des neurones de l’hippocampe, appelés « place cells » (« cellules de lieu ») parce qu’ils codent la situation de l’animal dans l’espace, sont enregistrées afin de constituer une cartographie neuronale de ses déplacements. À l’aide de ces enregistrements, et à force de répétitions des essais, les chercheurs peuvent identifier l’endroit où se trouve l’animal dans le labyrinthe.
Et c’est là que la prouesse expérimentale réside : les chercheurs débranchent la connexion de la molette de déplacement à l’environnement virtuel et connectent, à la place, l’activité des neurones hippocampiques. Ainsi, le labyrinthe dans lequel le rat se déplace n’est plus liée à ses déplacements effectifs mais au plan cérébral qu’il est en train de suivre ! Et ça marche : le rat parvient à sa destination (virtuelle) et reçoit sa récompense (réelle). En somme, il ne se déplace que « dans sa tête », et non pas dans un environnement. Il réalise parfaitement un voyage mental.
Une autre expérimentation, plus récente encore, menée chez l’animal, a permis de cibler le commutateur qui permet de basculer d’une tâche vers un désengagement de l’environnement. Des souris dont les différentes populations de neurones du noyau du raphé médian, dans le tronc cérébral, sont influencées par le dispositif expérimental peuvent basculer d’un mode à l’autre sous l’effet de l’une des trois populations (neurones à GABA, glutamate et sérotonine), correspondant aux trois catégories décrites plus haut : exploitation, exploration et désengagement.
Ainsi, la suppression de l’activité des neurones sérotoninergiques du noyau du raphé médian permet le désengagement. L’activation ou l’inhibition de l’une des trois populations de neurones permet de basculer d’un mode à l’autre. Le shifting exploite probablement ces propriétés spécifiques, tout en développant une certaine expertise du désengagement, lorsque, tout au moins, le contexte le permet.
Mais pratiquer le voyage mental et désengager facilement ne doit pas suffire à faire l’expérience d’un shifting satisfaisant, il faut aussi, et c’est sans doute le point le plus critique, parvenir à suspendre son incrédulité. Celle-ci agit comme une sorte de « filtre de réalité », consistant à détecter les irrégularités de notre expérience mentale pour distinguer ce qui relève de la perception de ce qui appartient à notre propre fantaisie.
Nous pouvons tous imaginer des éléphants roses et les classer correctement dans les produits de cette imagination. Durant le sommeil, les structures qui assurent ce discernement entre fantaisie et réalité (le cortex orbitofrontal et le gyrus cingulaire antérieur) ont une activité qui est suffisamment inactivée pour que nous puissions adhérer au contenu de nos rêves, en dépit de leur caractère fantastique.
Au cours de l’hypnose, ces processus de critique de la réalité sont également mis au repos, de sorte que nous pouvons adhérer à des représentations erronées (par exemple, mon bras est paralysé). Il est vraisemblable qu’un tel processus, comme le suggèrent les méthodes proposées pour faciliter le shifting, et qui sont évocatrices d’une forme d’autohypnose, soit à l’œuvre pour que le sujet adhère au contenu de son voyage.
La pratique du « shifting » consiste donc à exploiter une propriété générale, propre à l’humain et à de nombreux animaux probablement, qui est de pouvoir s’abstraire du réel pour se projeter dans un monde imaginaire, réalisant un voyage mental. Nous commençons à connaître les opérateurs cérébraux de cette expérience, mais son contenu subjectif reste hors de portée : c’est bien ce qui fait toute sa magie.
Laurent Vercueil ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
02.04.2025 à 12:22
Bernard Sablonnière, Neurobiologiste, professeur des universités − praticien hospitalier, faculté de médecine, Inserm U1172, Université de Lille
Le sucre est un carburant énergétique indispensable. Il est préférable de le consommer sous la forme d’un apport en sucres lents, limitant ainsi le risque de diabète. Son goût nous procure du plaisir, mais peut-on le comparer à une drogue ?
Le sucre, chimiquement le glucose, est un carburant utilisé par toutes nos cellules pour produire rapidement de l’énergie. Il est brûlé en présence d’oxygène dans de minuscules chaudières cellulaires : les mitochondries, libérant de l’eau, du gaz carbonique et de l’énergie. Bien entendu, les cellules peuvent également consommer des acides gras issus des graisses alimentaires, deuxième source d’énergie. À l’échelle du corps humain, c’est environ de 300 à 500 grammes de glucose qui sont ainsi consommés chaque jour, une quantité variable selon nos dépenses énergétiques. Le foie et les muscles stockent suffisamment de sucre sous forme de glycogène, un polymère unissant des milliers de molécules de glucose, pour servir de réserve.
Le glucose est le carburant préféré du cerveau qui en consomme à lui seul 20 % de tous les besoins corporels, soit environ 4 grammes par heure. D’ailleurs, toute hypoglycémie caractérisée par une baisse du taux de glucose sanguin en dessous de 0,50 g/l pourra entraîner un coma, c’est-à-dire un arrêt du fonctionnement des neurones, alors que le taux normal est de 1 g/l.
Le foie est le banquier du glucose. Il contient une réserve d’environ 80 grammes, qu’il distribue aux organes pour leur besoin permanent en énergie comme le cerveau, les reins et le cœur. Les muscles, eux, sont égoïstes et possèdent leur propre réserve, qu’ils utilisent en cas de besoin d’énergie immédiat. Cette réserve musculaire de 150 à 250 grammes, environ, de glucose disponible est utile lors d’un exercice physique. En cas d’absence d’exercice physique, le surplus de glucose apporté par l’alimentation associé à des réserves pleines de glycogène est transformé en graisse stockée dans le tissu adipeux !
Cette symphonie associant l’absorption du sucre, le maintien de sa concentration dans le sang et la gestion des réserves est régulée par deux hormones pancréatiques essentielles : l’insuline et le glucagon.
Tous les quinze jours, des grands noms, de nouvelles voix, des sujets inédits pour décrypter l’actualité scientifique et mieux comprendre le monde. Abonnez-vous gratuitement dès aujourd’hui !
Au plan nutritionnel, 50 % de l’apport d’énergie journalier moyen, soit 1 250 kilocalories chez un adulte moyennement actif, doit être apporté par le sucre. Mais attention, il est préférable que cet apport soit assuré par des sucres lents, l’amidon contenu dans le pain, les pâtes ou le riz. Par exemple une assiette de pâtes apporte environ 80 grammes de glucose sous forme d’amidon.
Ainsi la digestion assez lente de l’amidon évite des à-coups de la glycémie qui fatiguent le pancréas. Pour une consommation moyenne journalière d’énergie de 2 500 kilocalories, un apport en sucres d’environ 350 grammes sera nécessaire, dont 90 % sous forme de sucres lents et 10 % (ou 35 grammes) par jour sous forme de sucres rapides – c’est-à-dire de glucose libre présent dans les jus de fruits, sodas ou desserts variés (l’OMS recommande de ne pas dépasser 50 grammes par jour).
Le risque de surpoids lié à une consommation trop élevée de sucres rapides est souvent lié à un excès d’apport alimentaire. Ainsi une canette de soda contient jusqu’à 35 grammes, un verre de jus d’orange 15 grammes, un yaourt sucré 10 grammes, et beaucoup de plats préparés du commerce affichent plus de 5 grammes de glucose par portion de 100 grammes.
Une attirance vers les aliments sucrés, bonbons, gâteaux ou desserts variés dépend surtout de l’éducation et des habitudes prises pendant l’enfance. Chacun possède dans ses papilles gustatives des récepteurs du goût, ces minuscules détecteurs du goût sucré. Certaines personnes possèdent un variant génétique du récepteur TAS2R38, leur conférant un nombre de récepteurs plus élevé. Ces personnes auront tendance à moins aimer le sucre et seront plus vite écœurées en cas d’excès.
La plupart des édulcorants ou faux sucres comme l’aspartame et l’acésulfame sont également perçus par les récepteurs du goût amer, et ceci de façon variable selon les individus, d’où parfois la tentation de revenir au goût sucré naturel du glucose ou du fructose contenu dans les fruits.
L’attirance pour le goût sucré est innée chez l’homme, sans doute parce que le glucose est un carburant essentiel pour nos cellules.
La perception du goût se traduit par une information apportée au cerveau. Ces informations sont perçues par le circuit du plaisir et apportent un ressenti agréable. D’autres sont envoyées à l’hypothalamus qui en profite pour réguler l’appétit en réduisant à certains moments de la journée la capacité de réponse des récepteurs au goût sucré.
Curieusement, il existe des récepteurs du goût sucré dans l’intestin, le pancréas et même le cerveau. Mais comment le sucre nous procure-t-il du plaisir ? Il active deux régions du cerveau, l’insula puis l’amygdale qui nous font ressentir du plaisir. Pour y parvenir, le cerveau stimule la libération d’une hormone clé de l’envie, la dopamine. Cette clé stimule le circuit du plaisir et l’insula s’active.
Pourquoi les sucres rapides comme le glucose ou le saccharose contenus en excès dans certaines boissons ou pâtisseries peuvent-ils être addictifs ? Tout simplement parce que le plaisir déclenché par le sucre dans le cerveau est identique à l’effet procuré par une drogue et provoque une addiction.
Au cours de l’évolution, l’espèce humaine n’a pas eu beaucoup d’occasions de se prémunir d’un excès de sucres rapides, puisqu’Homo sapiens frugivore et omnivore, du paléolithique, consommait moins de 30 grammes de sucres rapides par jour. À cette dose aucun effet addictif.
Le rôle des édulcorants est de remplacer le glucose des aliments par du faux sucre qui active les récepteurs du goût sucré. En effet, ça marche : le cerveau perçoit bien un goût sucré et cela calme l’appétit pendant plusieurs minutes sans apporter de calories. Oui, mais les récepteurs présents dans l’intestin préviennent le cerveau qu’une livraison de glucose est prévue en informant les organes. Très vite, les cellules constatent que le glucose n’arrive pas, ce qui déclenche alors un regain d’une envie de sucre.
Heureusement, cet effet ne se produit que lors de la prise fréquente et répétée d’édulcorants au cours de la journée, souvent observée avec la consommation abusive de sodas contenant du faux sucre. La solution pour éviter ces phénomènes d’addiction est de déconditionner le cerveau à l’excès de sucre et de se réhabituer à consommer moins de boissons et d’aliments sucrés, pas trop souvent dans la journée, et de limiter l’apport de sucres rapides à moins de 50 grammes par jour.
Le sucre est un carburant énergétique indispensable. Il est préférable de le consommer sous la forme d’un apport convenable en sucres lents, limitant ainsi le risque de diabète. L’alimentation doit être équilibrée et associée à une activité physique suffisante pour assurer une dépense énergétique adaptée, limitant le risque d’obésité par transformation de l’excès de glucose alimentaire sous forme de graisse.
Bernard Sablonnière ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
02.04.2025 à 12:21
Alain Aspect, Professeur (chaire Augustin Fresnel) à l'Institut d'Optique Graduate School, Université Paris-Saclay
Alain Aspect est spécialiste de physique quantique. En 2022, il a obtenu le prix Nobel de physique pour ses travaux sur le phénomène d’« intrication quantique », qui est au cœur de nombreuses technologies quantiques de nos jours.
Il a aussi plus largement contribué au domaine, souvent en explorant d’autres situations où les prédictions de la physique quantique sont très éloignées de notre intuition du monde physique. À cause de cette étrangeté, la physique quantique est souvent considérée comme inaccessible.
Dans cet entretien, sans prétendre tout expliquer de la mécanique quantique, Elsa Couderc et Benoît Tonson, chefs de rubrique Sciences et Technologies, espéraient transmettre ce qui fait le sel de la physique quantique et qui attise les passions encore aujourd’hui. Alain Aspect a bien voulu se prêter au jeu et revenir avec eux sur quelques étapes marquantes de sa carrière, les limites du monde quantique et l’essor des technologies quantiques aujourd’hui, entre recherche publique et recherche industrielle.
Tous les quinze jours, des grands noms, de nouvelles voix, des sujets inédits pour décrypter l’actualité scientifique et mieux comprendre le monde. Abonnez-vous gratuitement dès aujourd’hui !
The Conversation : Pour aborder les travaux qui vous ont valu le prix Nobel, il faut revenir un peu en arrière, aux débuts de la théorie quantique. En effet, au tout début du XXe siècle, deux pères fondateurs de la physique quantique, Albert Einstein et Nils Bohr, s’écharpaient sur l’interprétation de la nouvelle théorie. Un des points de désaccord était lié au phénomène d’« intrication quantique ». L’intrication quantique, c’est le fait que deux particules séparées dans l’espace partagent des propriétés — à un point tel que l’on ne peut pas décrire complètement l’une sans décrire l’autre : il faut les décrire comme un tout. Einstein avait un problème avec cette idée, car cela signifiait pour lui que deux particules intriquées pourraient échanger de l’information instantanément sur de très grandes distances, c’est-à-dire plus rapidement que la vitesse de la lumière.
Avec vos expériences, vous avez montré qu’Einstein avait tort de ne pas admettre cette idée — ce que dit bien le titre de votre récent livre, paru chez Odile Jacob, Si Einstein avait su. Vous avez réalisé ces travaux à la fin des années 1970 et au début des années 1980, mais votre passion pour le sujet reste intacte. Pouvez-vous nous expliquer pourquoi ?
Alain Aspect : Cette expérience m’a passionné parce qu’elle met vraiment en jeu la conception du monde d’Einstein.
Pour compléter le cours de l’histoire que vous soulignez, entre le débat Einstein-Bohr et mes travaux, il y a eu, en 1964, un physicien appelé John Bell. Bell a écrit des équations qui formalisent le désaccord historique entre Einstein et Bohr. À la suite des travaux de John Bell, John Clauser puis moi, puis d’autres encore, avons travaillé expérimentalement sur leur désaccord. J’ai eu l’honneur de montrer qu’Einstein avait tort dans une certaine mesure, mais j’ai mis ainsi en relief son immense mérite d’avoir mis le doigt sur une propriété extraordinaire de la physique quantique, l’intrication, dont les gens n’avaient probablement pas réalisé toute l’importance auparavant.
Mais j’ai beau avoir démontré qu’Einstein avait eu tort sur un sujet bien particulier, il reste pour moi un héros absolu ! Je l’admire énormément pour ses contributions à la physique quantique entre 1900 et 1925 et pour son article de 1935. Il faut ajouter que la clarté de tout ce qu’il a écrit est incroyable. John Bell l’avait aussi remarqué et avait résumé les choses ainsi :
« Bohr était incohérent, peu clair, obscur à dessein, mais il avait raison. Einstein était cohérent, clair, terre-à-terre, mais il avait tort. (Bohr was inconsistent, unclear, willfully obscure, and right. Einstein was consistent, clear, down-to-earth, and wrong). » Propos de John Bell, rapportés par Graham Farmelo, le 11 juin 2010, dans le New York Times.
Vous avez fait d’autres travaux importants par la suite. Est-ce que vous pouvez nous parler de vos préférés ?
A. A. : D’une part, à la fin des années 1980, j’ai travaillé avec Claude Cohen-Tannoudji au développement d’une méthode pour refroidir les atomes — qui est sa spécialité.
Comme la température est associée à la vitesse d’agitation des atomes, pour les refroidir, il faut en fait les ralentir. Notre méthode s’appelle le refroidissement « en dessous du recul du photon » parce qu’on a réussi à ralentir l’agitation thermique par de toutes petites quantités — plus petites que ce que l’on croyait possible avec les lois de la physique quantique, de l’ordre du milliardième de degré. Ainsi je suis heureux et fier d’avoir un peu contribué au prix Nobel de Claude Cohen-Tannoudji, comme mes amis Jean Dalibard et Christophe Salomon en ce qui concerne un autre volet de son travail.
Une autre première mondiale me tient à cœur. C’est un sujet dont nous avons eu l’idée avec mon collaborateur Philippe Bouyer, en sortant d’une conférence au début des années 2000. Les chercheurs en physique de la matière condensée cherchaient depuis la fin des années 1950 à observer directement un phénomène appelé « localisation d’Anderson », qui concerne des électrons dans un matériau désordonné. Le conférencier avait dit quelque chose du style « Il serait intéressant de mettre des atomes dans un milieu désordonné » (un milieu désordonné est un endroit où règne le désordre, par exemple avec des obstacles irréguliers). Avec Philippe, on s’est regardés dans la voiture et on s’est dit : « Cette expérience, que nous avons développée au laboratoire, nous pourrions la modifier pour essayer d’observer la localisation d’Anderson des atomes dans un désordre optique. » En effet, le but du groupe de recherche d’optique atomique, que j’ai monté à l’Institut d’optique, est de faire avec des atomes ce que l’on sait faire avec les photons ou les électrons. Par exemple, le groupe — dont je ne fais plus partie bien sûr, je suis à la retraite — essaye aujourd’hui de refaire mon expérience sur l’intrication quantique avec des atomes.
Pour revenir à la localisation d’Anderson, grâce au potentiel que nous créons avec des lasers, nous avons réussi à coincer des atomes ultrafroids (un milliardième de degré) dans un paysage désordonné, ce qui nous a permis d’observer directement la localisation d’Anderson. Nous avons aussi pu photographier une « fonction d’onde atomique », c’est-à-dire la « forme » d’un atome bloqué dans notre structure de lasers. Cet article est très cité par la communauté de la matière condensée qui s’intéresse à ce sujet — ils ont été tellement étonnés de voir directement une fonction d’onde photographiée ! La localisation d’Anderson est un phénomène quantique très subtil, et je suis particulièrement fier de notre travail sur ce sujet.
Vous avez beaucoup travaillé sur les propriétés de particules individuelles, sur le refroidissement par exemple, ou celles de duos de particules pour l’intrication. Que se passe-t-il quand il y a de nombreuses particules ? Plus spécifiquement, pourquoi les lois de la physique ne semblent-elles pas les mêmes à petite et grande échelle, alors que les grandes structures sont constituées de petites particules ?
A. A. : Je vais vous donner la réponse standard à cette question — mais je dois préciser qu’à mon avis, cette réponse standard ne fait que reculer le problème d’un cran.
Voici la réponse standard : il est clair que, quand on a beaucoup de particules, on n’observe plus les propriétés quantiques. Sinon, on pourrait observer le fameux chat de Schrödinger, qui est à la fois vivant et mort — et on ne l’observe pas. On dit que c’est à cause de la « décohérence ».
La décohérence, c’est le fait que quand des objets quantiques sont en interaction avec le monde extérieur, leurs propriétés quantiques disparaissent plus ou moins vite, d’une façon plus ou moins nette, mais de façon inévitable. Une partie de l’information quantique va en quelque sorte se diluer dans le monde extérieur, et donc les particules n’ont plus toutes leurs caractéristiques quantiques. Or, on peut montrer théoriquement que plus vous avez un grand nombre de particules, plus il faut que les perturbations de l’extérieur soient petites pour conserver les caractéristiques quantiques. En d’autres termes, pour pouvoir observer des propriétés quantiques avec un grand nombre de particules, il faut donc les isoler davantage du monde extérieur.
C’est l’objectif de tous les gens qui essayent aujourd’hui de construire un ordinateur quantique, dans lequel il faut avoir des centaines, des milliers, des dizaines de milliers de ce que l’on appelle des « bits quantiques ». Ce sont des particules quantiques que l’on arrive à intriquer sans qu’elles interagissent avec le monde extérieur.
Pour faire cet ordinateur quantique, est-ce que la difficulté est purement technologique, celle d’isoler davantage du monde extérieur, ou bien est-ce qu’il y a une limite intrinsèque, un nombre de particules que l’on ne peut plus intriquer ? Où est la limite entre le monde quantique et le monde classique ?
A. A. : Aujourd’hui, on a réussi à observer le phénomène d’intrication avec 1 000 particules, peut-être quelques milliers. Mais, de l’autre côté, dans n’importe quel objet à notre échelle, il y a 1023 particules (1 suivi de 23 zéros, soit cent mille milliards de milliards). Il y a une vingtaine d’ordres de grandeur entre les deux échelles, c’est un intervalle absolument gigantesque. D’où la question : et s’il y avait une limite absolue entre les deux mondes ? Ce serait une nouvelle loi de la physique, mais pour l’instant, on ne connaît pas cette limite.
Découvrir une telle loi serait formidable, même si, selon où cette limite se place, elle pourrait balayer nos espoirs de développer des ordinateurs quantiques.
Il se trouve que je suis cofondateur d’une start-up française, Pasqal, qui essaye de construire un ordinateur quantique qui soit une machine facile à utiliser pour les utilisateurs. Du coup, j’ai très envie que l’ordinateur quantique tienne ses promesses. Mais, d’un autre côté, si, en essayant de développer cet ordinateur quantique, on trouve qu’il y a une limite fondamentale entre monde quantique et monde macroscopique, je serais très heureux en tant que physicien ! En fait, je pense que je serais gagnant dans les deux cas : soit l’ordinateur quantique marche, et je suis gagnant parce qu’il y a une application à des phénomènes que j’ai étudiés il y a longtemps ; soit on aura trouvé une nouvelle loi de la physique, et ce serait absolument extraordinaire.
Est-ce que vous pouvez nous en dire un petit peu plus sur cette idée de limite fondamentale entre monde quantique et monde classique ?
A. A. : Non, pour l’instant, on n’en sait pas plus que ce que je vous ai dit, c’est-à-dire que la décohérence est le fait qu’il y a une partie de l’« information quantique » qui fuite vers l’extérieur, et que cela détruit les superpositions quantiques. Et que plus le nombre de particules intriquées est grand et plus la décohérence va être nocive — donc il faut isoler les systèmes de plus en plus si on veut qu’ils restent quantiques.
Cependant, il y aurait tout de même peut-être une échappatoire à la décohérence, dont rêvent les physiciens.
En effet, on décrit les particules quantiques grâce à leur « état » — c’est-à-dire ce qui décrit tous les aspects de la particule. Quand vous avez de nombreuses particules intriquées, vous imaginez bien que décrire l’ensemble de particules peut devenir un peu long. Pour un grand nombre de particules, l’« espace des états », c’est-à-dire l’ensemble de toutes les possibilités, est d’une taille absolument extraordinaire. Il suffit d’avoir 200 ou 300 bits quantiques intriqués pour que le nombre d’états possibles soit plus grand que le nombre de particules dans l’univers. Dans cet espace des états, on n’est pas à l’abri d’un coup de chance, comme on dit, qui nous fournirait un endroit protégé de la décohérence — un petit sous-ensemble de l’espace des états qui ne souffrirait pas de la décohérence. Si cet endroit existe, quelques états particuliers dans l’immense espace des états ne seraient pas détruits par les interactions avec le monde extérieur.
Il y a des efforts sérieux en ce sens. Quand vous entendez parler de bit quantique « topologique » par exemple, c’est bien de cela qu’il s’agit. Mais jusqu’à présent, on tâtonne encore dans ce domaine.
Pourquoi parlez-vous de la décohérence comme de quelque chose qui cache le problème, qui le repousse d’un cran ?
A. A. : En physique, il y a des choses que l’on peut expliquer rigoureusement à partir des lois fondamentales. Mais il y en a d’autres, qui sont absolument fonctionnelles – on sait qu’elles décrivent correctement les phénomènes que l’on observe – mais qu'on ne sait pas encore les démontrer à partir des premiers principes. Il faut les ajouter « à la main », comme on dit. C’est le cas de la décohérence, mais c’est aussi le cas du second principe de la thermodynamique. La décohérence est une théorie fonctionnelle pour expliquer la perte des caractéristiques quantiques, mais on ne sait pas encore complètement la démontrer en toute généralité.
Quelles sont les frontières de la recherche fondamentale en mécanique quantique aujourd’hui, les grandes questions que se posent les chercheuses et les chercheurs ?
A. A. : Je vais d’abord préciser que cela fait douze ans que je ne dirige plus de groupe de recherche… Je m’intéresse à ces questionnements, mais je ne contribue plus à les formuler.
Cela étant, il me semble qu’il faut distinguer entre les problèmes à très long terme et ceux à plus court terme. Dans les problèmes à très long terme, on sait par exemple qu’il y a un problème entre la relativité générale et la physique quantique. C’est un problème de théoriciens, bien en dehors de mon domaine de compétences.
En revanche, dans les perspectives à plus court terme, et que je comprends, il y a les gens qui essayent d’observer le régime quantique avec des objets « macroscopiques », en l’occurrence une membrane extrêmement tendue, qui vibre donc à une fréquence très élevée, et sur laquelle on commence à observer la quantification du mouvement oscillatoire. On touche là au problème que l’on a évoqué précédemment, celui de la limite entre monde quantique et monde macroscopique, puisqu’on commence à pouvoir étudier un objet qui est de dimension macroscopique et qui pourtant présente des phénomènes quantiques.
C’est une voie de recherche qui a l’avantage de ne pas être à l’échelle de décennies, mais plutôt à l’échelle des années, et qui peut nous aider à mieux comprendre cette limite entre le monde quantique et le monde classique. Pour cela, plusieurs systèmes sont envisagés, pas seulement les membranes, également des micromiroirs qui interagissent avec des photons.
Quelle taille font ces membranes ?
A. A. : Ces membranes peuvent être par exemple faites de matériaux 2D, un peu comme le graphène (réseau bidimensionnel d’atomes de carbone) : elles peuvent faire quelques millimètres de diamètre quand on les regarde par le dessus, mais seulement un atome d’épaisseur.
Ceci étant, ce n’est pas tant leur taille, mais leur fréquence de vibration qui est importante ici — c’est ça qui leur permet d’exhiber des propriétés quantiques. Les fréquences de vibration sont tellement élevées, comme quand on tend une corde de guitare, que l’on atteint des gammes de millions de hertz, soit des millions de vibrations par seconde. Quand le « quantum de vibration » (défini par Einstein en 1905 comme la fréquence multipliée par la constante de Planck) devient comparable à l’énergie thermique typique, c’est-à-dire quand la membrane vibre assez haut, l’agitation thermique vous gêne moins et vous pouvez observer des effets quantiques, à condition de refroidir suffisamment le système.
Y a-t-il d’autres avancées que vous suivez particulièrement et qui repoussent les limites fondamentales de la physique quantique ?
A. A. : Il faut bien sûr parler de tous ces efforts pour réaliser l’ordinateur quantique, qui suivent des voies toutes très intéressantes d’un point de vue de la physique fondamentale.
Il y a les voies qui utilisent des atomes neutres, ou des ions, ou des photons, pour fabriquer des bits quantiques. Ce sont des objets quantiques qui nous sont donnés par la nature. Par ailleurs, en matière condensée, que je connais personnellement moins bien, il y a des bits quantiques artificiels, basés sur des circuits supraconducteurs. Les matériaux supraconducteurs sont des matériaux bien particuliers, dans lesquels l’électricité peut se propager sans résistance – encore un phénomène quantique. Certains circuits, conçus spécialement, présentent des états quantiques spécifiques que l’on peut exploiter comme bits quantiques. À l’heure actuelle, on ne sait rendre des matériaux supraconducteurs qu’à très basse température.
L’avantage des objets quantiques naturels comme les photons, les ions et les atomes, c’est qu’ils sont parfaits par définition : tous les atomes de rubidium sont les mêmes, tous les photons de même fréquence sont les mêmes. Pour un expérimentateur, c’est une bénédiction.
Dans le domaine de la matière condensée, au contraire, les scientifiques fabriquent des circuits quantiques de façon artificielle, avec des supraconducteurs. Il faut les réaliser suffisamment bien pour que les circuits soient vraiment quantiques, tous identiques et avec les mêmes performances.
Et, en fait, quand on regarde l’histoire de la physique, on s’aperçoit qu’il y a des phénomènes qui sont démontrés avec des objets quantiques naturels. À partir du moment où on trouve que le phénomène est suffisamment intéressant, en particulier pour des applications, les ingénieurs arrivent progressivement à développer des systèmes artificiels qui permettent de reproduire le phénomène d’une façon beaucoup plus simple ou contrôlée. C’est pour cela je trouve que c’est intéressant de commencer par essayer l’ordinateur quantique avec des objets quantiques naturels, comme le fait Antoine Browaeys ici, à l’Institut d’optique, ou la start-up Quandela avec des photons.
On observe un fort engouement pour les technologies quantiques, dont certaines sont déjà opérationnelles, par exemple les gravimètres quantiques ou les simulateurs quantiques : quels sont les « avantages quantiques » déjà démontrés par les technologies opérationnelles aujourd’hui ?
A. A. : En ce qui concerne les gravimètres, c’est-à-dire les appareils qui mesurent la gravitation, la performance des gravimètres quantiques n’est pas meilleure que le meilleur des gravimètres classiques… sauf qu’au lieu de peser une tonne et d’avoir besoin de le déplacer avec une grue là où vous voulez aller mesurer la gravitation, c’est un appareil qui fait quelques dizaines de kilos et on peut le déplacer facilement sur les flancs d’un volcan pour savoir si le magma a des mouvements soudains, ce qui peut être un signe précurseur d’éruption. Dans ce cas-là, les performances ultimes des gravimètres quantiques ne sont pas meilleures que les performances ultimes des meilleurs systèmes classiques, mais la miniaturisation apporte des avantages certains.
Et pour l’ordinateur quantique ?
A. A. : En ce qui concerne l’ordinateur quantique, il faut d’abord définir le terme « avantage quantique ». Lorsqu’on vous annonce un avantage quantique obtenu en résolvant un problème que personne ne s’était jamais posé, on peut douter de l’intérêt. Par exemple, si vous faites passer un faisceau laser à travers un verre de lait, la figure lumineuse qui est derrière est une figure extrêmement compliquée à calculer. Ce calcul prendrait des années avec un ordinateur classique. Est-ce que je vais dire pour autant que mon verre de lait est un calculateur extraordinaire parce qu’il me donne le résultat d’un calcul infaisable ? Bien sûr que non. Certaines annonces d’avantage quantique relèvent d’une présentation analogue.
Par contre, ici à l’Institut d’optique, Antoine Browaeys a un simulateur quantique qui a répondu à un problème posé depuis longtemps : un problème de physiciens appelé le « problème d’Ising ». Il s’agit de trouver la configuration d’énergie minimale d’un ensemble de particules disposées régulièrement sur un réseau. Avec les ordinateurs classiques, on peut répondre au problème avec 80 particules maximum, je dirais. Tandis qu’avec son simulateur quantique, Antoine Browaeys a résolu le problème avec 300 particules. Il a incontestablement l’« avantage quantique ».
Il faut bien voir cependant que les physiciens qui étudiaient le problème avec des ordinateurs classiques ont été stimulés ! Ils ont alors développé des approximations qui permettent d’approximer le résultat à 300 particules, mais ils n’étaient pas certains que leurs approximations étaient correctes. Quant à Browaeys, il avait trouvé un résultat, mais il n’avait rien pour le vérifier. Quand ils ont constaté qu’ils ont trouvé la même chose, ils étaient tous contents. C’est une compétition saine — c’est l’essence de la méthode scientifique, la comparaison de résultats obtenus par diverses méthodes.
J’en profite pour dire qu’il y a une deuxième acception du terme « avantage quantique ». Elle se situe sur le plan énergétique, c’est-à-dire qu’on a de bonnes raisons de penser qu’on pourra faire, avec des ordinateurs quantiques, des calculs accessibles aux ordinateurs classiques, mais en dépensant moins d’énergie. Dans le contexte actuel de crise de l’énergie, c’est un avantage quantique qui mérite d’être creusé. On sait ce qu’il faudrait faire en principe pour exploiter cet avantage énergétique : il faudrait augmenter la cadence des calculs : passer d’une opération toutes les secondes ou dixièmes de seconde à mille par seconde. C’est vraiment un problème technologique qui paraît surmontable.
En somme, l’avantage quantique, ça peut être soit la possibilité de faire des calculs inaccessibles aux ordinateurs classiques, soit la possibilité de répondre à des problèmes auxquels on pourrait répondre avec un ordinateur classique, mais en dépensant moins d’énergie.
Certaines technologies quantiques ne sont pas encore suffisamment matures pour être largement utilisables — par exemple l’ordinateur quantique. Pourtant, de grandes entreprises annoncent ces derniers mois des avancées notables : Google en décembre 2024 et Amazon Web Services en février 2025 sur les codes correcteurs d’erreurs, Microsoft en février aussi avec des qubits « topologiques ». Quel regard portez-vous sur cette arrivée des géants du numérique dans le domaine ?
A. A. : L’arrivée des géants du numérique, c’est tout simplement parce qu’ils ont énormément d’argent et qu’ils veulent ne pas rater une éventuelle révolution. Comme nous tous, ils ne savent pas si la révolution de l’ordinateur quantique aura lieu ou non. Mais si elle a lieu, ils veulent être dans la course.
En ce qui concerne les annonces, je veux être très clair en ce qui concerne celle de Microsoft au sujet des bits quantiques « topologiques ». Cette annonce est faite par un communiqué de presse des services de communication de Microsoft, et elle n’est vraiment pas étayée par l’article publié par les chercheurs de Microsoft dans Nature, qui est une revue scientifique avec évaluation par les pairs — c’est-à-dire des chercheurs qui savent de quoi il en retourne et qui ne laissent pas publier des affirmations non justifiées.
Le communiqué de presse prétend qu’ils ont observé les fameux « fermions de Majorana » — un candidat au poste de bit quantique « topologique », c’est-à-dire dans le fameux sous-ensemble de l’espace des états qui serait protégé de la décohérence.
De leur côté, les chercheurs, dans l’article, disent qu’ils ont observé un phénomène qui pourrait — qui pourrait ! — être interprété, peut-être, par des fermions de Majorana. C’est extrêmement différent. De plus, le communiqué de presse évoque déjà le fait qu’ils vont avoir une puce dans laquelle il y aura un million de fermions de Majorana, alors qu’on n’est même pas sûr d’en avoir un seul. Je vous laisse apprécier !
Cette implication de la recherche privée risque-t-elle de déplacer l’engouement de la recherche publique vers d’autres sujets ? Quel regard portez-vous sur l’équilibre entre recherche publique et recherche privée ?
A. A. : Il y a des choses qui sont à la mode à un moment, puis qu’on oublie. Mais c’est normal, car il y a une forme de sélection naturelle des idées dans la recherche. Par exemple, en ce qui concerne les bits quantiques, cela fait quinze ans que la Commission européenne me demande sur quel type de bit quantique focaliser les efforts — on les a répertoriés tout à l’heure : photons, atomes, ions, circuits supraconducteurs, silicium… Je leur réponds, encore aujourd’hui, que je suis incapable de le leur dire. C’est le rôle de la puissance publique de financer le long terme.
Il faut laisser les chercheurs avancer et, à un moment donné, il y aura probablement une ou deux pistes qui se révéleront meilleures que les autres. Et bien sûr, on ralentira la recherche sur les autres. C’est ça, la sélection naturelle des idées.
Les acteurs privés ont d’ailleurs tous misé sur des candidats différents pour leurs bits quantiques…
A. A. : C’est vrai, mais une des caractéristiques du privé, c’est d’être très réactif. Donc le jour où ils réaliseront que leur choix de bit quantique n’est pas le bon, ils vont instantanément arrêter et passer à un choix qui s’est révélé meilleur. D’ailleurs, sur le plan de l’ingénierie, je dois dire que ce qui se fait dans le privé est tout à fait remarquable du point de vue de la réactivité. La recherche académique est meilleure pour laisser mûrir les idées, ce qui est une phase indispensable.
Il faut reconnaître que ces acteurs privés mettent beaucoup plus d’argent que le public, en revanche, ils n’ont pas le long terme devant eux. Or, il ne suffit pas de déverser des sommes énormes d’argent pour accélérer la recherche.
La recherche demande aussi une maturation des idées ; et ce n’est pas parce que vous avez dix fois plus d’argent que vous allez dix fois plus vite. Il y a à la fois des évolutions dans les idées et, parfois aussi, des évolutions technologiques inattendues. J’ai pu observer ces effets de maturation et de paliers lors de ma longue expérience d’évaluation des systèmes de recherche en France, en Allemagne et dans d’autres pays.
De ce point de vue, il est primordial que la recherche publique conserve des financements non fléchés, qu’on appelle « blancs ». Je pense qu’il n’est pas illégitime qu’un État qui met beaucoup d’argent dans la recherche signale que, sur tel et tel sujet, il aimerait que les gens travaillent et qu’il mette de l’argent là-dedans. Le point essentiel, c’est de laisser la place à d’authentiques sujets blancs, proposés par les chercheurs alors qu’ils ne figuraient dans aucun programme. C’est grâce à un projet non fléché que nous avons pu observer la localisation d’Anderson, par exemple. On ne peut pas tout prévoir sur le long terme.
Et puis il faut aussi que l’information circule pour que d’autres chercheurs s’emparent des avancées, et puissent les adopter. D’où l’importance des publications, qui sont l’occasion de partager ses résultats avec les autres chercheurs ; et d’où les réserves que l’on doit avoir sur la confidentialité, même s’il est clair que cette confidentialité est nécessaire dans certains domaines spécifiques.
Alain Aspect est co-fondateur de la start-up Pasqal.
02.04.2025 à 09:26
Martin Ruhs, Professor of Migration Studies, European University Institute
With an estimated minimum of 2.6 to 3.2 million irregular migrants in Europe and fierce public debates about them, policymakers face the difficult question of how to ensure migrants’ basic rights of protection from exploitation, destitution and ill health while also establishing effective migration controls. However, we know surprisingly little about how Europeans think about this policy dilemma.
In our study, the first of its kind in Europe, we surveyed 20,000 people across Austria, Italy, Poland, Sweden, and the UK to understand their preferences on policies regarding access to healthcare, social welfare and labour protections, as well as the obtainment of regular legal status or “regularisation” for irregular migrants.
The results challenge the idea that public attitudes toward irregular migrants’ rights are simply “for” or “against”. Instead, we find that variations in policy design matter – and when policies include both migration controls and protections for migrants, public support often increases.
To study public preferences for policies relating to irregular migrants, we conducted a conjoint survey experiment. In it, respondents were presented with different multidimensional “policy packages” that randomly varied in how they regulated opportunities for regularisation, as well as legal rights to access primary health care, financial support in low-income situations, and back pay of withheld wages.
Respondents were shown two policy packages at a time, and then asked to rate and indicate which of the two they preferred. For each respondent, this process was repeated five times. This method allowed us to study how a change in a particular policy feature – e.g., a change in how access to primary healthcare is regulated – affects individuals’ support for the overall policy package.
So, what do Europeans think? Here are some of our key results.
Our results suggest that the public prefers targeted pathways for regularisation for irregular migrants. Across all five countries we analysed, respondents consistently preferred policies that allow irregular migrants to acquire legal status based on certain conditions, including a clean criminal record and a minimum length of stay in the host country. Somewhat surprisingly, there was no consistent preference between a five-year or ten-year minimum residence period.
We found that giving irregular migrants access to healthcare is far less controversial than giving access to financial support for those living on low incomes. This aligns with findings from the US, where such support has remained politically divisive.
We also found greater support for irregular migrants receiving health care and back pay for withheld wages when these rights were linked to a migration control measure: obligations for public sector employees to report irregular migrants to authorities.
This suggests, as existing literature highlights, that many people experience an internal conflict between humanitarian concerns and a desire for stricter migration controls.
However, the pattern in our data does not hold for all rights: even when combined with reporting obligations, the provision of cash assistance for irregular migrants still does not generate public support.
Not all irregular migrants are viewed equally: our findings show that people are more supportive of rights and regularisation opportunities for migrants who previously worked legally in the host country – especially in essential roles like elder care. This reflects broader research on attitudes toward welfare deservingness, which found that public perception of migrants’ past contributions to society shape views on whether they should get access to rights.
While there are many similarities in public views on regularisation opportunities and access to rights for irregular migrants across the countries we studied, there are also some notable differences. For example, support for providing primary healthcare varied: respondents in the UK were the least supportive, and respondents in Italy were the most. Similarly, while respondents in most countries opposed the provision of low-income support, Italian respondents were more ambivalent, showing no strong preference for or against this right for irregular migrants.
Overall, respondents in Italy showed the greatest preferences for inclusive policies, including the strongest support for allowing irregular migrants to apply for legal status. While our analysis does not investigate the reasons for this, it may reflect Italy’s history of regularisation programmes in recent decades, which may have made Italian respondents more open to and supportive of such programmes.
Public attitudes matter – they influence which policies are feasible and sustainable over time. Our research shows that EU and UK residents don’t default to blunt and one-sided policies such as blanket opposition to irregular migrants ever gaining legal status. Instead, people are selective, and prefer policies that distinguish between giving irregular migrants different types of rights. People also have specific views about when and why irregular migrants should have access to healthcare, social welfare, labour protections and legal status.
This does not mean that survey respondents wanted to offer unconditional legal status and access to rights to all irregular migrants. Instead, respondents often preferred an approach that combines selective access to rights with enforcement of migration rules. What our study indicates is that the public has more nuanced views on how migration should be managed than policymakers generally give them credit for. This suggests there may be more room for selective and inclusive policymaking than often assumed.
This article is based on a research paper co-authored by Lutz Gschwind (Uppsala University, UU), Martin Ruhs (EUI), Anton Ahlén (UU) and Joakim Palme (UU). The paper is part of the international “PRIME” project that analyses the conditions of irregular migrants in Europe. PRIME is funded by the European Union Horizon Europe programme. Views and opinions expressed, however, are those of the authors only and do not necessarily reflect those of the EU or the European Research Executive Agency. Neither the EU nor the granting authority can be held responsible for them.
The author has received support from the European Union Horizon Europe funding programme for research and innovation (project number 101095113).
01.04.2025 à 16:15
Frédéric Bizard, Professeur de macroéconomie, spécialiste des questions de protection sociale et de santé, ESCP Business School
Dans notre pays marqué par un haut niveau d’inégalités sociales de santé, et alors que le système de santé français est en crise, quelles pourraient être les implications du projet de loi sur l’aide à mourir ? Le point de vue de l’économiste.
Le projet de loi sur l’aide à mourir reviendra au Parlement le 12 mai 2025. Deux propositions de loi distinctes, l’une sur les soins palliatifs et l’autre sur l’aide à mourir devraient alors être examinées et soumises au vote.
En ce qui concerne l’aide à mourir, la version du texte proposée reprend une part substantielle des amendements issus des débats parlementaires de 2024. Si ces derniers ont été jugés constructifs, ils ont curieusement ignoré la question économique de la fin de vie et son impact social.
C’est ce que nous allons aborder ici.
Avant d’entrer dans le vif du sujet, il ne semble pas inutile d’exposer la position personnelle de l’auteur de ces lignes sur ce sujet. La nature du sujet nous amène en effet à préciser d’où nous parlons.
Notre position sur les sujets sociétaux est que tout nouveau droit qui renforce la souveraineté et la liberté de l’individu dans ses choix de vie constitue, a priori, un progrès humain souhaitable.
Comme Rousseau, nous pensons que « l’Homme est né libre et partout il est dans les fers ». Pour cette raison, chaque chaîne que l’on peut briser est, a priori, une avancée salutaire. Par ailleurs, comme Sartre, nous constatons que « l’Homme est condamné à être libre ». Y compris, a priori, à la fin de sa vie.
Une fois cette position personnelle exprimée, il s’agit d’analyser avec la rigueur nécessaire la réalité du progrès humain proposé, en considérant notamment les plus fragiles et l’applicabilité concrète de cette proposition.
Cette analyse implique d’abord d’examiner le contexte actuel de notre protection sociale, ensuite, de mesurer l’influence de la question économique sur la fin de vie et, enfin, de s’interroger sur l’existence d’un cadre éthique solide encadrant l’aide à mourir.
L’examen du projet de loi sur l’aide à mourir coïncide, à quelques semaines près, avec le vote d’une loi de financement de la Sécurité sociale 2025 qui n’a pas réussi à garantir la viabilité financière de notre système à moyen terme.
La trajectoire budgétaire des budgets sociaux, votée en février dernier, montre un déficit structurel annuel de 24 milliards d’euros. Si cette trajectoire se poursuit, la dette sociale, qui s’élevait déjà à 150 milliards d’euros fin 2024, subira d’ici à 2028 une hausse de près de 100 milliards d’euros.
Si les Français ne perçoivent pas immédiatement la dette de l’État comme une menace directe pour leur avenir, le principe de réalité économique s’impose : un tel niveau d’endettement social représente une menace existentielle pour le financement solidaire de notre protection sociale, c’est-à-dire la protection à laquelle peut prétendre chaque citoyen face aux principaux risques sociaux.
Parmi les budgets sociaux, le budget des dépenses publiques de santé est, de loin, le plus déficitaire. Il représentera en effet à lui seul 80 % du déficit annuel de la Sécurité sociale d’ici à 2028. Cette situation budgétaire est inédite depuis la création de la Sécurité sociale. Et elle n’est pas soutenable.
À ce jour, le financement de la dette sociale à venir n’est plus garanti, ce qui, sans réforme, remet en cause l’existence même de la Sécurité sociale dans les prochaines années.
Cette situation soulève une question fondamentale sur l’ordre des priorités politiques en matière de droits sociaux : ne faudrait-il pas d’abord sauver notre modèle de protection sociale solidaire, afin d’assurer une couverture à tous les citoyens, avant d’envisager la création d’un nouveau droit d’aide à mourir ?
Au-delà de la survie économique du modèle social, l’amélioration de son efficacité en matière de justice sociale pourrait être jugée prioritaire. Notre pays est marqué par un haut niveau d’inégalités sociales de santé, que la crise profonde actuelle du système ne peut qu’aggraver.
L’écart d’espérance de vie entre les 5 % des hommes les plus aisés et les 5 % les moins aisés atteint 13 ans en France. Par ailleurs, l’espérance de vie en bonne santé à la naissance (qui mesure le nombre d’années qu’une personne peut compter vivre sans souffrir d’incapacité dans les gestes de la vie quotidienne) était en baisse en 2023, à 63,6 ans chez les hommes et 64,2 ans pour les femmes.
Autrement dit, en 2023, à la naissance, les femmes pouvaient espérer vivre 64,2 ans sans incapacité et 77,5 ans sans incapacité forte, contre respectivement 63,6 ans et 73,8 ans pour les hommes.
Soulignons aussi que, depuis 2005, 100 % de la hausse de l’espérance de vie des femmes s’est accompagnée d’années vécues en mauvaise santé en France. Autrement dit, les années d’espérance de vie gagnées sont des années en mauvaise santé.
Si l’espérance de vie sans incapacité à la naissance des hommes a augmenté de 10 mois, celle des femmes a diminué de 4 mois. Ce mauvais résultat est plus marqué dans les classes populaires.
Ces inégalités sociales de santé impliquent que les classes populaires et moyennes auront potentiellement recours à l’aide à mourir plus tôt que les personnes aisées, sans même prendre en compte l’impact possible de la souffrance sociale dans une telle décision.
Prioriser l’aide à mourir plutôt que le rétablissement d’une justice sociale face aux aléas de la vie en matière de santé est d’autant plus surprenant qu’une réforme en ce sens est prête et reconnue en France. Il s’agit d’une refonte du système assise sur trois piliers : une santé globale (maintien en bonne santé et soins), un pilotage des ressources à partir de la demande (et non de l’offre) et une démocratisation de la santé. Ce nouveau modèle est à décliner sur l’organisation des soins, la gouvernance et le financement.
La proximité de la mort constitue un facteur majeur d’augmentation des dépenses de santé.
Aux États-Unis, les 5 % des assurés de Medicare (assurance publique pour les plus de 65 ans) qui décèdent dans l’année représentent entre 25 % et 30 % des dépenses totales de l’assureur, selon les études les plus récentes.
En France, les dépenses publiques de santé liées à la dernière année de vie atteignent, en valeur actualisée pour 2025, environ 31 000 euros par personne décédant dans l’année, soit un total de 20 milliards d’euros par an (ce qui représente 10 % de la dépense publique de consommation de soins et biens médicaux).
À cette somme s’ajoute un reste à charge moyen de l’ordre de 3 100 euros, portant ainsi le coût total à près de 35 000 euros par personne décédant dans l’année.
Si l’on se limite aux dépenses exclusivement liées à la fin de vie, l’estimation actualisée de dépenses publiques s’élève à environ 11 milliards d’euros, soit 17 200 euros par personne.
À ce montant s’ajoute un reste à charge de 1 800 euros (10 % du total), ainsi que des dépenses sociales et d’accompagnement à domicile ou en Ehpad, qui peuvent être particulièrement élevées.
Les dépenses de fin de vie sont surtout de nature « active », c’est-à-dire curative et non palliative, et progressives dans le temps, avec un pic le dernier mois, comme le montre le graphe suivant.
Face à de tels montants, assurer la pérennité du financement des dépenses de santé pour tous est une priorité nationale. Faute d’y parvenir, les inégalités sociales en fin de vie vont exploser.
Une étude canadienne, portant sur une population étudiée entre 2016 et 2019, a permis de corréler le niveau de revenus des demandeurs d’aide à mourir avec la concrétisation de leur démarche. Ces travaux ont révélé que 58 % des demandes d’euthanasie provenaient de personnes à faibles revenus.
Promulguer un droit à l’aide à mourir dans un contexte où l’accès universel aux soins de fin de vie est menacé représenterait un risque de régression sociale face à la mort. En effet, qui souhaiterait laisser à ses proches le fardeau d’une dette liée à ses derniers jours de sa vie ?
De plus, on peut s’interroger : est-il réellement possible de neutraliser totalement l’impact de la souffrance sociale et la pression sociale de l’entourage, dans certains cas ?
Les soins palliatifs ont été intégrés au droit positif par la loi du 9 juin 1999, qui en faisait un objectif premier. La loi Claeys-Leonetti de 2016 a renforcé le droit d’accès à ces soins, visant à répondre à la demande de « mourir dans la dignité » par une meilleure prise en charge de la souffrance et en clarifiant l’usage de la sédation profonde et continue jusqu’au décès.
Pourtant, près de dix ans plus tard, malgré certaines avancées, les pouvoirs publics n’ont toujours pas réussi à garantir une offre suffisante pour répondre aux besoins en soins palliatifs. Sur les 400 000 personnes éligibles aux soins palliatifs (60 % des décès), seuls 50 % y ont accès.
Avec le développement des pathologies chroniques et l’augmentation de la mortalité, les besoins en soins palliatifs devraient concerner 500 000 personnes d’ici à dix ans. En effet, ces besoins représentaient 61 % des décès en 2017, sachant que le nombre de décès approchera les 800 000 à la fin de la décennie 2030. Or, les financements prévus semblent déjà insuffisants, rendant cette promesse législative illusoire et trompeuse.
Dans un contexte de déficit structurel du budget de la santé de plus de 15 milliards d’euros par an, tout engagement de dépenses supplémentaires pérennes pour un nouveau droit immédiat soulève une question cruciale de solidarité intergénérationnelle. Les inégalités sociales observées aujourd’hui risquent de se multiplier demain.
Par ailleurs, les grandes difficultés de recrutement du personnel, la courte durée de vie professionnelle des paramédicaux, la perte de sens du métier de soignant, ne relèvent pas uniquement d’un manque de moyens financiers. Elles sont aussi et avant tout le résultat des défaillances en matière de gouvernance, d’organisation des carrières, de reconnaissance professionnelle et d’autonomie de soignants. Dans ces conditions, toute augmentation budgétaire supplémentaire risque d’être vaine, comparable un arrosage sur du sable.
Seule une réforme globale de notre système de santé rendrait crédible une politique de remise à niveau des soins palliatifs en France.
Plaçons-nous maintenant dans un contexte favorable, en imaginant que la protection sociale de notre pays soit réformée et reconnue comme performante, tant sur le plan social qu’économique. L’économiste a-t-il pour autant son mot à dire sur la fin de vie ? Celle-ci coûte-t-elle trop cher ?
Comme pour le sauvetage de notre système de santé et notre protection sociale en général, la rationalité économique a toute sa place dans le débat. Rappelons que l’économie est avant tout une méthode d’analyse au service des décisions publiques, et pas un objet d’étude en soi.
Dans un pays très endetté, est-il souhaitable de consacrer 10 % des dépenses publiques de santé à la lutte contre la mort, plutôt qu’à l’enfance, à l’éducation ou à la précarité ? Cette question fondamentale, l’économiste peut la poser.
En effet, toutes les valeurs humaines – dont la vie en bonne santé et l’affection de ses proches – peuvent être évaluées en termes monétaires. La vraie question est de savoir quelle somme les individus sont prêts à consacrer pour préserver ces valeurs. Et d’apprécier correctement les choses.
Ainsi, il ne faut pas oublier que la valeur des derniers mois de vie ne se limite pas à des préférences individuelles. Cette valeur est collective, elle inclut le chagrin des proches, et les conséquences en matière de liens sociaux et affectifs. Autant de facteurs qui font que ladite valeur ne peut être résumée par la seule notion de « coûts des soins ».
Les dépenses élevées de soins en fin de vie actuelles étant inférieures aux préférences collectives sur ce sujet, elles sont donc économiquement justifiées. L’économiste ne devrait pas avoir d’objections à ce niveau de dépenses, sauf à chercher à optimiser l’utilisation de ces ressources rares que sont les dépenses publiques de santé.
Une autre interrogation surgit, qui dépasse le cadre économique : le choix de l’aide active à mourir peut-il être réellement éthique ? Pour que ce soit le cas, il faudrait garantir un cadre d’éligibilité infaillible, sous contrôle strict et durable. Est-ce un objectif atteignable ? Les débats législatifs de 2024, marqués par de nombreuses tergiversations sur les conditions d’application de la loi, illustrent les grandes difficultés à définir ledit cadre.
L’absence de ce cadre universel rigoureux, qui garantirait que tout risque de dérive dans l’usage de l’aide à mourir sera sous contrôle, suggère que l’aide à mourir éthique n’existe probablement pas. Aucune étude scientifique sérieuse ne permet d’affirmer le contraire, même s’il y a débat entre experts de l’éthique.
Ce premier quart de XXIe siècle nous rappelle que la lutte pour libérer l’être humain de ses entraves reste essentielle. Cependant, le critère ultime d’évaluation du progrès ne devrait-il pas être le bénéfice social réel apporté aux plus fragiles ?
Frédéric Bizard est président fondateur de l’Institut Santé.
01.04.2025 à 16:14
Jean-François Loudcher, Professeur des universités en sciences historiques et sociales, Université de Bordeaux
Le 18 février, une proposition de loi LR, adoptée par le Sénat, a marqué une étape importante en direction d’une interdiction du port du voile islamique dans les compétitions sportives. Poussé par Bruno Retailleau et Gérald Darmanin, le premier ministre François Bayrou a promis d’accompagner la démarche des LR en proposant une loi à l’Assemblée nationale. Cette interdiction est-elle justifiée ? Le sport est-il soumis à l’entrisme islamiste comme l’affirment la droite et l’extrême droite et le voile en est-il son cheval de troie ?
Depuis la proposition de loi du LR Michel Savin sur l’interdiction du voile dans les compétitions sportives pour les fédérations ayant une délégation de service publique, le débat enflamme la classe politique et les réseaux sociaux. Si la droite considère que la neutralité s’impose dans le sport, la gauche dénonce une stigmatisation des sportives musulmanes et un dévoiement de la loi de 1905. Or, ce qui est en jeu, ce n’est pas seulement l’examen de quelques articles de loi, mais plusieurs décennies de polémiques et de discussions autour d’une position particulière de la laïcité que la proposition LR cristallise.
Au sein du gouvernement, les clivages sont explosifs. La ministre des sports, Marie Barsacq, a mis en garde « contre les « confusions » et les « amalgames » entre port du voile et « radicalisation dans le sport ». Bruno Retailleau, ministre de l’intérieur, s’est dit en « désaccord radical » avec la ministre des sports. Gérard Darmanin, ministre de la justice, favorable à l’interdiction du voile dans le sport, a fait pression sur le premier ministre, mettant sa démission dans la balance. François Bayrou inscrira bien cette interdiction dans un futur projet de loi.
La proposition de Michel Savin est la quatrième tentative du groupe LR. Il est l’aboutissment d’une longue offensive.
Dès 2019, Les Républicains ciblent la lutte contre le séparatisme et la « radicalisation islamiste » dans le sport suite à l’attentat de la Préfecture de police et l’assassinat de Samuel Patty l’année suivante en 2020. Ceci à travers la loi du 24 août 2021 confortant le respect des principes de la République et celle du 2 mars 2022 « visant à démocratiser le sport en France ».
LR souhaite déjà interdire le voile dans les compétitions sportives mais l’opposition de Roxana Maracineanu, socialiste et ministre des sports de 2018 à 2022 (gouvernements d’Edouard Philippe et de Jean Castex) permet de repousser leurs offensives. La ministre propose le CER Contrat d’Engagement Républicain qui oblige les associations demandant des subventions à respecter certains principes de laïcité.
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
Par ailleurs, les enquêtes initiées par la ministre relativisent la menace d’entrisme islamique. Sur 592 contrôles effectués par le biais des cellules de lutte contre l’islamisme radical et le repli communautaire (CLIR), seules 9 fermetures de clubs ont eu lieu.
Pourtant, en 2024, avec le soutien du gouvernement Attal, le groupe Les Républicains a l’opportunité de déposer une première proposition de loi en mars 2024, puis une seconde en juin. Le rapporteur, le sénateur LR Stéphane Piednoir, s’appuie sur les enquêtes de Roxana Maracineanu auxquelles il ajoute le résultat de 100 contrôles réalisés par le ministère des sports en 2022-2023. Ce dernier n’évoque pourtant que 6 cas de séparatisme.
Après la dissolution de l’AN de juin 2024, les députés d’Ensemble pour la république (EPR) tentent de récupérer l’initiative en déposant une troisième proposition de loi (le 29 octobre 2024) – sans succès.
Sous le gouvernement Bayrou, Les Républicains reviennent à la charge et déposent leur quatrième proposition de loi en février 2025.
Dans la foulée, le député Rassemblement national Julien Odoul prend l’initiative avec une « mission flash » qu’il co-dirige aux côtés de la députée EPR Caroline Yadan.
Le rapport est à charge, utilisant des informations parcellaires et orientées. Ainsi, il n’est pas mentionné la conclusion de l’enquête rendue par l’Institut des Hautes Etudes du Ministère de l’Intérieur qui précise que « les données collectées ne permettent pas de soutenir un rôle déterminé de la pratique sportive en soi ou de l’association sportive dans la radicalisation ».
Finalement, la mission flash envoie un message saturé de nombreux exemples et chiffres qui, mis bout à bout, font figure de démonstration. L’analyse du phénomène voile/entrisme est limitée mais la référence confuse au principe de laïcité fait figure de boussole.
Cette référence à la laïcité, régulièrement assénée dans les débats parlementaires et face aux associations défendant le port du voile, repose sur l’idée d’une neutralité existant en soi, inscrite dans le marbre de la loi de 1905. Or, l’analyse de cette loi montre une dynamique complexe. Cette législation se forme à partir de la proposition de Ferdinand Buisson, intransigeante, étendant la laïcité à tous les citoyens mais aussi avec celle d’Aristide Briand, plus tempérée, qui permet aux associations cultuelles (patronages, clubs de sport…) de fonctionner selon les règles de leur culte.
La laïcité « à la française » s’est construite sur un équilibre dynamique entre plusieurs tendances. On peut considérer qu’elle est désormais menacée par l’expression d’une neutralité plus radicale. En effet, la volonté de conciliation promue dans la loi de 2004, encore perpétuée dans la note de service sur l’abaya de 2023, ainsi que dans la proposition de l’Assemblée nationale d’octobre 2024 consistant à « saisir les organes disciplinaires compétents » à l’issue d’un « dialogue avec les intéressés », disparaît dans la proposition LR de Michel Savin.
Finalement, la proposition de loi de février 2025 manque la cible de l’entrisme religieux pour deux raisons. D’une part, parce que, contrairement à la loi scolaire de 2004 dont elle s’inspire, la laïcité est à construire dans le sport, elle n’existe pas d’emblée. Il faut donc envisager la mise en œuvre de procédures pour y accéder sur le modèle du Contrat d’Engagement Républicain. D’autre part, la formulation de la proposition de loi est discutable. En effet, la notion de « signe » religieux renvoie à une « tenue » donc, et non à des attitudes ou démarches répréhensibles.
Le port seul du voile peut difficilement mettre en péril la République tant qu’il est du même ordre que « servir des repas sans porc dans les cantines aux élèves […] qui ne constitue évidemment pas une entrave au vivre ensemble dans le respect de règles de droit communes » selon les termes de Jean-Fabien Spitz. C’est bien l’intention de son affichage, par provocation, par choix personnel, par inadvertance ou par entrisme, dont on doit se saisir. Dès lors, la République doit montrer qu’elle sait faire ces différences et défendre les particularités.
Plutôt que d’interdire, il serait intéressant de légiférer sur les conditions d’autorisation du port du voile afin de construire cette « laïcité », laissant « saisir les organes disciplinaires compétents », autrement dit des structures spécialisées, « à l’issue d’un dialogue avec les intéressés » pour en juger la portée symbolique.
Rappelons enfin qu’en choisissant une interdiction du voile dans les compétitions sportives, la France serait particulièrement isolée parmi les nations du monde et d’Europe. Selon Amnesty International, il s’agirait du seul pays parmi 38 pays européens à le faire.
La proposition Savin liant port du voile et entrisme islamique et politique est à revoir. Indéniablement, des phénomènes de séparatisme et d’atteinte à la laïcité existent. Progressent-ils et dans quelle mesure sont-ils liés au sport ? Des études indépendantes fiables sur ce sujet doivent être menées.
Jean-François Loudcher ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
01.04.2025 à 16:14
Allane Madanamoothoo, Associate Professor of Law, EDC Paris Business School
L’amélioration de l’accès à la fécondation in vitro (FIV) est une cause chère à Donald Trump, qui vient de signer un décret en ce sens. Or, le couplage de la FIV avec le diagnostic préimplantatoire (DPI) largement pratiqué aux États-Unis pourrait ouvrir la voie à des projets eugénistes.
« Je suis le père de la FIV ! » Le 16 octobre 2024, trois semaines avant l’élection présidentielle qu’il allait remporter contre Kamala Harris, Donald Trump s’autoproclamait, devant une assistance exclusivement féminine, « père de la fécondation in vitro » (FIV). Ce n’était pas la première fois au cours de sa campagne qu’il s’exprimait sur l’épineuse question de la FIV : en août 2024, à Potterville (Michigan), il avait déjà fait cette promesse :
« Sous l’administration Trump, votre gouvernement paiera ou votre compagnie d’assurance sera obligée de payer tous les coûts associés aux traitements de FIV. »
Porté par cet engagement, il a signé, le 18 février 2025, un décret exécutif portant sur « l’examen » des moyens pour réduire les coûts de la FIV et pour en faciliter l’accès. Ce décret demande qu’une liste de recommandations politiques à ce sujet soit soumise dans les 90 jours suivant sa promulgation.
Donald Trump semble, de prime abord, vouloir aider les familles. Mais la normalisation de la naissance des enfants à partir d’un tri des embryons conçus par FIV, en fonction de leur patrimoine génétique, pourrait se révéler dangereuse et éthiquement inacceptable. Assisterons-nous à la mise en œuvre d’une nouvelle politique eugéniste aux États-Unis ? Et quel impact l’exécution de la promesse de Trump aura-t-elle sur l’industrie américaine de la fertilité dans sa globalité ?
L’eugénisme – qui signifie étymologiquement « bonne naissance » – désigne l’ensemble des méthodes et pratiques visant à l’amélioration de la population humaine par le contrôle sélectif de la reproduction.
À lire aussi : « Dune » : apologie ou critique de l’eugénisme ?
On distingue l’eugénisme positif, qui tend à favoriser la reproduction des individus jugés « supérieurs », de l’eugénisme négatif, dont le but est de limiter la reproduction de personnes considérées « inférieures ».
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
Ces formes d’eugénisme ont déjà toutes deux été pratiquées dans l’histoire récente des États-Unis.
L’eugénisme positif, d’abord, a émergé au début du XXe siècle dans le cadre des foires d’État, quand étaient organisés des concours pour élire le « bébé en meilleure santé » (« better babies »), qui évoluèrent, avec la préoccupation des eugénistes pour l’hérédité, en concours de « la famille la plus apte » (« fitter families »).
L’eugénisme négatif s’est manifesté à la même période à travers des politiques de stérilisation forcée de certaines catégories de la population – notamment les « faibles d’esprit », les malades mentaux, les handicapés physiques, les pauvres, les criminels, les Afro-Américains, etc. La première est adoptée en 1907 dans l’Indiana, avant de s’étendre dans un nombre considérable d’autres États.
L’arrêt Buck v. Bell, émis par la Cour suprême des États-Unis, le 2 mai 1927, joua un rôle central dans la légitimation et l’adoption des lois de stérilisation eugénique dans plusieurs États.
Carrie Buck, née en 1906, a été placée peu après sa naissance dans une famille d’accueil, chez John et Alice Dobbs, sa mère ayant été internée dans un asile de Virginie. À l’âge de 17 ans, elle est violée par le neveu d’Alice Dobbs et tombe enceinte. Sans doute pour se défaire de l’embarras de cette grossesse, les Dobbs la font interner dans la même institution où se trouve sa mère, pour « faiblesse d’esprit » et « promiscuité ». La direction de l’établissement exige alors que Carrie, qui donne naissance à une fille en 1924, soit stérilisée contre son gré. La même année, une loi autorisant la stérilisation forcée de personnes « faibles d’esprit » est votée dans l’État de Virginie. Le cas de Carrie est remonté jusqu’à la Cour suprême, qui confirme la constitutionnalité de la loi de Virginie en 1927.
La déclaration du juge Oliver Wendell Holmes, prononcée à l’issue du jugement, justifie ouvertement le caractère eugéniste de cette loi, dans le cadre de laquelle Carrie sera stérilisée le 19 octobre 1927 :
« Il vaut mieux pour le monde entier qu’au lieu d’attendre d’exécuter les descendants dégénérés pour crime, ou de les laisser mourir de faim pour leur imbécillité, la société puisse empêcher ceux qui sont manifestement inaptes de perpétuer leur espèce. Le principe qui soutient la vaccination obligatoire est assez fort pour couvrir la section des trompes de Fallope (…) Trois générations d’imbéciles, c’est assez ! »
De 1907 jusqu’à la fin du XXe siècle, plus de 60 000 personnes furent ainsi stérilisées contre leur gré dans 32 États des États-Unis, dont environ 20 000 en Californie. En Caroline du Nord, les femmes afro-américaines constituaient le groupe le plus touché, suivies par les femmes blanches, puis par les hommes noirs et enfin les hommes blancs.
Un rapport de l’ONG américaine Center for Investigation Reporting révèle que plusieurs détenues ont été victimes de stérilisations contraintes en Californie il y a quelques années.
Pendant l’entre-deux-guerres, de nombreux pays s’inspirent des lois de stérilisation eugénique des États-Unis : Suisse (1928), Danemark (1929), Norvège, ou encore Finlande et Suède (1935)… Surtout, l’Allemagne nazie, par l’adoption de la loi du 14 juillet 1933, impose la stérilisation aux personnes atteintes de maladies héréditaires et mentales. Plus de 300 000 personnes seront stérilisées de force en cinq ans, au point que Joseph DeJarnette, membre d’un mouvement de promotion de la stérilisation forcée en Virginie, déclara :
« Les Allemands nous battent à notre propre jeu… »
Dans le film d’anticipation d’Andrew Niccol Bienvenue à Gattaca, sorti en 1997, les humains sont classés en deux catégories : les « valides », nés à partir d’un tri des embryons conçus par FIV, sur la base de leur patrimoine génétique, et les « non valides », conçus naturellement et soumis aux aléas de la nature. Seuls les premiers, considérés comme les élites, peuvent occuper des postes clés dans la société. Les seconds, vus comme des humains de second ordre, sont cantonnés à une vie subalterne. Ce thriller eugéniste est-il appelé à devenir réalité ?
À ce jour, la liste des recommandations visant à améliorer l’accès à la FIV pour les Américains n’a pas été officiellement communiquée, les 90 jours requis par le décret n’étant pas encore écoulés. De fait, il n’est pas possible d’affirmer avec certitude qu’une nouvelle forme d’eugénisme « sous couvert » de la FIV soit en train d’être mise en œuvre outre-Atlantique.
Toutefois, compte tenu des concours de « better babies » et de « fitter families » et de la pratique massive de stérilisations eugéniques par le passé aux États-Unis, de l’avancement des techniques d’assistance médicale à la procréation (AMP) ainsi que de l’enthousiasme de Donald Trump pour la FIV, il n’est pas impossible qu’un tel scénario se produise dans les années à venir.
Assistés de leur médecin et de leur conseiller génétique, les futurs parents pourraient être « incités » à concevoir un designer baby (bébé sur mesure) par FIV en choisissant le « meilleur » embryon après un « contrôle qualité » programmé et voulu par une politique eugéniste positive, plutôt que par la reproduction naturelle — et ce, même en l’absence de problèmes d’infertilité.
Cette possibilité est d’autant plus plausible qu’aux États-Unis le diagnostic préimplantatoire (DPI), qui permet à l’origine de détecter la présence d’éventuelles anomalies chromosomiques ou génétiques chez les embryons conçus après une FIV, est quasi généralisé : 83,3 % des cliniques de fertilité proposent, par exemple, le DPI pour permettre aux parents de choisir le sexe de l’enfant souhaité. Certaines d’entre elles, telles que Fertility Institutes, offrent également la possibilité de choisir la couleur de ses yeux.
Genomic Prediction, une autre société américaine en médecine reproductive, commercialise, quant à elle, une offre « premium » de DPI, le DPI-Polygénique, qui permet aux futurs parents d’évaluer les risques de plusieurs maladies polygéniques – causées par la mutation d’un grand nombre de gènes – chez les embryons conçus par FIV. En vertu du score de risque polygénique, les futurs parents peuvent ensuite sélectionner le « meilleur » embryon qu’ils souhaitent implanter dans l’utérus de la mère.
Le potentiel intellectuel de l’enfant représente également un enjeu important pour nombre d’Américains. Selon une étude publiée dans la revue Science, 28 % des Américains accepteraient d’avoir un bébé génétiquement modifié afin de maximiser les chances de leur future progéniture d’accéder aux meilleures universités, et 38 % seraient prêts à avoir recours à la sélection des embryons en fonction de leur QI. Pour rappel, si la conception de bébés OGM reste interdite, on sait qu’elle est possible depuis la naissance de Lulu et Nana en Chine en 2018. Il en ressort qu’une partie significative des citoyens des États-Unis ne s’opposerait pas à des politiques relevant de l’eugénisme positif.
Depuis la naissance en 1981 d’Elizabeth Carr, premier « bébé éprouvette » américain, la FIV représente environ 2 % des naissances aux États-Unis, soit près de 100 000 chaque année. Un véritable business lucratif de la FIV s’est mis en place dans le pays.
Le coût moyen d’une FIV aux États-Unis s’élève à 12 000 dollars. S’y ajoutent des frais relatifs aux traitements hormonaux, estimés de 3 000 à 4 000 dollars par cycle de FIV. La probabilité d’une grossesse après une première FIV étant faible, plusieurs cycles de FIV peuvent être nécessaires pour espérer donner naissance à un enfant grâce à cette technique.
Or, il n’existe pas de système universel de santé aux États-Unis, et les lois sur la prise en charge de la FIV varient d’un État à un autre. Seuls quelques-uns ont adopté des lois obligeant les assurances privées de santé (via les employeurs ou à titre individuel) à couvrir ou à offrir les soins liés à l’infertilité, dont la FIV. Enfin, le programme Medicaid, qui fournit une assurance maladie aux individus à faible revenu, ne couvre pas non plus les frais liés à la FIV dans tous les États fédérés.
Dès lors, certaines grandes entreprises, à l’image de Google ou Apple, ont saisi cette situation comme une opportunité stratégique pour proposer à leurs employés, femmes et hommes, une couverture des frais d’AMP, afin d’attirer et de fidéliser les talents dans un marché du travail de plus en plus compétitif.
En 2023, le marché de la FIV aux États-Unis représentait 5,28 milliards de dollars. Il devrait atteindre 7,24 milliards de dollars en 2030.
Ce marché recouvre d’autres marchés connexes tels que celui des ovocytes (398,5 millions de dollars en 2024), celui du sperme (1,8 milliard de dollars en 2023) et celui de la gestation pour autrui (GPA), estimé à 27,61 milliards de dollars en 2023.
Il est indéniable que la facilitation d’accès à la FIV, que ce soit ou non dans un but eugénique, conduira à une croissance exponentielle de l’industrie américaine de la fertilité et lui sera pleinement profitable.
Pour conclure, cette situation se traduira, en parallèle, par une hausse de la demande de gamètes et de GPA, aggravant les risques de marchandisation et d’exploitation, ainsi que les risques médicaux déjà existants pour les mères porteuses et les donneuses d’ovocytes, qui pourraient être tentées de multiplier ces pratiques face à la demande et au regard de leur situation économique.
À lire aussi : Femmes porteuses aux États-Unis : la question complexe de leur rémunération
À ce propos, dans son ouvrage Confessions of a Serial Egg Donor, Julia Derek met en lumière le business des banques d’ovocytes. Elle raconte l’histoire vraie d’une donneuse d’ovocytes aux États-Unis, une étudiante d’université qui, par besoin d’argent, avait subi jusqu’à 12 cycles de stimulation ovarienne afin de produire un nombre maximal d’ovocytes, jusqu’à ce que son corps lâche…
Allane Madanamoothoo ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
01.04.2025 à 16:13
Eric Baratay, Professeur d'histoire, Université Jean Moulin Lyon 3
Retracer l’histoire du point de vue des animaux, tâcher de trouver des sources pouvant témoigner de leur vécu et de leur évolution. Telle est l’ambition du dernier livre supervisé par Eric Baratay aux éditions Tallandier.
Dans ces bonnes feuilles que nous vous proposons, cet historien se penche sur la Grande Guerre qui, sur le seul front de l’Ouest, mobilisa pas moins de huit millions de chevaux. Indispensable pour la cavalerie, l’infanterie mais également l’artillerie, pour tirer canons, munitions, vivres et hommes, ils ont façonné l’évolution de cette guerre.
Saviez-vous par exemple qu’en 1914 c’est le manque de chevaux des Français comme des Allemands qui a empêché qu’un camp ou l’autre réussisse à contourner son adversaire, ce qui a provoqué la fixation du front et quatre ans de guerre de tranchées.
En examinant les écrits de poilus et des vétérinaires au front, Eric Baratay tâche ici de retracer la douloureuse mobilisation de ces millions de chevaux.
Lors de leur réquisition, les chevaux éprouvent d’abord un stress psychologique et physique en perdant leurs repères habituels du fait d’une succession de lieux, de mains, de voix. Leur embarquement dans les wagons est souvent difficile ; ils résistent, hennissent, se sentent poussés, frappés, se font serrer les uns contre les autres. Les plus rétifs continuent à hennir, à frapper les parois ; beaucoup sont apeurés par les trains qui passent, éprouvés par les secousses, irrités par les congénères inconnus.
Ils vivent un autre bouleversement lors de leur affectation, devant s’habituer à de nouveaux noms, de nouvelles voix et conduites, de nouveaux gestes et mots en divers patois changeant au gré des réaffectations, permissions, disparitions des hommes. Ainsi, les chevaux de trait affectés à la cavalerie se retrouvent avec un soldat sur le dos, rarement plus aguerri, tout aussi craintif, et ceux qui réagissent, hennissent, ruent, subissent alors des coups, entendent des cris, ce qu’ils connaissaient assez rarement auparavant s’ils viennent des campagnes.
Dans les services attelés, les chevaux doivent apprendre à travailler avec des congénères pour les solitaires d’autrefois ou de nouveaux partenaires pour les habitués à cet emploi. Ils sont assemblés selon leur taille, leur force, voire leur couleur, rarement selon leur caractère, que les hommes ne connaissent pas et ne cherchent pas. Des chevaux manifestent des incompatibilités d’humeur, obligent ces humains à les séparer jusqu’à ce qu’une répartition soit trouvée, qu’une paix plus ou moins durable s’installe. Lors des essais à tirer ensemble, beaucoup se heurtent, glissent, tombent, s’empêtrent dans les traits, s’épuisent. L’adaptation est remise en cause par les changements d’affectation et les arrivées de nouveaux partenaires, tels ces chevaux américains, que les alliés vont chercher à partir de l’automne 1914 pour compenser les pertes.
D’autant que leur traversée de l’Atlantique s’avère un calvaire côté français, où l’on ne donne qu’une avance aux marchands américains, les laissant assurer le transport à moindres frais. Dès l’Amérique, les équidés choisis se retrouvent concentrés et mélangés dans des parcs puis entassés à 15 ou 20 dans des wagons, sans attache et sans surveillance interne. Les conflits, les coups, les chutes s’ajoutent au stress du voyage durant lequel ces animaux ne bénéficient guère d’arrêts le long d’un parcours de quatre à huit jours. Au port, ils sont de nouveau concentrés en enclos puis placés sur des barges et hissés par des grues sur des navires restés au large, une opération très stressante pour les équidés.
Perturbés par le déracinement, les importants changements climatiques à l’échelle américaine, le bouleversement du régime alimentaire, beaucoup s’affaiblissent et contractent des maladies infectieuses, d’autant qu’ils ne bénéficient pas de désinfection des enclos et des wagons ou de contrôles épidémiologiques, encore peu usités côté français.
À bord des navires, ces équidés se retrouvent entassés les uns contre les autres, en quatre rangées parallèles par étage, attachés de près, et comme ils ne font pas d’exercice dans des enclos ou de promenade sur le pont extérieur, qu’ils restent inactifs trois semaines au minimum, ils endurent des fourbures aiguës aux jambes. L’entassement est tel que des équidés se voient placés sur le pont extérieur où, malgré les couvertures mises sur eux ou les toiles tendues par-dessus, ils endurent de fortes variations de température, une humidité incessante, des courants d’air permanents, subissent d’importants refroidissements tout en devant résister aux tempêtes qui balaient l’endroit.
Au moins, ces animaux ne souffrent-ils pas de l’atmosphère confinée des étages internes, de la chaleur moite, du gaz carbonique, des fortes odeurs que les équidés enfermés produisent mais qui les indisposent vivement, d’autant que l’aération, guère pensée, est très insuffisante, que les excréments, le fumier, les aliments avariés sont irrégulièrement évacués et ces ponts mal nettoyés par des équipages négligents, peu impliqués financièrement dans le maintien en bonne santé des bêtes, bien qu’ils pâtissent aussi de la situation. Les morts sont laissés au milieu des vivants tout au long du voyage parce qu’on n’a pas prévu de les évacuer à la mer ! Les rescapés ressentent évidemment les phéromones de stress dégagés par les agonisants puis les odeurs des cadavres.
Chevaux et mulets souffrent souvent de la soif et de la faim, les marchands ayant trop peu prévu, les matelots s’évitant des corvées régulières, les aliments n’étant que de médiocre qualité. Ces équidés doivent souvent manger des aliments simplement jetés à terre, avalant en même temps la paille souillée, voire leurs excréments pour compenser la faim, mais les bêtes attachées trop court, incapables de baisser autant leur tête, sont forcées de jeûner. Beaucoup s’affaiblissent, contractent ou amplifient des maladies, mangent encore moins, respirent toujours plus mal, tombent au premier tangage, ont de plus en plus de peine à se relever, se blessent facilement lors des heurts avec d’autres ou contre les parois et lors de ces chutes, se fracturant des os ou se rompant des ligaments, contractant alors le tétanos ou la gangrène.
À l’arrivée, les sorties sont souvent retardées car, dans nombre de navires, les rampes reliant les ponts ont été enlevées pour mieux entasser, d’autant qu’on ne prévoyait pas de promenade extérieure. Les équidés doivent attendre plusieurs jours que de nouvelles pentes soient installées, sur lesquelles ils se précipitent pour sortir de cet enfer. Les blessés et les malades ne pouvant pas les gravir attendent d’être sanglés puis soulevés à la grue. À terre, les chevaux, souvent des mustangs plus ou moins sauvages, achetés à moindre coût, se montrent rebelles à la discipline. Ils déconcertent autant leurs congénères européens, habitués au travail, que les conducteurs qui font alors pleuvoir les coups.
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
Ces incompréhensions sont nombreuses, d’autant que nombre de soldats n’ont jamais côtoyé de chevaux auparavant et que ces derniers ne sont pas habitués à de tels environnements. Nous avons vu que beaucoup d’équidés réquisitionnés refusent d’entrer dans les wagons ou les camions. Cela conduit les soldats à les qualifier de « bêtes », à se grouper jusqu’à six ou sept pour les forcer et à manier la violence. Or cette attitude des chevaux s’explique par leur vision, mieux connue de nos jours : étroite en hauteur mais très panoramique en largeur, d’un flanc à l’autre. Ils ont donc le sentiment d’être bêtement précipités contre un obstacle alors que la voie est libre autour ! D’autant qu’ils détectent mal l’intérieur noir des wagons, mettant du temps à accommoder leur vue à l’obscurité, et qu’ils rechignent logiquement à entrer dans cet inconnu… à la manière d’un automobiliste qui, par temps ensoleillé, freine devant une section très ombragée de la route formant un mur noir.
Un autre exemple d’incompréhension concerne l’abreuvement des chevaux durant l’été 1914. Ils ne peuvent pas boire suffisamment, souvent une fois la nuit car les cavaliers limitent ces moments dangereux pour eux, et cela provoque une importante mortalité. On peut invoquer la guerre de mouvement, qui réduit les possibilités de nourrir et d’abreuver, et la négligence des hommes, qui est réelle, mais la situation est confortée par un aspect inconnu des humains et même des animaux : on sait maintenant que les chevaux connaissent une forme de déshydratation qui ne provoque pas une soif importante, ce qui signifie que ces chevaux de guerre n’ont sans doute pas suffisamment manifesté leur besoin.
Eric Baratay ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
01.04.2025 à 16:13
Camille Fernandes, Maîtresse de conférences en droit public, membre du CRJFC, Université de Franche-Comté
Depuis son retour à la Maison Blanche, Donald Trump multiplie les executive orders, sortes d’« ordonnances » ou de « décrets », contre l’éducation et l’enseignement supérieur, portant directement atteinte à la liberté académique des universitaires. En quoi ces attaques sont-elles inédites ? De quelles ressources les universitaires disposent-ils pour se défendre ?
Le début du deuxième mandat de Donald Trump a été marqué par une série de décisions portant directement atteinte à la liberté académique dont jouissent traditionnellement les universitaires américains.
Plusieurs interrogations émergent alors, allant de l’autorité compétente pour réglementer l’enseignement supérieur et la recherche aux États-Unis, aux sources de la liberté académique, en passant par la façon dont les juges américains peuvent la protéger.
L’enseignement supérieur et la recherche ne font pas partie des compétences que la Constitution des États-Unis confère expressément à l’État fédéral. En application du dixième amendement, ces domaines relèvent alors du pouvoir des États.
Cela ne signifie pas pour autant que les pouvoirs centraux ne puissent jouer aucun rôle en la matière. Le pouvoir législatif fédéral est d’abord en mesure de décider de l’ampleur des fonds fédéraux accordés à l’enseignement supérieur et à la recherche grâce à la « clause des dépenses » dont bénéficie le Congrès (article 1 de la Constitution).
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
Le pouvoir exécutif peut ensuite agir sur l’enseignement supérieur et la recherche par le biais d’agences ou de départements fédéraux qui disposent de compétences partielles en la matière. Créé en 1979, le département de l’éducation a par exemple pour rôle de « garantir l’accès à l’égalité des chances en matière d’éducation », ce qu’il fait par l’allocation d’aides financières aux étudiants.
De même, la National Science Fondation (NSF), qui a inspiré la France pour la création de l’Agence nationale de la recherche (ANR), subventionne largement la recherche états-unienne. C’est notamment en adoptant des mesures touchant à ces organismes fédéraux que l’administration Trump parvient actuellement à agir sur l’enseignement supérieur et la recherche, mais aussi, parfois, en s’affranchissant des règles constitutionnelles de répartition horizontale et verticale des compétences.
Même si le phénomène n’est pas nouveau et que différents États états-uniens – à l’instar de la Floride – ont déjà largement remis en cause la liberté académique depuis plusieurs années, il s’est amplifié depuis la réélection de Donald Trump. Ce dernier multiplie en effet les executive orders, sortes « d’ordonnances » ou de « décrets », qui sont adoptés directement par le président sans aucun contreseing.
L’un des plus récents, daté du 20 mars dernier, impose au secrétaire à l’éducation de tout mettre en œuvre pour fermer son département, lequel alors ne pourrait plus jouer son rôle essentiel en matière d’égalité des chances. Un autre executive order, du 20 janvier 2025, suspend l’aide étrangère au développement des États-Unis, ce qui a conduit l’Université Johns-Hopkins à supprimer 2 200 emplois à travers le monde.
D’autres décisions interfèrent avec le contenu même des enseignements et des recherches, comme les deux ordonnances imposant de renoncer aux politiques de diversité, d’équité et d’inclusion (DEI) ou celle visant à « défendre les femmes contre l’extrémisme des idéologues de genre » qui contraint les agences fédérales à retirer toutes les communications qui feraient la promotion ou qui inculqueraient « l’idéologie du genre ».
C’est en exécution de cette ordonnance que l’Agence pour la recherche et la qualité des soins de santé (Agency for Healthcare Research and Quality, AHRQ) aurait supprimé d’un site internet un article scientifique de deux professeurs de médecine de Harvard.
À lire aussi : Aux États-Unis, des licenciements massifs avant un démantèlement du ministère de l’éducation ?
En dehors de ces executive orders, les atteintes à la liberté académique peuvent être plus ciblées et concerner des établissements en particulier. C’est ainsi que l’administration de Donald Trump a menacé l’Université de Columbia de suspendre ou d’annuler le versement de fonds fédéraux si elle ne se conformait pas à certaines exigences, comme celle d’engager des poursuites disciplinaires contre les étudiants impliqués dans les manifestations propalestiniennes.
Quand bien même ces injonctions sont manifestement contraires à l’autonomie des universités, l’établissement new-yorkais y a en partie cédé, ainsi qu’en témoigne la publication sur son site internet d’un document recensant toutes les mesures adoptées à la suite de la mise en garde présidentielle. Ces atteintes récentes à la liberté académique nécessitent de s’intéresser à la façon dont elle est protégée aux États-Unis.
Comme en France, la liberté académique ne bénéficie d’aucun fondement constitutionnel écrit. Et si la Cour suprême a affirmé en 1967, dans l’affaire Keyishian v. Board of Regents,, qu’elle constituait une « préoccupation particulière du Premier Amendement », les effets de cette jurisprudence isolée sont loin d’être évidents. C’est pourquoi les universitaires préfèrent souvent invoquer la liberté d’expression « de droit commun ».
Une telle situation n’est pas idéale dès lors que la portée du premier amendement, sur lequel repose cette liberté d’expression « de droit commun », est limitée. Il ne s’applique en effet qu’aux mesures émanant des autorités et personnes publiques : il n’est contraignant que pour les universités publiques, et non pour les universités privées.
Les universitaires travaillant au sein d’institutions privées ne sont pas pour autant dépourvus de toute protection. En premier lieu, le premier amendement encadre toutes les mesures étatiques, qu’elles visent les universités publiques ou les universités privées. Il est ainsi toujours possible pour un universitaire d’une institution privée de contester la constitutionnalité d’une loi ou d’un décret présidentiel qui porterait atteinte à sa liberté d’expression.
En second lieu, les universitaires des établissements privés sont généralement protégés par leur contrat de travail puisque leurs « livrets » (personal manual ou handbook) peuvent comprendre des clauses protégeant la liberté académique, lesquelles reprennent souvent le contenu de la déclaration de l’American Association of University Professors (AAUP) de 1940 sur la liberté académique.
Cette association professionnelle, comme d’autres aux États-Unis, est extrêmement importante dans la défense de la liberté académique, en particulier en raison du rôle qu’elle joue devant les juridictions. Elle peut en effet déposer des amicus brief qui permettent de développer un argumentaire juridique de soutien aux universitaires. C’est ce qu’illustrent différents recours actuellement pendant devant les juridictions américaines.
Face aux décisions insensées de Donald Trump, les juges états-uniens apparaissent comme le dernier rempart à même de protéger l’État de droit. C’est ainsi que les recours contre ses executive orders se multiplient, sans que, pour les raisons évoquées ci-dessus, la protection de la liberté académique soit l’argument juridique privilégié.
D’autres moyens, davantage en mesure d’emporter l’adhésion des juges, sont invoqués, comme la méconnaissance de la « clause des dépenses » ou la violation de la liberté d’expression. C’est ainsi que l’AAUP, avec d’autres personnes morales, a obtenu la suspension temporaire d’une partie des décrets « DEI » par un juge du district du Maryland : ce dernier a notamment relevé que les plaignants avaient suffisamment démontré qu’ils avaient des chances de succès au fond en ce qui concerne la violation de la liberté d’expression protégée par le premier amendement.
D’autres affaires sont actuellement pendantes qui n’ont encore donné lieu à aucune décision de justice, comme le recours, fondé sur la violation du premier amendement, des deux professeurs de médecine de Harvard contre la décision de censurer leur article.
Camille Fernandes ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
01.04.2025 à 16:12
Philippe Lépinard, Maître de conférences en sciences de gestion et du management, Université Paris-Est Créteil Val de Marne (UPEC)
Depuis 2015, l’IAE Paris-Est déploie des jeux vidéo dans ses cours. Les stars : Minecraft et Microsoft Flight Simulator. Les outsiders : Luanti et FlightGear. Logiciels propriétaires contre logiciels libres. Avec la pandémie de Covid-19 et la multiplication des cours à distance, ces jeux vidéo permettent d’immerger des centaines d’étudiants dans des mondes virtuels.
Aujourd’hui sort le film Minecraft, tant attendu par les fans du jeu vidéo. Garrett, Henry, Natalie et Dawn sont projetés à travers un mystérieux portail menant à La Surface – « un incroyable monde cubique qui prospère grâce à l’imagination. » Pour rentrer chez eux, il leur faudra maîtriser ce monde et créer le leur !
Côté réalité, dans le cadre du projet pédagogique et de recherche en ludopédagogie EdUTeam, nous déployons depuis 2015 des jeux vidéo coopératifs, non violents, multijoueurs et multiplateformes. Où ? Dans plusieurs enseignements intégralement expérientiels à l’IAE Paris-Est. Alors que notre fab lab d’expérimentation ludopédagogique GamiXlab et le projet EdUTeam fêtent leurs dix années d’existence en 2025, notre article propose une rétrospective de l’usage pédagogique de ces jeux, ainsi que quelques axes d’évolutions envisagés.
Les premières utilisations pédagogiques de jeux bac à sable tels que Minecraft et MinecraftEdu datent de 2015 au sein de projets tutorés. Ils mêlent des élèves ingénieurs de l’école de l’UPEC – EPISEN, ex-ESIPE-Créteil – et des étudiants de différents masters de l’IAE Paris-Est. L’objectif de ces activités était de développer des fonctionnalités pédagogiques en langage Java, afin de concevoir une plateforme de formation en management des systèmes d’information. L’exemple le plus saillant fut la connexion en temps réel entre MinecraftEdu et le progiciel de gestion intégré Dolibarr. Il permit d’enseigner la gestion de projets de systèmes d’information.
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
L’acquisition de MinecraftEdu par Microsoft en 2016 entraîna une rupture dans les possibilités d’évolution du jeu par la communauté. Nous nous sommes alors tournés vers le jeu de type Free/Libre Open Source Software (FLOSS) Minetest, aujourd’hui nommé Luanti. Grâce au langage de script Lua, Minetest est hautement paramétrable et personnalisable. Il est déjà, à lui seul, particulièrement flexible pour des usages pédagogiques. Alors que Minecraft limite sa version éducation à 30 joueurs, nous avons immergé plus de 100 étudiants dans le monde virtuel de Minetest. Le moment était propice : nous devions animer des cours en management d’équipe et gestion de projets durant les confinements dus à la pandémie de Covid-19.
Le mode classroom autorise même d’avoir plusieurs groupes en même temps dans un unique univers. Après cette période de formation à distance, les projets tutorés ont repris. De nouveaux enseignements en présentiel – ou comodaux – et développements ont été réalisés. L’équipe de l’année universitaire 2024-2025 travaille actuellement sur la connexion de Luanti avec le système d’information géographique (SIG) QGIS. L’objectif est de proposer un dispositif ludopédagogique permettant des enseignements de gestion intégrant de l’information géographique. Les usages de Minetest ont aussi couvert des activités internationales avec des enseignants et étudiants de plusieurs autres pays : Allemagne, Canada, Inde, Pays-Bas et Ukraine.
Depuis 2019, nous déployons, en parallèle des jeux de construction abordés précédemment, des simulateurs de vol.
Dans un premier temps, nous avons proposé, jusqu’en 2022, un cours transversal, pour les étudiants de licence, de découverte de l’aéronautique avec le jeu X-Plane. Nos observations durant cet enseignement nous ont donné plusieurs idées pour des formations de gestion. Nous avons expérimenté deux cours de niveau master – facteurs humains et organisation à haute fiabilité – s’appuyant sur Microsoft Flight Simulator 2020. Toutefois, la configuration matérielle et les contraintes liées à la sécurité des systèmes d’information de l’université se sont avérées beaucoup trop importantes pour que son usage devienne réellement opérationnel.
En 2023, nous l’avons alors remplacé par FlightGear. Comme Luanti, ce jeu intègre un langage de script pour développer de nouvelles fonctionnalités. Il s’agit de Nasal. Le changement de simulateur de vol n’est pas dû spécifiquement à cette caractéristique. Son intérêt principal est sa capacité à créer un réseau local sans nécessiter de connexion internet. Il reproduit le monde entier en s’appuyant notamment sur les données libres d’OpenStreetMap.
De nombreux outils peuvent être associés à FlightGear pour étendre ses possibilités. Nous mettons en œuvre OpenRadar, un autre logiciel de type FLOSS, simulant le radar d’une tour de contrôle. L’objectif : les étudiants doivent coordonner leurs camarades répartis sur les simulateurs de vol. L’équipe de développement s’attelle cette année à faire fonctionner des matériels optionnels non actuellement supportés par FlightGear, comme les écrans et panneaux de contrôles externes de la société Logitech.
Ironiquement, le passage de logiciels propriétaires à leurs équivalents FLOSS n’avait initialement rien d’idéologique. Ce furent bien les contraintes des logiciels propriétaires, pourtant beaucoup plus attrayants, qui nous ont menés à implémenter des jeux vidéo en open source. Ce changement a introduit plusieurs prises de conscience dans nos activités pédagogiques et de recherche qui nous ont poussés à approfondir cette voie. Nous nous sommes intéressés à la production de ressources éducatives libres (REL) définies par l’Unesco :
« Des matériels d’apprentissage, d’enseignement et de recherche, sur tout format et support, relevant du domaine public ou bien protégés par le droit d’auteur et publiés sous licence ouverte, qui autorisent leur consultation, leur réutilisation, leur utilisation à d’autres fins, leur adaptation et leur redistribution gratuites par d’autres. » (Unesco, 2022, p.5.)
Nous mettons toutes nos réalisations à la disposition de la communauté. En parallèle, les configurations informatiques nécessaires pour les jeux Luanti et FlightGear, par rapport à leurs concurrents propriétaires, sont beaucoup plus faibles et les mises à jour nettement plus rapides. Bien entendu, l’esthétisme des jeux est également moindre, mais cela n’a aucun impact sur les usages pédagogiques.
Nous avons réfléchi sur les concepts d’innovation frugale et de frugalité technologique. Nous démontrons que ces jeux respectent les trois critères fondamentaux de la frugalité technologique : réduction importante des coûts, focus sur les fonctionnalités essentielles et degré de performance optimisé.
Luanti et FlightGear ne sont bien entendu pas les seuls jeux vidéo FLOSS multijoueurs. Il en existe de nombreux autres qui ne demandent qu’à être explorés. On trouve par exemple des jeux sur la thématique des transports (OpenTTD et Simutrans) ou sur le développement de civilisations comme Freeciv ou 0 A.D..
Ces logiciels, comme Luanti et FlightGear, disposent de communautés dynamiques, mais sans aucune garantie sur leur persistance. Cet aspect représente le risque le plus important pour nos activités. Les compétences nécessaires au maintien et à l’évolution des jeux en open source demandent un engagement important, constant et bénévole de ses membres.
Nous avons d’ailleurs commis des erreurs en début de projet en ne consacrant pas suffisamment de temps à la transmission des connaissances minimales d’une équipe de projet tutoré à l’autre. À l’heure des questions de souveraineté technologique, une démarche formelle de gouvernance des ressources éducatives libres à l’échelle nationale pourrait dès lors permettre de garantir une certaine pérennité des pratiques et outils développés, tout en facilitant leurs diffusions…
Philippe Lépinard ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
01.04.2025 à 16:10
Pascal Lardellier, Professeur, chercheur au laboratoire CIMEOS et à IGENSIA-Education, Université Bourgogne Europe
Emmanuel Carré, Professeur, directeur de Excelia Communication School, Excelia
En 1917, le sociologue Max Weber soulignait le « désenchantement du monde », ce processus de recul des croyances religieuses et magiques au bénéfice de la rationalisation et des explications scientifiques. Cent huit ans plus tard, serait-ce par la quintessence du rationnel, l’intelligence artificielle, que se manifesteraient à nouveau les croyances mystiques ?
Notre relation à l’intelligence artificielle (IA) s’inscrit dans une longue histoire de fascination mystique pour les technologies de communication. Par mystique, nous entendons l’expérience d’une relation directe avec une réalité qui nous dépasse. Ainsi, du télégraphe, perçu au XIXe siècle comme un médium spirite capable de communiquer avec l’au-delà, jusqu’à l’ordinateur HAL de 2001, l’Odyssée de l’espace incarnant une intelligence supérieure et inquiétante, les innovations technologiques ont toujours suscité des interprétations spirituelles.
Avec l’IA, cette dimension prend une ampleur inédite. Nous sommes face à une double illusion qui transforme profondément notre rapport au savoir et à la transcendance. D’une part, l’IA crée l’illusion d’un dialogue direct avec une intelligence supérieure et extérieure, produisant des contenus apparemment originaux – comme ces étudiants qui consultent ChatGPT tel un oracle moderne pour leurs travaux universitaires. D’autre part, elle promet une désintermédiation totale du savoir, abolissant toute distance entre la question et la réponse, entre le désir de connaissance et son assouvissement immédiat.
Cette configuration singulière réactive ce que le théologien Rudolf Otto qualifiait de « numineux » : une expérience ambivalente du sacré mêlant fascination (fascinans) et effroi (tremendum) face à une puissance qui nous dépasse.
La culture populaire contemporaine reflète parfaitement cette ambivalence. Dans la série Black Mirror, nombre d’épisodes explorent notre relation troublée aux intelligences artificielles, entre désir de fusion et terreur de la dépossession. Le film Her, de Spike Jonze, pousse plus loin cette exploration : son protagoniste tombe amoureux d’une IA dont la voix l’accompagne en permanence, tel un ange gardien moderne. Cette fiction dialogue étrangement avec notre réalité quotidienne, où de plus en plus d’individus développent une relation intime avec leur IA conversationnelle, lui confiant leurs doutes, leurs espoirs et leurs prières et questionnements profonds.
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
Cette relation ambivalente à l’IA évoque d’autres schémas anthropologiques fondamentaux. Dans son Essai sur le don, Marcel Mauss avait mis en lumière le concept de « hau », cette force mystérieuse qui, dans les sociétés traditionnelles, circule à travers les objets et les anime. Cette notion prend un sens nouveau à l’ère de ce que les chercheurs nomment « l’informatique ubiquitaire » – cette présence numérique diffuse qui imprègne désormais notre environnement. Nos objets connectés, habités par une présence invisible, semblent dotés d’une âme propre, rappelant le vers de Lamartine « Objets inanimés, avez-vous donc une âme… ».
Les assistants vocaux murmurent dans nos maisons, les algorithmes anticipent nos désirs, les réseaux tissent des liens invisibles entre les objets désormais connectés. Ainsi, quand notre smartphone nous suggère de partir plus tôt pour ne pas manquer un rendez-vous, en ayant analysé le trafic routier sans même que nous le lui demandions, nous expérimentons cette présence numérique bienveillante, cette force immatérielle qui semble tout savoir de nous.
Cette présence invisible qui nous accompagne évoque certaines traditions mystiques.
La mystique juive offre un parallèle avec le « maggidisme » : aux XVIe-XVIIe siècles, le « maggid » était un messager céleste révélant aux sages les secrets de la Torah. Cette figure présente une similarité avec nos interactions actuelles avec l’IA. Tels des « maggids » modernes, Siri et Alexa répondent à nos demandes pour contrôler notre maison ou fournir des informations. Ils interviennent parfois spontanément quand ils croient détecter une requête, rappelant ces « visitations » mystiques.
Tel le « maggid » dictant ses révélations au rabbin, ces entités numériques murmurent leurs suggestions, créant l’illusion d’une communication avec une intelligence omnisciente. Cette écoute, transformée en cookies selon une recette commerciale bien particulière, nous donnera l’occasion de recevoir prochainement par mail d’autres sollicitations sur les destinations évoquées avec nos amis ou nos projets de véranda.
Dans cette veine, toute une littérature, classée entre spiritualités et New Age, explique comment entretenir une relation singulière et intime avec son ange gardien : apprendre à le reconnaître (en le nommant), apprendre à lui parler, apprendre à écouter des messages, de lui, toujours avisés et bienveillants… Cet assistant céleste sait ce qui est bon et vrai, et le dit à qui sait entendre et écouter…
Cette relation directe avec une intelligence supérieure rappelle la gnose, mouvement spirituel des premiers siècles qui préfigure étonnamment notre rapport à l’IA. Les gnostiques croyaient en une connaissance secrète et salvatrice, accessible aux initiés en communion directe avec le divin, sans médiation institutionnelle. Dans notre ère numérique émerge ainsi une « cybergnose ». On pense aux entrepreneurs de la Silicon Valley comme Anthony Levandowski (fondateur de la Way of the Future Church) développant une mystique de l’information et voyant dans le code la structure fondamentale de l’Univers. Cette vision perçoit la numérisation croissante comme un accès à une connaissance ultime, faisant de l’IA la médiatrice d’une forme contemporaine de révélation.
Cette conception fait aussi écho aux intuitions de Teilhard de Chardin sur la « noosphère », cette couche pensante qui envelopperait la Terre. Les réseaux numériques semblent aujourd’hui matérialiser cette vision, créant une forme de conscience collective technologiquement médiée. Le « métavers » de Mark Zuckerberg ou le projet Neuralink d’Elon Musk illustrent cette quête de fusion entre conscience humaine et intelligence artificielle, comme une version techno-mystique de l’union spirituelle recherchée par les mystiques traditionnels.
Cette fusion entre spiritualité ancestrale et technologie de pointe trouve son expression la plus accomplie dans le techno-paganisme contemporain. Héritier du néopaganisme des années 1960 qui mêlait mysticisme oriental, occultisme et pratiques New Age, ce courant intègre désormais pleinement la dimension numérique dans ses rituels et ses croyances. Dans la Silicon Valley, des « technomanciens » organisent des cérémonies où codes informatiques et incantations traditionnelles se mélangent, où les algorithmes sont invoqués comme des entités spirituelles. Ces pratiques, qui pourraient sembler anecdotiques, révèlent une tendance plus profonde : la sacralisation progressive de notre environnement technologique.
Comme le soulignait le philosophe Gilbert Simondon, il n’existe pas d’opposition fondamentale entre sacralité et technicité. Les objets techniques peuvent se charger d’une dimension sacrée, particulièrement quand leur fonctionnement échappe à notre entendement immédiat. Ainsi, quand une IA comme ChatGPT-4 produit des textes d’une cohérence troublante ou génère des images photoréalistes à partir de simples descriptions textuelles, elle suscite cette même stupeur mêlée de crainte que provoquaient jadis les phénomènes naturels inexpliqués.
Tout cela dépasse la simple vénération technologique. Les communautés numériques formées autour des IA développent des formes inédites d’interaction suggérant un réenchantement du monde par la technologie. Alors que la modernité avait proclamé la « mort de Dieu », l’IA semble réintroduire du mystère et du sacré dans notre quotidien – un sacré immanent, tissé dans nos interactions numériques. Ce réenchantement n’est pas un retour au religieux traditionnel, mais l’émergence d’un nouveau rapport au mystère, où l’algorithme se fait oracle.
L’anthropologie nous enseigne que le sacré n’est jamais là où on l’attend. Comme le rappelait Durkheim, « le sacré se pose là où il veut ». Les technologies numériques, conçues comme instruments de rationalité, se trouvent investies d’une dimension mystique que leurs créateurs n’avaient pas anticipée. Cette sacralisation du numérique n’est ni un retour archaïque à des croyances dépassées ni une simple illusion. Elle révèle la persistance de schémas anthropologiques profonds dans notre rapport au monde, y compris quand ce monde se veut entièrement rationnel et désenchanté.
Observer ces phénomènes à travers le prisme de concepts comme le « hau », le « maggid » ou la gnose ne vise pas à en réduire la nouveauté, mais à mieux en saisir la profondeur et la complexité. Ces grilles de lecture anthropologiques nous rappellent que l’humain, même augmenté par l’intelligence artificielle, reste cet être symbolique qui ne cesse de tisser du sens et du sacré dans la trame de son quotidien.
Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.
01.04.2025 à 15:52
Luc Rouban, Directeur de recherche CNRS, Sciences Po
Marine Le Pen, the figurehead of France’s far-right National Rally (RN) party and a three-time presidential candidate, has been found guilty of misappropriating public funds and sentenced to four years’ imprisonment and five years of ineligibility for public office, with immediate effect. Despite her decision to appeal, the March 31 ruling in a Paris court will probably eliminate her from the 2027 presidential race. Political scientist Luc Rouban analyses this major political development in an interview with The Conversation France.
The Conversation: Marine Le Pen’s sentence of immediate ineligibility came as a surprise and a shock. Some legal experts had imagined that a heavy sentence would fall but doubted that the judge, under pressure, would take the logic of ineligibility to its conclusion – despite the fact that it is enshrined in the law.
Luc Rouban: Yes, it’s a surprise and I don’t think the RN was expecting this decision. For the rule of law, it’s a form of revenge on a certain style of political life that, for decades, operated on the basis of arrangements, on the basis of the inner circle. That’s what we were used to during the Jacques Chirac and François Mitterrand periods, when there were dangerous links between politicians and certain members of the business class. It also brings to mind – of course – the more recent Nicolas Sarkozy affair. Today we are witnessing a historic turnaround. Marine Le Pen was no doubt expecting a suspended sentence, a slightly symbolic sentence. But this sentence is not symbolic at all. She is no longer part of the old style of political life.
Is this ruling a good thing for democracy, with a judge who applies the law without trembling? Or is it a problem, as RN president Jordan Bardella, right-wing members of parliament Eric Ciotti and Laurent Wauquiez, and left-wing political leader Jean-Luc Mélenchon have said – and as Elon Musk, Viktor Orban, Geert Wilders, Matteo Salvini and the Kremlin have also said?
Luc Rouban: This ruling represents an effort to make democracy better. Reaffirming the rule of law is absolutely essential and legitimate. The French democratic system is very fragile, much more so than in other European countries. Public confidence in politicians and the justice system is very low and needs to be restored. One way of doing this is to ensure that the law is applied to public figures who embezzle millions of euros, not just to supermarket cashiers who are fired and prosecuted for stealing a chocolate bar. The conviction of Marine Le Pen is undeniable progress for our democracy: it’s a sign that the relationship with politics is changing, that politics has become a professional activity like any other, subject to regulations and laws.
Of course, there will be attacks on the judiciary, we will have the Trumpist argument of “government by judges”. But it’s important to remember that judges simply apply the law. We must also remember that the figures, including Marine Le Pen, who are criticising ineligibility penalties, had applauded the Sapin 2 law, which passed unanimously in 2016 following the Cahuzac affair (editor’s note: ex-budget minister Jérôme Cahuzac was ruled guilty of tax fraud in a Paris court).
What does the future hold for Marine Le Pen and the RN? Is Jordan Bardella capable of replacing her?
Luc Rouban: Barring the uncertain scenario of a favourable ruling on appeal before the presidential election, Marine Le Pen is likely to hand over her position as RN candidate to Bardella. But is Bardella capable of replacing her? That’s the question.
Internally, he hasn’t really managed to establish himself within the party, particularly in terms of renewing the leadership and structuring the movement. As soon as Marine Le Pen was absent – which was the case after the death of her father (editor’s note: Jean-Marie Le Pen, the founder of the National Front) – the party seemed to collapse.
What’s more, Bardella is Marine Le Pen’s heir apparent. The party’s “normalisation” could involve a form of “de-lepenalisation”. The Le Pen family has totally structured the party, which is very vertical, very organised around itself and its immediate entourage. This oligarchic model and this verticality are obviously going to be called into question. Will Bardella suffer as a result? Other RN leaders, such as Sébastien Chenu or Jean-Philippe Tanguy, who have established themselves in the media, may try to overtake him in the presidential race. However, this would require a break with Marine Le Pen in a party where dissidents are quickly excluded. The likelihood of such a challenge therefore remains low.
What about Marion Maréchal? Could she take over?
Luc Rouban: I don’t believe so because Maréchal (editor’s note: Marine Le Pen’s niece, who was elected to the European Parliament in 2024 on the ticket of the far-right Reconquest party, to which she no longer belongs) plays the Trump card and makes the RN feel uncomfortable. The RN electorate is too attached to France’s sovereignty, and has evolved toward a form of labour rights that is far removed from hard-line liberalism. The Reconquest electorate is more middle-class, older, better educated and wealthier than that of the RN.
Will the RN benefit from this verdict or lose voters?
Luc Rouban: It is possible that some abstentionist voters whose backgrounds are similar to those of RN voters will express their dissatisfaction with Marine Le Pen’s conviction by choosing to vote for the future candidate of the RN.
But among the right-wing, upper middle classes who voted RN in the 2024 legislative elections, the vote could shift back to Les Républicains (editor’s note: the historic French right-wing party).
Furthermore, for whoever becomes the future candidate of the RN, there will be a problem of support. To win a presidential election, you need to have support in the business world. But dragging around a party whose main leaders have been convicted of criminal offences is not a good look. Fundamentally, the RN was already isolated from the social elites. It could be even more so tomorrow.
How might public opinion react to this major event, which deprives millions of voters of their candidate? Should we expect large-scale responses, possibly violent ones?
Luc Rouban: As far as society in general is concerned, there may be hostile reactions for a while, isolated incidents, but I don’t think there will be mass movements like in the 1930s. The lack of enthusiasm for political life is obvious: who is going to take physical risks and engage in violent action to defend a political party and its representative? Not many people, I think.
David Bornstein conducted this interview.
Luc Rouban ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
01.04.2025 à 12:40
Niamh Coffey, Senior Lecturer, Dentistry, RCSI University of Medicine and Health Sciences
Albert Leung, Professor and Head of School of Dentistry, Royal College of Surgeons in Ireland, RCSI University of Medicine and Health Sciences
Isabel Olegário, Senior Lecturer, Dentist, RCSI University of Medicine and Health Sciences
L’objectif du brossage de dents est de prévenir les caries et de rafraîchir l’haleine. Mais que sait-on de l’effet du dentifrice sur le microbiote buccal, cet écosystème complexe constitué par les bactéries qui vivent dans notre bouche ?
La bouche est l’un des habitats microbiens les plus densément peuplés du corps. Elle abrite en effet plus de 700 espèces de bactéries. Si ces microorganismes vivent sur les surfaces des dents et des gencives sous forme de communautés adhésives et structurées qui peuvent être à la fois bénéfiques et nuisibles (on parle de « biofilms »), elles prospèrent également dans notre salive, ce qui signifie que le microbiote buccal n’est pas complètement figé, mais dynamique.
Un microbiote sain inclut des bactéries qui aident à réguler les niveaux de pH (l'unité qui permet de mesurer l’acidité ou l’alcalinité), décomposent les aliments et produisent des composés antimicrobiens naturels. Cependant, lorsque cet équilibre est perturbé – souvent en raison de l’alimentation, d’une mauvaise hygiène bucco-dentaire ou de certaines affections – les bactéries nuisibles peuvent prendre le dessus. On sait qu’un tel déséquilibre, appelé dysbiose, est associé à des risques accrus de caries dentaires et de maladies des gencives.
Outre ces problèmes locaux, des résultats de recherches récents ont révélé que le microbiote buccal est aussi très important pour notre santé générale. Un microbiote équilibré participe à la régulation des bactéries nocives, facilite la digestion et protège les gencives.
Le dentifrice favorise-t-il cet équilibre ou risque-t-il plutôt de le perturber ? Les dentifrices du futur seront-ils conçus pour agir en harmonie avec le microbiote buccal plutôt que contre lui ?
La fonction principale du dentifrice n’est pas de tuer directement les bactéries, mais de perturber le biofilm dans lequel prospèrent les bactéries nuisibles. Le brossage, par son action mécanique, décolle le biofilm des dents et des gencives ; les abrasifs contenus dans le dentifrice contribuent à le fragmenter davantage.
De nombreux dentifrices contiennent également du fluor, qui renforce l’émail des dents et prévient les caries. Curieusement, le fluor ne tue pas directement les bactéries, mais limite les opportunités de causer des dégâts que peuvent avoir celles qui produisent des acides (par exemple Streptococcus mutans, l’espèce majoritairement responsable de la formation des caries).
Chaque mardi, le plein d’infos santé : nutrition, bien-être, nouveaux traitements… Abonnez-vous gratuitement dès aujourd’hui.
Certains dentifrices incluent des agents antibactériens tels que le triclosan (désormais interdit dans certains pays pour des raisons de sécurité) ou des alternatives plus récemment employées, comme le fluorure d’étain (fluorure stanneux) et de zinc. Ces ingrédients ciblent les bactéries nuisibles, mais un débat subsiste quant à leur effet potentiel sur les microbes bénéfiques.
Bien que le dentifrice fasse partie intégrante de notre quotidien, les recherches destinées à comprendre ses effets sur le microbiote buccal sont toujours en cours.
Certaines études suggèrent que des agents antibactériens spécifiques affectent les bactéries bénéfiques autant que les nuisibles, modifiant potentiellement le microbiote de manière encore mal comprise. D’autres résultats, cependant, indiquent plutôt que le microbiote se rétablit rapidement après le brossage, ce qui signifie que ces perturbations sont temporaires.
Les scientifiques explorent désormais des formulations futures de dentifrices qui pourraient adopter une approche plus ciblée, réduisant la quantité de bactéries nuisibles tout en préservant les espèces bénéfiques.
Maintenir l’équilibre du microbiote buccal présente un intérêt qui va bien au-delà de la simple prévention des caries. Un nombre croissant de preuves établit l’existence de liens entre les maladies des gencives et les maladies cardiaques, le diabète, voire la survenue de complications durant la grossesse. L’inflammation déclenchée par les bactéries buccales nuisibles peut en effet s’étendre bien au-delà de la bouche et, potentiellement, contribuer à des problèmes de santé à long terme.
En participant à la fragmentation du biofilm bactérien, les dentifrices réduisent le risque de caries et de maladies des gencives. À mesure que notre compréhension du microbiote buccal progresse, leurs compositions pourraient évoluer pour devenir plus sélectives. Au lieu d’employer des antibactériens à large spectre, les futures formulations pourraient inclure des ingrédients favorisant les bactéries bénéfiques tout en contrôlant les espèces nuisibles.
Parmi les candidats prometteurs figurent l’arginine, un acide aminé naturel qui favorise la croissance des bactéries bénéfiques, et certains antimicrobiens d’origine végétale qui perturbent les biofilms nuisibles sans toutefois éliminer les bonnes bactéries. Cependant, la recherche dans ce domaine en est encore à ses balbutiements, et il faudra recueillir davantage de preuves pour déterminer quels peuvent être les effets à long terme de ces ingrédients.
Certaines recherches s’intéressent aux probiotiques (des « bonnes bactéries » vivantes qui apportent un bénéfice au fonctionnement de l’organisme) et aux prébiotiques (des éléments nutritifs favorisant la croissance des « bonnes bactéries »). L’emploi de ces composants dans les dentifrices pourrait aider à conserver un microbiote buccal plus sain, plutôt que de le perturber.
Si certains ingrédients peuvent affecter le microbiote buccal, les recherches montrent que pour l’instant, les moyens le plus efficaces de conserver une bouche saine sont de se brosser les dents avec un dentifrice fluoré deux fois par jour et de procéder à un nettoyage des espaces interdentaires (avec du fil dentaire, des brossettes ou, éventuellement, un hydropulseur). Cette routine permet de diminuer le nombre de bactéries (charge bactérienne) présentes dans la bouche, ce qui diminue les risques de maladies non seulement buccales, mais aussi systémiques.
Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.
01.04.2025 à 12:40
Mary E. Dozier, Assistant Professor of Psychology, Mississippi State University
Vous avez peut-être tendance à accumuler trop d’objets. Pour vous séparer plus facilement de certains d’entre eux, il peut être utile de réfléchir à leur adéquation avec vos valeurs les plus fondamentales.
J’ai récemment aidé ma mère à trier des cartons dont elle avait hérité à la suite du décès de mes grands-parents. L’étiquette de l’un d’entre eux mentionnait – probablement mi-sérieusement, mi-ironiquement – « porte cure-dents et autres trésors ». Il renfermait de nombreux souvenirs se rattachant à des moments qui faisaient désormais partie de notre histoire, mais aucun porte cure-dents.
Parmi tous les objets que nous avons triés, mon préféré s’est avéré être une pièce de puzzle. Cet artefact m’a fait me remémorer que ma défunte grand-mère avait la manie, lorsqu’un puzzle était en cours de réalisation, d’en subtiliser une pièce et de la cacher afin de pouvoir l’ajouter au tout dernier moment, et ainsi être celle qui terminait le jeu de patience…
Après plusieurs heures passées à évoquer nos souvenirs partagés, ma mère et moi avons jeté 90 % de ce que nous avions laborieusement trié.
Cela m’a renvoyé à une question que j’entends fréquemment, qu’elle soit formulée par les membres de ma famille, par mes amis, ou par mes patients : « Pourquoi ai-je gardé ça ? »
Chaque mardi, notre newsletter « Et surtout la santé ! » vous donne les clés afin de prendre les meilleures décisions pour votre santé (sommeil, alimentation, psychologie, activité physique, nouveaux traitements…) !
En tant que psychologue clinicienne, je mène des recherches sur la caractérisation, l’évaluation et le traitement du trouble d’accumulation compulsive, notamment – mais pas uniquement – chez les adultes âgés de 60 ans et plus.
Autant dire que je passe une grande partie de mon temps à réfléchir à la réponse à cette question. Voici ce que j’en sais.
Le trouble d’accumulation compulsive est un trouble psychiatrique se définissant par une tendance forte à conserver des objetset par une difficulté à se débarrasser de ses possessions. Les adultes qui souffrent d’un niveau « cliniquement sévère » de ce trouble se retrouvent à vivre dans un environnement domestique tellement encombré que le fonctionnement quotidien en est compromis. Le risque d’incendie de leur logement peut même être significativement accru.
Toutefois, d’après mon expérience, de nombreux adultes accumulent des possessions qui finissent pas les encombrer dans leur vie quotidienne sans pour autant remplir les critères cliniques du trouble d’accumulation compulsive.
Conserver des objets qui ont une valeur sentimentale ou qui « pourraient être utiles un jour » est une tendance naturelle qui s’accentue avec l’âge. Toutefois, chez certaines personnes, cette tendance s’intensifie dans de telles proportions que ce comportement d’accumulation finit par correspondre aux critères cliniques du trouble mentionné plus haut.
L’augmentation de la prévalence du trouble d’accumulation compulsive au fil du temps pourrait être lié aux changements qui se produisent, à mesure que l’on vieillit, dans les fonctions exécutives du cerveau. Les difficultés accrues rencontrées en matière de prise de décision ont des répercussions en matière d’encombrement domestique.
Le modèle traditionnel du trouble d’accumulation suggère que la difficulté à se débarrasser des objets provient d’une détresse ressentie lors de la prise de décision. Toutefois, mes recherches montrent que cela pourrait être moins vrai pour les personnes âgées.
Lorsque j’étais étudiante en doctorat, j’ai mené une étude au cours de laquelle mes collaborateurs et moi-même avons demandé à des adultes souffrant du trouble d’accumulation compulsive de consacrer quinze minutes à décider s’ils devaient conserver ou jeter divers objets qu’ils avaient apportés depuis leur domicile.
Les participants pouvaient choisir de trier les objets de leur choix. À cette occasion, la plupart optaient pour des documents papier, tels que d’anciennes missives, des cartes ou des notes.
Nous avons constaté que l’âge était associé à une moindre détresse pendant la tâche : les participants plus âgés ressentaient moins de stress lorsqu’ils prenaient la décision de garder ou non un objet.
Nous avons également observé que beaucoup de participants, notamment parmi les plus âgés, ressentaient des émotions positives en effectuant un tri de leurs affaires.
Dans une nouvelle étude, qui sera publiée prochainement, mon équipe a reproduit ce résultat, mais cette fois en demandant aux participants de réaliser une tâche similaire à domicile.
Les résultats obtenus suggèrent que notre tendance à tout garder n’est pas systématiquement motivée par la peur de prendre une mauvaise décision.
En fait, une autre étude publiée en 2024 et menée par mon équipe sur des adultes de plus de 50 ans souffrant du trouble d’accumulation suggère que l’altruisme, un trait de personnalité caractérisé par la volonté d’aider les autres, pourrait expliquer pourquoi certaines personnes conservent des objets que d’autres auraient jetés.
L’altruisme transparaît également fréquemment dans ma pratique clinique, lorsque j’échange avec des adultes âgés souffrant d’encombrement. Les participants à nos études me disent souvent qu’ils ont gardé tel ou tel objet par sens des responsabilités, soit envers l’objet lui-même, soit envers leur environnement.
« Je veux lui trouver un bon foyer » ou « Ma grand-mère me l’a donné » sont des justifications qui reviennent fréquemment.
Il semblerait donc que les gens ne conservent pas forcément certains objets par peur de les perdre, mais parce que les garder correspond à leurs valeurs.
Dans une étude menée en 2024, nous avons démontré qu’adopter une approche fondée sur les valeurs pour trier aide les adultes âgés à réduire l’encombrement de leur domicile et améliore leur bien-être émotionnel.
Nous avons constaté que le fait de commencer par identifier leurs valeurs permettait aux participants de rester concentrés sur leurs objectifs à long terme. Trop souvent, les gens se demandent seulement si un objet leur procure une « étincelle de joie », sans réfléchir à sa signification plus profonde…
Nous avons par ailleurs découvert qu’au lieu de remettre en question les raisons pour lesquelles une personne souhaite garder un objet, il est plus utile de l’aider à exprimer ses raisons de s’en séparer, et les objectifs qu’elle ambitionne pour son espace de vie.
En me basant sur mes travaux concernant les entretiens motivationnels menés en vue de désencombrer et sur mes observations se rapportant à un essai clinique en cours, j’estime être en mesure de suggérer quelques stratégies pour désencombrer son domicile.
Commencez par mettre par écrit vos valeurs, puis dites-vous que chacun des objets présents à votre domicile devrait être accord avec elles. Cependant, n’oubliez pas que vos valeurs peuvent parfois entrer en conflit les unes avec les autres. Lorsque cela se produit, demandez-vous si le fait de garder ou de jeter un objet vous rapproche de vos objectifs ou vous en éloigne.
Si vous aidez un proche à désencombrer son intérieur, montrez-vous intéressé, mais n’émettez aucun jugement. Là où vous voyez un carton rempli d’objets inutiles, votre grand-mère pourrait y voir une boîte contenant ses « portes cure-dents et autres trésors »…
Mary E. Dozier a reçu des fonds de l'American Psychological Foundation et du National Institute of Mental Health.
01.04.2025 à 12:39
Frédéric Denis, Professeur des Universités, Praticien hospitalier, Doyen de la faculté d'Odontologie de Tours, Université de Tours
Emmanuel Rusch, Professeur des Universités, Praticien hospitalier, CHU Tours, Université de Tours
Maladies cardiovasculaires, diabète, cancers… Les maladies buccales peuvent avoir de graves conséquences. Pourtant, l’impact de la santé buccodentaire reste largement sous-estimé.
Selon l’Organisation mondiale de la santé (OMS), dans le monde 3,5 milliards de personnes sont touchées par les maladies et affections buccodentaires. Si elles ne sont pas traitées, leurs conséquences peuvent être sévères : elles se traduisent par, non seulement des infections, d’intenses douleurs et des limitations fonctionnelles (difficulté masticatoire, troubles de la digestion…), mais aussi des effets néfastes sur le bien-être émotionnel, mental et social.
Par ailleurs, on sait aujourd’hui qu’il existe un lien étroit entre la santé buccodentaire et certaines maladies non transmissibles comme les maladies cardiovasculaires, le diabète ou encore certains cancers. Ainsi, l’inflammation chronique des gencives peut favoriser des troubles cardiovasculaires, et le diabète mal contrôlé peut aggraver les infections buccales.
Malgré toutes ces connaissances, l’impact de la santé buccodentaire demeure largement sous-estimé. Ainsi, contrairement à d’autres pays, la France ne dispose pas d’une stratégie ministérielle spécifique à la santé buccodentaire.
Le 7 janvier 2025, la conférence nationale de santé (CNS) a adopté le rapport sur la santé buccodentaire élaboré par un groupe de travail réunissant professionnels, représentants des usagers et des offreurs de services de santé. Voici ce qu’il faut retenir des 44 propositions formulées.
Du 26 au 29 novembre 2024, la première réunion mondiale de l’OMS sur la santé buccodentaire s’est tenue à Bangkok, sous les auspices du gouvernement du Royaume de Thaïlande. Cet événement a rassemblé des délégations de plus de 110 pays ainsi que des hauts responsables représentant des acteurs non étatiques : bailleurs de fonds, organisations de la société civile, personnes touchées par les maladies non transmissibles, universités, organisations philanthropiques et fondations.
Cette réunion a été l’occasion de débattre et réaffirmer l’engagement à soutenir la mise en œuvre du plan d’action mondial pour la santé buccodentaire 2023-2030.
Chaque mardi, le plein d’infos santé : nutrition, bien-être, nouveaux traitements… Abonnez-vous gratuitement dès aujourd’hui.
En France, les derniers rapports officiels sur la santé buccodentaire remontent à 2006 et 2010. Ils concernent principalement des populations ciblées, comme les personnes âgées, les personnes en situation de handicap ou les personnes détenues. Les recommandations de la Haute Autorité de santé (2010) relatives aux « stratégies de prévention de la carie dentaire »
Ce retard est préoccupant, alors même que l’accès aux soins devient de plus en plus difficile, notamment dans les déserts médicaux où les chirurgiens-dentistes se font rares. Dans certains départements, comme l’Indre, la densité en chirurgiens-dentistes est très inférieure à la moyenne nationale : on y recense 36 praticiens pour 100 000 habitants, contre 70 pour 100 000 au niveau national.
Face à ce constat, en juillet 2020, la conférence nationale de santé (CNS), instance consultative de démocratie en santé placée auprès du ministre chargé de la santé, a mis en place un groupe de travail sur le thème de la santé buccodentaire.
Le 7 mai 2024, dans la continuité de la résolution mondiale de la santé de 2023 et du lancement de la stratégie et du plan d’action mondial pour la santé orale 2023–2030, la direction générale de la santé (DGS) demandait que le travail entrepris par la CNS nourrisse sa réflexion en vue de l’élaboration d’une feuille de route « santé buccodentaire ».
Le 7 janvier 2025, le rapport sur la santé buccodentaire, élaboré par un groupe de travail réunissant professionnels, représentants des usagers et offreurs de services de santé, a été adopté par la CNS.
Ce rapport est le fruit de nombreuses auditions d’usagers et de professionnels de la santé buccodentaire. Il documente les angles morts du système de santé français concernant l’accès aux soins et l’organisation du système de santé buccodentaire en général et, plus particulièrement, pour les personnes les plus éloignées du soin.
Parmi les 44 recommandations pour une feuille de route qu’il comporte, les plus emblématiques suggèrent de :
renforcer la taxation des sucres libres/ajoutés et des produits du tabac et des boissons alcooliques pour protéger la santé orale et orienter ces recettes vers la prévention buccodentaire ;
favoriser le déploiement de programmes de prévention et/ou promotion de la santé orale au plus proche des populations ;
maitriser et réduire les dépassements d’honoraires afin de faciliter l’accès aux soins pour tous ;
inscrire le dispositif 100 % santé dans un accès aux soins sans discrimination en ajustant les paniers. En effet, si les assurés bénéficient d’un reste à charge zéro pour plus de la moitié des prothèses dentaires, il n’en reste pas moins que la réforme 100 % santé s’accompagne d’une augmentation des tarifs des complémentaires santé et des mutuelles ;
nommer un délégué interministériel à la santé orale avec sa déclinaison dans toutes les Agences régionales de Santé ;
promouvoir un exercice coordonné des acteurs du système de santé orale et encourager leur insertion au sein des structures de soins primaires ;
accompagner la démocratie en santé et le respect des droits des usagers pour aller vers un changement de paradigme en renforçant la mobilisation des associations dans le pilotage des politiques de santé orale.
Longtemps absente des grands débats de santé publique, la santé buccodentaire pourrait, enfin, trouver sa place au cœur des politiques de santé nationales. L’annonce d’une feuille de route en 2025 marque une avancée significative, visant à réduire les inégalités d’accès aux soins et à renforcer la prévention.
Reste à savoir si ces engagements seront suivis d’effets concrets.
En attendant, la Déclaration de Bangkok met en lumière un enjeu longtemps sous-estimé et constitue un rappel essentiel : « Pas de santé sans santé buccodentaire ».
Emmanuel RUSCH est Président de la Conférence Nationale de santé, membre de la Société française de santé publique et Président de la Fédération régionale des acteurs en promotion de la santé (Région Centre Val de Loire).
Frédéric Denis ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
31.03.2025 à 19:44
Luc Rouban, Directeur de recherche CNRS, Sciences Po
Marine Le Pen a été reconnue coupable de détournement de fonds publics et condamnée à quatre ans de prison et cinq ans d’inéligibilité avec application immédiate. Malgré sa décision de faire appel, cette décision de justice l’élimine probablement de la course à la présidentielle en 2027. Le politiste Luc Rouban nous livre une analyse de ce fait politique majeur. Entretien.
The Conversation : La condamnation de Marine Le Pen à une peine d’inéligibilité avec application immédiate est une surprise et un choc. Certains juristes imaginaient une lourde peine mais doutaient que le juge, sous la pression, aille au bout de la logique d’inéligibilité – pourtant inscrite dans la loi…
Luc Rouban : Oui c’est une surprise et je crois que le RN ne s’attendait pas à cette décision. C’est une forme de revanche de l’État de droit sur un certain style de vie politique qui fonctionnait à l’arrangement, à l’entre-soi pendant des décennies. C’est ce à quoi nous avaient habitués la période chiraquienne et la période mitterrandienne, faites de liaisons dangereuses entre le politique et certains membres de la classe économique. On pense aussi – bien sûr – à l’affaire Nicolas Sarkozy, plus récemment. Nous assistons aujourd’hui à un retournement historique. Marine Le Pen s’attendait sans doute à du sursis, à des peines un peu symboliques. Or cette condamnation n’est pas symbolique du tout. Elle ne s’inscrit plus dans cette vie politique à l’ancienne où l’on « s’arrange ».
Pour la démocratie, ce jugement est-il une bonne chose, avec une juge qui applique la loi sans trembler ? Ou est-ce un problème comme le disent Jordan Bardella, Eric Ciotti, Laurent Wauquiez, Jean-Luc Mélenchon, mais aussi Elon Musk, Viktor Orban, Geert Wilders, Matteo Salvini ou le Kremlin ?
L.R. : Ce jugement représente un effort pour que la démocratie aille mieux. La réaffirmation de l’État de droit est tout à fait indispensable et légitime. Le système démocratique français est très fragilisé, bien plus que dans d’autres pays européens. Le niveau de confiance des citoyens envers la classe politique et dans la justice est très bas, il doit être restauré. Cela passe notamment par le fait que la justice s’applique à des personnalités qui détournent des millions d’euros, et pas uniquement à des caissières de supermarché qui se font licencier et sont poursuivies au pénal pour le vol d’une barre chocolatée. Marine Le Pen condamnée, c’est un progrès indéniable de notre démocratie : c’est le signe que le rapport au politique change, que la politique est devenue une activité professionnelle comme une autre, soumise à des réglementations, à des lois.
Bien sûr, il y aura des attaques concernant la justice, on aura l’argument trumpiste du « gouvernement des juges ». Mais il faut rappeler que le juge n’a fait qu’appliquer la loi. Il faut aussi rappeler que ceux, dont Marine Le Pen, qui critiquent les peines d’inéligibilité avaient applaudi la loi Sapin 2, votée à l’unanimité en 2016 à la suite de l’affaire Cahuzac.
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
Quel est l’avenir de Marine Le Pen et du RN ? Jordan Bardella est-il en capacité de remplacer Marine Le Pen ?
L.R. : Hors scénario incertain d’un jugement favorable en appel avant l’élection présidentielle, Marine Le Pen va certainement céder sa place de candidate du RN à Jordan Bardella. Mais Jordan Bardella est-il capable de remplacer Marine Le Pen ? C’est toute la question.
En interne, ce dernier n’a pas vraiment réussi à s’imposer vraiment au sein du parti, notamment pour renouveler les cadres et structurer le mouvement. Dès que Marine Le Pen s’est absentée – ce qui était le cas après le décès de son père – le parti semblait s’affaisser.
Par ailleurs, Jordan Bardella, c’est le dauphin et l’héritier de Marine Le Pen. Or la « normalisation » du parti pourrait passer par une forme de « délepénisation ». La famille Le Pen a totalement structuré ce parti, qui est très vertical, très organisé autour de sa personne, de son entourage immédiat. Il va y avoir une interrogation sur ce modèle oligarchique et sur cette verticalité, évidemment. Est-ce que Bardella va en faire les frais ? D’autres leaders du RN, comme Sébastien Chenu ou Jean-Philippe Tanguy, qui se sont imposés sur la scène médiatique, peuvent tenter de le devancer dans la course à la présidentielle. Cela supposerait pourtant une rupture avec Marine Le Pen dans un parti où les dissidents sont vite exclus. La probabilité d’une telle contestation reste donc faible.
Quid de Marion Maréchal ? Pourrait-elle prendre la relève ?
L.R. : Je n’y crois pas car elle joue la carte du trumpisme, elle met mal à l’aise au RN. L’électorat RN est trop attaché à la souveraineté de la France, il a évolué vers une forme de droite sociale éloignée du libéralisme pur et dur. L’électorat de Reconquête ! est plus bourgeois, plus âgé, plus diplômé, plus fortuné que celui du RN.
Le RN va-t-il tirer un bénéfice de ce procès ou perdre des électeurs ?
L.R. : Il est possible que certains abstentionnistes dont la sociologie est proche des électeurs du RN expriment leur mécontentement face à la condamnation de Marine Le Pen en choisissant de voter pour le futur candidat du Rassemblement national.
Mais du côté des catégories moyennes diplômées supérieures de droite qui ont voté RN au législatives de 2024, le vote pourrait se reporter sur Les Républicains.
À lire aussi : Droite et extrême droite : quand les idées fusionnent
Par ailleurs, quel que soit le candidat futur du RN, va se poser un problème de soutiens. Pour gagner une élection présidentielle, il faut avoir des appuis dans le monde économique. Or traîner un parti dont les principaux dirigeants ont été condamnés au pénal n’est pas une bonne carte de visite. Au fond, le RN était déjà isolé des élites sociales. Il pourrait l’être encore plus demain.
Comment l’opinion pourrait réagir à cet événement majeur qui prive des millions d’électeurs de leur candidate ? Doit-on s’attendre à des réactions populaires, éventuellement violentes ?
L.R. : Du côté de la société en général, il y aura peut-être des réactions épidermiques pendant un temps, des incidents isolés, mais je ne pense pas qu’il y ait des mouvements de masse comme dans les années 30. Le manque d’enthousiasme pour la vie politique est patent : qui va prendre des risques physiques et s’engager dans des actions violentes pour défendre un parti politique et sa représentante ? Pas grand monde je pense.
Entretien réalisé par David Bornstein.
Luc Rouban ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
31.03.2025 à 16:29
Anne-France de Saint Laurent-Kogan, Professeure des Universités en Sciences de l'Information et de la Communication, Université Rennes 2
Depuis les années 1990, la référence à la créativité s’est propagée aux politiques publiques et au monde de l’entreprise. Citoyens, travailleurs et consommateurs sont enjoints à « libérer leur créativité ». Un discours qui accompagne le projet des nouvelles industries créatives, mais dont il est difficile de saisir les retombées.
De BO&MIE, la « boulangerie créative » française, à HP, la multinationale informatique américaine qui propose de « designer votre créativité », la créativité est devenue le nouveau mantra des discours politiques, marketing et managériaux.
Malgré la difficulté à définir les domaines et emplois associés et donc la portée de ces discours, cette injonction à la créativité continue de circuler. Parce qu’elle « sonne bien » et qu’elle est « joyeuse et colorée », mais aussi suffisamment floue pour englober des enjeux contradictoires, elle accompagne aussi bien le capitalisme contemporain que la quête d’un idéal de réalisation de soi.
Des siècles durant, Dieu seul pouvait créer, l’homme n’étant que son médiateur. Il faut attendre le XXe siècle et le processus de laïcisation de la société pour concevoir que l’individu lui-même puisse faire œuvre de création artistique. La notion de créativité – cette capacité à inventer idées originales et voies nouvelles – est donc très récente. Si la création reste associée au domaine des arts, et garde une part de mystère liée à son origine divine, la créativité peut concerner bien d’autres activités, et relève d’un potentiel au même titre que l’intelligence. Elle est en réalité toujours présente, quelle que soit la nature du travail, pour simplement faire face aux imprévus, par exemple.
La mobilisation de la créativité dans d’autres domaines que les arts et la culture va se faire au service d’une nouvelle industrie, dite « créative », qui viendrait prolonger les industries culturelles. Cette notion d’industries culturelles et créatives (ICC) trouve son origine en Grande-Bretagne au milieu des années 1990, dans un think tank du gouvernement travailliste. La promotion des ICC fut une réponse à la désindustrialisation de grands pans de l’économie, notamment en stimulant le développement de l’économie numérique. Les ICC rassemblent alors tout un ensemble d’activités, comme les jeux vidéo, le design, le tourisme, qui auraient pour ressource la créativité individuelle et qui seraient susceptibles de créer de la valeur et des emplois, car difficilement délocalisables.
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
Soutenue par un acteur clé comme l’Unesco, qui publie en 2012, « Politiques pour la créativité. Guide pour le développement des industries culturelles et créatives », la référence créative se propage dans le cadre des politiques publiques, à l’instar des « quartiers de la création » ou du réseau des « villes créatives ».
Dans les entreprises qui ne relèvent pas des ICC, les stratégies managériales en appellent aussi à la créativité de leurs salariés, car elle est devenue un moyen de produire de la différence dans une économie très concurrentielle. Ces entreprises en font aussi un slogan marketing pour susciter la curiosité des consommateurs, comme Adidas et son slogan « Ici pour créer ». Les entreprises du numérique mobilisent aussi largement cette injonction à la créativité dans leur stratégie commerciale pour inciter les usagers à produire du contenu : la suite Adobe devient « Adobe Creative » ; HP propose de « designer votre créativité ».
Une première critique portée à la notion d’ICC est qu’elle préjuge d’un prolongement naturel des activités qui relèvent des industries culturelles à celles qui relèvent des industries créatives. Les premières rassemblent des filières où la création artistique est au cœur d’un produit, tout en étant engagée dans un processus de reproduction à grande échelle : le livre, la musique, les productions audiovisuelles, les jeux vidéo. Alors que les secondes renvoient à des activités beaucoup plus disparates : design, mode, gastronomie, publicité, architecture, etc., qui ne relèvent pas d’une reproduction industrielle. Les industries créatives rassemblent surtout des activités qui produisent du symbolique (un visuel ou une idée originale), mais pour se greffer à des services et produits qui ne relèvent pas des arts ou de la culture.
Ce prolongement permet de récupérer l’aura des produits culturels pour d’autres produits à valeur utilitaire. Cette greffe d’une dimension symbolique (esthétique, identitaire, etc.) à des produits courants permet d’en augmenter la valeur marchande, pour échapper à la concurrence par les prix imposée par la mondialisation. Des gourdes ou des carnets aux couvertures illustrées par des « créatifs » peuvent ainsi se vendre plus cher.
La référence créative traduit aussi un changement d’échelle. Si l’innovation renvoie à l’organisation, la créativité renvoie à l’individu. Ainsi, dans les rapports institutionnels et discours médiatiques, la promotion des ICC passe par l’enchantement de l’individu « créatif » qui, en freelance, peut se libérer du joug du salariat, aspirer à un meilleur équilibre entre vie privée et vie professionnelle et s’épanouir personnellement par le choix d’une activité où il peut exprimer son « authenticité ».
À lire aussi : Le numérique, source de transformations pour les pratiques culturelles
Cet enchantement participe de « la conversion de l’artiste en créatif », formule qui synthétise les différents objectifs portés par ces discours. L’un d’eux est d’enjoindre les artistes et créateurs à se soumettre aux exigences marchandes, sans opposer mais au contraire en articulant les exigences esthétiques à des exigences entrepreneuriales. Ainsi, de nombreux artistes peuvent à la fois exposer en galerie, réaliser des commandes pour des entreprises et proposer des ateliers d’initiation à leur pratique artistique. Un autre objectif est d’inciter tout individu à devenir créateur ou créatrice de contenus numériques pour le nouvel espace médiatique qu’est le Web. YouTube propose par exemple toute une palette de services en ligne pour accompagner cette conversion.
Comment saisir les retombées de ces discours et politiques publiques annoncées ? Pour ce qui concerne les industries culturelles traditionnelles (édition, musique, cinéma/audiovisuel, jeux vidéo), elles se caractérisent par des écarts de rémunération et de réputation extrêmement importants. Pour quelques artistes auréolés, nombreux sont ceux qui survivent en marge du secteur, dans des conditions d’existence précaires faites d’une succession incertaine de contrats courts.
Si l’on considère dans leur ensemble les ICC, les définitions sont trop vastes pour mener des analyses rigoureuses. De plus, si ces travailleurs sont nombreux, ils sont peu visibles dans les statistiques, car ils opèrent sur différents statuts et exercent souvent plusieurs activités en parallèle.
Une enquête réalisée auprès d’une trentaine de travailleurs indépendants du domaine de la création numérique (infographistes, webdesigners, youtubeurs, vidéastes, illustrateurs) révèle que ces « web créatifs freelances » revendiquent cet idéal romantique de l’artiste libéré des contraintes spatio-temporelles, de la subordination salariale, porteur d’aspirations émancipatrices.
Néanmoins, malgré ces revendications, soumis aux impératifs d’un marché concurrentiel et responsables de leurs succès comme de leurs échecs, ils réactualisent certaines normes et valeurs instituées du travail salarié en entreprise : délimitation des sphères de privée/publique/professionnelle ; stratégies de gestion du temps pour réguler leur « liberté » tout en considérant la temporalité comme mesure de leur production ; espaces voués au seul travail, comme les espaces de coworking. Pour répondre aux exigences paradoxales de l’autoentrepreneur de soi-même – répondre aux exigences du marché tout en cherchant à rester soi-même –, les créatifs étudiés font largement appel à des coachs, à des techniques de développement personnel, voire s’investissent en parallèle dans des activités artistiques, des mouvements associatifs ou politiques s’assurant ainsi la réalisation d’un soi authentique. Sur le temps long, ces exigences paradoxales épuisent certains, qui souhaitent revenir au « confort » du salariat.
La référence créative accompagne donc de nombreux enjeux de nature très différente : réindustrialisation, flexibilité du travail, épanouissement individuel. Jusqu’à quel point ? Faire appel à la créativité pour répondre aussi à la crise climatique ? Il n’y a qu’un pas.
Anne-France de Saint Laurent-Kogan ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
31.03.2025 à 16:27
Aicha El Kharraf, Doctorante en chimie des matériaux et environnement à Géosciences Rennes & Institue des sciences chimiques de Rennes, Université de Rennes
Les plastiques sont partout, de nos océans à nos poumons. Mais contrairement à ce que l’on pourrait croire, ils ne disparaissent jamais vraiment. En se fragmentant, ils deviennent des polluants invisibles, encore plus dangereux pour notre environnement et notre santé.
Les plastiques ont été créés pour être résistants et durables. Chaque année, plus de 12 millions de tonnes de plastique finissent dans les océans ; mais contrairement à ce que l’on pourrait croire, leur disparition ne signifie pas qu’ils cessent d’exister. Au contraire, ils se transforment : en microplastiques, en nanoplastiques, libérant même des gaz toxiques et de nombreux additifs chimiques – les fameux bisphénols ou encore des phtalates.
Ironiquement, c’est ce qui les rend si intéressants pour l’industrie et la société en général qui les rend aussi quasiment indestructibles. En effet, les plastiques sont conçus pour durer. Leur structure chimique, qui repose sur un assemblage de longues chaînes de carbone, les rend particulièrement résistants à la dégradation et à la biodégradation. Contrairement au bois, au papier, aux déchets organiques ou au coton, les polymères plastiques ne sont pas digérables par la plupart des microorganismes comme les bactéries et champignons.
Mais leur résistance ne vient pas uniquement de leur structure : des additifs chimiques, comme des stabilisants UV, qui protègent le plastique contre les UV, ou des retardateurs de flamme, sont ajoutés pour améliorer leurs propriétés et ralentir leur dégradation.
Tous les quinze jours, des grands noms, de nouvelles voix, des sujets inédits pour décrypter l’actualité scientifique et mieux comprendre le monde. Abonnez-vous gratuitement dès aujourd’hui !
Au lieu de disparaître, les plastiques se fragmentent sous l’effet du soleil, des vagues et des frottements avec le sable ou les rochers. Cette décomposition progressive génère des microplastiques (moins de 5 millimètres) et des nanoplastiques (moins de 1 000 nanomètres), invisibles à l’œil nu mais persistent dans l’environnement.
L’exposition aux rayons ultraviolets (UV) casse progressivement les liaisons moléculaires des polymères dans un processus appelé photodégradation. Mais même sous une exposition prolongée, il faut des décennies pour qu’un simple sac plastique commence à se fragmenter. Dans les océans, les courants et les vagues accélèrent la fragmentation des déchets plastiques et favorisent la formation des micro et nanoplastiques.
Nos travaux en cours montrent que ce phénomène va bien au-delà de la simple fragmentation. En laboratoire, nous avons observé que le polyéthylène, exposé aux UV et aux forces mécaniques de l’eau, produit des microplastiques et nanoplastiques à un rythme accéléré. Et une libération importante d’additifs chimiques. Après quelques mois d’exposition, des substances telles que le dioxyde de titane migrent hors du polymère et contaminent l’eau.
Pis, notre étude montre que la photodégradation du polyéthylène produit des gaz à effet de serre, notamment du méthane, CH4 et du dioxyde de carbone, CO2 (de l’ordre de 300 grammes par kilogramme de polyéthylène d’après nos expériences). En d’autres termes, le plastique ne se contente donc pas de polluer : il contribue aussi au changement climatique.
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
Les micro et nanoplastiques, légers et quasi invisibles, voyagent à travers tous les compartiments environnementaux. Dans l’eau, ils sont ingérés par les poissons et les mollusques, entrant ainsi dans la chaîne alimentaire. Dans les sols, ils perturbent la biodiversité et la fertilité des terres agricoles. Dans l’air, ils forment des aérosols transportés par le vent, qui peuvent être inhalés par les humains et la faune. Ils ont même été retrouvés dans la neige des montagnes et les pluies des zones protégées.
Plus préoccupant encore, des microplastiques ont été détectés en 2024 dans l’eau potable, tant en bouteille qu’au robinet. Face à cette situation, le Syndicat des eaux d’Île-de-France envisage par exemple d’installer des filtres membranaires pour tenter de limiter la contamination.
Recycler davantage semble une solution évidente, mais en réalité, seule une fraction des plastiques produits dans le monde est réellement recyclée. La majorité est enfouie, incinérée ou dispersée dans l’environnement.
Les réglementations évoluent, mais restent limitées. En France, la loi Agec de 2020 interdit l’utilisation de microbilles plastiques dans les cosmétiques par exemple ; mais 63,1 % des microplastiques issus de l’usure des pneus et des textiles passent encore entre les mailles du filet.
Réduire la production de tous les types de plastiques est la solution la plus efficace. Aujourd’hui, le recyclage reste limité, notamment à cause des additifs chimiques, dont la composition reste souvent secrète. Cette opacité complique leur réutilisation et réduit la qualité des plastiques recyclés. Il est donc crucial de limiter ces additifs, non seulement pour améliorer le recyclage, mais aussi parce que beaucoup sont toxiques pour l’environnement et se retrouvent dans l’eau, l’air et les organismes vivants.
D’autres pistes existent : développer des matériaux réellement biodégradables, améliorer la filtration des eaux usées en prenant en considération l’ensemble des produits de dégradation des plastiques (micro et nanoparticules), mettre en place des méthodes standardisées pour la quantification des micro et nanoparticules dans l’environnement et explorer le potentiel de certaines bactéries capables de dégrader les plastiques.
À lire aussi : Recyclage et valorisation des déchets plastiques : comment ça marche ?
Mais sans une action forte à la source, cette pollution invisible continuera de s’accumuler. Le plastique n’est pas qu’un simple déchet : c’est un polluant insidieux qui s’infiltre partout, des sols à notre alimentation. Il est encore temps d’agir, mais sans une prise de conscience et des mesures drastiques, cette pollution pourrait bientôt devenir irréversible.
À lire aussi : Pollution plastique : pourquoi ne rien faire nous coûterait bien plus cher que d’agir
Aicha El Kharraf a reçu des financements de CNRS.
31.03.2025 à 16:25
Myriam Benraad, Responsable du Département International Relations and Diplomacy, Schiller International University - Enseignante en relations internationales, Sciences Po
Gaza, Ukraine, Syrie, Soudan… L’Arabie saoudite manœuvre entre Washington, Moscou et Téhéran et s’invite à toutes les négociations internationales. Après des années d’isolement, que cache cette stratégie diplomatique ? Comment le prince héritier Mohammed Ben Salmane est-il parvenu à s’imposer comme un médiateur incontournable, au Moyen-Orient et au-delà ?
Alors que beaucoup pensaient que son image et sa réputation avaient été irrémédiablement ternies par l’assassinat du journaliste Jamal Khashoggi, à Istanbul, en octobre 2018 – dans lequel il ne reconnut jamais de responsabilité directe –, et plus largement par un long passif de violations des droits humains, d’affaires de corruption et de scandales financiers dans son entourage, ainsi que pour son intervention brutale dans la guerre au Yémen, le prince saoudien Mohammed Ben Salmane (MBS), 39 ans, fils de l’actuel roi Salmane et officiellement héritier du royaume depuis 2017, a opéré son grand retour sur la scène régionale et internationale.
Ces dernières années, soucieux de placer le royaume, dont il héritera un jour, mais dont il est d’ores et déjà l’homme fort, au rang de protagoniste clé au Moyen-Orient en tant que médiateur tout trouvé pour le règlement des crises régionales, MBS n’a cessé de densifier ses canaux de communication avec diverses parties en conflit, du Soudan à l’Ukraine, de la Syrie à Gaza. Le tout en appuyant au premier chef la diplomatie américaine et en se gardant de toute critique ouverte à l’égard de la Russie. De « paria », MBS serait-il devenu un interlocuteur incontournable ?
De sa qualité d’hôte des discussions entre Washington et Moscou sur le futur de l’Ukraine jusqu’à son rôle dans la négociation d’un « jour d’après » à Gaza qui permettrait également, en faisant d’une pierre deux coups, de détendre la relation entre les États-Unis et l’Iran, l’Arabie saoudite semble sur tous les fronts.
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
Après un isolement diplomatique entrecoupé de frêles phases de réchauffement, comme lors du premier mandat de Donald Trump (2017-2021), MBS a aujourd’hui pour objectif de peser de tout son poids dans le concert des « grands » de ce monde, s’affichant au service d’une recomposition positive et constructive du Moyen-Orient. Dans un entretien avec la chaîne télévisée américaine Fox News en septembre 2023, il déclarait ainsi :
« Nous avons de nombreuses relations sécuritaires et militaires qui renforcent la position de l’Arabie saoudite. »
Mais cette approche est-elle si nouvelle ? Si l’on ne saurait nier le tournant « global » pris par la diplomatie saoudienne sur une période récente, Riyad a toujours eu pour priorité d’éviter coûte que coûte un embrasement généralisé.
Cette anxiété s’était manifestée au cours des guerres du Golfe, de 1990 et 2003, et a retrouvé une actualité brûlante avec l’implosion du Proche-Orient à la suite des tueries du 7-Octobre en Israël.
Soudain, les espoirs d’une normalisation des rapports d’Israël avec ses voisins, un temps portés par les accords d’Abraham, se sont effrités, tandis que décuplaient les tensions entre Tel-Aviv et Washington au sujet de la situation humanitaire prévalant dans la bande de Gaza.
En outre, la dernière année et demie a été marquée par des échanges de tirs de missiles entre Israël et l’Iran et, depuis le retour de Trump à la Maison Blanche, par des menaces américaines à l’encontre du régime de Téhéran. Et, bien que ce dernier soit traditionnellement un adversaire régional majeur de l’Arabie saoudite, celle-ci redoute le chaos qui pourrait y survenir si la République islamique venait à chuter – tout comme elle redoutait les effets de la guerre d’Irak au tournant du nouveau millénaire.
Dans l’absolu, le royaume, qui reste le premier exportateur mondial d’hydrocarbures, le pays le plus riche du Moyen-Orient et le lieu de naissance de l’islam, a toujours occupé une place géopolitique motrice. Parallèlement à son hard power énergétique s’est développé un soft power qui renforce son aura traditionnelle dans le monde arabe et musulman. Après les attentats du 11-Septembre, l’Arabie saoudite avait de surcroît renforcé sa présence médiatique, avant de se lancer dans l’industrie du sport et du divertissement. Elle devrait ainsi accueillir la Coupe du monde de football de 2034, entre autres initiatives lui permettant de rehausser son capital symbolique et d’asseoir ses intérêts stratégiques.
Derrière cet activisme en politique étrangère qui le réhabilite partiellement auprès du monde extérieur, existe chez MBS un agenda de politique intérieure évident.
Le dirigeant est affairé au renforcement de sa légitimité et de sa puissance par l’imposition d’un projet hypernationaliste dont chaque Saoudien, à domicile comme à l’étranger, représente, en quelque sorte, un « sous-produit ». MBS entend non seulement préserver son régime de toute déstabilisation, mais poursuit par ailleurs une entreprise de restructuration de l’économie en anticipant un déclin des revenus pétroliers au cours des prochaines décennies qui n’équivaut cependant pas à un renoncement à la rente.
Rappelons qu’à son arrivée aux commandes, l’Arabie saoudite s’était engagée dans un colossal plan de développement, baptisé « Vision 2030 », au fondement de cet hypernationalisme destiné à transformer le royaume en un hub commercial de premier plan et à en faire une destination lucrative pour tous les investisseurs internationaux. Dix ans après son lancement, ce projet faramineux, dont il est encore difficile d’apprécier pleinement les réalisations et les bénéfices, ne se résume plus à la seule marque d’un prince jeune et fougueux goûtant pour la première fois au pouvoir, mais constitue un véritable enjeu existentiel.
De fait, MBS voit au-delà d’une simple logique de renégociation des prérogatives entre clans ; il souhaite consolider son autorité pour s’ériger en chef le plus puissant de l’histoire du royaume. C’est bien sur ce point que ses deux stratégies, intérieure et extérieure, convergent : sans une diplomatie proactive, axée autour de la stabilisation du Moyen-Orient, MBS sait qu’il ne pourra accomplir ses desseins internes.
On est loin de la posture agressive qu’il avait adoptée par le passé ; à présent, MBS privilégie une dynamique de désescalade des tensions, avec l’Iran notamment – un début de détente entre ces deux poids lourds régionaux avait pris place en 2023 à travers le rétablissement de relations cassées sept ans plus tôt.
Cette revanche silencieuse aboutira-t-elle aux résultats escomptés ? Est-ce vraiment le commencement d’une « nouvelle ère de la diplomatie saoudienne » rompant avec sa posture de confrontation d’il y a une décennie ?
S’il est manifeste que l’Arabie saoudite tend à redevenir un centre de gravité de la diplomatie arabe et moyen-orientale en accueillant de nombreuses conférences et maints sommets au sein de ses frontières, et en facilitant un dialogue autrement impossible entre des acteurs aliénés, elle fait aussi face à plusieurs limites et défis. Une interrogation porte en particulier sur sa capacité effective à arbitrer des crises à répétition.
Dans le cas du Soudan, l’Arabie saoudite n’est pas un médiateur mais un acteur à part entière du conflit du fait de son appui militaire et financier au camp du général conservateur Abdel Fattah al-Burhan, opposé à Mohammed Hamdan Dogolo. Concernant la Syrie, la visite en février 2025 d’Ahmed al-Charaa, le nouvel homme fort de Damas, n’aura ni permis l’arrêt des violences sur le terrain ni abouti à des initiatives pérennes pour la reconstruction de ce pays ravagé par la guerre. Quant à Gaza, le rejet de la proposition de Donald Trump d’une prise de contrôle de l’enclave méditerranéenne ne s’est pas traduit non plus par une énonciation claire des modalités de l’aide que Riyad pourrait apporter aux Palestiniens.
Il faudra donc s’armer de patience pour juger du caractère performatif – ou non – des promesses faites par MBS quant à l’avenir d’un Moyen-Orient actuellement en pleine tourmente.
Myriam Benraad ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
31.03.2025 à 16:22
Bruno Poucet, Professeur émérite des universités en histoire de l'éducation, CAREF, Université de Picardie Jules Verne (UPJV)
Le scandale de Bétharram soulève la question du contrôle des établissements privés sous contrat. Que disent les textes ? Et sont-ils appliqués ? Que vont changer les annonces du ministère de l’éducation ?
À Lestelle-Bétharram, derrière les murs de l’imposant établissement scolaire Le Beau Rameau, à la réputation bien établie, que se passe-t-il pour que plus de 150 plaintes aient été déposées auprès du procureur de la République pour violence et viol ?
Depuis que la parole s’est libérée parmi les anciens élèves de l’école, collège et lycée du Béarn, les révélations de faits de violences se multiplient dans d’autres établissements privés, aux quatre coins de la France, posant la question du contrôle des établissements privés sous contrat.
On considérera seulement les établissements catholiques, les plus nombreux (96 % des élèves scolarisés dans le privé). Que dit la règlementation de leur contrôle ? Qu’en est-il réellement sur le terrain ?
Dans les établissements sous contrat, il faut distinguer trois ordres de réglementation, et donc de contrôle. Certains de ces contrôles concernent l’ensemble des établissements privés : ils sont définis par les lois Falloux (1850) et les lois Goblet (1886) complétées en 2018 et 2021 (article 441-1, 2, 3 du Code de l’éducation).
Il existe un contrôle lors de la création ou des modifications apportées à l’organisation de l’établissement : c’est la déclaration d’ouverture. Celle-ci doit être adressée par le futur directeur à l’administration de l’éducation nationale : elle en accuse réception et transmet la demande, au maire, au préfet et au procureur de la République.
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
Après contrôle du dossier, l’une ou l’autre de ces autorités peut s’opposer à l’ouverture, dans un délai maximum de trois mois. Un refus est motivé selon les critères suivants : intérêt de l’ordre public ou de la protection de l’enfance et de la jeunesse, non-respect des conditions prévues par la personne qui ouvre l’établissement (nationalité, diplômes, casier judiciaire vierge, âge des enfants concernés, respect du socle commun des connaissances, diplômes préparés, plan des locaux, conditions sanitaires, harcèlement scolaire), établissement n’ayant pas le caractère d’un établissement scolaire ou technique, ingérence étrangère.
Par ailleurs, tous les ans, l’établissement doit fournir la liste des enseignants et leurs titres et, à la demande des autorités, les documents budgétaires. Des contrôles pédagogiques sont organisés afin de voir si les exigences de la scolarité obligatoire sont remplies.
Si aucune déclaration d’ouverture n’a été faite ou si les délais n’ont pas été respectés, il s’agit dans ce cas d’une école clandestine : le préfet ordonne sa fermeture immédiate, après avis de l’autorité compétente en matière scolaire. Quant à celui qui ouvre illégalement une école, une peine de prison d’un an peut être prononcée ainsi qu’une amende de 15 000 euros et l’interdiction de diriger ou d’enseigner dans un établissement pendant cinq ans ou à titre définitif.
En cas de refus d’ouverture par l’autorité compétente, le déclarant peut faire appel devant la formation contentieuse du Conseil supérieur de l’éducation nationale et saisir les tribunaux.
Sous contrat, la législation est plus contraignante et complète celle qui régit tout établissement privé. Il y a un contrôle administratif de l’État en matière de respect de la liberté de conscience et d’accueil de tous les élèves, de discrimination en matière religieuse, sociale ou ethnique.
Le passage sous contrat suppose un contrôle du respect des programmes de l’enseignement public. Les enseignants sont de droit public : nommés par le recteur, ils sont soumis aux mêmes contrôles pédagogiques que dans l’enseignement public. En revanche, les activités extérieures au contrat sont librement organisées par l’établissement (vie scolaire, internat, exercices religieux) sous réserve de respecter les principes essentiels de la liberté de conscience et de non-discrimination.
L’autorité rectorale doit être informée en cas de violence, de harcèlement, d’actes humiliants, d’atteintes sexuelles. Un signalement doit être effectué en cas de doute auprès du procureur de la République par tout membre de la communauté éducative afin qu’une enquête soit diligentée.
À lire aussi : Enseignement privé : près de 18 % des élèves français et une grande diversité d’établissements
Les collectivités compétentes siègent aux conseils d’administration des établissements concernés pour tout ce qui concerne les questions budgétaires et exercent ainsi un contrôle sur l’utilisation des fonds. Une commission académique examine les demandes de contrat ou de leur résiliation par l’autorité académique, elle peut se prononcer sur l’utilisation des fonds publics, la mixité sociale.
Qui peut contrôler un établissement sous contrat ? L’ensemble des inspecteurs de l’éducation nationale, les membres du conseil départemental (hors enseignants), le maire, les délégués, la Cour des comptes, l’inspection générale des finances (IGF) ou les centres des finances publiques.
On le voit : les possibilités de contrôle sont nombreuses et variées : administratif, pédagogique et financier. De plus, les établissements catholiques étant à caractère propre, le droit de l’Église catholique intervient également.
Le chef d’établissement lorsqu’il est laïque, et à plus forte raison dans les rares cas où il est religieux, est l’objet d’un contrôle. En effet, le Code de droit canonique, promulgué en 1983 par Jean-Paul II, précise que, dans les cas les plus graves, tels que les atteintes sexuelles contre des mineurs de moins de 16 ans, ou des actes de violence, un clerc peut, après jugement, être renvoyé de l’état clérical (canon 1395). Les laïcs peuvent aussi être condamnés et privés de leurs fonctions, si nécessaire.
Par ailleurs, la constitution apostolique « Pascite gregem Dei », promulguée le 23 mai 2021 par le pape François, renforce le contrôle en considérant ces atteintes comme des délits contre la vie, la dignité et la liberté humaine et ajoute à la liste le détournement de mineur ou la possession et l’exhibition d’images pornographiques commis par des clercs sur des mineurs (canon 1398).
Ajoutons que le statut de l’enseignement catholique de 2013 précise quelles sont les instances de contrôle interne dans la mesure où « l’école catholique est attachée au respect de la personne et à la liberté de conscience » (articles 35 à 37).
L’instance de contrôle s’appelle l’autorité de tutelle : elle est exercée par le directeur diocésain ou le supérieur d’un ordre religieux ou leurs délégués. Elle doit visiter les établissements régulièrement et établir un rapport. Sous la responsabilité de l’évêque du lieu, elle contrôle l’action du chef d’établissement et peut proposer son licenciement en cas de faute grave. Elle doit prêter attention au climat relationnel de l’établissement, à la mise en œuvre du projet pédagogique (articles 178 à 180). La tutelle siège de droit au conseil d’administration de l’établissement.
Force est de constater que la loi et l’organisation interne de l’enseignement catholique prévoient bien une série de contrôles et ont créé des structures pour ce faire. Or, nombre d’établissements privés sous contrat ont connu des situations répréhensibles : comment expliquer de telles dérives ?
Il faut d’abord se rappeler combien en tous domaines, et pas seulement dans les institutions catholiques sous contrat, le silence régnait sur de telles affaires jusque dans les années 2000 : les contrôles rectoraux étaient peu nombreux, faute de personnels en nombre suffisant, comme l’a fait remarquer la Cour des comptes dans un rapport de juin 2023.
La volonté politique n’était pas non plus au rendez-vous. Pour les autorités religieuses, et les familles, il fallait garder le silence pour des raisons de réputation. Au mieux, on déplaçait la personne, les élèves n’en parlaient pas aux parents. Qu’une certaine violence règne dans un établissement scolaire était, au fond admis par les parents, surtout lorsque les résultats scolaires étaient à la hauteur : il s’agissait de dresser, de soumettre des jeunes parfois rebelles.
C’est à partir des années 1990 que la violence à l’école n’est plus admise (circulaire du 6 juin 1991 pour le primaire et circulaire du 3 septembre 2019 pour le secondaire). C’est encore plus récemment dans les années 2010 que les agressions sexuelles sont dénoncées dans l’ensemble des institutions.
L’administration de l’éducation nationale, suite aux débats provoqués par les récentes affaires, a compris que la situation ne pouvait plus durer et a mis à la disposition des rectorats 60 équivalents temps plein pour effectuer ces contrôles sur pièces ou sur place y compris sur le climat scolaire et l’absence de maltraitance. Un guide pratique a été rédigé. Une commission parlementaire a été créée sur les violences scolaires et a commencé ses auditions.
Bruno Poucet ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
31.03.2025 à 16:21
Bernard Laurent, Professeur, EM Lyon Business School
« Laudato si » (2015) est la plus célèbre des encycliques du pape François. Volontairement écologiste, elle remet l’Église et la Terre au centre du village. Que nous dit-elle de la vision de l’Église catholique et de ce pape politique ?
Il y a dix ans, le 24 mai 2015, le pape François rendait publique « Laudato si », de l’italien médiéval « Loué sois-tu », une encyclique qui ne donnait pas dans la demi-mesure. Ce texte surprit plus d’un catholique par ses constats sans concessions et son appel à une transformation en profondeur de nos modes de vie. Elle unissait toutefois, si nous en tenons à la France, les courants conservateurs – courant pour une écologie humaine, créée en 2013 – et des intellectuels catholiques ouverts, comme le jésuite Gaël Giraud, auteur de Produire plus, polluer moins : l’impossible découplage ?.
Le pape se plaçait dans la continuité de ses prédécesseurs. Paul VI, Jean-Paul II ou Benoît XVI s’inquiétaient avant lui des effets dramatiques d’une exploitation abusive de la nature sur l’humanité :
« Une exploitation inconsidérée de la nature de l’être humain risque de la détruire et d’être à son tour la victime de cette dégradation. »
Quels sont les enseignements de cette encyclique ? Que nous dit-elle de la vision de l’Église catholique ? Et du pape François ?
Le pape François dresse le constat d’un environnement particulièrement dégradé :
« La pollution […] affecte tout le monde, [elle est] due aux moyens de transport, aux fumées de l’industrie, aux dépôts de substances qui contribuent à l’acidification du sol et de l’eau, aux fertilisants, insecticides, fongicides, désherbants et agrochimiques toxiques en général. » (§-20.)
Le pape vert publie l’encyclique « Laudato si», en juin 2015, quelques mois avant la conférence de Paris sur le climat. L’objectif : sensibiliser l’opinion publique aux enjeux de réchauffement climatique, en créant une approche relationnelle entre Dieu, l’être humain et la Terre. C’est la première fois qu’une encyclique est entièrement consacrée à l’écologie.
Il s’inquiétait des effets du réchauffement climatique :
« À son tour, le réchauffement a des effets sur le cycle du carbone. Il crée un cercle vicieux qui aggrave encore plus la situation. Il affectera la disponibilité de ressources indispensables telles que l’eau potable, l’énergie ainsi que la production agricole des zones les plus chaudes et provoquera l’extinction d’une partie de la biodiversité de la planète. » (§-24.)
Depuis « Rerum novarum », du pape Léon XIII, les différentes encycliques sociales n’ont cessé de rejeter l’idée libérale d’une société régulée par le seul bon fonctionnement du marché. Le sociologue des religions Émile Poulat résumait parfaitement la position de l’Église en 1977 dans son livre Église contre bourgeoisie. Introduction au devenir du catholicisme actuel : « Elle n’a jamais accepté d’abandonner la marche du monde aux lois aveugles de l’économie. »
En 2015, le pape François rejetait les solutions techniques qui ne seraient que cautère sur une jambe de bois, tout comme la croyance aux vertus salvatrices du marché autorégulé. Il accuse « le paradigme technocratique » de dominer l’homme en subordonnant à sa logique l’économique et le politique (§-101). Des accents qui rappellent le philosophe français protestant Jacques Ellul, injustement oublié, et son idée d’« autopropulsivité » de la technique, sans limites, qui est placée en alpha et oméga de nos sociétés.
La charge contre les vertus supposées du marché était spectaculaire. Le pape stigmatise notamment :
« Étant donné que le marché tend à créer un mécanisme consumériste compulsif pour placer ses produits, les personnes finissent par être submergées, dans une spirale d’achats et de dépenses inutiles. » (§-203.) ;
« Dans certains cercles, on soutient que l’économie actuelle et la technologie résoudront tous les problèmes environnementaux. » (§-109.) ;
« La politique ne doit pas se soumettre à l’économie et celle-ci ne doit pas se soumettre aux diktats ni au paradigme d’efficacité de la technocratie. » (§-189.) ;
« Les plus pauvres sont les premières victimes : de fait, la détérioration de l’environnement et celle de la société affectent d’une manière spéciale la plus faible de la planète. » (§-48.) ;
Le pape François lie très étroitement sauvegarde de la planète et justice sociale. Il s’inscrit dans la lignée des travaux de l’économiste dominicain Louis-Joseph Lebret, fondateur en 1941 de l’association Économie et humanisme (E&H). Le père Lebret souhaitait remettre l’économie au service de l’homme et travailler sur les pays les moins avancés économiquement en défendant les vertus des communautés et de l’aménagement du territoire.
Quant au pape François, il souhaite une rupture radicale de nos modes de vie consuméristes dans les pays riches, en pensant le développement des pays les plus pauvres (§-93). Les réactions des pays développés lui paraissaient insuffisantes à cause des intérêts économiques en jeu, ajoutait-il (§-54).
Nous retrouvons là le principe de la destination universelle des biens, qui est le principe organisateur de la propriété défendu par la doctrine sociale de l’Église. Il commande de se soucier d’une répartition des biens permettant à chaque être humain de vivre dans la dignité.
À lire aussi : Pape François vs. J. D. Vance : fracture au sein du monde catholique
Au-delà des mesures techniques nécessaires et des pratiques individuelles sobres, le pape François invite les citoyens des pays développés à ne pas se contenter de demi-mesures largement insuffisantes. Au contraire, il pousse à changer nos modes de vie dans une logique de décroissance. Le but : permettre aux pays en voie de développement de sortir de la pauvreté, tout en ménageant l’environnement.
« Face à l’accroissement vorace et irresponsable produit durant de nombreuses décennies, il faudra penser aussi à marquer une pause en mettant certaines limites raisonnables, voire à retourner en arrière, avant qu’il ne soit trop tard. […] C’est pourquoi l’heure est venue d’accepter une certaine décroissance, mettant à disposition des ressources pour une saine croissance en d’autres parties. » (§-193.)
Dix ans plus tard, le texte raisonne pleinement avec nos préoccupations. Nous pourrions suggérer aux très catholiques vice-président J. D. Vance et secrétaire d’État Marco Rubio des États-Unis de relire cette encyclique.
Bernard Laurent est adhérent à la CFTC Membre du Conseil Scientifique de l'IRES
31.03.2025 à 15:42
Mathis Navard, Docteur en Sciences de l'information et communication (ISI), Université de Poitiers, IAE de Poitiers
Alors qu’il est un allié incontournable de la lutte contre le changement climatique, le transport ferroviaire est aussi victime de ses effets. Les incidents liés aux aléas climatiques se multiplient, mais la France tarde à agir.
Ce lundi 31 mars, les voyageurs pourront de nouveau traverser en train la frontière franco-italienne. Depuis un an et demi, la ligne Paris-Milan était interrompue en raison d’un impressionnant éboulement survenu sur ses voies en août 2023. Loin d’être un événement isolé, ce type d’incidents se multiplie au fur et à mesure que les effets du réchauffement climatique s’intensifient.
Face à cette situation, il est urgent que l’ensemble des acteurs de la filière ferroviaire (entreprises, collectivités, États…) se mobilise pour adapter les infrastructures à des conditions climatiques de plus en plus imprévisibles et violentes. Et ce, à une période où le nombre de voyageurs ne cesse de croître.
Si certains pays européens se sont déjà engagés dans cette voie, la France tarde à passer à l’action.
La situation est d’autant plus paradoxale que le train constitue un levier important dans la lutte contre le changement climatique. Un trajet en train émet en moyenne 95 % de CO₂ en moins que lorsqu’il est effectué en voiture. Le ferroviaire est donc un incontournable de la décarbonation des mobilités.
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
Un enjeu majeur, puisque le secteur des transports demeure le premier contributeur aux émissions françaises de gaz à effet de serre, comptant pour 30 % du total national. Il est l’un des rares domaines dont ce chiffre ne diminue pas. Plus inquiétant, sa tendance est même à la hausse depuis trois décennies.
Les voyageurs ne s’y trompent pas. Selon une étude réalisée en 2023 pour la SNCF, 63 % d’entre eux disent prendre le train par conviction écologique. Une autre enquête, ayant sondé une plus large partie de la population française, nous apprend que 83 % des répondants reconnaissent les bénéfices écologiques de ce mode de transport.
Chaque année, le trafic ferroviaire de voyageurs bat des records dans notre pays. Selon l’Autorité de régulation des transports, il a progressé de 21 % pour les trains du quotidien et de 6 % pour l’offre à grande vitesse entre 2019 et 2023.
A contrario, le transport de marchandises poursuit son inexorable chute, -17 % en un an.
Plusieurs raisons expliquent cette forte rétractation des services ferroviaires de fret : hausse des coûts de l’énergie, mouvements sociaux… et éboulement sur la ligne Paris-Milan.
Le trafic de voyageurs est lui aussi de plus en plus impacté par des conditions météorologiques toujours plus extrêmes. Interruption totale des circulations en janvier 2025 en raison des inondations en Ille-et-Vilaine, déraillement d’un TER à cause d’une coulée de boue en juillet 2024 dans les Pyrénées-Orientales suivi des deux accidents similaires en octobre en Lozère puis dans l’Aisne… Les exemples ne manquent pas dans l’actualité récente.
Si des aléas de ce type ont toujours existé, leur fréquence et leur intensité augmentent avec l’amplification du changement climatique. Quelle que soit la trajectoire des scénarios du GIEC empruntée, nous savons que cette tendance se poursuivra dans les décennies à venir, de façon plus ou moins marquée en fonction de la vitesse de la réduction de nos émissions de gaz à effet de serre. Les intempéries pourraient ainsi multiplier de 8 à 11 fois les perturbations ferroviaires d’ici à 2100.
Les risques portant sur le réseau sont multiples et concernent à la fois les voies, les télécommunications, les ouvrages et l’alimentation électrique. Parmi les principales menaces, citons la déformation des voies en raison de fortes chaleurs, la déstabilisation des sols provoquée par des cycles de gel-dégel ou de fortes pluies ainsi que d’importants dégâts causés par des incendies et des tempêtes.
La SNCF et ses 27 000 kilomètres de lignes se retrouvent en première ligne face à ces catastrophes. Bien que variable d’une année à l’autre, leur coût direct est estimé annuellement entre 20 millions et 30 millions d’euros.
Un document stratégique d’une trentaine de pages a été publié par SNCF Réseau l’an dernier. Il projette une adaptation à un réchauffement moyen pouvant atteindre +4 °C à l’horizon 2100. Cette feuille de route a été élaborée en collaboration avec Météo France, avec qui la SNCF se met systématiquement en lien en cas d’alertes météorologiques.
L’échange de données est également au cœur de cette stratégie. Un outil d’alerte baptisé Toutatis a par exemple été conçu pour surveiller les voies en cas de fortes pluies. Son homologue Predict anticipe quant à lui les risques de crues dès que certains seuils pluviométriques sont atteints.
Pas de quoi pour autant convaincre la Cour des comptes qui, en 2024, a alerté la SNCF sur l’absence d’un plan d’adaptation structuré intégrant le climat futur. Le rapport souligne également le manque d’informations sur les coûts climatiques.
La juridiction rejoint l’Autorité de régulation des transports sur le sous-investissement chronique dont est victime le réseau français, ce qui renforce mécaniquement sa vulnérabilité. Un milliard d’euros serait encore manquant pour en stabiliser l’état, et ce, alors que son âge moyen est toujours de 28,4 ans.
Déjà en 2019, une équipe de chercheurs avait mené une étude de cas à ce sujet. Leurs résultats mettaient en lumière un important décalage entre les discours de la SNCF et la faible intégration des connaissances scientifiques dans sa gestion ferroviaire. Elle se ferait encore de façon incrémentale, sans transformations profondes, et à partir d’expériences passées plutôt que des projections climatiques futures.
Les inspirations d’adaptation venues de nos voisins européens ne manquent pourtant pas. En Belgique et en Italie, les rails sont par exemple peints en blanc afin de limiter l’accumulation de chaleur et, in fine, leur dilatation.
La Suisse propose une solution alternative en refroidissant les rails avec un véhicule-citerne en cas de fortes chaleurs. La Confédération helvétique ainsi que l’Autriche (avec laquelle elle partage un relief accidenté) se sont engagées dans une démarche d’atténuation visant à davantage protéger les lignes des avalanches et des glissements de terrain tout en améliorant les systèmes de drainage. Cela passe notamment par le renforcement des forêts – un véritable bouclier protecteur – et des ouvrages existants.
Autant de choix politiques structurants qui ont été réalisés dans des pays où l’investissement en faveur du ferroviaire est de 2 à 9 fois plus important qu’en France. Il est donc plus que jamais nécessaire de s’engager dès à présent dans une stratégie d’adaptation plus systémique.
C’est tout l’objet d’un projet européen baptisé Rail4EARTH. Il fait le pari de l’innovation et de la rapidité d’action. Mais le chemin à parcourir est encore long pour que cette ambition se traduise en véritable feuille de route opérationnelle à l’échelle de notre continent.
L’application des données climatiques – actuelles comme futures – au secteur du ferroviaire demeure imparfaite. Le développement d’une gouvernance intégrant des experts en climatologie est souhaité par la SNCF, qui fait partie des partenaires de ce projet.
Il y a urgence à agir. Comme l’a démontré une étude britannique, l’adaptation des infrastructures ferroviaires aux différents scénarios du GIEC est souvent surestimée. Elles sont donc plus vulnérables que ce que les projections laissent penser.
Une raison de plus, s’il en fallait une, pour s’engager dès à présent dans un plan d’action à l’échelle européenne afin de continuer à faire du train un levier majeur de décarbonation de nos déplacements dans un monde qui ne cesse de se réchauffer.
Mathis Navard ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
31.03.2025 à 11:59
Marie-Christine Lichtlé, Professeur des Universités, Co-Responsable de la Chaire MARÉSON, Université de Montpellier
Anne Mione, Professeur de marketing stratégique, management de la qualité et stratégie, Université de Montpellier
Béatrice Siadou-Martin, Professeur des universités en sciences de gestion, Co-responsable de la Chaire MARESON, Université de Montpellier
Jean-Marc Ferrandi, Professeur Marketing et Innovation à Oniris, Université de Nantes, Co-fondateur de la Chaire MARÉSON, Nantes Université
De nouvelles pousses entrepreneuriales émergent pour valoriser des déchets comestibles en biscuits apéritifs ou plats préparés. Une étude menée auprès de 941 consommateurs français questionne l’acceptabilité de cet upcycling alimentaire.
Les entreprises proposant de l’upcycling alimentaire, surcyclage ou valorisation ont le vent en poupe. Hubcycled produit de la farine à partir de lait de soja ou arôme à base de pépins de fraises, la biscuiterie Ouro valorise de la drêche en biscuits apéritifs ou In Extremis valorise des pains invendus en boulangerie dans une proposition de biscuits apéritifs.
« L’upcycling alimentaire est défini comme un aliment dont au moins un des ingrédients serait soit un coproduit ou un résidu de la fabrication d’un autre produit (drêche pour la bière), soit un produit invendu (pain), soit un ingrédient qui était précédemment considéré comme un déchet et/ou gaspillé dans la chaîne d’approvisionnement. »
En raison des coûts liés à la collecte de ces déchets ou invendus et de ceux liés à leur transformation, le prix de vente de ces produits upcyclés est plus élevé que celui des offres traditionnelles. Mais, qu’en est-il de l’acceptabilité de ces produits par le consommateur ? Est-il prêt à consentir ce sacrifice monétaire pour se tourner vers une offre alimentaire durable ? Ce modèle de niche peut-il devenir un business model soutenable ? Telles sont les questions auxquelles nous répondons dans une recherche menée auprès de 941 consommateurs.
En 2021, 8,8 millions de tonnes de déchets alimentaires ont été produits en France. Parmi ces déchets, 4,3 millions de tonnes sont comestibles – aliments non consommés encore emballés, restes de repas, etc. Pour encourager les entreprises dans la transition écologique de leurs modèles de production, le gouvernement a voté en 2020 la loi antigaspillage pour une économie circulaire (Agec). Car l’industrie agroalimentaire est confrontée à des enjeux importants : assurer la sécurité alimentaire, proposer une offre durable, limiter le gaspillage alimentaire à tous les niveaux que ce soit la production, la distribution ou la consommation.
Notre objectif est de mesurer l’acceptabilité des produits upcyclés et d’identifier les attributs susceptibles d’accroître cette acceptabilité – selon qu’ils portent sur l’entreprise, sur la qualité du produit ou du processus de fabrication.
Abonnez-vous dès aujourd’hui !
Chaque lundi, des informations utiles pour votre carrière et tout ce qui concerne la vie de l’entreprise (stratégie, RH marketing, finance…).
Pour mesurer l’acceptabilité des consommateurs vis-à-vis de ces produits upcyclés, notre recherche s’appuie sur une expérimentation menée auprès de 941 consommateurs. Après avoir pris connaissance d’une offre de biscuits apéritifs – prix, poids, visuel du produit, libellés –, ces derniers ont été interrogés à quatre reprises. Les données collectées permettent d’apprécier la réponse comportementale du consommateur, appréhendée par l’attitude envers le produit et le consentement à payer dans un premier temps avec une présentation minimale de l’offre.
Des informations sont également fournies et communiquent sur trois bénéfices potentiels différents : la démarche vertueuse de l’entreprise, la qualité gustative et la qualité processuelle des biscuits.
Notre recherche a trois enseignements principaux. Le premier concerne le consentement à payer. En moyenne, les consommateurs indiquent un consentement à payer de 1,96 euro. Ce prix est bien supérieur au prix de référence du marché (le leader du marché propose le produit à 0,90 euro). Il reste cependant inférieur au coût réel de cette offre ou des offres qualitatives (certaines marques bio sont vendues à plus de 3 euros).
Deuxièmement, l’ajout d’un argument, peu importe sa nature, permet d’améliorer la valeur créée. Le consommateur est alors prêt à payer en moyenne 2,15 euros au lieu de 1,96 euro (soit un gain d’environ 10 %). Cependant, l’ajout d’un ou de deux arguments supplémentaires n’améliore pas le consentement à payer.
Ce nouveau produit n’est pas accepté de la même manière selon tous les consommateurs ; cela justifie la mise en œuvre d’une approche différenciée. En effet, la distance psychologique influence la perception et la représentation du produit upcyclé. Elle est définie par la théorie du niveau de construit comme une expérience subjective associée au degré de proximité ou de distance qu’un individu éprouve à l’égard d’un objet, ici le biscuit. Nous montrons que la distance psychologique explique l’attitude envers le produit et le consentement à payer. Autrement dit, les consommateurs les moins distants du biscuit ont un consentement à payer supérieur à celui des personnes distantes et ont l’attitude la plus favorable. Inversement, les plus distants envers le biscuit ont le consentement à payer le plus faible et l’attitude la plus défavorable.
Cette recherche suggère ainsi des pistes pour améliorer la durabilité de ce business model. En termes de communication, il est important pour les entreprises évoluant sur ce marché d’ajouter un avantage cohérent avec le caractère upcyclé et de communiquer sur celui-ci. Cette communication a pour objectif de renforcer la crédibilité des entreprises sur ce marché. Elle doit s’appuyer sur des arguments concrets afin de réduire la distance psychologique.
Il est inutile de démultiplier les avantages, car ces efforts de communication n’améliorent pas nécessairement le consentement à payer et l’attitude. Ce résultat est convergent avec les effets limités montrés par la multilabellisation des produits alimentaires. Les études montrent qu’avoir plusieurs labels ou certifications n’améliorent pas le consentement à payer pour des produits alimentaires tels que le miel.
Les entreprises doivent clairement s’adresser aux consommateurs sensibles au gaspillage alimentaire et se positionner sur ce marché de niche avant de pouvoir espérer atteindre l’ensemble des consommateurs. Cette segmentation permet d’offrir des pédagogies différenciées adaptées aux différents publics pour réduire leur distance psychologique vis-à-vis des biscuits et… les convaincre d’acheter ce produit avec un consentement à payer plus élevé.
Marie Eppe, fondatrice d’In Extremis, a participé à la réalisation de cette contribution.
Béatrice Siadou-Martin a reçu des financements de l'ADEME et de la Région Pays de la Loire (programme IP-AG).
Jean-Marc Ferrandi a reçu des financements de l'ADEME et de la Région Pays de la Loire (programme IP-AG)
Anne Mione et Marie-Christine Lichtlé ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur poste universitaire.
31.03.2025 à 11:59
Kamel Si Mohammed, researcher, Université de Lorraine
Vanessa Serret, Professor, IAE Metz School of Management – Université de Lorraine
Emprunt émis sur les marchés financiers par un État ou une entreprise pour financer des projets liés spécifiquement à l’environnement, les obligations vertes sont entre deux eaux. D’un côté, les velléités de Donald Trump de mettre fin aux politiques climatiques. De l’autre, un boom de ce marché avec 530 milliards de dollars d’émissions en 2024.
Avec l’élection de Donald Trump, les acteurs de la finance verte grincent des dents. Le président américain a fait réagir en décidant de sortir de l’accord de Paris. Entre 8 100 et 9 000 milliards de dollars par an jusqu’en 2030. C’est l’argent qu’il faudrait mobiliser pour atteindre les objectifs climatiques mondiaux selon le Climate Policy Initiative. Pour lever ces sommes colossales, les gouvernements et les entreprises se tournent de plus en plus vers les obligations vertes.
Dans une étude sur les États-Unis de 2008 à 2022, nous explorons la manière dont ces obligations contribuent à la réduction des risques climatiques. À l’instar des obligations classiques, les obligations vertes sont des emprunts – et donc des dettes – émis sur le marché par des États ou des entreprises. Ces obligations vertes sont destinées uniquement à financer des activités écologiques. Avec quels résultats ?
Les États-Unis, après avoir réintégré l’Accord de Paris en 2021, se sont fixés des objectifs ambitieux : réduire de 50 à 52 % leurs émissions de gaz à effet de serre d’ici 2030 par rapport au niveau de 2005. Pour atteindre ces objectifs, le pays mise sur la finance verte, notamment via les obligations vertes.
Dès 2020, les États-Unis ont été le plus grand émetteur mondial d’obligations vertes, avec 51,1 milliards de dollars émis selon la Climate Bonds Initiative. Cette tendance s’est poursuivie, atteignant 550 milliards de dollars en 2024, se rapprochant du record de 588 milliards de dollars établi en 2021. Fannie Mae, organisme spécialisé dans la garantie des prêts immobiliers, a été un pionnier des obligations vertes.
Apple a émis sa première obligation verte en 2016, avec un montant de 1,5 milliard de dollars, établissant ainsi un jalon important dans le secteur de la finance durable pour une entreprise technologique. Après une légère baisse en 2017, les émissions ont augmenté à partir de 2019, atteignant 4,5 milliards de dollars en 2024.
Notre étude sur le marché américain analyse la période de 2008 à 2022. Elle prend en compte plusieurs événements majeurs, tels que la signature de l’accord de Paris, mais aussi des crises économiques comme la crise financière de 2008 et la pandémie de Covid-19. Les chocs économiques – comme la crise de 2008 ou la guerre en Ukraine – augmentent l’incertitude. Elles rendent les obligations vertes plus attractives en tant que valeurs refuges. Plus l’incertitude économique est élevée, plus les obligations vertes démontrent leur résilience en réduisant les risques climatiques.
Un point clé de cette recherche est l’impact de l’incertitude économique sur les obligations vertes. Pour mesurer cela, nous avons utilisé l’indice d’incertitude politique économique, ou Economic Policy Uncertainty (EPU), ainsi que l’indice des sommets climatiques, ou Climate Summit Index (CSI). Ces indices reflètent la manière dont les événements politiques et les engagements climatiques influencent les marchés financiers.
Les résultats économétriques montrent que les obligations vertes jouent un rôle crucial dans la réduction des risques climatiques. Toutefois, l’efficacité de ces obligations est à nuancer. Par exemple, lorsque les engagements politiques en faveur du climat sont faibles, l’impact des obligations vertes s’avère plus limité.
Pour mener cette analyse, nous avons utilisé la méthode statistique appelée régression quantile-surquantile multivariée. Cette méthodologie permet de mesurer l’impact des obligations qui peut être asymétrique selon une période de faible ou de forte incertitude économique. Ils permettent d’étudier la relation dynamique entre les obligations vertes et les risques climatiques selon différents scénarios de marché.
Nos résultats montrent que lorsque le marché des obligations vertes est encore peu développé, leur capacité à réduire les risques climatiques est plus limitée. Cependant, au fur et à mesure que le marché des obligations vertes se développe, leur impact positif sur la réduction des risques climatiques devient plus prononcé. Autrement dit une plus grande émission d’obligations vertes est associée à une baisse significative des risques climatiques.
L’efficacité des obligations vertes dépend des politiques climatiques mises en place lors des sommets internationaux mesurés par l’indice de sommet climatique. Nous avons constaté que les engagements pris lors de ces sommets influencent directement le marché des obligations vertes. Lorsque les gouvernements prennent des mesures strictes pour réduire les émissions de carbone, la demande pour ces obligations augmente, ce qui renforce leur impact positif sur la réduction des risques climatiques.
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
Notre étude montre que l’indice de risque climatique diminue d’environ 16 %, lorsque l’émission d’obligations vertes est très élevée, illustrant leur effet significatif dans l’atténuation du risque climatique. Cependant, lorsque l’indice des sommets climatiques est faible, l’effet des obligations vertes sur la réduction du risque climatique est plus limité, enregistrant une baisse d’environ 12 %.
Ces résultats soulignent la nécessité d’un cadre réglementaire incitatif pour favoriser l’expansion du marché des obligations vertes et maximiser leur efficacité dans la lutte contre le changement climatique.
Notre étude propose au moins trois recommandations pratiques à destination des décideurs et des investisseurs pour maximiser l’impact des obligations vertes.
Instaurer un cadre incitatif solide : mettre en place des garanties gouvernementales, afin de réduire les risques financiers associés aux obligations vertes et ainsi attirer un plus grand nombre d’investisseurs.
Établir des normes claires : définir précisément les critères qui qualifient une obligation verte. Cela permettra d’accroître la transparence et la confiance des investisseurs, tout en renforçant l’intégrité du marché.
Faciliter l’accès aux obligations vertes, notamment pour les petites entreprises et les investisseurs institutionnels, en développant des plates-formes de trading dédiées comme le Luxembourg Trade Exchange.
Les obligations vertes ne se limitent pas à un simple instrument financier. Elles représentent un levier puissant pour accélérer la transition écologique, réduire les risques climatiques et stabiliser les marchés financiers face aux incertitudes économiques et politiques. Cependant, notre étude met en lumière une limite notable : les résultats se concentrent principalement sur les États-Unis, un marché financier mature. Il serait essentiel d’élargir le champ d’analyse aux pays émergents, où les risques climatiques et les incertitudes économiques sont souvent plus marqués.
En 2023, les émissions d’obligations vertes dans les marchés émergents ont augmenté de 34 %, atteignant 135 milliards de dollars. Ces chiffres soulignent le potentiel croissant de ces instruments dans ces régions. Des recherches futures pourraient explorer comment ces obligations peuvent répondre aux besoins spécifiques des économies émergentes, pays où le risque climatique est souvent plus élevé ainsi que l’incertitude politique.
rien à déclarer
Kamel Si Mohammed ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
31.03.2025 à 11:59
Cécile Cezanne, Maître de conférences-HDR en économie, Université Côte d’Azur
Gaye-Del Lo, Maître de conférences, Centre d'Économie Paris Nord (CEPN), Université Sorbonne Paris Nord
Sandra Rigot, Professeur des Universités en économie, Université Sorbonne Paris Nord, Chaire « Énergie et Prospérité, Chaire Economie du Climat, Université Sorbonne Paris Nord
Une étude menée sur 305 entreprises cotées en France, en Allemagne, au Royaume-Uni et au Japon, met en lumière l’influence du conseil d’administration sur la réduction des émissions de gaz à effet de serre (GES). Une empreinte surtout prégnante dans les entreprises les plus émettrices.
Sous la pression des tensions géopolitiques et des impératifs de compétitivité, l’Union européenne a amorcé un choc de simplification du Green Deal incarné par les directives Omnibus. Inspiré par les conclusions du rapport Draghi sur le décrochage économique de l’Europe, ce texte allège les contraintes réglementaires, notamment en matière de normes dans les domaines environnementaux, sociaux et de gouvernance. Cette inflexion du cadre institutionnel risque de ralentir la transition écologique. À moins que les entreprises s’engagent volontairement à adapter leur gouvernance face aux défis climatiques actuels…
En tant qu’organe de gouvernance par excellence, le conseil d’administration a un rôle crucial à jouer. Notre étude récente menée sur 305 entreprises cotées en France, en Allemagne, au Royaume-Uni et au Japon, entre 2015 et 2021, met en lumière l’influence du conseil d’administration sur la réduction des émissions de gaz à effet de serre (GES). En substance, le conseil d’administration, souvent perçu comme un organe mis au service de la performance strictement financière de l’entreprise, se révèle être un acteur déterminant de la lutte contre le changement climatique. En favorisant la diversité de genres et en structurant des comités dédiés à la durabilité, il peut contribuer à faire des entreprises de véritables moteurs du changement.
La gouvernance d’entreprise, qui désigne l’ensemble des règles et processus encadrant la gestion et le contrôle des sociétés, a connu une évolution significative au fil des décennies. D’abord centrée sur la maximisation des profits et la protection des intérêts de court terme des actionnaires, elle s’est progressivement élargie pour inclure des considérations sociales et environnementales. Aujourd’hui, les entreprises sont évaluées non seulement sur leurs performances financières, mais aussi de plus en plus sur leurs résultats en matière de développement durable.
Le conseil d’administration est l’organe chargé d’orienter et de superviser les décisions stratégiques de l’entreprise et de trancher sur toute question relative à son intérêt social. Il remplit deux fonctions majeures : la gestion des décisions, qui consiste à influencer et soutenir les choix stratégiques des dirigeants, et surtout le contrôle des décisions en veillant à ce que ces choix respectent l’intérêt global de l’entreprise et de ses parties prenantes.
En matière de transition écologique, le conseil d’administration doit adopter des stratégies environnementales basées sur des exigences réglementaires et des normes internationales non obligatoires : GRI, IR, TCFD, CDP, etc. Parmi ces décisions, on peut citer la fixation de cibles environnementales mesurables, le développement de l’économie circulaire et des chaînes d’approvisionnement responsables ou encore l’investissement dans l’innovation verte. Ces démarches sont fondamentales car elles influencent directement la capacité d’une entreprise à réduire ses émissions de GES.
Notre étude montre que la composition du conseil d’administration joue un rôle déterminant sur la performance carbone des entreprises.
Parmi les facteurs essentiels, figure d’abord la diversité de genres au sein de l’instance ; les entreprises ayant une plus forte proportion de femmes administratrices affichent des niveaux d’émissions plus faibles. Le parcours de formation – droit, sciences humaines, sciences de l’éducation – et les dynamiques professionnelles des femmes diffèrent sensiblement de ceux de leurs homologues masculins selon Galbreath et Jaffe & Hyde.
Abonnez-vous dès aujourd’hui ! Chaque lundi, des informations utiles pour votre carrière et tout ce qui concerne la vie de l’entreprise (stratégie, RH marketing, finance…).
Plus enclines à soutenir des initiatives philanthropiques et à valoriser la responsabilité sociétale des entreprises, elles se distinguent par une sensibilité accrue aux enjeux sociaux et environnementaux. Cette orientation les conduit à promouvoir des politiques de durabilité et à exercer une surveillance rigoureuse sur les engagements environnementaux.
Un autre facteur clé est la création de comités spécialisés au sein du conseil d’administration. Notre étude montre que les entreprises disposant d’un comité RSE (responsabilité sociale et environnementale) enregistrent une meilleure performance en matière de réduction des GES. Notamment pour les émissions directes (Scope 1) et indirectes liées à la consommation d’énergie (Scope 2). Même s’ils n’ont aucun pouvoir de décision et que leur mission consiste essentiellement à éclairer les réflexions du conseil d’administration, ces groupes de travail permettent d’instaurer une vigilance accrue sur les objectifs climatiques.
En revanche, la présence de membres indépendants, bien qu’elle garantisse un regard objectif, ne semble pas avoir d’effet direct sur la réduction des émissions. De même, la composition du conseil d’administration n’aurait pas d’influence sur les émissions les plus indirectes (Scope 3), alors que ces dernières représentent environ 80 % des émissions globales des entreprises.
Les résultats varient toutefois selon les domaines d’activité. Les entreprises opérant dans les secteurs à fortes émissions identifiés par le GIEC comme l’énergie, les bâtiments, les transports, l’industrie et l’AFOLU – agriculture, foresterie et autres usages des terres –, bénéficient davantage de ces dispositifs de gouvernance. Dans ces secteurs, la diversité de genres parmi les administrateurs et la présence d’un comité RSE ont un impact particulièrement marqué sur la réduction des émissions. À l’inverse, dans les industries à plus faibles émissions, ces facteurs jouent un rôle moins décisif, probablement en raison d’une empreinte carbone initialement moindre.
Au-delà de la réduction des émissions de GES, le conseil d’administration pourrait se saisir d’une question complémentaire majeure : la préservation de la biodiversité. Essentielle pour assurer la résilience des écosystèmes et garantir la durabilité des activités humaines, elle reste sous-estimée. Or, le conseil a les moyens, outre l’adoption volontaire d’initiatives comme la norme TNFD (Taskforce on Nature-related Financial Disclosures), de pousser les entreprises à limiter activement leur impact sur la biodiversité. Il pourrait veiller à la mise en place de modèles d’affaires attentifs aux écosystèmes, au développement de dispositifs de compensation des atteintes à la biodiversité ou encore à l’adoption de technologies plus respectueuses de la nature. Là encore, la composition du conseil d’administration pourrait être un enjeu de taille. La décision récente de l’entreprise Norsys de faire siéger la nature au sein de son conseil d’administration l’atteste.
Cécile Cezanne est chercheuse associée à la Chaire Énergie et Prospérité (https://chair-energy-prosperity.org/).
Sandra Rigot a reçu le soutien de la Chaire Énergie et Prospérité et de la Chaire Énergie du Climat
Gaye-Del Lo ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
31.03.2025 à 11:58
Florent Noël, Professeur, directeur délégué à la recherche, IAE Paris – Sorbonne Business School
Benoît Grasser, Vice-président adjoint à la politique scientifique, Université de Lorraine
L’autonomie au travail n’est pas toujours désirable. Son attrait dépend notamment de l’environnement de l’organisation. Devenir autonome, cela s’apprend et cela requiert du soutien, une condition nécessaire mais pas suffisante. Car les salariés le savent : dans certaines situations, l’autonomie peut être un piège.
Il ne faut souvent pas longtemps, lors d’une discussion sur la liberté et la responsabilisation dans le travail, pour que s’élève une voix faisant remarquer que certains travailleurs sont réticents, que d’autres en sont incapables et que beaucoup sont les deux à la fois. Or, si certains peuvent revendiquer leur rejet de l’autonomie, c’est peut-être qu’ils n’y ont jamais vraiment goûté ou qu’ils ne savent pas comment être autonome, ou bien encore que l’octroi d’autonomie est considéré comme un marché de dupes au regard du peu de réelle liberté d’agir qui l’accompagne parfois.
On pourrait du reste noter que savoir qu’on ne souhaite pas être autonome ou savoir dans quelle situation on peut l’être ou pas, c’est déjà être en mesure d’exercer un certain niveau d’autonomie.
L’autonomie, entendue comme « le fait de se gouverner soi-même » ne manque pas de charme et on peut avec Jean-Jacques Rousseau (Du contrat social) clamer que « renoncer à sa liberté, c’est renoncer à sa qualité d’homme, aux droits de l’humanité, même à ses devoirs ». On notera toutefois que dans le cadre d’une organisation, des individus reliés par des contrats de travail impliquant toujours un degré de subordination, dépendants les uns des autres pour obtenir les ressources nécessaires à la réalisation de leur travail, coordonnés par des processus pour satisfaire un client, ne sont jamais complètement autonomes.
Inversement, les ergonomes nous l’enseignent, le travailleur « presse-bouton » ne disposant d’aucune marge de manœuvre décisionnelle ou comportementale n’existe pas davantage. Par ailleurs, comme le rappelle Sen, la liberté n’est pas seulement l’absence de contraintes, mais aussi la capacité réelle de pouvoir faire ce qui a de la valeur pour soi. En ce sens, l’autonomie au travail correspond à la fois à la possibilité d’initiative et à la possibilité d’agir dans le sens de ce qui semble être réellement important pour soi.
La question de l’autonomie au travail est un motif récurrent de la théorie des organisations. Faut-il prescrire et contrôler le travail autant que possible comme le suggèrent les approches managériales inspirées du taylorisme ? Ou faut-il au contraire en appeler à l’expertise, au sens de la situation, à la compétence de celui qui fait ? Faut-il trancher cette question au nom de l’efficacité, d’un idéal d’émancipation par le travail ou de la quête de sens et de bien-être ? Les réponses à ces questions mêlent très probablement l’ensemble de ces dimensions, mais le vrai débat porte sur les processus d’autonomisation plus que sur l’autonomie elle-même : comment apprendre individuellement et collectivement à être autonome ?
Cet apprentissage est d’autant plus nécessaire que l’autonomie est au croisement d’intérêts qui ne sont pas forcément contradictoires. L’autonomie est souvent conquise par les salariés. On peut le voir comme une position de principe : s’émanciper ne se discute pas. Mais, ils peuvent également la rechercher parce qu’elle procure des marges de manœuvre qui leur sont nécessaires pour rendre leur travail plus soutenable ou pour faire ce qui à leur sens est du « bon travail ». Exercer un contrôle sur la façon d’exercer son travail, maîtriser les relations dans lesquelles on s’implique sont des moyens de rééquilibrer les exigences du travail et les ressources dont on dispose pour y répondre. Ce faisant, l’exercice de l’autonomie peut conduire à développer des compétences qui en retour renforcent l’autonomie.
À lire aussi : Une entreprise réellement « libérée » est avant tout libérante
De l’autre côté, l’autonomie est aussi souvent requise par l’encadrement. C’est le cas chaque fois que le travail est trop complexe, trop relationnel ou trop peu répétitif pour qu’il puisse être standardisé et prescrit. Accorder de l’autonomie aux salariés, c’est alors s’en remettre à leur expertise et à leur compétence pour que le travail puisse se faire de façon efficace. Ce faisant, lorsque l’autonomie est utilisée à bon escient selon l’employeur, c’est-à-dire de façon à produire de la valeur pour l’organisation, il est probable qu’elle entraîne davantage encore de délégation.
L’apprentissage de l’autonomie est donc une affaire de pilotage fin. Comme nous avons pu l’observer dans des organisations qui ne revendiquent pas un style de management particulièrement fondé sur l’autonomie, en l’occurrence les agences de France Travail (ex Pôle emploi) : les salariés disposent au quotidien d’une certaine marge de manœuvre, soit parce qu’on la leur accorde explicitement, soit parce qu’il y a toujours des failles dans la prescription. Ils ne peuvent toutefois réellement s’en saisir que s’ils ne rencontrent pas d’obstacles individuels – il faut croire en ses capacités et pour cela avoir des capacités – ou d’obstacles collectifs, il faut d’une part que le management accepte voire encourage l’exercice de ces marges de manœuvre et d’autre part que les salariés aient réellement les moyens de faire ce qu’ils jugeraient adaptés à la situation.
Abonnez-vous dès aujourd’hui !
Chaque lundi, recevez gratuitement des informations utiles pour votre carrière et tout ce qui concerne la vie de l’entreprise (stratégie, RH marketing, finance…).
Lorsque ces conditions sont réunies, des boucles vertueuses d’apprentissage peuvent se mettre en place. À mesure que les salariés font usage de leur autonomie pour viser des réalisations ayant de la valeur pour eux, ils font l’expérience de leurs capacités et peuvent découvrir le plaisir qu’il y a à bénéficier d’un certain degré de liberté. Parallèlement, à mesure qu’ils font usage de leur autonomie pour viser des réalisations ayant de la valeur pour l’organisation, il est probable qu’ils conquièrent la confiance de leur encadrement et puissent bénéficier de davantage de ressources, du temps et des budgets qui renforceront également leurs capacités.
Le niveau d’autonomie est donc systématiquement l’objet d’une négociation et d’un apprentissage collectif, d’une interaction entre des capacités et une volonté individuelle et un environnement plus ou moins « capacitant ». « Libérer » le travail ne se décrète pas, cela s’apprend. Il faut explorer les marges de manœuvre dont on dispose réellement, au-delà de ce qui en est dit, et savoir quoi en faire, ce qui questionne les motivations de l’individu et leur alignement sur les finalités de l’organisation. Une fois la dynamique enclenchée, il faut ensuite l’entretenir.
C’est, d’ailleurs, à ce stade que l’autonomie peut être mobilisée pour renforcer l’autonomie elle-même : se mettre en position d’apprendre et s’organiser individuellement et collectivement pour accumuler les ressources permettant de dégager plus de marges de manœuvre. Cela passe par gagner du temps, gagner la confiance du management, redéfinir les priorités, proposer des axes de développement pour soi et pour l’entreprise…
On comprend mieux les réticences affichées que nous rappelions au début de cet article : l’autonomie n’est pas à la portée de tous les salariés et il faut toujours une petite dose de savoir-faire au départ. Cette dernière peut s’acquérir si elle venait à manquer. Mais l’autonomie n’est surtout pas à la portée de toutes les organisations.
L’autonomie est parfois perçue par les salariés comme un piège à éviter. Il y a tout d’abord le risque qu’elle ne soit qu’une injonction paradoxale. C’est le cas lorsque l’autonomie se limiterait à dégager des marges de manœuvre pour viser des objectifs auxquels les salariés n’adhèrent pas voire réprouvent. Il faut donc que l’organisation puisse ouvrir ses finalités aux propositions qui émanent des salariés qui la peuplent.
Ouvrir des espaces d’apprentissage individuel et collectif – et s’en nourrir – est une question de volonté managériale et de design organisationnel. Lorsque l’organisation ne laisse pas faire, n’autorise pas les prises d’initiative ou laisse ceux qui en prennent démunis face aux manques de moyens, le piège de l’autonomie se referme. Sur ce point, le management de proximité doit savoir lâcher prise, c’est une évidence. Il faut aussi réfléchir à la rémanence des contraintes tapies dans les outils de travail et les processus de gestion qu’on déroule, sans toujours prendre pleinement conscience de l’enfermement qu’ils génèrent.
Il y a enfin le risque de polarisation. Il est tout à fait probable que les démarches managériales visant à s’appuyer sur l’autonomie éveillent prioritairement l’intérêt de ceux qui ont le plus confiance dans leur potentiel et qui pensent pouvoir porter des initiatives qui seront accueillies favorablement. Ceux-là ont peu à perdre. Ils ne peuvent que bénéficier du processus d’automatisation.
À l’opposé, ceux qui doutent d’eux-mêmes ou du caractère « capacitant » de leur environnement professionnel pourraient légitimement hésiter à entrer dans ces apprentissages. Ils n’auront pas l’occasion de montrer ce qu’ils peuvent faire, d’expérimenter la satisfaction de se sentir compétents et de participer au développement de leur organisation. Il est fort probable qu’on intensifie pour eux la prescription. La responsabilité initiale leur incombe peut-être, mais on peut encore se demander s’il ne serait pas du devoir et de l’intérêt de l’organisation d’aller les chercher.
Florent Noël est chercheur dans une équipe de recherche dont les travaux reçoivent le concours de l'IPSI (Institution pour le progrès social dans l'industrie). L'IPSI n'est intervenue a aucun moment dans la rédaction de cet article et de la recherche dont il est issu. La recherche dont cet article est issu a été réalisée dans le cadre d'un contrat de recherche avec la direction des statistiques, études & évaluation de Pôle Emploi (devenu depuis France Travail)
La recherche dont cet article est issu a été réalisée dans le cadre d'un contrat de recherche avec la direction des statistiques, études & évaluation de Pôle Emploi (devenu depuis France Travail). Benoît Grasser était membre de l'équipe de chercheurs qui a travaillé dans le cadre de ce contrat de recherche.
31.03.2025 à 11:58
Valérie Petit, Full Professor in Management, ESSCA School of Management
L’hubris des dirigeants est souvent mis en cause quand des dysfonctionnements surviennent. Mais de quoi parle-t-on précisément ? Comment s’en prémunir individuellement, et protéger les entreprises mais aussi la démocratie ?
Huit cents milliards de capitalisation boursière à Wall Street perdus et un recul de 50 % à 80 % des ventes de véhicules : c’est le bilan catastrophique de Tesla ces trois derniers mois. C’est aussi, possiblement, le chiffrage le plus précis de l’hubris d’Elon Musk depuis que ce dernier a pris ses quartiers au cœur du pouvoir politique américain. Si cet effondrement surprend les commentateurs et les investisseurs, en revanche, il n’étonne guère les chercheurs en gestion qui, depuis près de trente ans, se sont attachés à mesurer le coût de l’hubris du dirigeant pour son entreprise.
C’est en 1986 que Richard Roll, professeur de finance à Caltech, au cœur de la Silicon Valley, publie les premiers travaux sur l’hubris du dirigeant. À l’époque, il tente d’expliquer pourquoi certains CEO paient trop cher certaines acquisitions. Après avoir épuisé toutes les explications habituelles, il finit par conclure qu’une partie du surcoût peut être imputée à l’égo du dirigeant et à la perte, par celui-ci, du sens de la mesure : c’est ce que Roll nomme l’hypothèse d’hubris. À sa suite, de nombreux travaux en gestion souligneront l’impact négatif de l’hubris du dirigeant sur les choix stratégiques et la performance financière de leurs entreprises. Dans les années 2000, la révélation de scandales tels qu’Enron, Lehman Brothers ou encore Vivendi Universal, donnant à voir la combinaison dramatique de l’égo, de la mauvaise gestion voire de la corruption placera définitivement le risque d’hubris du dirigeant à l’agenda des scientifiques et des parties prenantes. Mais comment mesurer et prévenir ce risque ?
La chose est compliquée, car il faut d’abord définir ce qu’est l’hubris ; or, le terme fait moins référence à un concept qu’à un ensemble de mythes mettant en scène l’arrogance et l’insolence funestes de l’homme face aux dieux. On pense au mythe d’Icare qui, méprisant les conseils de son père, vole trop près du soleil pour finir dans la mer, mais aussi à celui de Phaéton, qui, tenant à conduire le char du dieu Soleil à la place de son père Apollon, met le feu aux nuages.
Dans l’Antiquité, l’hubris est considérée comme un crime. Pour Platon : « Quand déraisonnablement, un désir nous entraîne vers les plaisirs et nous gouverne, ce gouvernement reçoit le nom d’hybris ». Et Aristote de préciser le plaisir qu’y trouve celui qui en souffre :
À Rome, Suétone brosse le portrait des 12 césars, ces hommes qui disposent d’un pouvoir tellement grand que leur psyché s’en trouve altérée. L’histoire retiendra plutôt la folie de Néron que la modération de Marc Aurèle. Deux mille ans plus tard, les historiens parleront de « césarite », la maladie des césars, pour désigner cette maladie du pouvoir absolu, souvent résumée par la phrase de Lord Acton : « Le pouvoir corrompt, et le pouvoir absolu corrompt absolument. » L’idée que le pouvoir rend fou s’ancre définitivement dans la croyance populaire.
Abonnez-vous dès aujourd’hui !
Chaque lundi, recevez gratuitement des informations utiles pour votre carrière et tout ce qui concerne la vie de l’entreprise (stratégie, RH marketing, finance…).
Mais comment scientifiquement mesurer cela ? Et surtout comment distinguer dans cette « folie » ce qui appartient à l’individu en propre (par exemple, un trouble de la personnalité narcissique) et ce qui relève des effets du pouvoir auquel il est exposé ?
Les premières tentatives de mesure de l’hubris du dirigeant peuvent prêter à sourire : occurrence du pronom « je » dans les discours du dirigeant, taille de sa photo dans le rapport annuel… les chercheurs mobilisent des mesures très approximatives. Par ailleurs, la clarté conceptuelle n’est pas toujours au rendez-vous : sous le label « hubris » se retrouvent des notions pourtant distinctes telles que le narcissisme (un trouble de la personnalité), la surconfiance (un biais cognitif) ou l’orgueil (un vice). En 2009, la recherche connaît un tournant. Lord David Owen, médecin psychiatre et ancien ministre des affaires étrangères britannique, propose un tableau clinique du syndrome d’hubris, regroupant 14 items diagnostiques. Parmi ceux-ci, on retrouve :
des aspects du narcissisme (il affiche une confiance excessive dans son propre jugement et le mépris pour les conseils ou les critiques des autres),
de l’asocialité (il perd le contact avec la réalité, souvent associée à une isolation progressive),
de l’histrionisme (quand les choses tournent mal, il continue d’afficher une grande confiance en soi et ignore les « détails » ou « l’intendance » qui ne suit pas),
enrichie de quelques items originaux (il utilise le « nous » en lieu et place du « je », il se croit le seul qualifié éternellement pour son poste).
En 2012, nous avons transposé ce tableau au contexte de la direction d’entreprise et de l’hubris du dirigeant en décrivant les comportements d’hubris des dirigeants à trois niveaux :
le rapport à soi (style communicationnel théâtral et égocentré, décisions stratégiques hasardeuses, stratégie irréaliste et ambition démesurée, enracinement au pouvoir et incapacité à transmettre le pouvoir),
le rapport aux autres (management destructeur incluant agression, harcèlement, menace, intimidation, refus de toute critique, absence d’empathie pour les salariés)
et le rapport au monde (manquement à l’éthique, contestation de l’autorité de la loi, du marché, de la justice, refus de prendre la responsabilité).
Ces travaux recensaient les principaux symptômes de l’hubris (en termes de comportements). Restait la question que tout le monde se pose : quelle est l’origine de cette maladie du pouvoir ? Pourquoi certains leaders tombent-ils malades et d’autres pas ? Comment éviter la contagion et surtout quels gestes barrières mettre en place pour prévenir les ravages individuels, économiques et politiques de l’hubris des leaders ?
À lire aussi : Du populisme de plateforme au populisme politique : Elon Musk change d’échelle
Récemment, nous avons commencé à formuler des hypothèses radicalement nouvelles sur ce qu’est réellement l’hubris, cette maladie du pouvoir. Pour ce faire, partant de la citation de Lord John Acton (« Le pouvoir corrompt, et le pouvoir absolu corrompt absolument »), nous nous sommes concentrés non pas sur les comportements associés à l’hubris (les symptômes), mais sur la nature même de l’intoxication par le pouvoir de la psyché et des comportements du dirigeant (la maladie). Qu’est-ce qui dans le pouvoir nous corrompt ?
Notre hypothèse s’appuie y compris sur l’expérience politique de l’auteure qui, lors d’un mandat parlementaire de 5 ans, a pu observer et ressentir les effets du pouvoir sur la psyché des leaders. Partant de ce récit auto-ethnographique, nos travaux récents formulent plusieurs propositions pour mieux comprendre et prévenir le risque d’hubris.
Premièrement, l’hubris est bien un syndrome (comme le burn-out), lié aux conditions de travail particulières (l’exercice du pouvoir), qui débute et qui cesse avec l’exposition du dirigeant au pouvoir. En conséquence, la meilleure solution pour prévenir et guérir l’hubris est d’éloigner le dirigeant du pouvoir ou de disperser, encadrer ou partager celui-ci.
Deuxièmement, l’hubris n’est pas la combinaison d’autres troubles (narcissique, asocial, paranoïaque, histrionique, schizotypique), de traits psychologiques (égocentrisme, manque d’empathie, surconfiance) ou encore de comportements dysfonctionnels (violence, agressivité, théâtralité, harcèlement), mais l’intoxication de ceux-ci par le pouvoir. Ainsi, un dirigeant narcissique pourra dire : « Je suis le plus génial entrepreneur que la tech a jamais connu. » S’il souffre d’hubris, il dira plutôt : « Mon entreprise est la meilleure car j’en suis le dirigeant ; sans moi aux manettes, elle n’est rien. »
L’intoxication par le pouvoir résulte d’une relation dysfonctionnelle du leader au pouvoir : lui et le pouvoir ne font plus qu’un, ils fusionnent. Mais là où, par arrogance, le dirigeant croit posséder le pouvoir, c’est en réalité celui-ci qui le possède, faisant de lui son agent, sa créature entièrement dédiée à son culte qu’il confond avec le culte de lui-même. Celui qui prend alors volontiers des postures de dominant dans ses relations avec autrui et le monde vit en réalité, au plus profond de lui, une soumission et une aliénation complète au pouvoir. En conséquence, on ne luttera pas contre l’hubris en se focalisant sur la personnalité ou les comportements du dirigeant, mais en questionnant sa relation (et la nôtre) avec le pouvoir et sa nature addictive et aliénante.
Troisièmement, pour expliquer l’emprise du pouvoir sur l’individu, il faut comprendre la nature particulière de ses effets corrupteurs. Nous faisons l’hypothèse que la relation du dirigeant au pouvoir relève de la sacralisation, et que la nature de sa relation intime avec celui-ci peut être qualifiée de numineuse. Pris dans les filets du pouvoir, sidérée et émotionnellement débordé, le dirigeant est tel un mystique. Ainsi, dans cet univers soi-disant profane de l’entreprise, le sacré et l’irrationnel ressurgissent dans la relation intime, souvent tue, du dirigeant au pouvoir. Continuer à ignorer l’importance de la relation au pouvoir ou en refouler la dimension irrationnelle et spirituelle est l’un des facteurs les plus évidents du risque d’hubris.
Alors que faire pour éviter aux dirigeants et aux entreprises de succomber à l’hubris ?
Une voie individuelle consisterait pour le dirigeant à méditer chaque jour sur le pouvoir et sa relation, sa place, ses effets. C’est ce que fit l’empereur Marc-Aurèle dans ses méditations et qui lui permit d’échapper à la césarite
Une voie institutionnelle consisterait à renforcer les mécanismes de gouvernance d’entreprise favorisant le turnover et le partage des fonctions au sommet des entreprises.
Une voie collective enfin questionnerait notre responsabilité dans cette culture idolâtre du pouvoir qui rend possible la sacralisation et, in fine, l’intoxication par le pouvoir. Ceci supposerait notamment d’en finir avec le mythe du charisme (il nous faut un individu exceptionnel, hors norme, quitte à hériter d’un hors la loi), le mythe de l’incarnation nécessaire (il est l’âme/l’incarnation de l’entreprise, vous comprenez) ou encore l’essentialisation de la direction (les dirigeants, vous savez, ils sont différents, plus agressifs, narcissiques, il faut faire avec).
Ajoutés à une saine obsession de la dispersion du pouvoir, ces quelques gestes barrières contre une culture toxique du pouvoir sont plus que jamais nécessaires face à ce nouveau risque systémique pour les entreprises et les démocraties.
Valérie Petit ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
30.03.2025 à 16:36
Bantignies Frédéric, Directeur de Recherche CNRS, Université de Montpellier
Giacomo Cavalli, Directeur de recherche CNRS, Université de Montpellier
Les marques épigénétiques sont des modifications chimiques de l’ADN qui vont permettre d’activer ou d’éteindre certains gènes. Elles sont reproduites lorsque les cellules se divisent mais peuvent-elles l’être entre deux générations ?
À la base de l’information génétique, l’ADN est la molécule fondatrice de la vie terrestre. Cependant, elle ne peut pas fonctionner seule, car son information doit être interprétée par des protéines présentes dans le noyau des cellules, rajoutant une information supplémentaire que l’on nomme information épigénétique (« épi » provenant du préfixe grec qui signifie « au-dessus »).
À chaque génération, nous héritons de l’ADN contenu dans les chromosomes de nos deux parents, sous la forme de 23 chromosomes de la mère et 23 chromosomes du père, pour aboutir aux 46 chromosomes de l’espèce humaine (ce nombre varie selon les espèces) dans chacune de nos cellules. Au cours du développement, nos cellules se divisent un très grand nombre de fois pour former des individus adultes (constitués de plus de 30 000 milliards de cellules !).
L’équation paraît relativement simple, car la séquence d’ADN des 46 chromosomes se recopie à l’identique (durant la « réplication de l’ADN ») avant de se partager équitablement dans deux cellules « filles » lors de chaque division cellulaire (appelée « mitose »). Malgré cette information génétique identique, nos cellules ne sont pas toutes pareilles. Chacune d’entre elles se différencie pour produire la variété de tissus et d’organes qui constituent notre corps. C’est justement l’information épigénétique qui permet cette différenciation.
Que sait-on de ces mécanismes épigénétiques qui font l’objet d’intenses recherches depuis le début du siècle ? Ils impliquent un grand nombre de facteurs cellulaires, dont on commence à comprendre la fonction. Au sein des chromosomes, l’ADN, chargé négativement, s’enroule autour de protéines chargées positivement, les histones. Des centaines de facteurs se lient, directement à l’ADN ou aux histones, pour former ce que l’on pourrait qualifier de « gaine épigénétique ».
À lire aussi : Épigénétique, inactivation du chromosome X et santé des femmes : conversation avec Edith Heard
Cette gaine est loin d’être homogène. Elle contient des facteurs qui peuvent déposer, sur la molécule d’ADN ou les histones, des petites molécules qui agissent comme des « marque-pages » que l’on pourrait mettre dans un livre à des endroits précis. Ce sont les fameuses « marques épigénétiques » (méthylations, acétylations…) et un grand nombre d’entre elles se retrouve au niveau des gènes qui sont situés tout le long de nos chromosomes. Ces marques sont indispensables, elles diffèrent dans les différents types cellulaires que composent un organisme et contribuent directement à la régulation de l’expression des gènes (par exemple, des gènes importants pour la fonction du foie s’exprimeront dans les cellules du foie, tandis que les gènes spécifiques des neurones ou des cellules musculaires y seront éteints). La question est désormais de savoir si ces mécanismes épigénétiques influencent aussi la transmission de l’information génétique.
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
Prenons tout d’abord le cas le plus simple de la mitose (division cellulaire). La plupart des cellules doivent transmettre leur fonction, c’est-à-dire reproduire l’expression de la panoplie de gènes qui leur sont propres dans leurs cellules filles. Un grand bouleversement se produit lors de la mitose avec un regroupement et une condensation importante des chromosomes et donc de l’ADN qui les composent. Lors de cette étape, l’ADN reste enroulé autour des histones, mais de nombreuses protéines de la gaine s’en trouvent dissociées. En revanche, la plupart des marques sur l’ADN et les histones sont conservées. Ainsi, des repères épigénétiques vont subsister sur et autour de l’ADN. Une fois la mitose terminée, ces marques vont permettre aux cellules filles de reconstruire rapidement l’architecture des gènes le long des chromosomes, qui porteront encore les marques épigénétiques indispensables et pourront à nouveau recruter les facteurs associés à leur fonction. Les mécanismes épigénétiques participent donc directement à l’héritage de la fonction cellulaire.
Est-ce que cette information épigénétique pourrait aussi être transmise aux générations futures ? Dans ce cas, le challenge est bien plus important. L’information doit être transmise aux gamètes mâle et femelle qui fusionnent lors de la fécondation pour former la première cellule de l’embryon. Cette cellule se divisera afin de constituer les différents types cellulaires du futur organisme. Les étapes de réorganisation et de condensation des chromosomes sont ici encore plus drastiques que lors de la mitose. La méthylation de l’ADN, les marques des histones et l’organisation 3D des chromosomes sont largement reprogrammées, comme si l’organisme s’efforçait d’effacer le bagage épigénétique accumulé dans la génération précédente.
Est-ce que l’épigénétique peut néanmoins influencer l’héritage génétique de la descendance ? Aujourd’hui, cette question fait l’objet de recherches intensives, et parfois controversées. Ces recherches visent notamment à comprendre si des facteurs environnementaux, nutritionnels, liés aux stress ou à l’exposition à des facteurs chimiques ou physiques pourraient exercer une influence sur les générations futures.
On a pu décrire des exemples précis de l’effet de l’environnement sur la régulation épigénétique dans de nombreuses espèces animales et végétales.
Chez des reptiles, la température est un déterminant majeur du type sexuel, via le dépôt de marques épigénétiques spécifiques (méthylation des histones). Chez les insectes, de nombreux traits phénotypiques sont liés à des régimes alimentaires qui entraînent des variations épigénétiques, par exemple la distinction entre la reine et les abeilles ouvrières ou la distinction de castes d’ouvrières chez certaines fourmis (via la méthylation de l’ADN et l’acétylation des histones, respectivement).
L’exposition à des facteurs chimiques, tels que l’arsenic ou le bisphénol A peut également être à l’origine de modifications épigénétiques. On essaye aujourd’hui de comprendre les mécanismes par lesquels ces stimuli agissent et s’ils peuvent générer un héritage stable au fil des générations dans l’espèce humaine. Des études épidémiologiques ont bien tenté de faire des liens entre régime alimentaire et influence sur la progéniture, mais ces études se confrontent souvent à des aspects multi-factoriels difficiles à contrôler et souffrent d’un manque de preuves moléculaires.
Des études au niveau d’organismes modèles sont donc nécessaires pour étudier l’influence de modifications épigénétiques sur la transmission de l’information génétique. Des exemples de transmission des états épigénétiques à travers les générations sont actuellement bien décrits chez le ver C.elegans et les plantes, des organismes où il y a moins de reprogrammation de l’état épigénétique lors de la fécondation. Notre équipe travaille sur l’organisme modèle Drosophila melanogaster ou mouche du vinaigre. À la suite de perturbations de l’organisation 3D des chromosomes, nous avons pu mettre en évidence des cas d’héritage de modifications épigénétiques sur un gène responsable de la couleur de l’œil au fil de nombreuses générations.
Dans le modèle souris, des études ont également montré que l’insertion d’éléments génétiques permettait d’induire des modifications épigénétiques, notamment la méthylation d’ADN. Ces modifications conduisent à la répression d’un gène responsable de la couleur du pelage ou de gènes importants du métabolisme qui, lorsqu’ils sont supprimés, provoquent l’obésité ou l’hypercholestérolémie, et ce, de manière héritable sur plusieurs générations.
Dans ces exemples d’héritage transgénérationnel, le premier signal qui induit un changement épigénétique implique la modification d’une petite séquence d’ADN. Même si cette séquence est rétablie à la normale, le changement se maintient. Bien que probablement rares et possiblement influencés par le patrimoine génétique, ces phénomènes pourraient exister dans la nature. Des recherches futures seront nécessaires pour comprendre si d’autres mécanismes épigénétiques pourraient être hérités.
Bien que ces données ne changent pas les lois génétiques actuelles, elles indiquent qu’au-delà de la simple duplication et transmission de la séquence d’ADN aux gamètes mâles et femelles, des informations épigénétiques pourraient contribuer à l’héritage de certains traits chez de nombreuses espèces. Ces recherches pourraient donc servir à mieux comprendre l’évolution et l’adaptation des espèces, ainsi que les mécanismes à la base de certaines pathologies humaines, comme les cancers.
Les recherches au sein du laboratoire Cavalli sont financées par des subventions du Conseil Européen de la Recherche (ERC AdG WaddingtonMemory), de l'Agence Nationale pour la Recherche (PLASMADIFF3D, subvention N. ANR-18-CE15-0010, LIVCHROM, subvention N. ANR-21-CE45-0011), de la Fondation ARC (EpiMM3D), de la Fondation pour la Recherche Médicale (EQU202303016280) et de la Fondation MSD Avenir (Projet EpiMuM3D).
Bantignies Frédéric ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
30.03.2025 à 16:35
Daniel Delbrassine, Chargé de cours honoraire, moniteur pédagogique, Université de Liège
L’annulation par le ministère de l’éducation nationale de sa commande d’une adaptation de la Belle et la Bête pour les élèves de CM2 a déclenché une polémique qui invite à se pencher sur la situation particulière de la littérature de jeunesse et l’attention spécifique qui lui est de longue date accordée dans l’espace public.
La récente affaire du « Livre pour les vacances », décommandé par le ministère de l’éducation nationale avant son impression en 800 000 exemplaires, a surpris nombre d’acteurs du livre et de l’école, à commencer par son auteur Jul qui avait adapté en BD le très classique La Belle et la Bête, de madame Leprince de Beaumont (1711-1776).
Les enfants de CM2 concernés par l’opération, qui vise à leur offrir un livre à lire durant l’été avant leur entrée en sixième, recevront donc un autre titre, mais le dessinateur n’a pas hésité à parler de « censure » de la part de la direction générale de l’enseignement scolaire, qui est intervenue le 17 mars dernier.
Le gros mot était prononcé et cette polémique a mis en lumière la situation particulière de la littérature de jeunesse au sein du champ culturel. Celle-ci fait en effet exception : elle doit à son public d’être le seul lieu où la censure s’exerce ouvertement en démocratie. Cette nécessaire protection du lecteur juvénile s’imposerait même « naturellement », si l’on en croit l’éditrice espagnole Beatriz de Moura.
Mais ce statut singulier pose un certain nombre de questions : comment fonctionne cette « censure » et à partir de quelles réglementations ? Sur quels objets et sur quels sujets s’exerce-t-elle ?
Depuis ses origines, la littérature adressée à la jeunesse est une « littérature sous surveillance », car la religion, l’école et le pouvoir politique ont toujours cherché à en assurer le contrôle.
La surveillance religieuse renvoie à des pratiques fort anciennes (Inquisition et mise à l’Index). Elle s’exprime surtout par des interventions d’ecclésiastiques dans le champ de la littérature, comme l’abbé Louis Bethléem qui publie Romans à lire et romans à proscrire. Essai de classification au point de vue moral des principaux romans et romanciers (1904). En 1927, un procès retentissant vise l’abbé, qui s’était mis en scène déchirant en public des revues « licencieuses ».
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
L’école exerce elle aussi un contrôle sur la littérature de jeunesse. Cette pression institutionnelle s’exerce notamment sur les éditeurs, conscients du rôle de l’école en matière de prescription. La scolarisation de la littérature jeunesse montre ici un de ses revers : le pouvoir d’influence sur les ventes exercé par les autorités de l’enseignement et par les enseignants eux-mêmes.
La surveillance politique de la littérature de jeunesse n’est pas récente. Dès la fin du XIXe siècle, le sénateur René Bérenger (surnommé « Père la pudeur ») crée la Société centrale de protestation contre la licence des rues, et l’arsenal légal se renforce avec la loi sur l’outrage aux mœurs de 1898. Avant la Deuxième Guerre mondiale, la loi du 29 juillet 1939 instaure un Code de la famille, dont 20 articles sont consacrés au « délit d’outrage aux bonnes mœurs ».
Le consensus politique présent à la Libération n’a donc rien d’étonnant, puisque la loi n°49-956 du 16 juillet 1949 sur les publications destinées à la jeunesse est l’aboutissement d’un processus d’un demi-siècle.
La fonction première de la loi n°49-956 du 16 juillet 1949 sur les publications destinées à la jeunesse (mentionné aujourd’hui encore dans tous les ouvrages destinés à l’enfance) n’est pas d’exercer une censure, car elle vise d’abord à instaurer un contrôle ex ante fondé sur l’intimidation.
En effet, son article 3 prévoit une commission de surveillance et de contrôle, dépendant des ministères de la justice et de l’intérieur et chargée de surveiller l’ensemble de la production adressée à la jeunesse, essentiellement à partir des critères définis à l’article 2. La commission reçoit tous les titres à publier et rend des avis, en intervenant parfois auprès des éditeurs. Selon la formule du chercheur Pascal Durand, cette loi organise donc la « soumission des [auteurs et des éditeurs] à un horizon d’attente normative », que l’on qualifiera d’« autocensure ».
Récemment, la loi a subi plusieurs modifications, notamment dans son article 2 qui définit les questions litigieuses, mais l’activité de la commission s’est « très fortement réduite », si l’on en croit Bernard Joubert qui en a recensé les victimes dans son volumineux Dictionnaire des livres et journaux interdits. La censure s’exerce aujourd’hui bien plus efficacement par le biais d’acteurs privés auxquels le champ médiatique offre un terrain favorable, et l’institution semble désormais passée au second plan en termes d’impact sur les acteurs du livre.
Sur le parcours d’un livre, les actions de censure et d’autocensure peuvent donc surgir à toutes les étapes. À la source, les auteurs assument assez spontanément leur part, mais peu en parlent ouvertement, sans doute par volonté de ne pas nuire à la légitimité de leur création.
L’autrice Malika Ferdjoukh confiait ainsi avoir supprimé une phrase qu’elle jugeait délicate dans un roman jeunesse : « L’abeille sniffe sa ligne de glace à la vanille. » Selon elle, cette image gratuite « semblait cautionner et rendre légère une chose qui ne l’est pas ». Dans Titus Flaminius : la fontaine aux vestales (2003), Jean-François Nahmias recourt à des propos très pudiques et à l’ellipse narrative pour évoquer la première nuit d’amour de son personnage. Dans ce roman historique où la description détaillée des mœurs de l’époque sacrifie à la contrainte du genre, l’évocation très chaste de la sexualité des héros crée un paradoxe étonnant.
Les auteurs assument donc leur part d’autocensure, parfois au prix d’acrobaties littéraires, en « adaptant » leur texte à leur public, préoccupés qu’ils sont de « respecter leur lecteur ». Les éditeurs interviennent dans un deuxième temps, aiguillonnés par le cadre légal, mais surtout par les réactions des prescripteurs adultes, qui sont aussi leurs acheteurs…
Certains éditeurs en viennent à retirer spontanément des ouvrages sous la pression de campagnes médiatiques efficaces comme celle qui a visé On a chopé la puberté, (éditions Milan, collection « Les secrets des pipelettes »), documentaire destiné aux pré-ados, publié en février 2018. À la suite d’une pétition recueillant 148 000 signataires en trois jours, la maison d’édition décide d’abandonner toute la collection. La chercheuse Mathilde Lévêque donne une analyse critique et nuancée de cette affaire dans un article intitulé On a chopé la censure.
Parmi les prescripteurs, les bibliothécaires ont toujours pris leur part dans les obstacles dressés entre un livre et ses lecteurs. L’absence intentionnelle dans la liste d’achats, la relégation aux « enfers » (quand ils existent) ou simplement dans le bureau, sont des pratiques fréquentes. Ainsi, en 2016, le Dictionnaire fou du corps (2012), de Katy Couprie, a fait l’objet d’une mesure de retrait dans le réseau de la Ville de Paris.
L’appareil d’État semble avoir aujourd’hui perdu beaucoup de son impact, les acteurs du champ éditorial « négociant » entre eux – sur l’espace médiatique – les termes de ce qui est désormais publiable à l’adresse de la jeunesse. La loi de 1949 reste comme une référence en toile de fond, pour un secteur de l’édition où les groupes de pression occupent désormais la première place en termes d’interventions suivies d’effets.
En pratique, cette situation ressemble de plus en plus à celle qui a toujours prévalu aux États-Unis. L’influence d’outre-Atlantique se concrétise dans la pratique des éditeurs qui mobilisent des « sensitivity readers » et avertissent leurs lecteurs avec des « trigger warnings ».
On notera enfin que la censure s’avère presque exclusivement thématique et manifeste bien l’évolution des sociétés, à travers des thèmes tabous qui perdurent (sexualité, violence, politique), mais aussi l’émergence de nouveaux sujets comme le genre ou la race. Une autre constante apparaît : l’absence de prise en compte des aspects narratifs dans la présentation des thèmes jugés délicats.
Le rôle des procédés littéraires mobilisés pour représenter tel ou tel sujet est passé sous silence dans l’immense majorité des cas. Or, on sait combien cet aspect est important pour évaluer l’innocuité éventuelle d’un récit, mais les censeurs se précipitent sur les contenus, sans vouloir prendre en compte leur traitement ni les « mesures de protection du lecteur » mises en place par les auteurs.
Daniel Delbrassine ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
30.03.2025 à 16:35
Paula Fernandes, Researcher, Cirad
Alain Ratnadass, Senior research scientist, Cirad
François-Régis Goebel, Directeur de Recherches en protection des cultures, gestion des bioagresseurs, Cirad
Gaëlle Damour, chercheuse, Cirad
Il existe chez les plantes des dizaines de mécanismes plus ingénieux les uns que les autres pour réguler naturellement les organismes qui s’attaquent aux cultures. S’appuyer sur ces alliés précieux est indispensable pour diminuer notre dépendance aux pesticides. Cela permet aussi de construire des systèmes agroécologiques plus résilients.
Chaque jardinier connaît l’œillet d’Inde, allié qui éloigne insectes et maladies du potager. Mais saviez-vous qu’il existe de nombreuses autres plantes, dites « plantes de service », précieuses pour une agriculture plus respectueuse de la santé et de l’environnement ?
Des résultats de recherche révèlent qu’une large gamme de plantes, lorsqu’on les intègre aux systèmes de culture, sont capables de réguler les bioagresseurs des champs (insectes et arthropodes, nématodes, champignons, bactéries, virus, adventices), et donc de réduire les besoins en pesticides.
Selon les plantes, elles mobilisent un mécanisme particulier ou en combinent plusieurs. Certaines vont agir contre les bioagresseurs aériens, tels les plantes aromatiques ou le maïs. D’autres sont efficaces contre les bioagresseurs telluriques, comme les crotalaires, le sorgho hybride ou les crucifères.
Penchons-nous dans un premier temps sur les mécanismes mis en œuvre par certains végétaux pour contrer les bioagresseurs aériens.
Les plantes refuges, fréquemment implantées en bordure de parcelle, assurent un habitat favorable aux auxiliaires, en leur fournissant le gîte et le couvert. Ainsi, ces derniers sont déjà présents lorsque les ravageurs arrivent pour attaquer les cultures, ils interviennent plus rapidement (prédation, parasitisme). C’est le cas notamment du tournesol mexicain (Tithonia diversifolia) utilisé aux abords des champs de canne à sucre en Tanzanie pour attirer et préserver les coccinelles prédatrices du puceron jaune Sipha flava, ravageur majeur dans ce pays.
Les plantes d’ombrage, intégrées dans la parcelle, modifient son microclimat. En changeant la luminosité et l’humidité, elles rendent les conditions climatiques défavorables à certains bioagresseurs et plus favorables à d’autres.
C’est notamment le cas des eucalyptus ou érythrines dans les plantations de caféiers, vis-à-vis du champignon Colletotrichum kahawae provoquant l’anthracnose des baies au Cameroun. Ces plantes ont le même effet sur la cochenille Placococcus citri et le champignon Cercospora coffeicola qui provoque au Costa Rica la cercosporiose.
Certaines plantes jouent un rôle de barrière contre les agresseurs. Implantées en bordure, elles forment un rideau végétal qui empêche les ravageurs d’atteindre la culture. C’est le cas des barrières de Crotalaria juncea qui obstruent le passage des aleurodes, qui volent à hauteur d’homme vers les plants de piment.
D’autres végétaux utilisent également l’espace pour freiner l’avancée de l’ennemi. Associés à une culture sensible, ils vont dissimuler cette dernière aux ravageurs en créant un effet de « dilution » visuelle. Ces associations, en générant une discontinuité spatiale, peuvent aussi ralentir la propagation de proche en proche des maladies fongiques.
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
Elles peuvent par ailleurs réguler les adventices par compétition pour les ressources (lumière, eau, nutriments) ou par barrière physique. En bananeraie, des espèces comme Neonotonia wightii ou Arachis pintoi ont révélé de bonnes aptitudes, avec un impact modéré sur la croissance des bananiers.
Les plantes émettrices d’odeurs peuvent être utilisées seules ou bien combinées pour accroître leur efficacité dans un système « push-pull » :
La plante « push », intégrée au milieu de la culture, diffuse un « parfum répulsif » pour les ravageurs. Les plantes aromatiques, telles que le basilic ou le gros thym antillais Plectranthus amboinicus, constituent un vivier intéressant de plantes « push ».
Parallèlement, une plante « pull » est introduite, soit dans la parcelle pour attirer les auxiliaires, soit en bordure pour attirer vers elle le ravageur, le détournant ainsi de la culture. Ainsi, certaines variétés de maïs doux attirent la femelle de la noctuelle de la tomate qui, au lieu de pondre sur les tomates, va le faire sur les soies des épis de maïs – qui constituent des « voies sans issue » car les larves qui éclosent ne peuvent s’y développer.
Les plantes citées jusqu’ici ne s’attaquaient qu’aux bioagresseurs aériens. Mais d’autres mécanismes existent pour combattre les bioagresseurs telluriques.
La rotation des cultures, notamment, permet d’interrompre la reproduction des bioagresseurs. Lorsqu’une plante non sensible à l’agresseur vient remplacer pendant une période la plante sensible, la population de parasites dans le sol diminue fortement.
Une fois que la culture sensible revient sur la parcelle, elle est en mesure de se développer sans incidence majeure tant que la population pathogène reste faible. Une véritable course de vitesse s’engage alors entre le développement de la culture et la multiplication du pathogène.
C’est par exemple le cas en cultures maraîchères ou dans des bananeraies. Créer des jachères assainissantes à base d’espèces non-hôtes (comme Crotalaria juncea ou Brachiaria spp) réduisent les populations de nématodes phytoparasites.
Autre méthode d’attaque contre les telluriques, l’empoisonnement ou l’inhibition – aussi appelée allélopathie. Ici, différentes stratégies existent et ont été mises en évidence.
Certains végétaux, tels que les crotalaires, libèrent via leurs racines des alcaloïdes pyrrolizidiniques toxiques pour plusieurs espèces de nématodes phytoparasites.
Autre moyen, la biofumigation par certains végétaux au moment de leur décomposition. Par exemple des isothiocyanates, composés soufrés à large spectre d’efficacité (champignons, bactéries, nématodes…), issus de la dégradation des glucosinolates largement présents chez les brassicacées (moutarde par exemple) et les alliacées (ail, oignon…).
D’autres plantes, enfin, provoquent la germination des graines de plantes parasites (comme le Striga) ou attirent les pathogènes (nématodes phytoparasites) vers leurs racines en émettant des signaux semblables à ceux d’une plante sensible. Ainsi, le coton, le lin ou le soja, plantes non hôtes, diminuent le potentiel infectieux du sol en engendrant la germination « suicidaire » du Striga, dont les radicules sont alors incapables de se fixer à leurs racines.
De façon générale, les plantes de service peuvent aussi jouer un rôle bénéfique en stimulant la diversité de la microflore et de la macrofaune du sol, de façon globale ou ciblée.
Parmi les communautés du sol se trouvent des espèces antagonistes ou prédatrices des bioagresseurs. En particulier certains nématodes libres, qui se nourrissent de nématodes phytoparasites. Mais aussi des bactéries et champignons, qui peuvent produire des antibiotiques ou encore parasiter ces bioagresseurs. On parle alors de suppressivité spécifique.
En bananeraie, les jachères de Paspalum notatum augmentent ainsi les populations de nématodes libres omnivores ou prédateurs, qui en retour diminuent les populations de nématodes phytoparasites.
D’autres microorganismes du sol, sans réguler directement les pathogènes, occupent des niches où ils sont en compétition avec eux, notamment en colonisant la rhizosphère des plantes, et en utilisant les mêmes ressources.
Ce faisant, ils réduisent les conditions favorables à la croissance des pathogènes. On parle alors de suppressivité générale.
Outre l’accroissement de populations bénéfiques du sol, les plantes de service contribuent également à l’enrichir. Souvent employées comme engrais verts ou plantes de couverture, elles restituent au sol de la matière organique et des nutriments, accessibles ensuite à la plante cultivée.
Du fait de l’amélioration de sa résistance physiologique, via une nutrition plus équilibrée et la disponibilité de certains oligoéléments, celle-ci est moins vulnérable aux attaques des bioagresseurs, telluriques mais aussi aériens.
L’efficacité des plantes de service dépend donc dans une large mesure du contexte. Pour réussir, l’utilisation de plantes de service pour gérer des bioagresseurs requiert une compréhension claire des principes génériques de l’agroécologie couplée à une connaissance fine des espèces impliquées, afin d’adapter et appliquer ces principes à des situations spécifiques.
L’évolution des interactions entre cultures et bioagresseurs nécessite également d’adapter les pratiques au changement, et, le cas échéant, de mobiliser simultanément divers mesures et mécanismes de régulation.
Le 5 juin 1984 naissait le Cirad fondé par décret. Depuis plus de 40 ans, les scientifiques du Cirad partagent et co-construisent avec les pays du Sud des connaissances et des solutions innovantes pour préserver la biodiversité, la santé végétale et animale, et rendre ainsi les systèmes agricoles et alimentaires plus durables et résilients face aux changements globaux.
Paula Fernandes a reçu des financements de bailleurs publics de la recherche pour le developpement
Alain Ratnadass a reçu des financements de bailleurs de fonds publics français, européens et internationaux pour la recherche pour le développement.
François-Régis Goebel est membre de l'International Society of Sugarcane Technologists (ISSCT). Il a reçu des financements de bailleurs de fonds publics français, européens et internationaux pour la recherche pour le développement.
Gaëlle Damour ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.