LePartisan.info À propos Podcasts Fil web Écologie Blogs REVUES Médias
Souscrire à ce flux
L’expertise universitaire, l’exigence journalistique

ACCÈS LIBRE Une Politique International Environnement Technologies Culture

▸ les 50 dernières parutions

16.11.2025 à 17:20

Pourquoi certains fromages couverts de moisissures peuvent être consommés, mais jamais de la viande avariée : les conseils d’un toxicologue sur les précautions à prendre

Brad Reisfeld, Professor Emeritus of Chemical and Biological Engineering, Biomedical Engineering, and Public Health, Colorado State University

Dans le réfrigérateur, gare aux moisissures sur les fruits, car elles produisent des toxines à risque. Attention surtout à la viande avariée du fait des bactéries nocives qui s’y développent.
Texte intégral (2605 mots)

Dans la cuisine, la prudence est de mise avec les aliments qui se dégradent. Gare aux moisissures sur les céréales, les noix et les fruits, car ces champignons microscopiques libèrent des toxines à risque. Attention surtout aux bactéries très nocives qui se développent en particulier sur la viande avariée. Des pathogènes qui ne sont pas toujours perceptibles à l’odeur ou à l’œil.


Quand vous ouvrez le réfrigérateur et que vous trouvez un morceau de fromage couvert de moisissure verte ou un paquet de poulet qui dégage une légère odeur aigre, vous pouvez être tentés de prendre le risque de vous rendre malades plutôt que de gaspiller de la nourriture.

Mais il faut établir une frontière très nette entre une fermentation inoffensive et une altération dangereuse. La consommation d’aliments avariés expose l’organisme à toute une série de toxines microbiennes et de sous-produits biochimiques, dont beaucoup peuvent perturber des processus biologiques essentiels. Les effets sur la santé peuvent aller de légers troubles gastro-intestinaux à des affections graves telles que le cancer du foie.

Je suis toxicologue et chercheur, spécialisé dans les effets sur l’organisme de substances chimiques étrangères, à l’image de celles libérées lors de la détérioration des aliments. De nombreux aliments avariés contiennent des microorganismes spécifiques qui produisent des toxines. Étant donné que la sensibilité individuelle à ces substances chimiques diffère et que leur quantité dans les aliments avariés peut également varier considérablement, il n’existe pas de recommandations absolues sur ce qu’il est sûr de manger. Cependant, il est toujours bon de connaître ses ennemis afin de pouvoir prendre des mesures pour les éviter.

Céréales et noix

Les champignons sont les principaux responsables de la détérioration des aliments d’origine végétale tels que les céréales, les noix et les arachides. Ils forment des taches de moisissures duveteuses de couleur verte, jaune, noire ou blanche qui dégagent généralement une odeur de moisi. Bien qu’elles soient colorées, bon nombre de ces moisissures produisent des substances chimiques toxiques appelées mycotoxines.

Aspergillus flavus et Aspergillus parasiticus sont deux champignons courants présents sur des céréales comme le maïs, le sorgho, le riz ainsi que sur les arachides. Ils peuvent produire des mycotoxines appelées aflatoxines qui, elles-mêmes forment des molécules appelées époxydes ; ces dernières étant susceptibles de déclencher des mutations lorsqu’elles se lient à l’ADN. Une exposition répétée aux aflatoxines peut endommager le foie et a même été associée au cancer du foie, en particulier chez les personnes qui présentent déjà d’autres facteurs de risque, comme une infection par l’hépatite B.

Le genre Fusarium est un autre groupe de champignons pathogènes qui peuvent se développer sous forme de moisissures sur des céréales comme le blé, l’orge et le maïs, en particulier dans des conditions d’humidité élevée. Les céréales contaminées peuvent présenter une décoloration ou une teinte rosâtre ou rougeâtre, et dégager une odeur de moisi. Les champignons Fusarium produisent des mycotoxines appelées trichothécènes qui peuvent endommager les cellules et irriter le tube digestif. Ils libèrent également une autre toxine, la fumonisine B1 qui perturbe la formation et le maintien des membranes externes des cellules. Au fil du temps, ces effets peuvent endommager le foie et les reins.

Si des céréales, des noix ou des arachides semblent moisies, décolorées ou ratatinées, ou si elles dégagent une odeur inhabituelle, il vaut mieux faire preuve de prudence et les jeter. Les aflatoxines, en particulier, sont connues pour être de puissants agents cancérigènes, il n’existe donc aucun niveau d’exposition sans danger.

Qu’en est-il des fruits ?

Les fruits peuvent également contenir des mycotoxines. Quand ils sont abîmés ou trop mûrs, ou quand ils sont conservés dans des environnements humides, la moisissure peut facilement s’installer et commencer à produire ces substances nocives.

L’une des plus importantes est une moisissure bleue appelée Penicillium expansum. Elle est surtout connue pour infecter les pommes, mais elle s’attaque également aux poires, aux cerises, aux pêches et à d’autres fruits. Ce champignon produit de la patuline, une toxine qui interfère avec des enzymes clés dans les cellules, entrave leur fonctionnement normal et génère des molécules instables appelées espèces réactives de l’oxygène. Ces dernières peuvent endommager l’ADN, les protéines et les graisses. En grande quantité, la patuline peut endommager des organes vitaux comme les reins, le foie, le tube digestif ainsi que le système immunitaire.

Moisissures vertes et blanches sur des oranges
Penicillium digitatum forme une jolie moisissure verte sur les agrumes, mais leur donne un goût horrible. James Scott via Wikimedia, CC BY-SA

Les « cousins » bleus et verts de P. expansum, Penicillium italicum et Penicillium digitatum, se retrouvent fréquemment sur les oranges, les citrons et autres agrumes. On ne sait pas s’ils produisent des toxines dangereuses, mais ils ont un goût horrible.

Il est tentant de simplement couper les parties moisies d’un fruit et de manger le reste. Cependant, les moisissures peuvent émettre des structures microscopiques ressemblant à des racines, appelées hyphes, qui pénètrent profondément dans les aliments et qui peuvent libérer des toxines, même dans les parties qui semblent intactes. Pour les fruits mous en particulier, dans lesquels les hyphes peuvent se développer plus facilement, il est plus sûr de jeter les spécimens moisis. Pour les fruits durs, en revanche, je me contente parfois de couper les parties moisies. Mais si vous le faites, c’est à vos risques et périls.

Le cas du fromage

Le fromage illustre parfaitement les avantages d’une croissance microbienne contrôlée. En effet, la moisissure est un élément essentiel dans la fabrication de nombreux fromages que vous connaissez et appréciez. Les fromages bleus tels que le roquefort et le stilton tirent leur saveur acidulée caractéristique des substances chimiques produites par un champignon appelé Penicillium roqueforti. Quant à la croûte molle et blanche des fromages tels que le brie ou le camembert, elle contribue à leur saveur et à leur texture.

En revanche, les moisissures indésirables ont un aspect duveteux ou poudreux et peuvent prendre des couleurs inhabituelles. Les moisissures vert-noir ou rougeâtre, parfois causées par des espèces d’Aspergillus, peuvent être toxiques et doivent être éliminées. De plus, des espèces telles que Penicillium commune produisent de l’acide cyclopiazonique, une mycotoxine qui perturbe le flux de calcium à travers les membranes cellulaires, ce qui peut altérer les fonctions musculaires et nerveuses. À des niveaux suffisamment élevés, elle peut provoquer des tremblements ou d’autres symptômes nerveux. Heureusement, ces cas sont rares, et les produits laitiers avariés se trahissent généralement par leur odeur âcre, aigre et nauséabonde.

En règle générale, jetez les fromages à pâte fraîche type ricotta, cream cheese et cottage cheese dès les premiers signes de moisissure. Comme ils contiennent plus d’humidité, les filaments de moisissure peuvent se propager facilement dans ces fromages.

Vigilance extrême avec les œufs et la viande avariés

Alors que les moisissures sont la principale cause de détérioration des végétaux et des produits laitiers, les bactéries sont les principaux agents de décomposition de la viande. Les signes révélateurs de la détérioration de la viande comprennent une texture visqueuse, une décoloration souvent verdâtre ou brunâtre et une odeur aigre ou putride.

Certaines bactéries nocives ne produisent pas de changements perceptibles au niveau de l’odeur, de l’apparence ou de la texture, ce qui rend difficile l’évaluation de la salubrité de la viande sur la base des seuls indices sensoriels. Quand elles sont toutefois présentes, l’odeur nauséabonde est causée par des substances chimiques telles que la cadavérine et la putrescine, qui se forment lors de la décomposition de la viande et peuvent provoquer des nausées, des vomissements et des crampes abdominales, ainsi que des maux de tête, des bouffées de chaleur ou une chute de tension artérielle.

Les viandes avariées sont truffées de dangers d’ordre bactérien. Escherichia coli, un contaminant courant du bœuf, produit la toxine Shiga qui bloque la capacité de certaines cellules à fabriquer des protéines et peut provoquer une maladie rénale dangereuse appelée syndrome hémolytique et urémique.

La volaille est souvent porteuse de la bactérie Campylobacter jejuni qui produit une toxine qui envahit les cellules gastro-intestinales, ce qui entraîne souvent des diarrhées, des crampes abdominales et de la fièvre. Cette bactérie peut également provoquer une réaction du système immunitaire qui attaque ses propres nerfs. Cela peut déclencher une maladie rare appelée syndrome de Guillain-Barré qui peut entraîner une paralysie temporaire.

Les salmonelles présentes notamment dans les œufs et le poulet insuffisamment cuits, causent l’un des types d’intoxication alimentaire les plus courants. Elles provoquent des diarrhées, des nausées et des crampes abdominales. Elles libèrent des toxines dans la muqueuse de l’intestin grêle et du gros intestin, qui provoquent une inflammation importante.

(En France, l’Agence nationale de sécurité sanitaire – Anses – rappelle que les aliments crus ou insuffisamment cuits, surtout d’origine animale, sont les plus concernés par les contaminations par les bactéries du genre « Salmonella » : les œufs et les produits à base d’œufs crus, les viandes -bovines, porcines, incluant les produits de charcuterie crue, et de volailles –, les fromages au lait cru. L’Anses insiste aussi sur le fait que les œufs et les aliments à base d’œufs crus – mayonnaise, crèmes, mousse au chocolat, tiramisu, etc.- sont à l’origine de près de la moitié des toxi-infections alimentaires collectives dues à Salmonella, ndlr).

Clostridium perfringens attaque également l’intestin, mais ses toxines agissent en endommageant les membranes cellulaires. Enfin, Clostridium botulinum, qui peut se cacher dans les viandes mal conservées ou vendues en conserves, produit la toxine botulique, l’un des poisons biologiques les plus puissants, qui se révèle mortelle même en très petites quantités.

Il est impossible que la viande soit totalement exempte de bactéries. Mais plus elle reste longtemps au réfrigérateur – ou pire, sur votre comptoir ou dans votre sac de courses – plus ces bactéries se multiplient. Et vous ne pouvez pas les éliminer toutes en les cuisant. La plupart des bactéries meurent à des températures sûres pour la viande – entre 63-74 °C (145 et 165 degrés Fahrenheit) – mais de nombreuses toxines bactériennes sont stables à la chaleur et survivent à la cuisson.

The Conversation

Brad Reisfeld ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

16.11.2025 à 15:39

L’affrontement sur la taxe Zucman : une lutte de classe ?

Gérard Mauger, Sociologue, directeur de recherche émérite au CNRS, chercheur au Centre européen de sociologie et de science politique, Université Paris 1 Panthéon-Sorbonne

Le débat sur la taxe Zucman a révélé un violent clivage de classe entre une infime minorité de patrons et l’immense majorité des Français.
Texte intégral (1324 mots)

Le terme de lutte des classes est peu utilisé depuis l’effondrement du communisme. Pourtant, le débat sur la taxe Zucman révèle un violent clivage de classe entre une infime minorité de très grandes fortunes et l’immense majorité des Français.


Pendant près de six mois, le projet de taxe Zucman a focalisé l’intérêt médiatique et politique. Il a aussi contribué à mettre en évidence un clivage de classes habituellement occulté par une forme « d’embargo théorique » qui pèse depuis le milieu des années 1970 sur le concept de classe sociale, comme sur tous les concepts affiliés (à tort ou à raison) au marxisme.

Retour sur le feuilleton de la taxe Zucman

Le 11 juin dernier, Olivier Blanchard (économiste en chef du Fonds monétaire international entre 2008 et 2015), Jean Pisani-Ferry (professeur d’économie à Sciences Po Paris et directeur du pôle programme et idées d’Emmanuel Macron en 2017) et Gabriel Zucman (professeur à l’École normale supérieure) publiaient une tribune où ils se prononçaient, en dépit de leurs divergences, en faveur d’un impôt plancher de 2 % sur le patrimoine des foyers fiscaux dont la fortune dépasse 100 millions d’euros (environ 1 800 foyers fiscaux), susceptible de rapporter de 15 milliards à 25 milliards d’euros par an au budget de l’État (les exilés fiscaux éventuels restant soumis à l’impôt plancher cinq ans après leur départ).

Dès la rentrée, les médias ouvraient un débat sur fond de déficit public et de « dette de l’État » que relançait chaque apparition de Gabriel Zucman. Sur un sujet économique réputé aride, ils recyclaient la confrontation à la fois inusable et omnibus entre « intellectualisme », « amateurisme » sinon « incompétence », imputés aux universitaires, et « sens pratique » des « hommes de terrain » confrontés aux « réalités » (de la vie économique) et/ou entre « prise de position partisane » et « neutralité », « impartialité », « apolitisme », attribués à la prise de position opposée. Le débat s’étendait rapidement aux réseaux sociaux : il opposait alors les partisans de la taxe qui invoquaient la « justice fiscale et sociale » à des opposants qui dénonçaient « une mesure punitive », « dissuasive pour l’innovation et l’investissement ».

Le 20 septembre, dans une déclaration au Sunday Times, Bernard Arnault, PDG du groupe LVMH et première fortune de France, avait décliné in extenso les deux volets de l’anti-intellectualisme médiatique en mettant en cause la « pseudo-compétence universitaire » de Gabriel Zucman et en dénonçant « un militant d’extrême gauche » dont « l’idéologie » vise « la destruction de l’économie libérale ».

Le Medef lui avait emboîté le pas. En guerre contre la taxe Zucman, Patrick Martin, affirmant que Zucman « serait aussi économiste que [lui] serait danseuse étoile au Bolchoï », annonçait un grand meeting le 13 octobre à Paris. Pourtant, il avait dû y renoncer face à la division créée par cette initiative au sein du camp patronal : l’U2P et la CPME (artisans et petites et moyennes entreprises) avaient décliné l’invitation : « On ne défend pas les mêmes intérêts », disaient-ils.

Mi-septembre, selon un sondage Ifop, 86 % des Français plébiscitaient la taxe Zucman.

Une bataille politique

À ces clivages que traçait le projet de taxe Zucman au sein du champ médiatique (audiovisuel public, d’un côté, et « supports » contrôlés par une dizaine de milliardaires, de l’autre) et de l’espace social (où les milliardaires s’opposaient à tous les autres) correspondaient approximativement ceux du champ politique. Portée initialement par une proposition de loi de Clémentine Autain et Éva Sas (groupe Écologiste et social), la taxe Zucman avait d’abord été adoptée par l’Assemblée nationale, le 20 février, avant d’être rejetée par le Sénat, le 12 juin.

Mais l’opportunité du projet se faisait jour au cours de l’été avec l’exhortation de François Bayrou à « sortir du piège mortel du déficit et de la dette », puis à l’occasion de l’invitation de Sébastien Lecornu à débattre du projet de budget du gouvernement « sans 49.3 ».

Le 31 octobre dernier, non seulement la taxe Zucman était balayée par une majorité de députés, mais également « sa version light » portée par le Parti socialiste (PS). Mesure de « compromis », la taxe « Mercier » (du nom d’Estelle Mercier, députée PS de Meurthe-et-Moselle) pouvait sembler plus ambitieuse, mais, en créant des « niches et des « exceptions », elle comportait, selon Gabriel Zucman, « deux échappatoires majeures » qui amorçaient « la machine à optimisation ».

Refusant de « toucher à l’appareil productif », selon sa porte-parole Maud Bregeon, le gouvernement Lecornu s’y opposait. Les députés d’Ensemble pour la République (députés macronistes) votaient contre (60 votants sur 92 inscrits) comme ceux de la Droite républicaine (28 sur 50). Le Rassemblement national (RN), qui s’était abstenu en février, s’inscrivait désormais résolument contre ce projet de taxe (88 sur 123) que Marine Le Pen décrivait comme « inefficace, injuste et dangereuse puisqu’elle entraverait le développement de nos entreprises ». Soixante-et-un députés socialistes et apparentés sur 69, 60 députés sur 71 de La France insoumise (LFI), 33 députés sur 38 du groupe Écologiste et social ainsi que 12 députés sur 17 du groupe Gauche démocrate et républicaine avaient voté pour le projet. Les députés LFI appelaient alors à la censure du gouvernement.

La lutte des 1 % les plus riches pour leurs privilèges

L’essor du néolibéralisme au cours des cinquante dernières années a certes transformé la morphologie des classes sociales (à commencer par celle de la « classe ouvrière » délocalisée et précarisée), accréditant ainsi l’avènement d’une « société post-industrielle », l’extension indéfinie d’une « classe moyenne » envahissante ou l’émergence d’une « société des individus » ou encore la prééminence des clivages (de sexe, de phénotype, d’âge, etc.) associés au revival des « nouveaux mouvements sociaux ».

Pourtant, le débat sur la taxe Zucman révèle bien un clivage de classe – comment l’appeler autrement ? – entre le 1 % et les 99 %, et l’âpreté de la lutte des 1 % pour la défense de leurs privilèges. Tout se passe comme si, en effet, à l’occasion de ce débat, s’était rejoué en France, sur la scène politico-médiatique, le mouvement Occupy Wall Street de septembre 2011 qui avait pour mot d’ordre :

« Ce que nous avons tous en commun, c’est que nous sommes les 99 % qui ne tolèrent plus l’avidité des 1 % restants. »

The Conversation

Gérard Mauger ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

16.11.2025 à 15:38

Tanzanie : la fermeture de l’espace numérique, élément clé de la répression

Fabrice Lollia, Docteur en sciences de l'information et de la communication, chercheur associé laboratoire DICEN Ile de France, Université Gustave Eiffel

La jeunesse tanzanienne, très connectée, se révolte contre des élections qu’elle juge truquées. Aussitôt, parallèlement à la répression des manifestations, le pouvoir coupe Internet.
Texte intégral (1866 mots)

Face au puissant mouvement de contestation qui s’est emparé de la Tanzanie à la suite des élections générales, l’une des réponses du pouvoir a consisté à couper les réseaux sociaux. Dans ce grand pays d’Afrique de l’Est, comme dans bien d’autres pays aujourd’hui, la maîtrise de l’espace numérique est devenue un aspect central de la répression.


Le 29 octobre 2025, la Tanzanie a tenu des élections générales censées prolonger la trajectoire démocratique d’un pays souvent vu comme un îlot de stabilité politique en Afrique de l’Est.

Mais dans un climat déjà tendu – manifestations sporadiques à Zanzibar et Arusha, arrestations d’opposants, présence accrue de force de sécurité et fermeture partielle des médias critiques –, le scrutin s’est transformé en crise politique majeure. La présidente sortante Samia Suluhu Hassan, devenue présidente de Tanzanie en mars 2021 à la suite du décès du président John Magufuli, dont elle était la vice-présidente, a été élue avec près de 98 % des voix dans un contexte où le principal parti d’opposition, Chadema, avait été marginalisé et plusieurs de ses dirigeants arrêtés.

Dès l’annonce des résultats, des manifestations de protestation ont éclaté à Dar es Salaam (la plus grande ville du pays, où vivent environ 10 % des quelque 70 millions d’habitants du pays), à Mwanza et à Arusha. Les affrontements auraient fait, selon les sources, entre 40 et 700 morts, et plus d’un millier de blessés.

Face à la propagation des manifestations, le pouvoir a réagi par un couvre-feu national, un déploiement militaire dans les grandes villes et une coupure d’accès à Internet pendant environ 5 jours, invoquant la prévention de la désinformation comme mesure de sécurité. L’accès à Internet a été partiellement rétabli, mais les restrictions sur les réseaux sociaux et les plates-formes de messagerie persistent.

Ce triptyque autoritaire – fermeture politique, verrouillage territorial et blackout numérique – a transformé une contestation électorale en véritable crise systémique de confiance entre État et citoyens, entre institutions et information, et entre stabilité et légitimité.

Gouverner par le silence : quand le contrôle de l’information devient une stratégie de stabilité

Le contrôle de l’information comme pratique de gouvernement

Dans la perspective des sciences de l’information et de la communication (SIC), la séquence tanzanienne illustre une tendance plus large qui est celle de la transformation de la gestion de l’information en technologie de pouvoir (voir notamment, Michel Foucault, Surveiller et punir. Naissance de la prison, 1975 ; Gilles Deleuze, Post-scriptum sur les sociétés de contrôle, 1990).

Le blackout numérique ne vise pas seulement à contenir la désinformation ; il reconfigure les conditions mêmes de la visibilité. Comme le souligne Pierre Musso dès 2003 dans Télécommunications et philosophie des réseaux, l’espace numérique n’est plus un simple médium mais un espace politique. En contrôler l’accès, c’est aussi gouverner la perception.

Privés de réseaux sociaux, les citoyens perdent sur-le-champ leurs canaux d’expression. Les médias indépendants se retrouvent aveugles et les ONG ne peuvent plus documenter les violences.

C’est ainsi que l’État redevient le seul producteur de discours légitime : une régie symbolique de l’ordre public, pour reprendre la notion de Patrick Charaudeau (2005) sur la mise en scène du pouvoir.

Cette stratégie s’inscrit dans un continuum déjà observé lors d’autres scrutins africains (Ouganda 2021, Tchad 2021, Sénégal 2024). Elle marque une mutation du contrôle politique où il ne s’agit plus de réprimer la parole mais de désactiver les infrastructures mêmes de la parole.

La fabrique de la stabilité par la censure

Le discours officiel invoque la lutte contre les fausses informations pour justifier les coupures. Mais l’analyse sémiotique révèle un glissement de sens. L’ordre public devient synonyme de silence collectif et la stabilité politique se construit sur la neutralisation des espaces numériques de débat.

Les travaux en communication politique (Dominique Wolton, 1997) montrent que la démocratie suppose du bruit, du conflit, du débat et que le silence n’est pas l’ordre mais plutôt la suspension de la communication sociale.

Cette logique de stabilité performative donne l’illusion qu’il suffit que l’État contrôle la perception du désordre pour produire l’image d’un ordre.

Dans l’analyse du cas tanzanien, cette mise en scène du calme repose sur une invisibilisation dans la mesure où le calme apparent des réseaux remplace la réalité conflictuelle du terrain. Ce phénomène de stabilité performative, c’est-à-dire ici le calme apparent des réseaux traduisant une stabilité imposée, a déjà été observé au Cameroun et en Ouganda. Dans ces cas, la coupure d’Internet fut utilisée pour maintenir une image d’ordre pendant les scrutins contestés.

Or, la Tanzanie est un pays jeune. Près de 65 % de sa population a moins de 30 ans. Cette génération connectée via TikTok, WhatsApp ou X a intégré les réseaux sociaux non seulement comme espace de loisir mais aussi comme lieu d’existence politique. La priver soudainement d’accès dans ce moment précis porte à l’interprétation inévitable d’un effacement d’une part de la citoyenneté numérique.

Cette fracture illustre une asymétrie de compétences médiatiques qui se caractérise par le fait que le pouvoir maîtrise les outils pour surveiller tandis que les citoyens les mobilisent pour exister. Le conflit devient ainsi info-communicationnel dans la mesure où il se joue sur les dispositifs de médiation plutôt que dans la confrontation physique.

Aussi les répercussions sont-elles économiquement et symboliquement élevées.

Les interdictions de déplacement paralysent le commerce intérieur et les ports, les coupures d’Internet entraînent une perte économique estimée à 238 millions de dollars (un peu plus de 204 millions d’euros) et les ONG et entreprises internationales suspendent leurs activités face au manque de visibilité opérationnelle.

Mais au-delà du coût économique, la coupure d’Internet produit un effet délétère où la relation de confiance entre État et citoyens est rompue. L’information, en tant que bien commun, devient ici un instrument de domination.

Crise de la médiation et dérive sécuritaire en Afrique numérique

En Tanzanie, la circulation de l’information repose désormais sur des dispositifs de contrôle, non de transparence. L’État agit comme gatekeeper unique en filtrant les récits selon une logique de sécurité nationale. On assiste ainsi à une crise de la médiation où le lien symbolique entre institutions, médias et citoyens se défait.

Cette rupture crée une désintermédiation forcée où des circuits parallèles (VPN, radios communautaires, messageries clandestines) émergent, mais au prix d’une fragmentation du débat public. La sphère publique devient une mosaïque de micro-espaces informels, sans régulation et favorisant l’amplification des rumeurs et de discours extrêmes.

La situation tanzanienne dépasse le cadre du pays, en mettant en évidence les tensions d’un continent engagé dans une modernisation technologique sans démocratisation parallèle. L’Afrique de l’Est, longtemps vitrine du développement numérique avec le Kenya et le Rwanda, découvre que l’économie digitale ne garantit pas la liberté numérique.


À lire aussi : Rwanda, Maroc, Nigeria, Afrique du Sud : les quatre pionniers des nouvelles technologies en Afrique


Là où les infrastructures se développent plus vite que les institutions, les réseaux deviennent des zones grises de gouvernance. Ni pleinement ouverts ni totalement fermés, ils sont constamment surveillés. Le cas tanzanien incarne ainsi un moment charnière où la technologie cesse d’être vecteur de progrès pour devenir vecteur de pouvoir.

Dans une approche SIC, la question centrale reste celle de la sécurité communicationnelle.

Peut-on parler de sécurité nationale lorsque la sécurité informationnelle des citoyens est compromise ? La coupure d’Internet ne prévient pas la crise mais la diffère, la rendant plus imprévisible et violente. Cette distinction entre sécurité perçue et sécurité vécue est la preuve que la stabilité ne se mesure pas à l’absence de bruit mais à la qualité du lien informationnel entre les acteurs.

Une démocratie sous silence

La Tanzanie illustre une mutation du pouvoir à l’ère numérique : gouverner, c’est aussi, désormais, gérer la visibilité. Mais la maîtrise de cette visibilité ne suffit pas à produire la légitimité. En restreignant l’accès à l’information, le régime tanzanien a peut-être gagné du temps mais il a sûrement perdu de la confiance. Pour les observateurs africains et internationaux, cette crise n’est pas un accident mais le symptôme d’une Afrique connectée, mais débranchée de sa propre parole.

The Conversation

Fabrice Lollia ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

16.11.2025 à 15:38

Pourquoi le XXIe siècle sera « le siècle des animaux »

Réjane Sénac, Directrice de recherches, CNRS, politiste, Sciences Po

Comment intégrer les animaux dans nos textes de lois ? S’ils ont des droits, ont-ils aussi des devoirs ?
Texte intégral (1790 mots)

Au XXe siècle, les combats pour plus d’égalité ont permis à de nombreux groupes sociaux de devenir des sujets de droit. Cette progression vers davantage d’inclusivité pourrait faire du XXIe siècle le siècle des animaux. Mais comment les intégrer dans nos textes de loi ? Si les animaux ont des droits, ont-ils aussi des devoirs ?

Dans cet extrait de son essai « Par effraction. Rendre visible la question animale », aux éditions Stock/Philosophie magazine (2025), la politiste Réjane Sénac sonde ces questions.


Au XXe siècle, les mobilisations contre les inégalités ont eu pour point commun de revendiquer que chaque humain soit reconnu et traité comme un égal, dans la dénonciation des effets imbriqués du sexisme, du racisme et des injustices économiques et sociales. Pour cela, elles ont remis en cause l’animalisation de certains groupes humains, qu’il s’agisse des femmes, des personnes racisées, des personnes en situation de handicap et/ou des « pauvres ». L’animalisation a en effet été une des justifications centrales de l’exclusion hors de la citoyenneté active de ces groupes d’individus renvoyés à leur prétendue incapacité à être du côté de la raison du fait de leurs « qualités » et missions dites naturelles. L’objectif a été d’intégrer ces groupes dans la communauté des égaux en les faisant passer de l’autre côté de la barrière instaurée entre l’animalité et l’humanité. La légitimité et les conséquences de cette barrière ont ainsi été abordées à travers le prisme de l’émancipation humaine, et non celui de la domination des animaux non humains.

Dans l’approche antispéciste, le statut moral accordé aux animaux leur confère une reconnaissance comme sujets de droit, non pas pour accéder à des droits équivalents à ceux des humains (par exemple le droit de vote ou de mariage), mais à des droits adaptés à leurs besoins. L’enjeu est alors de penser la cohabitation la plus juste possible des intérêts, potentiellement divergents, des différentes espèces, humaines et non humaines. Dans Considérer les animaux. Une approche zooinclusive, Émilie Dardenne propose une démarche progressive dans la prise en compte des intérêts des animaux, au-delà de l’espèce humaine.

Elle présente des pistes concrètes de transition aux niveaux individuel et collectif, qui vont de la consommation aux choix de politique publique en passant par l’éducation et la formation. Elle propose des outils pratiques pour aider à porter des changements durables. Au niveau individuel, la zooinclusivité consiste par exemple à prendre en compte les besoins de l’animal que l’on souhaite adopter et l’engagement – financier, temporel… – qu’une telle démarche engendrerait avant de prendre la décision d’avoir un animal dit de compagnie. Au niveau des politiques publiques, la zooinclusivité prendrait par exemple la forme de l’inscription des droits des animaux dans la Constitution afin de ne pas en rester à une proclamation de leur reconnaissance comme « des êtres vivants doués de sensibilité » (article 515 du Code civil depuis 2015) ou des « êtres sensibles » (article L214 1 du Code rural depuis 1976), mais de permettre qu’ils acquièrent une personnalité juridique portant des droits spécifiques et adaptés. Le rôle fondamental de la Constitution est à ce titre soulevé par Charlotte Arnal, animaliste, pour qui « un projet de société commence par une Constitution, les animaux faisant partie de la société, elle doit les y intégrer ». Cette mesure, qu’elle qualifie de symbolique, « se dépliera aussi concrètement dans le temps, dans les tribunaux ». C’est dans cette perspective que Louis Schweitzer, président de la Fondation Droit Animal, Éthique et Sciences (LFDA), a pour ambition de faire de la Déclaration des droits de l’animal proclamée à l’Unesco en 1978, et actualisée en 2018 par la LFDA, un outil pédagogique diffusé dans les lieux publics et les écoles, puis qu’elle soit transposée dans la loi.

À travers Animal Cross, une association généraliste de protection animale, qu’il a cofondée en 2009 et qu’il préside, Benoît Thomé porte aussi cet horizon. Il défend l’intégration d’un article 0 comme base à notre système juridique, qui serait formulé en ces termes : « Tous les êtres vivants, domaines de la nature, minéral, humain, végétal, animal, naissent et demeurent libres et égaux en devoirs et en droits. » À l’argument selon lequel on ne peut pas accorder de droits aux animaux car ils ne peuvent pas assumer de devoirs, il répond que « les animaux font plus que leurs devoirs avec tout ce qu’ils font pour nous et les autres êtres vivants. Les êtres humains se privent d’une belle vie en ne voyant pas la beauté des relations avec les animaux ». Il cite le philosophe Tom Regan, auteur entre autres du célèbre article « The Rights of Humans And Other Animals » en 1986, pour préciser que, si l’on pose le critère de l’autonomie rationnelle comme une condition de l’accès aux droits moraux, il faut le refuser à tous les humains dépourvus de cette caractéristique, comme les bébés et les déficients intellectuels graves. Le critère plus inclusif de la capacité à ressentir des émotions étant celui qui est retenu pour les humains, en vertu de l’exigence de cohérence, il est alors logique, selon lui, d’attribuer des droits à tous les êtres sentients, qu’ils soient humains ou non.

Benoît Thomé souligne son désaccord avec Tom Regan sur le fait de considérer les animaux comme des patients moraux et non des agents moraux au sens où, comme les personnes vulnérables, les enfants ou les personnes en situation de handicap, ils auraient des droits mais ne pourraient pas accomplir leurs devoirs. Il souligne que les animaux accomplissent « leurs devoirs envers nous, êtres humains, et envers la nature et les écosystèmes pour les animaux sauvages, naturellement et librement, et non comme un devoir. Il faut donc “désanthropiser” ce concept pour le comprendre au sens de don, service rendu aux autres êtres vivants, participation aux écosystèmes ». Il précise que c’est « le sens de l’histoire » d’étendre les droits « de la majorité aux plus vulnérables », cela a été le cas pour les humains, c’est maintenant l’heure des animaux non humains.

Sans nier la réalité historique de l’animalisation des personnes ayant une déficience intellectuelle, des voix telles que celles des philosophes Licia Carlson et Alice Crary invitent le mouvement antispéciste à être vigilant vis-à-vis de « l’argument des cas marginaux » pour justifier l’extension de la considération morale aux animaux non humains. En écho aux critiques de la philosophe et militante écoféministe Myriam Bahaffou sur l’usage de l’analogie avec le sexisme et le racisme dans le discours antispéciste, elles pointent une instrumentalisation de la figure du handicap mental pouvant paradoxalement renforcer les processus de déshumanisation qu’il prétend combattre.

Le lien entre l’agrandissement de la communauté politique et juridique au XXe siècle et les questions posées au XXIe siècle par la question animale est également abordé par Amadeus VG Humanimal, fondateur et président de l’association FUTUR. Il inscrit les revendications antispécistes dans une continuité historique en précisant que « le cercle de compassion ne fait que s’agrandir, à travers les droits civiques au XIXe siècle puis les droits des femmes au XXe et ceux des animaux au XXIe siècle ». Le XXIe siècle sera donc « le siècle des animaux », l’enjeu est de « repousser le nuage du spécisme en proposant une nouvelle vision du monde ». Sans minorer le poids actuel, notamment électoral, de l’extrême droite et du populisme, il considère que c’est « un backlash temporaire », comme cela a été le cas pour les groupes humains exclus des droits de l’homme. Selon lui, l’ombre qui a longtemps occulté les droits des animaux se dissipera progressivement. De la même manière que la décision du 21 février 2021 du tribunal administratif de reconnaître l’État responsable d’inaction face à la lutte contre le réchauffement climatique est considérée comme une victoire écologique historique, qualifiée d’Affaire du siècle, il ne doute pas que, concernant la question animale, l’« Affaire du steak » viendra.

The Conversation

Réjane Sénac ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

16.11.2025 à 10:15

Pourquoi davantage de dette européenne favorisera la croissance et la consolidation des finances publiques des pays de l’UE

Christakis Georgiou, Spécialiste de l'économie politique de la construction européenne, Université Sorbonne Nouvelle, Paris 3

Quatre mécanismes par lesquels l’émission de dette par l’UE pourrait profiter à ses États membres et soutenir une croissance durable, tout en offrant une alternative aux bons du Trésor états-unien.
Texte intégral (2463 mots)
L’instabilité politique aux États-Unis accroît la demande d’une alternative aux actifs libellés en dollar. L’euro en tête ? CarlosAmarillo/Shutterstock

L’émission de dette par l’Union européenne, lancée par le plan de relance européen du 27 mai 2020 (Next Generation EU), peut profiter à ses États membres. Car qui dit dette, dit obligation, mais aussi actif financier. Un actif sûr européen demandé par les investisseurs du monde entier, comme alternative aux bons du Trésor fédéral états-unien.


Alors que l’impératif de réduction du déficit budgétaire continue d’alimenter la crise politique en France et que les négociations s’engagent sur le prochain cadre financier pluriannuel (CFP) de l’Union européenne (UE), cette dernière continue de monter en puissance en tant qu’émetteur de dette obligataire.

Cet essor est du au plan de relance européen proposé par la Commission européenne le 27 mai 2020, à savoir Next Generation EU (NGEU). Celui-ci semble avoir ouvert la voie vers une capacité d’emprunt européenne permanente. Durant l’été 2025, l’UE met au point le programme SAFE (Security Action for Europe) qui prévoit 150 milliards d’euros de dette, tandis que la Commission européenne propose la création d’un instrument de gestion de crise. Celui-ci autoriserait l’exécutif européen à lever jusqu’à 400 milliards d’euros le cas échéant.

Dans cet article, j’explique pourquoi l’émission pérenne et accrue de dette européenne contribuera à la consolidation des finances publiques des États membres. Raison de plus pour l’UE d’accélérer dans cette direction.

Ce que veulent les investisseurs

Le point de départ de ce raisonnement est simple : que demandent les investisseurs en la matière ?

En 1999, la création de l’Union économique et monétaire (UEM) crée le potentiel de défauts souverains en Europe, c’est-à-dire le risque financier qu’un État membre ne rembourse pas ses dettes. L’UEM a soustrait la création monétaire au contrôle des États membres pour la confier à la Banque centrale européenne. Sans ce contrôle, les États de l’Union européenne perdent la certitude de pouvoir honorer leurs obligations souveraines car ils renoncent à la possibilité d’avoir recours à la création monétaire pour se financer.

Pour un ensemble de raisons, ce risque financier potentiel déstabilise le fonctionnement des marchés des capitaux, car il élimine le statut d’actif sûr dont jouissaient les titres de dette publique jusque-là.

C’est la raison pour laquelle les investisseurs financiers ont très tôt compris que l’Union économique et monétaire devrait être complétée par la création d’un actif sûr européen, soit d’une part en recourant à l’émission et la responsabilité conjointes des États de l’UE, soit d’autre part à l’émission de titres de dette par la Commission européenne.

Une alternative aux actifs libellés en dollar

L’offre de ce nouvel actif financier européen devrait être volumineuse, fréquente et pérenne de manière à s’ériger en actif financier de référence et valeur refuge dans le marché financier européen. Pour la quasi-totalité des investisseurs, le modèle à reproduire est celui du marché états-unien de la dette publique, dont le pivot est le bon du Trésor fédéral.


À lire aussi : Face à la dette publique, « trois » Europe et une seule monnaie


À cela s’ajoute une demande croissante de la part des investisseurs extraeuropéens pour une alternative aux actifs libellés en dollar. Cette tendance est apparue depuis une dizaine d’années avec l’arsenalisation croissante du dollar par l’administration fédérale états-unienne. Le terme « arsenalisation du dollar » renvoie à un ensemble de pratiques à visée géopolitique, comme la menace d’interdire l’accès aux marchés financiers américains ou des poursuites judiciaires pour non-respect de sanctions (contre l’Iran, par exemple) prononcées par l’administration. Depuis un an, l’instabilité politique aux États-Unis, notamment la menace de réduire l’indépendance de la Réserve fédérale, a accru cette demande de diversification. L’euro est bien placé pour offrir une alternative, mais à condition de pouvoir offrir un actif aussi sûr et liquide que le bon du Trésor fédéral.

Étant donné que l’évolution de l’UE en émetteur souverain est une demande forte des investisseurs, par quels mécanismes cela pourrait-il contribuer à la consolidation des finances publiques des États membres ?

Premier canal : l’offre accrue d’actifs sûrs rassurera les investisseurs

Le premier mécanisme concerne l’effet général sur l’évaluation des risques de crédit par les investisseurs. L’augmentation nette de l’offre d’actifs sûrs aura un effet général rassurant et par conséquent réduira les primes de risque, mais aussi les spreads (différence de taux d’intérêt d’une obligation avec celui d’une obligation de référence de même durée) entre États de l’UE.

Un exemple de cette dynamique est l’expérience de l’automne 2020, avant et après l’annonce de l’accord sur le plan de relance européen. Tant que cet accord éludait les dirigeants européens, la fébrilité était palpable sur les marchés et les spreads. Celui de l’Italie en particulier avait tendance à s’écarter. L’annonce de l’accord a immédiatement inversé la dynamique. La mise en œuvre du programme fait qu’aujourd’hui les États membres du sud de l’UE – Italie, Espagne, Portugal – empruntent à des conditions similaires à celles de la France.

Le plan de relance européen de 2020 (baptisé « Next Generation EU »), proposé par la Commission européenne le 27 mai 2020, vise à pallier les conséquences économiques et sociales de la pandémie de Covid-19. Son montant est fixé à 750 milliards d’euros. PPPhotos/Shutterstock

Deuxième canal : attraction accrue de capitaux extraeuropéens

Le deuxième mécanisme répond à la demande de diversification des investisseurs extraeuropéens. En leur proposant une alternative crédible aux actifs en dollar, l’émission accrue de dette européenne attirera un surcroît de flux extraeuropéens vers l’Europe. Cela augmentera l’offre de crédit en Europe, ce qui diminuera les taux d’intérêt de façon générale et facilitera le financement de l’économie européenne.

Troisième canal : emprunter pour investir agira sur le dénominateur

Le troisième mécanisme dépend de l’utilisation des ressources collectées par l’émission de dette. Si, comme avec le plan de relance européen Next Generation EU, ces ressources sont affectées à l’investissement public, notamment en infrastructures, cela améliorera la croissance potentielle.

L’accélération de la croissance générera un surplus de recettes fiscales, tout en agissant sur le dénominateur (à savoir le PIB, auquel on rapporte le stock de dette publique pour obtenir le ratio qui sert le plus souvent de référence dans les débats sur la soutenabilité des dettes). Les effets bénéfiques attendus sont aujourd’hui visibles dans les principaux États membres bénéficiaires de ce plan de relance, à savoir l’Italie et l’Espagne.

L’amélioration des perspectives de croissance aura aussi un effet spécifiquement financier. Pourquoi ? Car elle contribuera à retenir davantage de capitaux européens qui aujourd’hui s’exportent aux États-Unis pour chercher des rendements plus élevés dans les start-ups du pays de l’Oncle Sam. En d’autres termes, la résorption de l’écart de croissance entre États-Unis et Europe offrira relativement plus d’opportunités de placement en Europe même à l’épargne européenne.

Quatrième canal : favoriser la constitution de l’union du marché des capitaux

Un actif sûr européen est la pièce maîtresse pour enfin aboutir à l’union des marchés des capitaux. L’offre d’un actif financier de référence, ou benchmark asset, contribuera à uniformiser les conditions financières dans les États de l’UE, favorisera la diversification et la dénationalisation des expositions au risque et fournira du collatéral en grande quantité pouvant servir à garantir les transactions transfrontières au sein de l’UE.

Cette dernière fonction des titres de dette publique (servir de collatéral dans les transactions financières) est capitale pour le fonctionnement du système financier contemporain. Lorsque les banques et autres firmes financières ont besoin de liquidités, elles se tournent vers d’autres firmes financières et leur en empruntent en garantissant la transaction par des titres de dette publique.

L’utilisation de ces titres à cette fin découle de leur statut d’actif sûr. C’est la raison pour laquelle un actif sûr européen sous forme de titres émis par la Commission européenne favorisera les transactions transfrontières : une banque portugaise pourra beaucoup plus facilement emprunter des liquidités à un assureur allemand si la transaction est garantie par des titres européens plutôt que par des titres portugais par exemple.

L’union des marchés des capitaux, c’est-à-dire l’élimination du biais national dans la composition des portefeuilles d’actifs, améliorera l’allocation globale du capital en permettant de mieux aligner épargne et investissements à travers le marché européen. Cela était précisément l’un des effets principaux escomptés lors de la création de l’Union économique et monétaire (UEM).

Durant la première décennie de son existence, cette intégration financière a eu lieu, bien que cela servît à financer des bulles de crédit dans la périphérie qui alimentèrent la crise de l’Union économique et monétaire en 2009-2012. Les flux accrus de capitaux vers les États membres du sud de l’Europe ont diminué drastiquement le coût de financement des entreprises et des autorités publiques mais ont principalement été canalisés vers des investissements improductifs et spéculatifs comme la bulle immobilière en Espagne. Or, intégration financière et bulles de crédit ne sont pas synonymes : si les conditions sont mises en place pour canaliser le surcroît de flux de capitaux transfrontières vers les investissements productifs, la hausse de la croissance sera durable.

The Conversation

Christakis Georgiou ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

16.11.2025 à 10:14

Comment prévenir et répondre au racisme en milieu scolaire

Isabelle Hidair-Krivsky, Anthropologue, maître de conférences habilitée à diriger des recherches, Université de Guyane

Pour lutter contre le racisme, l’école française s’appuie principalement sur l’éducation civique et la prévention. Qu’en dit la recherche ?
Texte intégral (1933 mots)

Pour lutter contre le racisme, l’école française s’appuie principalement sur l’éducation civique et la prévention. Que nous dit la recherche de cette approche ? Sur le terrain, quels sont les moyens les plus efficaces pour endiguer la violence et les discriminations ?


En octobre 2025, un collège de Guyane s’est retrouvé au cœur d’une polémique à la suite de propos racistes entre élèves survenus au mois de juin précédent. L’incident a débuté lorsqu’un élève traité de « sale Blanc » a répliqué : « Les Noirs devraient retourner dans les champs de coton. » Tous les élèves impliqués ont été sanctionnés par une lettre de réflexion.

L’affaire a pris une tout autre ampleur lorsque les parents du garçon blanc, policiers, ont contesté la punition, estimant que leur fils était victime. Ils ont déposé plainte contre la principale du collège, qui a été entendue par la gendarmerie. Cette attitude des parents a mis sous les feux de l’actualité les propos racistes tenus quatre mois auparavant et dont le grand public n’avait jusqu’alors pas eu connaissance, ce qui a déclenché une vague de protestations. La médiatisation a mobilisé des syndicats, des élus et des associations, qui ont dénoncé un abus de pouvoir des forces de l’ordre.

Cet incident nous invite à interroger les moyens à disposition des enseignants pour réagir dans ce type de situation. Comment prévenir et répondre au racisme en milieu scolaire ? Que nous dit la recherche de l’efficacité des mesures en place ?

L’héritage historique et la faillite pédagogique

La Guyane a été une colonie esclavagiste jusqu’en 1848. L’esclavage y a laissé des séquelles profondes dans la structuration de la société. Les autochtones colonisés et les descendants d’esclaves (affranchis ou marrons) y subissent encore les stigmates de cette histoire.

Notre recherche menée en 2010 en Guyane a déjà souligné les difficultés à lutter contre le racisme en milieu scolaire. En effet, historiquement, les institutions scolaires, et une partie des sciences sociales, ont longtemps promu l’idée que l’école, en tant qu’espace fondé sur les principes universalistes et égalitaires, était naturellement « préservée du racisme et de la discrimination ». Cette représentation du mythe républicain a conduit à un domaine longtemps sous-examiné par la recherche.

Aujourd’hui, la réponse institutionnelle française s’articule autour de l’éducation civique et de la prévention. L’article L311-4 du Code de l’éducation insiste sur l’acquisition du « respect de la personne, de ses origines et de ses différences » au travers de l’enseignement moral et civique (EMC). Les dispositifs, souvent ponctuels et facultatifs, reposent sur des événements comme la « semaine d’éducation et d’actions contre le racisme et l’antisémitisme » ou des partenariats portés par des enseignants volontaires, avec le défenseur des droits et le plan national de lutte de la Délégation interministérielle à la lutte contre le racisme, l’antisémitisme et la haine anti-LGBT (Dilcrah) qui vise à « quantifier, prévenir, former, mais aussi [à] sanctionner » les actes de haine et leurs auteurs.

Pour certains chercheurs, cet antiracisme institutionnel vise surtout à produire l’adhésion aux « valeurs de la République » plutôt qu’à fournir aux personnes subissant le racisme les outils pour se défendre et déconstruire les systèmes d’oppression. On préfère parler des valeurs plutôt que de nommer la race et les systèmes.

Pourtant, la « charge raciale » est aussi lourde dans les Outre-mer que dans l’Hexagone.

« Que ce soit au travail, dans les relations intimes ou dans le débat public, les personnes non blanches doivent trouver des issues pour désamorcer certaines situations tout en endurant des assignations raciales et des clichés. »

Des discours qui masquent la reproduction des inégalités

L’institution doit traiter les propos racistes non comme des épiphénomènes, mais comme des atteintes au cadre de vie. L’idée que la place des Noirs est « dans des champs de coton » relève de la hiérarchisation raciale. Des parents blancs se sentent autorisés à abuser de leur pouvoir. C’est ce white privilege qui concentre des avantages sociaux, institutionnels et symboliques – dont les personnes racisées « blanches » bénéficient dans des sociétés où la blanchité est normée – souvent invisibles pour celles qui en bénéficient.

La blanchité est analysée comme forme de norme et de pouvoir. Ainsi, les discours de « méconnaissance » ou de « color-blindness » masquent la reproduction des inégalités, ce qui maintient le privilège blanc sans recours à un racisme explicitement hostile.

L’attention portée aux agressions spectaculaires occulte les micro-agressions quotidiennes subies par les personnes racisées. Celles-ci se manifestent à travers des remarques sur l’intelligence, l’ardeur au travail, la texture de la chevelure des personnes racisées, ou lorsque des Blancs affirment « ne pas être racistes parce qu’ils ont vécu en Outre-mer ou en Afrique » (l’amalgame est fréquent), ou bien qu’ils ont un conjoint non blanc ou un enfant métis, ou encore lorsqu’ils minimisent le racisme, réduit à un « défaut humain » ou à l’attitude d’une minorité « mal éduquée ».

S’arroger la voix des personnes racisées en parlant à leur place est un privilège. Cela contribue à leur oppression, notamment lorsque ceux qui jouissent de cette faveur refusent de remettre en question leurs propres avantages.

Les travaux récents en sociologie démontrent que le racisme scolaire est profondément ancré et souvent lié à des facteurs systémiques. Les enquêtes mettent en évidence que l’expérience du racisme est souvent renforcée par le milieu social. Ces discriminations, fondées sur les préjugés et les stéréotypes, se traduisent par des « coûts de la racisation » pour les élèves concernés, qui développent des stratégies de résistance ou d’adaptation.

L’apport de la recherche

Un enjeu majeur des recherches actuelles concerne l’efficacité des méthodes pédagogiques.

Les formations à la lutte contre les préjugés et la promotion du « vivre-ensemble » sont largement diffusées via les rectorats, mais leur efficacité mesurée reste limitée si elles ne s’inscrivent pas dans la durée. De plus, le rapport de la commission nationale consultative des droits de l’homme CNCDH souligne un manque de pilotage local, une hétérogénéité de la mise en œuvre, une insuffisance de suivi statistique des incidents à caractère raciste dans les établissements, peu d’évaluations quantitatives des programmes existants et un manque de coordination entre chercheurs, institutions et terrain scolaire.

De même, des études récentes montrent des risques de reproduction des biais raciaux si les dispositifs ne sont pas équitablement appliqués.

Les chercheurs analysent que l’approche dominante – qui tend à éviter de nommer la « race » et la « racialisation » par attachement à l’idéal universaliste – conduit à traiter le racisme comme un simple manquement moral, masquant ses dimensions systémiques.


À lire aussi : Étudier les discriminations dans l’enseignement supérieur en France : quels enjeux ?


Le défi actuel est de passer d’un antiracisme moralisateur (une lettre de réflexion) à une pédagogie antiraciste critique.

Inspirée de travaux étrangers, cette pédagogie propose de nommer la race et la racisation comme concepts sociaux (et non biologiques) pour analyser les systèmes de domination. D’intégrer l’antiracisme au curriculum entier, et pas juste à l’enseignement moral et civique. De développer l’« empowerment » des élèves et des parents des groupes minorisés, en leur donnant une voix et une capacité d’agir et d’associer l’histoire (comme l’esclavage) à une approche systémique pour déconstruire les a priori racistes.

Ces travaux témoignent d’une évolution de la recherche, qui passe de la reconnaissance du problème à la discussion des outils et des cadres théoriques les plus efficaces pour une lutte antiraciste en profondeur. Les études internationales montrent des résultats prometteurs. Elles visent la réparation plutôt que la punition, par l’organisation de conversations et de conférences restauratives, par la diminution des sanctions disciplinaires en vue d’augmenter la performance académique et de réduire les inégalités raciales, culturelles et économiques.

Ainsi, la lutte contre le racisme en milieu scolaire ne peut se limiter à des interventions ponctuelles ou moralisatrices. Elle requiert une approche systémique articulant justice, éducation, accompagnement psychologique et gouvernance institutionnelle, qui peut réduire durablement les discriminations.

The Conversation

Isabelle Hidair-Krivsky ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

15.11.2025 à 17:54

Détox digitale : se déconnecter, entre le luxe et le droit fondamental

Chloe Preece, Associate Professor in Marketing, ESCP Business School

En quelques années, nous sommes devenus complètement « accros » à nos outils numériques. La déconnexion va-t-elle devenir un produit de luxe ?
Texte intégral (1402 mots)

Alors que les dangers d’une consommation excessive des outils numériques apparaissent de plus en plus, la possibilité de se déconnecter est en train de devenir un produit de luxe. Se couper des réseaux sera-t-il bientôt réservé aux very happy few ?


Selon Ouest France, près d’un Français sur cinq déclarait en 2025 vouloir réduire son usage numérique, tandis que Statista notait que 9 % des Français souhaitaient diminuer leur temps passé sur les réseaux sociaux.

Ce souhait reflète une tendance lourde : le temps d’écran moyen ne cesse d’augmenter – plus de cinq heures par jour en moyenne – suscitant des inquiétudes dans la société civile, chez les chercheurs et, plus récemment, chez les responsables politiques. En avril dernier, l’ancien premier ministre Gabriel Attal appelait même à un « état d’urgence contre les écrans ».

Une prise de conscience collective

Au-delà du malaise diffus lié à l’impression de vivre à travers un écran, une véritable prise de conscience s’est installée. Depuis la fin des années 2010, de nombreux travaux dénoncent la « captologie » – la manière dont les grandes plates-formes utilisent les sciences comportementales pour capter notre attention en optimisant leurs interfaces et en affinant leurs algorithmes. Leur objectif est de retenir les utilisateurs le plus longtemps possible, parfois au détriment de leur santé. « Netflix est en concurrence avec le sommeil », déclarait ainsi Reed Hastings, son PDG, en 2017.


À lire aussi : Réseaux sociaux : quels usages favorisent le bien-être ?


Les effets néfastes de la surexposition aux écrans sont aujourd’hui bien connus et prouvés : anxiété accrue, troubles du sommeil aggravés, perte de concentration. Le psychologue américain Jonathan Haidt a notamment mis en évidence le lien entre la surconsommation d’écrans et la hausse des suicides chez les plus jeunes, en particulier les jeunes filles, dont le taux a augmenté de 168 % aux États-Unis dans les années 2010. En France, la tendance est similaire. Cette accumulation de données scientifiques et de témoignages a ouvert un débat public : comment reprendre le contrôle, sans pour autant se couper du monde numérique ?


À lire aussi : Vivre sans : pourquoi le manque (existentiel) nous est indispensable


Le marché du minimalisme digital

Face à ces inquiétudes, une nouvelle économie de la déconnexion s’est développée. Sur YouTube, les vidéos d’influenceurs présentant leur « détox digitale » dépassent souvent le million de vues. D’autres, à l’image de José Briones, se sont spécialisés dans le minimalisme digital proposant des formations et même des newsletters payantes pour aider à « rompre avec les écrans ». Une démarche paradoxale, puisque ces conseils circulent essentiellement sur les plates-formes qu’ils critiquent.

Le phénomène dépasse le simple développement personnel. Dans le tourisme, des séjours « déconnexion » – sans téléphone, centrés sur le bien-être – se multiplient, parfois à des tarifs élevés. À Paris, le concept néerlandais, The Offline Club, organise des évènements sans écrans : lectures, balades, rencontres entre membres, chaque évènement étant tarifé entre 8 et 15 euros. Ainsi se structure un véritable marché du minimalisme digital. Désormais, pour s’éloigner du numérique, certaines personnes sont prêtes à payer.

L’essor des « appareils idiots »

Autre réponse à cette quête de sobriété numérique : les appareils idiots. Il ne s’agit pas de ressusciter les Nokia 3310, mais de proposer des téléphones ou tablettes épurés (en anglais : dumb down), limités volontairement à leurs fonctions essentielles, préservant leurs utilisateurs des effets addictifs ou intrusifs des écrans.

Le Light Phone, version minimaliste du smartphone, et la ReMarkable, alternative simplifiée à la tablette, incarnent cette tendance. Leur promesse est de préserver les avantages technologiques tout en réduisant la distraction. Leurs prix, en revanche, restent comparables à ceux des modèles haut de gamme, 699 € et 599 € respectivement, ce qui en fait des objets de niche !

Un luxe réservé à un public privilégié

Le discours marketing de ces produits cible un public précis constitué de cadres, de créatifs, d’indépendants – ceux qui disposent du temps, de la culture et des moyens nécessaires pour « se déconnecter ». L’imaginaire mobilisé valorise la concentration, la productivité et une forme d’épanouissement intellectuel ou spirituel.

Mais cette approche reste individuelle : se protéger soi-même, sans interroger collectivement la place du numérique dans la société. Ainsi, le « droit à la déconnexion » tend à devenir un produit de consommation, un luxe réservé à ceux qui peuvent se l’offrir.

Pour la majorité, il est aujourd’hui presque impossible d’éviter les écrans. La double authentification bancaire, les démarches administratives ou les plates-formes scolaires rendent le smartphone indispensable. Les solutions existantes reposent donc sur la responsabilité individuelle et, donc sur les ressources économiques et culturelles de chacun.

Vers une réponse collective et politique

Face à cette dépendance structurelle, quelques initiatives citoyennes et politiques émergent. En 2024, la commission sur l’impact de l’exposition des jeunes aux écrans, présidée par la neurologue Servane Mouton, a remis au gouvernement un rapport proposant des mesures concrètes pour limiter l’exposition précoce. Les assises de l’attention, organisées à Paris tous les deux ans, rassemblent élus, chercheurs et associations comme Lève les Yeux, qui militent pour un usage plus raisonné du numérique.

Ces initiatives restent modestes, mais elles ouvrent une perspective essentielle : faire de la déconnexion non pas un luxe, mais un droit collectif – au croisement de la santé publique, de l’éducation et de la démocratie. Un enjeu fondamental pour que la reconquête de notre attention et de notre autonomie ne soit pas laissée aux seuls acteurs privés.


Cet article a été réalisée à partir de la recherche Clara Piacenza, diplômée du MSc in Marketing & Creativity.

The Conversation

Chloe Preece ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

15.11.2025 à 14:37

« Revenge quitting » : est-ce vraiment une bonne idée de régler ses comptes au moment de quitter son emploi ?

Kathy Hartley, Senior Lecturer in People Management, University of Salford

Après le quiet quitting, voici le revenge quitting : la démission comme acte de rébellion. Ce phénomène mondial révèle une fracture grandissante entre employés épuisés et systèmes managériaux à bout de souffle.
Texte intégral (1490 mots)
Les départs spectaculaires peuvent nuire à la carrière, surtout dans des secteurs restreints où les réputations circulent vite. GaudiLab/Shutterstock

Quitter son poste avec fracas, c’est la nouvelle manière pour certains salariés d’exprimer leur ras-le-bol. Entre vidéos virales, mails incendiaires et départs spectaculaires, le « revenge quitting » traduit une colère profonde contre le monde du travail.

Beaucoup d’entre nous ont déjà ressenti la colère provoquée par un traitement injuste au travail – et parfois même l’envie soudaine de tout quitter. Chefs tyranniques, remarques humiliantes ou salaires dérisoires peuvent alimenter ces réactions impulsives. Mais tandis que la plupart des employés ravalent leur colère et retournent à leur poste, certains décident de partir d’une manière qui fait clairement passer le message à leur employeur. Bienvenue dans le monde du « revenge quitting ».

Contrairement au « quiet quitting », où les salariés restent en poste mais se contentent d’en faire le strict minimum, le « revenge quitting » consiste à partir de manière bruyante et spectaculaire.

Ce phénomène s’est désormais répandu dans le monde entier : certains filment leur démission pour les réseaux sociaux, envoient des mails d’adieu cinglants ou quittent leur poste à la dernière minute – parfois à deux heures du début d’un cours qu’ils devaient assurer.

Ces scènes illustrent la dimension libératrice du « revenge quitting » : une manière de reprendre sa dignité lorsque l’on se sent ignoré ou maltraité. Mais elles révèlent aussi autre chose qu’une simple montée du drame au travail ou un effet de génération : elles montrent qu’une partie des travailleurs, lorsqu’ils sont poussés à bout, sont désormais prêts à partir en faisant du bruit.

Dans son ouvrage classique de 1970 Défection et prise de parole (Exit, Voice, and Loyalty), l’économiste Albert Hirschman expliquait que face à une situation insatisfaisante, les individus disposent de trois options : faire entendre leur voix (voice), faire preuve de loyauté (loyalty) ou quitter (exit). Le « revenge quitting » relève de cette dernière catégorie – mais sous une forme particulière, pensée pour faire passer un message clair aux employeurs.

Plusieurs dynamiques au travail augmentent la probabilité de « revenge quitting » :

  • des supérieurs ou des environnements de travail toxiques : des recherches montrent qu’une supervision maltraitante rend les salariés plus enclins à riposter et à démissionner ;
  • le mauvais traitement par les clients : là aussi, des études indiquent que le manque de politesse ou l’incivilité de la clientèle peuvent déclencher des envies de vengeance chez les employés en contact direct avec le public ;
  • l’épuisement émotionnel : le surmenage ou le manque de soutien peuvent pousser certaines personnes à adopter des comportements de représailles, y compris des démissions spectaculaires ;
  • la culture des réseaux sociaux : des plateformes comme TikTok offrent une scène, transformant la démission en acte non seulement personnel, mais aussi performatif.

Risques et alternatives

Bien sûr, le « revenge quitting » comporte des risques. Les départs spectaculaires peuvent nuire à la carrière, surtout dans des secteurs restreints où les réputations circulent vite, ou lorsque les démissions s’enchaînent après de courts passages dans plusieurs postes. Pour les personnes très qualifiées, expérimentées et dotées d’un bon historique professionnel, ces risques restent toutefois plus limités.

Quelles sont donc les alternatives ?

  • faire entendre sa voix plutôt que partir : exprimer ses préoccupations auprès du service des ressources humaines, des responsables du bien-être au travail ou des représentants syndicaux lorsqu’ils existent ;

  • se désengager : se retirer discrètement, par exemple en limitant le temps passé à préparer les réunions ou en évitant les tâches supplémentaires, afin de reprendre un certain contrôle sur sa situation.

Ces alternatives peuvent, au final, nuire davantage aux organisations qu’un départ spectaculaire (à moins que le « revenge quitting » ne devienne un phénomène généralisé dans la structure). Mais bien sûr, tout le monde n’a pas la possibilité de démissionner, même lorsqu’il en a envie.

Une enquête menée en 2023 a révélé que plus de la moitié des travailleurs dans le monde souhaiteraient quitter leur emploi, mais ne le peuvent pas. Les raisons sont multiples : responsabilités financières, manque d’opportunités ou contraintes familiales.

Les chercheurs spécialistes du monde du travail appellent ces personnes des « reluctant stayers » (des « employés coincés malgré eux »). Une étude sur deux organisations a montré qu’environ 42 % des salariés entraient dans cette catégorie. D’autres travaux ont observé que ces salariés « bloqués » finissent souvent par élaborer des stratégies de représailles : ils diffusent discrètement de la négativité ou sapent la productivité. À long terme, cela peut s’avérer plus nuisible pour l’entreprise que le « revenge quitting » lui-même.

L’impact du « revenge quitting » dépend sans doute du contexte. Dans les petites structures, un départ soudain peut être dévastateur, surtout si l’employé possède des compétences rares ou très recherchées. Une démission bruyante peut aussi peser sur les collègues qui doivent gérer les conséquences.

Dans les grandes organisations, l’effet est généralement moins grave : elles peuvent plus facilement absorber le choc. Lorsqu’un cadre ou un employé hautement qualifié quitte bruyamment son poste, les employeurs cherchent en général à éviter ce scénario, en tentant de résoudre les problèmes avant qu’ils ne dégénèrent. Pour cette raison, le « revenge quitting » se manifeste plus souvent chez les travailleurs plus jeunes, précaires ou peu soutenus.

Un départ en fanfare en 2012.

Que peuvent faire les employeurs ? Le « revenge quitting » est souvent le signe que les dispositifs classiques de soutien aux salariés ne fonctionnent plus. Beaucoup d’équipes de ressources humaines sont déjà surchargées et peinent à répondre à toutes les attentes. Mais certaines pratiques de base peuvent encore faire la différence.

Cela passe par une communication ouverte, où les employés se sentent en sécurité pour évoquer les problèmes, et par une formation des managers afin d’éviter les comportements abusifs ou le micro-management. Par ailleurs, même si cela semble évident, des charges de travail ou des conditions inéquitables finissent toujours par susciter du mécontentement : il est donc essentiel de veiller à l’équité. Les employeurs doivent aussi tenir compte des attentes des jeunes générations, souvent plus attachées au respect et à l’équilibre de vie.

En définitive, le « revenge quitting » met en lumière des dysfonctionnements profonds dans l’entreprise. Quitter bruyamment peut donner au salarié un sentiment de pouvoir, surtout sur le moment, mais c’est rarement une bonne nouvelle, ni pour lui, ni pour l’organisation.

The Conversation

Kathy Hartley ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

15.11.2025 à 14:34

Un empereur romain à genoux devant un roi perse : que faut-il lire derrière la nouvelle statue dévoilée à Téhéran ?

Peter Edwell, Associate Professor in Ancient History, Macquarie University

Érigée sur la place Enghelab, à Téhéran, une statue montre l’empereur romain prosterné devant Shapur Ier (qui régna autour de 242–270 apr. J.-C.). D’où vient cette imagerie ? Et pourquoi cette statue apparaît-elle maintenant ?
Texte intégral (1788 mots)

La mise en scène d’un empereur romain défait et soumis à Shapur Ier n’est pas nouvelle : elle puise dans l’imagerie triomphale de l’Iran antique. Mais son apparition sur la place Enghelab, à Téhéran, intervient à un moment où le pouvoir cherche à exalter la résistance nationale.


Une nouvelle statue dévoilée ces derniers jours en Iran représente un empereur romain se soumettant à un roi perse. Érigée sur la place Enghelab à Téhéran, la statue intitulée À genoux devant l’Iran montre l’empereur se prosternant devant Shapur Ier (qui régna aux alentours de 242 à 270 de notre ère). Mais d’où vient cette imagerie ? Et pourquoi cette statue a-t-elle été érigée maintenant ?

L’ascension de Shapur

Au IIIᵉ siècle de notre ère, une nouvelle dynastie appelée les Sassanides prend le pouvoir dans l’Iran antique. En quelques années, le premier roi sassanide, Ardachir Ier, commence à menacer les territoires romains en Mésopotamie (dans les régions correspondant aujourd’hui à la Turquie, l’Irak et la Syrie). Les Romains avaient arraché ces terres aux Parthes, les prédécesseurs des Sassanides.

Ardachir entend désormais reconquérir une partie de ces territoires perdus. Il remporte quelques succès dans les années 230. Mais son fils et successeur, Shapur Ier, porte cette ambition à un tout autre niveau. Ce dernier défait une armée romaine venue l'envahir en 244, une victoire qui entraîne la mort du jeune empereur romain Gordien III.

Dans les années 250, Shapur lance une vaste offensive en territoire romain à travers l’Irak, la Syrie et la Turquie. Deux grandes armées romaines sont vaincues et des dizaines de villes tombent. En 253, il s’empare d’Antioche, l’une des cités les plus importantes de l’empire. Certains de ses habitants, se trouvant au théâtre au moment de la chute de la ville, s’enfuient terrorisés tandis que les flèches pleuvent sur la cité.

L'empereur fait prisonnier

Si la prise d’Antioche est une lourde défaite pour les Romains, l'événement qui marque un tournant se situe en 260. Après une bataille à Édesse (dans l’actuelle Turquie méridionale), l’empereur romain Valérien est capturé. C’est la première et unique fois dans l’histoire qu’un empereur romain tombe vivant aux mains de l’ennemi. Valérien est emmené en Perse, avec des milliers d’autres prisonniers.

Son sort fait naître, par la suite, quantité de récits. Selon l’un d’eux, Valérien et des soldats prisonniers auraient été contraints de construire un pont sur le fleuve Karoun, à Shushtar. Les vestiges de cet ouvrage, connu sous le nom de Band-e Qayṣar (« le pont de l’empereur »), sont encore visibles aujourd’hui.

Le Band-e Kaïsar, construit par les Romains à Shushtar, en Iran, aurait été édifié par des prisonniers romains durant le règne de Shapur Ier.
Les ruines du pont Band-e Qayṣar. Ali Afghah/Wikimedia

Selon un autre récit, Shapur aurait exigé que Valérien se mette à quatre pattes pour servir de marchepied, afin que le roi perse puisse monter à cheval. Shapur aurait également ordonné qu'après sa mort, le le corps de Valérien soit conservé, empaillé et placé dans une armoire. Ainsi, l’humiliation était totale.

On érigea des représentations des victoires de Shapur sur Rome dans tout l’empire perse. Plusieurs bas-reliefs sculptés célébrant ces triomphes ont survécu jusqu’à aujourd’hui. Le plus célèbre se trouve sans doute à Bishapur, dans le sud de l’Iran, où Shapur fit construire un palais magnifique. On y voit Shapur richement vêtu et assis sur un cheval. Sous le cheval gît le corps de Gordien III. Derrière lui se tient le captif Valérien, retenu par la main droite de Shapur. La figure placée à l’avant représente l’empereur Philippe Iᵉʳ (qui régna de 244 à 249 apr. J.-C.), successeur de Gordien. Il implore la libération de l’armée romaine vaincue.

Shapur sur son cheval.
Shapur est assis sur son cheval, sous lequel gît le corps de Gordien III. Derrière lui se tient le captif Valérien. Marco Prins via Livius, CC BY

Shapur fit également graver une immense inscription en trois langues, qui célébrait notamment ses victoires majeures sur les Romains. Connue aujourd’hui sous le nom de Res Gestae Divi Saporis, elle est encore visible à Naqsh-i Rustam, dans le sud de l’Iran.

Le grand empire romain avait été profondément humilié. Les Perses emportèrent d’immenses ressources mais aussi des spécialistes comme des bâtisseurs, des architectes et des artisans, issus des villes conquises. Certaines cités de l’empire perse furent même repeuplées avec ces captifs.

Une nouvelle statue célébrant une vieille victoire

La statue révélée à Téhéran semble s’inspirer directement d’un bas-relief commémoratif de Naqsh-i Rustam. La figure agenouillée est présentée, dans plusieurs médias, comme Valérien. Si elle est effectivement inspirée du bas-relief de Naqsh-i Rustam, cette figure agenouillée correspond plutôt à Philippe Iᵉʳ, Valérien y étant représenté debout devant Shapur. Néanmoins, les déclarations officielles affirment qu'il s'agit bien de Valérien, notamment celle de Mehdi Mazhabi, directeur de l’Organisation municipale de l’embellissement de Téhéran, consignée dans un rapport :

La statue de Valérien reflète une vérité historique : l’Iran a toujours été une terre de résistance au fil des siècles […] En installant ce projet sur la place Enghelab, nous voulons créer un lien entre le passé glorieux de cette terre et son présent porteur d’espoir.

Les grandes victoires de Shapur sur les Romains restent une source de fierté nationale en Iran. La statue a ainsi été décrite comme un symbole de défi national après le bombardement par les États-Unis des installations nucléaires iraniennes en juin.

Bien que ces victoires sassanides remontent à plus de 1 700 ans, l’Iran continue de les célébrer. La statue s'adresse clairement au peuple iranien, dans la foulée des attaques américaines. Reste à savoir si elle constitue également un avertissement adressé à l’Occident.

The Conversation

Peter Edwell a reçu des financements de l'Australian Research Council.

PDF

15.11.2025 à 14:33

Pour les artistes comme pour les scientifiques, l’observation prolongée permet de faire émerger l’esprit critique

Amanda Bongers, Assistant Professor, Chemistry Education Research, Queen's University, Ontario

Madeleine Dempster, PhD Candidate in Art History, Queen's University, Ontario

Le processus consistant à observer et à se poser des questions sur ce que l’on regarde est nécessaire à tous les niveaux scientifiques, et les étudiants en sciences peuvent l’apprendre grâce à l’analyse visuelle inspirée de l’histoire de l’art.
Texte intégral (2664 mots)

S’il semble évident que les scientifiques doivent développer des compétences en analyse visuelle, ces dernières ne sont pas suffisamment enseignées ni mises en pratique dans nos universités.


C’est l’une des difficultés de l’apprentissage des sciences : il repose en partie sur des images et des simulations pour représenter des choses que nous ne pouvons pas voir à l’œil nu. Dans des matières comme la chimie, les étudiants peuvent avoir du mal à visualiser les atomes et les molécules à partir des symboles complexes qui les représentent.

Pourtant, la plupart des cours de chimie dispensés l’université n’aident pas les étudiants à mieux comprendre ces représentations. Les étudiants passent leurs cours à regarder passivement des diapositives pleines d’images sans s’impliquer ni générer les leurs. En s’appuyant sur leurs capacités innées plutôt qu’en apprenant à affiner leur pensée visuelle et leurs compétences en analyse d’images, de nombreux étudiants finissent par se sentir perdus face aux symboles et ont recours à des techniques de mémorisation fastidieuses et improductives.

Que pouvons-nous faire pour aider les élèves à analyser et à tirer des enseignements des visuels scientifiques ? La solution se trouve peut-être du côté de l’histoire de l’art. Il existe de nombreux parallèles entre les compétences acquises en histoire de l’art et celles requises dans les cours de sciences.

Développer un œil averti

Se sentir déconcerté par une œuvre d’art ressemble fortement à l’expérience que font de nombreux étudiants en chimie. Dans les deux cas, les spectateurs peuvent se demander : que suis-je en train de regarder, où dois-je regarder et qu’est-ce que cela signifie ?

Et si un portrait ou un paysage peut sembler, a priori, porter un message simple, les œuvres d’art regorgent d’informations et de messages cachés pour un œil non averti.

Plus on passe de temps à regarder chaque image, plus on peut découvrir d’informations, se poser des questions et approfondir son exploration visuelle et intellectuelle.

Par exemple, dans le tableau du XVIIIe siècle intitulé Nature morte aux fleurs sur une table de marbre (1716) de la peintre néerlandaise Rachel Ruysch, en regardant plus longuement les fleurs, on découvre plusieurs insectes dont les historiens de l’art interprètent la présence dans un contexte plus large de méditations spirituelles sur la mortalité.

Nature morte représentant de nombreuses fleurs sur fond noir, avec des insectes posés sur certaines feuilles
Avez-vous remarqué les insectes dans Nature morte avec des fleurs sur une table de marbre ? (Rijksmuseum)

Le domaine de l’histoire de l’art est consacré à l’étude des œuvres d’art et met l’accent sur l’analyse visuelle et les capacités de réflexion critique. Lorsqu’un historien de l’art étudie une œuvre d’art, il explore les informations que celle-ci peut contenir, les raisons pour lesquelles elle a été présentée de cette manière et ce que cela signifie dans un contexte plus large.


À lire aussi : Mike Pence's fly: From Renaissance portraits to Salvador Dalí, artists used flies to make a point about appearances


Processus d’observation et de questionnement

Ce processus d’observation et de questionnement sur ce que l’on regarde est nécessaire à tous les niveaux de la science et constitue une compétence générale utile.

L’organisation à but non lucratif Visual Thinking Strategies a créé des ressources et des programmes destinés à aider les enseignants, de la maternelle au lycée, à utiliser l’art comme sujet de discussion dans leurs classes.

Ces discussions sur l’art aident les jeunes apprenants à développer leurs capacités de raisonnement, de communication et de gestion de l’incertitude. Une autre ressource, « Thinking Routines » (Routines de réflexion) du projet Zero de Harvard, inclut d’autres suggestions pour susciter l’intérêt des élèves pour l’art, afin de les aider à cultiver leur sens de l’observation, de l’interprétation et du questionnement.

Pour regarder de manière critique, il faut ralentir

De telles approches ont également été adoptées dans l’enseignement médical, où les étudiants en médecine apprennent à porter un regard critique grâce à des activités d’observation attentive d’œuvres d’art et explorent les thèmes de l’empathie, du pouvoir et des soins.

Une personne assise à un bureau regardant des images médicales
L’observation des œuvres d’art peut aider à enseigner aux professionnels l’observation critique, une compétence essentielle pour interpréter les images médicales. (Shutterstock)

Les programmes d’humanités médicales aident également les jeunes professionnels à faire face à l’ambiguïté. Apprendre à analyser l’art change la façon dont les gens décrivent les images médicales, et améliore leur score d’empathie.

Les compétences nécessaires à l’analyse visuelle des œuvres d’art exigent que nous ralentissions, que nous laissions notre regard vagabonder et que nous réfléchissions. Une observation lente et approfondie implique de prendre quatre ou cinq minutes pour contempler silencieusement une œuvre d’art, afin de laisser apparaître des détails et des liens surprenants. Les étudiants qui se forment à l’imagerie médicale dans le domaine de la radiologie peuvent apprendre ce processus d’observation lente et critique en interagissant avec l’art.

Les étudiants en classe

Imaginez maintenant la différence entre un cadre calme comme un musée et une salle de classe, où l’on est obligé d’écouter, de regarder, de copier, d’apprendre à partir d’images et de se préparer pour les examens.

En cours, les étudiants prennent-ils le temps d’analyser ces schémas chimiques complexes ? Les recherches menées par mes collègues et moi-même suggèrent qu’ils y consacrent très peu de temps.

Lorsque nous avons assisté à des cours de chimie, nous avons constaté que les élèves regardaient passivement les images pendant que l’enseignant les commentait, ou copiaient les illustrations au fur et à mesure que l’enseignant les dessinait. Dans les deux cas, ils ne s’intéressaient pas aux illustrations et n’en créaient pas eux-mêmes.

Lorsqu’elle enseigne la chimie, Amanda, l’autrice principale de cet article, a constaté que les élèves se sentent obligés de trouver rapidement la « bonne » réponse lorsqu’ils résolvent des problèmes de chimie, ce qui les amène à négliger des informations importantes mais moins évidentes.

Analyse visuelle dans l’enseignement de la chimie

Notre équipe composée d’artistes, d’historiens de l’art, d’éducateurs artistiques, de professeurs de chimie et d’étudiants travaille à introduire l’analyse visuelle inspirée des arts dans les cours de chimie à l’université.

Grâce à des cours simulés suivis de discussions approfondies, nos recherches préliminaires ont mis en évidence des recoupements entre les pratiques et l’enseignement des compétences en arts visuels et les compétences nécessaires à l’enseignement de la chimie, et nous avons conçu des activités pour enseigner ces compétences aux étudiants.

Un groupe de discussion composé d’enseignants en sciences à l’université nous a aidés à affiner ces activités afin qu’elles correspondent aux salles de classe et aux objectifs des enseignants. Ce processus nous a permis d’identifier de nouvelles façons d’appréhender et d’utiliser les supports visuels. À mesure que nos recherches évoluent, ces activités sont également susceptibles d’évoluer.

Exemple d’activité d’analyse visuelle associant une œuvre d’art à un visuel de chimie
Exemple d’activité d’analyse visuelle associant une œuvre d’art à un visuel de chimie. À gauche : Étude cubiste d’une tête, par Elemér de Kóródy, 1913 (The Met). À droite : Analyse d’une réaction de cycloaddition (fournie par l’auteur).

De nombreux étudiants en sciences ne poursuivent pas une carrière traditionnelle dans le domaine scientifique, et leurs programmes mènent rarement à un emploi spécifique, mais les compétences en pensée visuelle sont essentielles dans le large éventail de compétences nécessaires à leur future carrière.

Par ailleurs, l’analyse visuelle et la pensée critique deviennent indispensables dans la vie quotidienne, avec l’essor des images et des vidéos générées par l’IA.

Développer des compétences pour ralentir et observer

Intégrer les arts dans d’autres disciplines peut favoriser la pensée critique et ouvrir de nouvelles perspectives aux apprenants. Nous soutenons que les arts peuvent aider les étudiants en sciences à développer des compétences essentielles en analyse visuelle en leur apprenant à ralentir et à simplement observer.

« Penser comme un scientifique » revient à se poser des questions sur ce que l’on voit, mais cela correspond tout aussi bien à la façon de réfléchir d’un historien de l’art, selon les principes suivants :

  1. Observer attentivement les détails ;

  2. Considérer les détails dans leur ensemble et dans leur contexte (par exemple, en se demandant : « Qui a créé cela et pourquoi ? ») ;

  3. Reconnaître la nécessité de disposer de connaissances techniques et fondamentales étendues pour comprendre ce qui est le moins évident ;

  4. Enfin, accepter l’incertitude. Il peut y avoir plusieurs réponses, et nous ne connaîtrons peut-être jamais la « bonne réponse » !

The Conversation

Amanda Bongers receives funding from SSHRC and NSERC.

Madeleine Dempster reçoit un financement du Conseil de recherches en sciences humaines.

PDF

14.11.2025 à 12:55

Quand l’IA devient le consommateur

Sylvie-Eléonore Rolland, Maître de conférences, Université Paris Dauphine – PSL

Désormais, l’IA anticipe les besoins des consommateurs et agit à leur place. Quelles conséquences pour le marketing ? et pour le libre arbitre des consommateurs ?
Texte intégral (2429 mots)
Pour en savoir plus https://dauphine.psl.eu/dauphine-digital-days. Pour en savoir plus cliquez : https://dauphine.psl.eu/dauphine-digital-days, Fourni par l'auteur
Pour en savoir plus https://dauphine.psl.eu/dauphine-digital-days. Pour en savoir plus cliquez : https://dauphine.psl.eu/dauphine-digital-days, Fourni par l'auteur

L’intelligence artificielle (IA) ne se contente plus de guider nos choix : elle anticipe nos besoins et agit à notre place. En orchestrant décisions et transactions, devient-elle une entité consommatrice ? Que devient notre libre arbitre de consommateur face à un marché piloté par les algorithmes ?

Ce texte est publié dans le cadre des Dauphine Digital Days dont The Conversation France est partenaire.


Alors que les modèles classiques de comportement du consommateur reposent sur l’intention, la préférence et le choix, l’automatisation introduite par l’intelligence artificielle (IA) transforme en profondeur la chaîne décisionnelle. En s’immisçant dans les étapes de reconnaissance des besoins, d’évaluation des alternatives et d’achat, l’IA ne se contente plus de guider – elle agit.

Cette mutation questionne le cadre théorique du consumer agency, l’idée selon laquelle les consommateurs ont la capacité d’agir de manière intentionnelle, de faire des choix et d’exercer une influence sur leur propre vie et sur leur environnement. Ce déplacement progressif du pouvoir décisionnel interroge. Il interpelle la nature même de l’acte de consommer.

L’IA peut-elle être considérée comme une actrice de consommation à part entière ? Sommes-nous encore maîtres de nos choix ou sommes-nous devenus les récepteurs d’un système marchand autonome façonné par l’intelligence artificielle ?

Personnalisation de l’expérience

Les algorithmes prédictifs, programmes qui anticipent des résultats futurs à partir de données passées, sont aujourd’hui des acteurs incontournables de l’environnement numérique, présents sur des plateformes, telles que Netflix, Amazon, TikTok ou Spotify. Conçus pour analyser les comportements des utilisateurs, ces systèmes visent à personnaliser l’expérience en proposant des contenus et des produits adaptés aux préférences individuelles. En réduisant le temps de recherche et en améliorant la pertinence des recommandations, ils offrent une promesse d’assistance optimisée.

Toutefois, cette personnalisation soulève une question centrale : ces algorithmes améliorent-ils l’accès aux contenus et aux produits pertinents, ou participent-ils à un enfermement progressif dans des habitudes de consommation préétablies ?


À lire aussi : Sommes-nous prêts à confier nos décisions d’achat à une IA ?


En favorisant les contenus similaires à ceux déjà consultés, les systèmes de recommandation tendent à renforcer les préférences préexistantes des utilisateurs, tout en restreignant la diversité des propositions auxquelles ces derniers sont exposés. Ce phénomène, identifié sous le terme de « bulle de filtre », limite l’ouverture à des perspectives nouvelles et contribue à une uniformisation des expériences de consommation.

L’utilisateur se trouve ainsi progressivement enfermé dans un environnement façonné par ses interactions antérieures, au détriment d’une exploration libre et fortuite, le « faire les boutiques » d’autrefois.

Glissement progressif de l’IA

Ce glissement remet en question l’équilibre entre l’intelligence artificielle en tant qu’outil d’assistance et son potentiel aliénant, dans la mesure où la liberté de choix et l’autonomie décisionnelle constituent des dimensions fondamentales du bien-être psychologique et de la construction identitaire.

Il soulève également des enjeux éthiques majeurs : dans quelle mesure l’expérience de consommation est-elle encore véritablement choisie, lorsqu’elle est orientée, voire imposée, par des algorithmes, souvent à l’insu des consommateurs, notamment ceux dont la littératie numérique demeure limitée ?

Des algorithmes qui deviennent cibles de la publicité

L’optimisation des publicités et des publications en ligne repose de plus en plus sur des critères imposés par les plateformes.

Cette tendance est particulièrement visible sur des plateformes comme YouTube, où les vidéos adoptent systématiquement des codes visuels optimisés : visages expressifs, polices de grande taille, couleurs vives. Ce format ne résulte pas d’une préférence spontanée des internautes, mais découle des choix algorithmiques qui privilégient ces éléments pour maximiser le taux de clics.

De manière similaire, sur les réseaux sociaux, les publications adoptent des structures spécifiques, phrases courtes et anecdotes engageantes, comme sur X, où les utilisateurs condensent leurs messages en formules percutantes pour maximiser les retweets. Cela ne vise pas nécessairement à améliorer l’expérience de lecture, mais répond aux critères de visibilité imposés par l’algorithme de la plateforme.

Ainsi, l’objectif des annonceurs ne se limite plus à séduire un public humain, mais vise principalement à optimiser la diffusion de leurs contenus en fonction des impératifs algorithmiques. Cette dynamique conduit à une homogénéisation des messages publicitaires, où l’innovation et l’authenticité tendent à s’effacer au profit d’une production standardisée répondant aux logiques des algorithmes.

Influence sur les préférences des consommateurs

Ces formats prédominants sont-ils uniquement imposés par les algorithmes, ou reflètent-ils les attentes des consommateurs ? En effet, si les algorithmes sont conçus pour maximiser l’engagement, cela suppose qu’ils s’appuient en partie sur les comportements et les préférences des utilisateurs. Pourtant, la véritable interrogation réside sans doute dans la manière dont les algorithmes influencent, par des expositions répétées, nos propres préférences, jusqu’à redéfinir ce que nous percevons comme attractif ou pertinent.

L’évolution de l’intelligence artificielle a donné naissance aux systèmes d’achat autonomes, qui prennent des décisions d’achat en toute indépendance. Ces systèmes reposent sur deux types d’agents intelligents : les agents verticaux et les agents horizontaux.

Les agents verticaux sont des IA spécialisées dans des domaines précis. Ils optimisent la gestion des achats en analysant des besoins spécifiques. Par exemple, les réfrigérateurs « intelligents » scannent leur contenu, identifient les produits manquants et passent commande automatiquement avant même que les consommateurs ne décident eux-mêmes de passer commande.

Les agents horizontaux coordonnent quant à eux plusieurs domaines d’achat. Des assistants, comme Alexa et Google Assistant, analysent les besoins en alimentation, mobilité et divertissement pour proposer une consommation intégrée et cohérente. L’interaction multi-agents permet ainsi d’accroître l’autonomie des systèmes d’achat.

Les agents verticaux assurent la précision et l’optimisation des achats, tandis que les agents horizontaux garantissent la cohérence des décisions à l’échelle globale. Cette synergie préfigure un avenir où la consommation devient totalement ou partiellement automatisée et prédictive. Progressivement, nous ne décidons plus quand acheter ni même quoi acheter : ces systèmes autonomes agissent pour nous, que ce soit pour notre bien ou à notre détriment !

Arte, 2024.

Qui est le principal agent de décision ?

L’accès à l’information et l’instantanéité offertes par l’IA aurait fait de nous des consommateurs « augmentés ». Pourtant, son évolution rapide soulève désormais une question fondamentale : sommes-nous encore les véritables décideurs de notre consommation, ou sommes-nous progressivement relégués à un rôle passif ? L’IA ne se limite plus à nous assister ; elle structure désormais un écosystème au sein duquel nos décisions tendent à être préprogrammées par des algorithmes, dans une logique d’optimisation.

Une telle dynamique soulève des interrogations profondes quant à l’avenir des modes de consommation : l’IA est-elle en passe de devenir le véritable consommateur, tandis que l’humain se limiterait à suivre un flux prédéfini ? Assistons-nous à l’émergence d’un marché où les interactions entre intelligences artificielles supplantent celles entre individus ?

L’avenir du libre arbitre

Si ces technologies offrent un confort indéniable, elles posent également la question du devenir de notre libre arbitre et de notre autonomie en tant que consommateurs, citoyens et humains. Dès lors, ne sommes-nous pas à l’aube d’une révolution où l’humain, consommateur passif, s’efface au profit d’une économie pilotée par des systèmes de consommation intelligents autonomes ?

Plus qu’une volonté de contrôle total des technologies qui freine l’innovation, c’est peut-être notre propre autonomie qu’il convient de repenser à l’aune de l’émergence de ces systèmes. Il s’agit alors de construire, selon la perspective des « technologies de soi » de Michel Foucault, des pratiques par lesquelles l’individu œuvre à sa propre transformation et à son émancipation des diverses formes de domination algorithmique.

x. Pour en savoir plus cliquez : https://dauphine.psl.eu/dauphine-digital-days, Fourni par l'auteur
The Conversation

Sylvie-Eléonore Rolland ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

13.11.2025 à 17:21

L’opéra aux Amériques, un héritage européen revisité par les identités culturelles locales

Frédéric Lamantia, Docteur en géographie et maître de conférences, UCLy (Lyon Catholic University)

L’opéra aux Amériques s’est bâti une identité singulière par sa capacité à assimiler apports européens et patrimoine culturel autochtone.
Texte intégral (2349 mots)
Le Palais des beaux-arts de Mexico (en espagnol : Palacio de Bellas Artes) est le premier opéra de Mexico. Sa construction fut achevée en 1934. Xavier Quetzalcoatl Contreras Castillo , CC BY-SA

L’opéra s’est enraciné sur le continent américain en hybridant répertoires et techniques d’outre-Atlantique avec des récits, des rythmes et des imaginaires empruntés aux populations autochtones. Nous poursuivons ici notre série d’articles « L’opéra : une carte sonore du monde ».


Ne cherchant ni à copier ni à rompre avec l’histoire de l’opéra en Europe, l’histoire de l’opéra aux Amériques est plutôt celle d’un long processus d’acclimatation. La circulation des artistes et les innovations esthétiques y rencontrent des terrains sociaux, politiques et économiques spécifiques selon les pays. Si depuis le XVIIe siècle, Christophe Colomb a inspiré de nombreux opéras, cet art est aujourd’hui présent sur tout le continent où il met en exergue des éléments locaux du patrimoine culturel conjugués avec la matrice européenne.

En Amérique du Nord, et notamment aux États-Unis, l’art lyrique trouve ses origines dans les ballad operas anglais du XVIIIe siècle joués dans les premiers théâtres à Philadelphie ou à New York.

Au XIXe siècle, l’opéra s’implante comme un divertissement « importé » et rencontre un certain succès dont bénéficient l’Academy of Music (l’Opéra de New York) ou le Metropolitan Opera tandis que la Nouvelle-Orléans, foyer francophone, sert de tête de pont aux opéras français mais aussi italiens. Ces derniers, apportés par nombre d’immigrants en provenance de Rome, de Naples ou de Palerme, ont nécessité la construction de théâtres, comme celui de San Francisco.

Spécificités états-uniennes

Au XXe siècle, l’art lyrique possède ses hauts lieux aux États-Unis, tels que le Metropolitan Opera (Met) qui s’impose comme le champion des créations nationales impliquant des spécificités états-uniennes quant aux sujets, aux styles et aux voix.

La quête d’une couleur « nationale » passe par le recours à des matériaux amérindiens puis par l’intégration de langages musicaux afro-américains comme les spirituals, le jazz, le ragtime, le blues, jusqu’aux sujets explicitement liés à l’esclavage, à la ségrégation et aux droits civiques.

De Porgy and Bess à X : The Life and Times of Malcom X ou The Central Park Five, l’opéra devient un miroir social avec des œuvres qui se fondent dans le paysage culturel, sa grande diversité et les conséquences de celle-ci. Le progrès technique s’invite aussi à l’opéra avec des œuvres comme Le téléphone, opéra comique de Menotti. Parallèlement, le langage musical évolue, porté par le néoromantisme de Barber, la satire politico-sociale de Blitzstein, le minimalisme de Glass ou d’Adams.

En Amérique du Nord, une économie fragile

Sur le plan économique, l’écosystème lyrique états-unien comme canadien combine recettes propres, dons privés et mécénat, le rendant particulièrement vulnérable à des crises, comme celle survenue lors de l’épidémie de Covid qui a vu ses publics se contracter, tandis que les coûts de production restaient élevés. Le marketing de l’opéra innove sans cesse, contraint à une nécessaire démocratisation garantissant le renouvellement de ses publics, avec des représentations dans des lieux insolites – Ikea à Philadelphie –, et à une digitalisation de l’espace lyrique et de sa programmation.

Si des réseaux efficaces, comme Opera America ou Opera Europa, facilitent communication, diffusion et levée de fonds, d’autres solutions ont pu voir le jour pour sécuriser l’activité lyrique aux États-Unis, comme cet accord pluriannuel signé entre le Met et l’Arabie saoudite.

Hybridations en Amérique centrale

En Amérique centrale, l’art lyrique s’inscrit également dans l’espace urbain comme en témoigne le Palacio de Bellas Artes à Mexico. Conçu en 1901 et inauguré en 1934, ce bâtiment fusionne art nouveau par son extérieur en marbre et art déco pour l’intérieur de la salle, décorée avec des fresques monumentales. Le modèle architectural comme une partie du répertoire – Mozart, Strauss, Puccini ou Donizetti – sont européens, mais l’institution a aussi servi de carrefour aux arts mexicains à l’image du Ballet folklorique d’Amalia Hernández ou de créations de compositeurs locaux comme Ibarra, Catán ou Jimenez.

Le rideau de scène représentant les volcans Popocatépetl et Iztaccíhuatl symbolise ce lien entre opera house « à l’européenne » et imaginaires locaux. Dans cette zone géographique, l’hybridation architecturale et artistique s’opère dans les institutions nationales avec une volonté d’articuler répertoire européen et identité culturelle locale, tant du point de vue musical, iconographique que chorégraphique.

Offenbach-mania au Brésil

L’Amérique du Sud a connu un développement de son territoire lyrique dans les grandes métropoles, mais également dans des lieux insolites comme à Manaus, au Brésil, en pleine Amazonie, où le théâtre d’opéra était la sortie privilégiée des riches industriels producteurs d’hévéa tandis que la bourgeoisie de Sao Paulo, souvent proche de l’industrie du café se retrouvait en son opéra.

L’import d’œuvres européennes, notamment d’Offenbach ou de Puccini dont le succès fulgurant a inspiré de nombreux compositeurs locaux, a façonné le paysage lyrique sud-américain. On note que dans les années 1860-1880, Rio connaît une véritable Offenbach-mania et devient un creuset pour des hybridations diverses : de nombreuses œuvres sont traduites en portugais tandis que des troupes francophones sont régulièrement accueillies.

Dans le même temps se développent des parodies brésiliennes qui, sans copier Offenbach, procèdent à une « brésilianisation » du style par l’insertion de danses et rythmes afro-brésiliens – polca-lundu, cateretê, samba de roda – et par l’apparition de la capoeira sur scène. Naît alors un débat, ressemblant mutatis mutandis à la « querelle des Bouffons » française, opposant « art national » et « opérette importée » et aboutissant parfois à une « parodie de parodie » d’Offenbach !

Ces échanges lyriques montrent que les Amériques ne se contentent pas d’importer de l’opéra occidental, mais qu’elles transforment puis réémettent des œuvres vers l’Europe, enrichies d’un apport exotique.

En Argentine, l’opéra comme symbole de réussite sociale

En Argentine, Puccini triomphe en 1905 à Buenos Aires alors qu’il vient superviser la nouvelle version d’Edgar. Il consolidera sa notoriété grâce à ses succès sur les scènes latino-américaines avant de livrer en 1910, à New York, La fanciulla del West(la Fille du Far-West), western lyrique basé sur l’imaginaire américain. Dans une capitale marquée par une importante immigration italienne initiée dès les années 1880, l’opéra reste un symbole de réussite sociale.

Le Teatro Colon, érigé en 1908, opère une synthèse architecturale entre néo-Renaissance italienne et néo-baroque français, agrémentée de touches Art nouveau. Dotée d’une excellente acoustique et accessible sur le plan tarifaire, la salle s’impose comme un centre lyrique important sur le continent. L’art lyrique argentin reste ouvert à de nombreux sujets, comme en témoigne l’opéra Aliados (2013), d’Esteban Buch et Sebastian Rivas, évoquant les liens entre Margaret Thatcher et Augusto Pinochet, alliés à l’époque de la guerre des Malouines en 1982.

On trouve ainsi des traits communs à l’art lyrique sud-américain, associant grandes maisons emblématiques, appropriations esthétiques locales et coopérations internationales par-delà une vulnérabilité économique due à sa dépendance au mécénat.

Au Chili et en Bolivie, des lieux d’échanges et de métissage

Le cas du Teatro Municipal de Santiago inauguré en 1857 avec une architecture néoclassique française et toujours intact malgré de nombreux séismes, a été victime de crises budgétaires récurrentes mais développe depuis 2023 un partenariat avec l’Opéra National de Paris.

L’objectif est de permettre une circulation des savoir-faire au sein d’une coopération Sud-Nord au service de la formation de talents locaux. Le Chili accueille également un théâtre musical ouvert à des sujets politiques.

En Bolivie, le théatre Grand Mariscal de Ayacuchode, dans la ville de Sucre, construit en 1894 sur un modèle inspiré de la Scala pour accueillir des opérettes et des zarzuelas est devenu malgré son inachèvement un lieu patrimonial mêlant histoire locale et pratiques lyriques au croisement de l’Europe et des cultures andines.

Par ailleurs, ce métissage a donné naissance à des œuvres parfois anciennes comme cet opéra baroque datant de 1740 écrit par un indigène évangélisé en bésiro, dialecte ancien en voie de disparition.

De New York à Buenos Aires, l’opéra aux Amériques s’est bâti une identité singulière par sa capacité à assimiler apports européens et patrimoine culturel autochtone. Sur l’héritage des techniques et du répertoire européen sont venus se greffer des spécificités culturelles locales issues de traditions propres aux indiens, aux créoles ou aux populations afro-américaines. Loin d’un modèle importé à l’identique, il constitue un « palimpseste lyrique » où se côtoient Puccini, Offenbach, jazz et capoeira. Les voix de l’Amérique sont devenues l’écho d’un territoire lyrique complexe, où traditions culturelles et mémoires collectives s’incarnent dans un patrimoine musical et architectural singulier.

The Conversation

Frédéric Lamantia ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

13.11.2025 à 17:20

Enquête auprès de 2 400 professeurs d’EPS : « Nos élèves manquent de souffle et de force »

David Matelot, Enseignant d'EPS, docteur en physiologie de l'exercice, Université Bretagne Sud (UBS)

Florent Desplanques, Professeur agrégé d'EPS, chargé d'enseignement, École normale supérieure de Rennes

Laurent Beghin, Etudes cliniques, Université de Lille

Vanhelst Jérémy, Maître de conférences en STAPS, Université Sorbonne Paris Nord

Les performances en endurance et en force musculaire des élèves français se dégradent depuis vingt ans. Ces capacités physiques sont essentielles pour la santé. L’EPS peut-elle inverser la tendance ?
Texte intégral (2394 mots)
Les performances des élèves français à un test d'endurance cardio-respiratoire, le Navette 20 mètres, ont diminué de 18 % entre 1999 et 2022. Konstantin Mishchenko/Unsplash, CC BY

Alors que les performances à l’endurance des élèves ont chuté de près de 18 % entre 1999 et 2022, l’éducation nationale commence à mesurer la condition physique des enfants en classe de 6e. Une vaste enquête menée auprès de 2 400 enseignants d’éducation physique et sportive révèle que ceux-ci constatent ce déclin, mais peinent à en faire une priorité, faute de temps, de moyens et de formation. Pourtant, améliorer l’endurance cardiorespiratoire et la force musculaire à l’école apparaît aujourd’hui essentiel pour prévenir les risques cardio-vasculaires et poser les bases d’habitudes durables. Une équipe de chercheurs propose cinq pistes pour redresser la barre.


Les performances des élèves français au Navette 20 mètres, un test d’endurance cardio-respiratoire, ont diminué d’environ 18 % entre 1999 et 2022. Pour comprendre cette évolution, nous avons interrogé environ 2 400 enseignants d’éducation physique et sportive (EPS) en collège et lycée. Plus de 90 % savent que l’endurance cardiorespiratoire et la force musculaire sont associées à une meilleure santé physique.

Parmi les répondants, 91 % considèrent que le niveau d’endurance des élèves a baissé ces vingt dernières années, et 66 % jugent qu’il en va de même pour leur force.

Travailler ces qualités physiques n’est pas une priorité en EPS

Cependant, comme le montrent les réponses ci-dessus, le développement de ces deux qualités physiques est un objectif plutôt secondaire de leurs cours. De plus, 47 % des enseignants considèrent que les objectifs de l’EPS dans les programmes officiels ne donnent pas une place prioritaire au développement de ces qualités, ce qui freine la prise en compte de cette problématique.

Le développement de la condition physique des élèves en EPS est difficile parce qu’il nécessite pour l’enseignant d’EPS de concevoir des cours adaptés à trois caractéristiques qui varient au sein des élèves d’une même classe : leurs niveaux de force et d’endurance cardiorespiratoire, leurs stades de croissance et de maturation, et leurs motifs d’agir.

Les résultats de ce questionnaire nous ont amenés à développer cinq pistes pour le développement des qualités d’endurance cardiorespiratoire et de force musculaire des collégiens et des lycéens.

Piste 1 : Proposer des pratiques « hybrides » motivantes pour tous les élèves

« La question des qualités physiques vient buter souvent sur le manque d’attrait pour les élèves d’un engagement dans des efforts […] il faut être habile pour habiller les situations et les rendre ludiques tout en travaillant les qualités physiques. »

Cette réponse illustre une difficulté importante à laquelle les enseignants d’EPS doivent faire face, qui semble également vraie chez les adultes comme le montrent les travaux sur le « syndrome du paresseux ».

Plus spécifiquement pour l’EPS, il semble important de s’intéresser au plaisir et au déplaisir ressentis par les élèves, car ces émotions influencent la construction d’habitudes de pratiques physiques durables. La difficulté principale ici est qu’un même exercice proposé à l’ensemble de la classe va susciter de l’intérêt et du plaisir chez certains élèves mais du désintérêt voire du déplaisir pour d’autres. Chaque élève peut en effet se caractériser par des « motifs d’agir » variés : affronter en espérant gagner, progresser pour soi-même, faire en équipe, vivre des sensations fortes…

Petites filles gym
Rendre les exercices attractifs est essentiel pour motiver les élèves. Brett Wharton/Unsplash, CC BY

Les exercices dits « hybrides » sont une solution développée par des enseignants d’EPS : le principe est de proposer la même situation à tous les élèves, dans laquelle ils peuvent choisir leur objectif pour que chacun s’engage selon sa source de motivation privilégiée. Le « Parkour Gym » est une forme de pratique scolaire de la gymnastique artistique où les élèves composent un parcours en juxtaposant plusieurs figures d’acrobaties, en choisissant le niveau de difficulté. L’objectif pour tous est de réaliser ce parcours le plus rapidement possible, tout en réalisant correctement les figures acrobatiques choisies, qui rapportent des points selon leurs difficultés.

Cette pratique permet à chaque élève de se focaliser sur sa source de motivation privilégiée : améliorer son temps ou son score acrobatique, avoir un score final (temps et difficultés) le plus élevé possible, ou encore travailler spécifiquement la réalisation d’une acrobatie perçue comme valorisante ou génératrice de sensations fortes. Le travail ainsi réalisé en gymnastique, de par le gainage et les impulsions nécessaires, développe le système musculaire.

Piste 2 : Augmenter les temps de pratique d’EPS dans l’établissement

Le premier frein rapporté par les enseignants est le manque de temps en cours d’EPS, notamment au regard des multiples objectifs à travailler. Par exemple en Lycée Général et Technologique les programmes d’EPS contiennent cinq objectifs à travailler, en deux heures hebdomadaires. Une première solution qui apparaît serait d’augmenter le temps d’EPS obligatoire pour tous les élèves. Ou encore de prévoir des dispositifs de « soutien en EPS » avec des moyens supplémentaires dédiés aux élèves en difficulté dans cette discipline.

Des solutions existent également à moyens constants. La première possibilité est celle de l’association sportive scolaire qui existe dans chaque établissement, et qui propose des activités physiques et sportives aux élèves volontaires. Cette association est animée par les enseignants d’EPS de l’établissement, cette activité fait partie de leur temps de travail. Si les chiffres du graphique ci-dessous sont encourageants, il semble possible d’élargir encore davantage ces offres dans les collèges et lycées de France.

D’autres possibilités existent. L’équipe EPS du collège Les Hautes Ourmes (académie de Rennes) propose un dispositif intéressant, sur le modèle de ce qui est proposé en natation pour les non-nageurs, avec trois enseignants au lieu de deux qui interviennent sur deux classes en même temps. Ce fonctionnement permet de constituer des plus petits groupes de besoin encadrés par chaque enseignant, et de travailler une qualité physique ciblée prioritairement pour ce groupe (endurance cardiorespiratoire, vitesse, force et endurance musculaire, coordination, équilibre).

Enfin, l’académie de Limoges a mis en place des sections sportives scolaires « Sport-Santé ». Ce n’est plus la performance sportive qui est visée mais la recherche d’un bien-être physique, psychologique et social. La section donne l’opportunité aux élèves volontaires de s’impliquer dans la gestion de leur vie physique, en les sensibilisant à l’importance de la pratique sportive.

L’approche est axée sur la valorisation des réussites et de l’estime de soi, et propose des modalités de pratique novatrices et ludiques, adaptées aux spécificités des élèves. L’objectif est donc de donner ou de redonner le goût de la pratique physique à ces élèves, étape indispensable vers un mode de vie actif au-delà de l’École. Ces sections font partie, avec d’autres dispositifs, d’un réel système mis en place pour développer les qualités physiques de leurs élèves à différents niveaux. Nous espérons que cette démarche pourra se généraliser à d’autres Académies.

Piste 3 : Intégrer le travail des qualités aérobie et de force aux cours d’EPS

Les réponses aux deux questions ci-dessus indiquent qu’il serait intéressant de prévoir pendant les cours d’EPS plus de situations qui travaillent les qualités d’endurance cardiorespiratoire et de force musculaire des élèves. Celles-ci peuvent être stimulées et développées pendant toute la durée du cursus collège-lycée. Il est possible de développer ces qualités physiques pendant la pratique des activités physiques et sportives au programme en les intensifiant, ou alors lors de temps dédiés comme pendant un échauffement renforcé ou des exercices intermittents de haute intensité.

Piste 4 : Utiliser des tests physiques pour l’EPS

Parmi les répondants, 60 % des enseignants disent faire un test d’endurance cardio-respiratoire au moins une fois par an à leurs élèves, ce qui semble déjà élevé mais pourrait encore être généralisé. Pour la force seulement, 14 % des enseignants disent que leurs élèves font un test au moins une fois par an, et ils sont 63 % à ne jamais faire de tests de force pendant leur scolarité dans l’établissement.

Les tests physiques sont globalement assez peu exploités en France. En effet, aucune batterie de tests ni base de données nationale n’existe en France contrairement à d’autres pays (par exemple, les programmes Fitnessgram aux États-Unis, Youth-Fit en Irlande, ou Slofit en Slovénie). Mesurer les qualités physiques par des tests répétés met en évidence les progrès des élèves et améliore leur connaissance de soi, ces tests peuvent être un outil pour l’EPS.

Piste 5 : Renforcer la formation des enseignants

Globalement, les enseignants sont intéressés par une formation sur ce thème (cf. graphique ci-dessous). Si environ 80 % des enseignants disent avoir été suffisamment formés pour évaluer (83 %) et développer (78 %) l’endurance cardio-respiratoire de leurs élèves, concernant la force, ces chiffres descendent à 49 % pour son évaluation et à 58 % pour son développement.

Plusieurs études démontrent que les niveaux d’aérobie et de force des élèves sont liées à leurs risques de développer des pathologies cardio-vasculaires plus tard dans la vie, et plus globalement à leur espérance de vie. Cette association n’est connue que par 41 % des enseignants pour l’aérobie et par 22 % pour la force. La formation continue des enseignants d’EPS dans ce domaine pourrait donc également être renforcée.


Les auteurs tiennent à remercier François Carré, professeur émérite au CHU de Rennes, pour sa contribution à la rédaction de cet article.

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.

PDF

13.11.2025 à 17:20

Infrastructures côtières menacées : comment mieux évaluer les risques climatiques pour mieux les anticiper ?

Anthony Schrapffer, PhD, EDHEC Climate Institute Scientific Director, EDHEC Business School

Mieux mesurer et anticiper les risques exige de savoir les évaluer de façon rigoureuse, comparable et transparente, en intégrant leur matérialité financière et l’évolution climatique.
Texte intégral (2413 mots)

Élévation du niveau de la mer, intensification des tempêtes… La concentration d’infrastructures sur le littoral les place en première ligne face au changement climatique. Les risques sont nombreux : paralysie des transports, coupures d’électricité, ruptures d’approvisionnement. De quoi inviter à mieux mesurer ces vulnérabilités pour mieux anticiper et prévenir les impacts. Ce travail est aujourd’hui compliqué par des données souvent partielles, des méthodes trop diverses et l’absence d’un cadre commun pour bien appréhender le risque.


La fin du mois d’octobre 2025 a été marquée par le passage dévastateur, dans les Caraïbes, de l’ouragan Melissa. Le changement climatique a rendu ce type d’événement quatre fois plus probable, selon une étude du Grantham Institute de l’Imperial College London. En plus de la soixantaine de morts déplorés à ce stade, le coût des dégâts engendrés a déjà été estimé à 43 milliards d’euros.

De nombreuses grandes agglomérations, ainsi que des ports, des zones industrielles et des infrastructures critiques, se trouvent en milieu littoral. 40 % de la population mondiale vit à moins de 100 kilomètres des côtes et 11 % dans des zones côtières de faible altitude – à moins de 10 mètres au-dessus du niveau marin. Ce phénomène s’explique en partie par la facilité d’accès aux échanges maritimes ainsi qu’aux ressources naturelles telles que l’eau et la pêche, et au tourisme.

Mais avec l’élévation du niveau de la mer et l’intensification des tempêtes, cette concentration d’infrastructures sur le littoral se retrouve en première ligne face au changement climatique. Transports paralysés, coupures d’électricité, ruptures d’approvisionnement… les risques sont plus divers et amplifiés.

La mesure de ces vulnérabilités s’impose pour anticiper les effets économiques, environnementaux et sociaux et, surtout, prévenir les ruptures. Mais comment prévoir l’impact du changement climatique sur les infrastructures côtières sans adopter un référentiel commun du risque ?

Des catastrophes climatiques de plus en plus coûteuses

Sous l’effet du changement climatique, de la montée du niveau des mers et de l’érosion qui rend les côtes plus fragiles, les tempêtes, cyclones et inondations côtières gagnent en fréquence et en intensité. Les infrastructures littorales sont particulièrement exposées à ces phénomènes extrêmes, avec des bilans humains et économiques toujours plus lourds.

En 2005, l’ouragan Katrina a submergé 80 % de La Nouvelle-Orléans et causé plus de 1 800 morts et 125 milliards de dollars (soit 107,6 milliards d’euros) de dégâts, dévastant des centaines de plates-formes pétrolières et gazières ainsi que plus de 500 pipelines. En 2019, le cyclone Idai a ravagé le Mozambique, entraînant 1 200 victimes, 2 milliards de dollars (1,7 milliard d’euros) de dommages et la paralysie du port de Beira. Deux ans plus tard, des pluies diluviennes en Allemagne, Belgique et Pays-Bas ont inondé villes et campagnes, avec pour conséquences : routes coupées, voies ferrées détruites, réseaux d’eau hors service et les transports ont mis plusieurs semaines à se rétablir.

Au-delà des dommages, ces catastrophes provoquent des interruptions d’activité des services produits par les infrastructures, et laissent moins de temps pour les reconstructions étant donné leur fréquence accrue.

Plus préoccupant encore, il existe des effets en cascade entre secteurs étroitement liés. Une défaillance locale devient le premier domino d’une chaîne de vulnérabilités, et un incident isolé peut tourner à la crise majeure. Une route bloquée par une inondation côtière, une panne d’électricité, sont autant de possibles impacts sur la chaîne d’approvisionnement globale. Faute de mesures adaptées, les dommages engendrés par les inondations côtières pourraient être multipliés par 150 d’ici à 2080.

Il y a donc urgence à mesurer les fragilités des infrastructures côtières de manière comparable, rigoureuse et transparente. L’enjeu étant de mieux anticiper les risques afin de préparer ces territoires économiques vitaux aux impacts futurs du changement climatique.

Vers un langage commun pour mesurer les risques

Estimer les potentiels points de rupture des infrastructures côtières n’est pas évident. Les données sont souvent partielles, les méthodes utilisées dans les études souvent diverses, les critères peuvent être différents et il manque généralement d’un cadre commun. Cela rend la prise de décision plus complexe, ce qui freine les investissements ciblés.

Pour bâtir un référentiel commun, une solution consisterait à mesurer les risques selon leur matérialité financière. Autrement dit, en chiffrant les pertes directes, les coûts de réparation et les interruptions d’activité.

L’agence Scientific Climate Ratings (SCR) applique cette approche à grande échelle, en intégrant les risques climatiques propres à chaque actif. La méthodologie élaborée en lien avec l’EDHEC Climate Institute sert désormais de référence scientifique pour évaluer le niveau d’exposition des infrastructures, mais aussi pour comparer, hiérarchiser et piloter les investissements d’adaptation aux risques climatiques.

Ce nouveau langage commun constitue le socle du système de notations potentielles d’exposition climatique (Climate Exposure Ratings) développé et publié par la SCR. Celle-ci s’appuie sur cette échelle graduée de A à G pour comparer l’exposition des actifs côtiers et terrestres. Une notation de A correspond à un risque minimal en comparaison avec l’univers d’actifs alors que G est donné aux actifs les plus risqués.

Comparaison des notations potentielles d’exposition climatique entre les actifs côtiers et l’ensemble des actifs pris en compte dans l’évaluation de l’agence Scientific Climate Ratings (fourni par l’auteur). Anthony Schrapffer, Fourni par l'auteur

Les résultats de la SCR montrent ainsi que les actifs côtiers concentrent plus de notations risquées (F, G) et moins de notation à faible risque (A, B). En d’autres termes, leur exposition climatique est structurellement supérieure à celle des autres infrastructures terrestres.

Risque bien évalué, décisions éclairées

Dans le détail, la méthode de quantification du risque physique élaborée par l’EDHEC Climat Institute consiste à croiser la probabilité de survenue d’un aléa avec son intensité attendue. Des fonctions de dommage relient ensuite chaque scénario climatique à la perte potentielle selon le type d’actif et sa localisation. Pour illustrer cela, nous considérons par exemple qu’une crue centennale, autrement dit avec une probabilité d’occurrence de 1 % par an, correspond à une intensité de deux mètres et peut ainsi détruire plus de 50 % de la valeur d’un actif résidentiel en Europe.

Ces indicateurs traduisent la réalité physique en coût économique, ce qui permet d’orienter les politiques publiques et les capitaux privés. Faut-il construire ? Renforcer ? Adapter les infrastructures ? Lesquelles, en priorité ?

L’analyse prend aussi en compte les risques de transition : effets des nouvelles normes, taxation carbone, évolutions technologiques… Un terminal gazier peut ainsi devenir un « actif échoué » si la demande chute ou si la réglementation se durcit. À l’inverse, une stratégie d’adaptation précoce améliore la solidité financière et la valeur de long terme d’une infrastructure exposée aux aléas climatiques.

S’adapter est possible : l’exemple de l’aéroport de Brisbane

La résilience pour une infrastructure représente la capacité à absorber un choc, et à se réorganiser tout en conservant ses fonctions essentielles. En d’autres termes, c’est la capacité pour ces actifs à revenir à un fonctionnement normal à la suite d’un choc.

L’initiative ClimaTech évalue les actions de résilience, de décarbonation et d’adaptation selon leur efficacité à réduire le risque et leur coût. Cette approche permet de limiter le greenwashing : seules les mesures efficaces améliorent significativement la notation d’un actif sur des bases objectives et comparables. Plus on agit, mieux on est noté.

L’aéroport de Brisbane (Australie), situé entre océan et rivière, est particulièrement exposé aux risques climatiques. Nate Cull/WikiCommons, CC BY-SA

L’aéroport de Brisbane (Australie), situé entre océan et rivière, en est un bon exemple. Des barrières anti-crues et la surélévation des pistes ont réduit à hauteur de 80 % le risque d’inondations pour les crues centennales. L’infrastructure a ainsi gagné deux catégories sur l’échelle de notation SCR : une amélioration mesurable qui accroît son attractivité.

Le cas de Brisbane révèle qu’investir dans la résilience des infrastructures côtières est possible, et même rentable. Ce modèle d’adaptation qui anticipe les dommages liés aux catastrophes climatiques pourrait être généralisé, à condition que les décideurs s’appuient une évaluation des risques fiable, cohérente et lisible comme celle que nous proposons.

Face au changement climatique, les infrastructures côtières sont à un tournant. En première ligne, elles concentrent des enjeux économiques, sociaux et environnementaux majeurs. Leur protection suppose une évaluation rigoureuse, comparable et transparente des risques, intégrant matérialité financière et évolution climatique. Une telle approche permet aux acteurs publics et privés de décider, d’investir et de valoriser les actions concrètes : rendre le risque visible, c’est déjà commencer à agir.

The Conversation

Anthony Schrapffer, PhD ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

13.11.2025 à 17:19

La privatisation du service public, un non-sens économique et une menace pour notre démocratie

Nathalie Sonnac, Professeure en sciences de l'information et de la communication, Université Paris-Panthéon-Assas

Le Rassemblement national souhaite privatiser l’audiovisuel public. Quelles seraient les conséquences de cette privatisation aux plans économique et politique ?
Texte intégral (1841 mots)

Les campagnes de dénigrement de l’audiovisuel public, portées par des médias privés, ont récemment pris une ampleur inédite. Le Rassemblement national ne cache pas son intention de le privatiser s’il arrive au pouvoir. Quelles seraient les conséquences de ce choix aux plans économique et politique ?


Nous assistons depuis plusieurs années à une crise des régimes démocratiques, qui se traduit par la montée de dirigeants populistes et/ou autoritaires au pouvoir et à une défiance massive des populations envers les institutions, journalistes et médias. En l’espace d’une génération, les réseaux sociaux les ont supplantés comme les principales sources d’information : 23 % des 18-25 ans dans le monde (Reuters Institute, 2024) s’informent sur TikTok, 62 % des Américains s’informent sur les réseaux sociaux, tandis que seul 1 % des Français de moins de 25 ans achètent un titre de presse.

Pour autant, dans ce nouveau paysage médiatique, la télévision continue d’occuper une place centrale dans la vie des Français, qu’il s’agisse du divertissement, de la culture ou de la compréhension du monde. Elle demeure le mode privilégié d’accès à l’information : 36 millions de téléspectateurs lors d’une allocution du président Macron pendant la crise sanitaire ; près de 60 millions de Français (vingt heures en moyenne par personne) ont suivi les JO de Paris sur France Télévisions. Le groupe public – qui réunit 28 % de part d’audience en 2024 – est la première source d’information chez les Français, il bénéficie d’un niveau de confiance supérieur à celui accordé aux chaînes privées.

L’impossible équation économique d’une privatisation de l’audiovisuel public

Pourtant, tel un marronnier, l’audiovisuel public est régulièrement attaqué par des politiques prônant sa privatisation, voire sa suppression, parfois au nom d’économies pour le contribuable ; d’autres fois, par idéologie. La « vraie-fausse » vidéo des journalistes Thomas Legrand et Patrick Cohen, diffusée en boucle sur la chaîne CNews, donne l’occasion à certains de remettre une pièce dans la machine.

Concrètement, privatiser l’audiovisuel public signifierait vendre les chaînes France 2, France 3 ou France 5 à des acheteurs privés, comme le groupe TF1, propriétaire des chaînes gratuites, telles que TF1, LCI et TFX ; le groupe Bertelsmann, propriétaire des chaînes gratuites M6, W9 ou 6Ter… ou encore le groupe CMA-CGM, propriétaire de BFM TV.

Sur le plan économique, cela relève aujourd’hui du mirage. Même les chaînes privées, pourtant adossées à de grands groupes, peinent à équilibrer leurs comptes. Dans un environnement aussi fortement compétitif, sur l’audience et les revenus publicitaires – les chaînes, les plateformes numériques, comme YouTube, et les services de vidéo à la demande (SVOD), comme Netflix ou Disney+ (qui ont ouvert leur modèle à la publicité), se livrent une concurrence acharnée. Comment imaginer qu’un nouvel entrant aussi puissant qu’une chaîne du service public soit viable économiquement ? Cela revient à ignorer la situation du marché de la publicité télévisée, qui n’est plus capable d’absorber une chaîne de plus.

Ce marché a reculé de 9 % entre 2014 et 2024. Et la télévision ne pèse plus que 20 % du marché total contre 26 % en 2019, quand le numérique capte désormais 57 % des recettes et pourrait atteindre 65 % en 2030. La fuite des annonceurs vers les plateformes en ligne fragilise toutes les chaînes gratuites de la TNT, dont le financement repose quasi exclusivement sur la publicité.

Le service public, pivot économique de l’écosystème audiovisuel

Une chaîne de télévision, ce sont d’abord des programmes : documentaires, films, séries, jeux, divertissements et informations. Or, malgré l’arrivée de nouveaux acteurs, comme les services de vidéo à la demande, qui investissent à hauteur d’un quart des obligations versées au secteur, la production audiovisuelle reste largement dépendante des chaînes de télévision. Ce secteur pèse lourd : plus de 5 500 entreprises, 125 000 emplois et un chiffre d’affaires d’environ 3 milliards d’euros.

Le paysage audiovisuel français reste dominé par trois groupes : TF1, M6 et France TV concentrent plus de 90 % du chiffre d’affaires des chaînes gratuites et assurent 75 % de la contribution totale de la production. Parmi eux, le groupe public France TV est le premier partenaire de la production audiovisuelle et cinématographique nationale : il investit chaque année 600 millions d’euros en achat de programmes audiovisuels et cinématographiques et irrigue ainsi toute l’industrie culturelle.

Le secteur de la production audiovisuelle, malgré l’arrivée des acteurs de la SVOD et leur demande croissante de programmes de création originale française (films, animation, documentaires), demeure largement dépendant des commandes des chaînes de télévision : la diminution du nombre de chaînes, notamment publiques, conduirait à fragiliser l’ensemble de la filière audiovisuelle et culturelle.

Une étude d’impact, réalisée en 2021, établit que le groupe France Télévisions génère 4,4 milliards d’euros de contribution au produit intérieur brut (PIB) pour 2,3 milliards d’euros de contributions publiques, 62 000 équivalents temps plein (pour un emploi direct, cinq emplois supplémentaires sont soutenus dans l’économie française), dont 40 % en région et en outre-mer » et pour chaque euro de contribution à l’audiovisuel public (CAP) versé, 2,30 € de production additionnelle sont générés. Loin d’être une charge, le service public audiovisuel est donc un levier économique majeur, créateur d’emplois, de richesse et de cohésion territoriale.

Le service public : un choix européen

Au-delà des chiffres, l’audiovisuel public constitue un choix démocratique. Les missions de services publics sont au cœur des missions de l’Europe, déjà présentes dans la directive Télévision sans frontière, à la fin des années 1980. Aujourd’hui, c’est la directive de services de médias audiovisuels qui souligne l’importance de la coexistence de fournisseurs publics et privés, allant jusqu’à formuler qu’elle caractérise le marché européen des médias audiovisuels.

Le Parlement européen l’a rappelé en réaffirmant l’importance d’un système mixte associant médias publics et privés, seul modèle capable de garantir à la fois la diversité et l’indépendance. Il ajoute en 2024 dans le règlement sur la liberté des médias l’indispensable « protection des sources journalistiques, de la confidentialité et de l’indépendance des fournisseurs de médias de service public ».

L’étude publiée par l’Observatoire européen de l’audiovisuel en 2022, malgré la diversité des médias publics européens, tous s’accordent autour de valeurs communes : l’indépendance face aux ingérences politiques, l’universalité pour toucher tous les publics, le professionnalisme dans le traitement de l’information, la diversité des points de vue, la responsabilité éditoriale.

Un rôle démocratique indispensable

En France, un suivi très concret et précis du fonctionnement des services publics est assuré par l’Autorité de régulation de la communication audiovisuelle et numérique (Arcom). Ces principes sont encadrés par des contrats d’objectifs et de moyens (COM) qui garantissent leur mission démocratique, leur transparence et font l’objet d’un suivi rigoureux par l’autorité de régulation. Plus de 70 articles déterminent les caractéristiques de chaque service public édité, qui vont de la nécessité de faire vivre le débat démocratique à la promotion de la langue française ou l’éducation aux médias et à l’information, en passant par la communication gouvernementale en temps de crise ou encore la lutte contre le dopage. Un cahier des charges est adossé à des missions d’intérêt général, il garantit le pluralisme, la qualité de l’information et l’indépendance éditoriale.

L’information est une de ses composantes essentielles de sa mission d’intérêt général. Elle représente 62,6 % de l’offre globale d’information de la TNT (hors chaînes d’information) en 2024 : JT, émissions spéciales au moment d’élections, magazines de débats politiques et d’investigations. Ces derniers apparaissent comme des éléments distinctifs de l’offre.

Une consultation citoyenne de 127 109 personnes, menée par Ipsos en 2019 pour France Télévisions et Radio France, faisait apparaître que « la qualité de l’information et sa fiabilité » ressortaient comme la première des attentes (68 %), devant « un large éventail de programmes culturels » (43 %) et « le soutien à la création française » (38 %). Dans un climat généralisé de défiance à l’égard des institutions, l’audiovisuel public demeure une référence pour les téléspectateurs.

Il est temps de siffler la fin de la récréation

Le cocktail est explosif : concurrence féroce entre chaînes d’info, fuite des annonceurs vers les plateformes numériques, déficit chronique des chaînes privées. En pleine guerre informationnelle, sans réinvestissement massif dans le service public et sans réflexion sur le financement de la TNT, le risque est clair : l’affaiblissement des piliers démocratiques de notre espace public.

En France, ce rôle doit être pleinement assumé. L’État, à travers l’Arcom, est le garant de la liberté de communication, de l’indépendance et du pluralisme. Il va de sa responsabilité d’assurer la pérennité du financement du service public et de protéger son rôle contre les dérives des logiques commerciales et idéologiques.

The Conversation

Nathalie Sonnac est membre du Carism et du Laboratoire de la République.

PDF

13.11.2025 à 17:19

L’intelligence artificielle peut-elle améliorer la prévision météorologique ?

Laure Raynaud, Météorologiste, Météo France

Moins coûteux, plus rapides, plus précis, les modèles d’IA pourront-ils renouveler les prévisions météorologiques ?
Texte intégral (1572 mots)

L’intelligence artificielle a déjà impacté de nombreux secteurs, et la météorologie pourrait être le suivant. Moins coûteux, plus rapide, plus précis, les modèles d’IA pourront-ils renouveler les prévisions météorologiques ?


Transport, agriculture, énergie, tourisme… Les prévisions météorologiques jouent un rôle essentiel pour de nombreux secteurs de notre société. Disposer de prévisions fiables est donc indispensable pour assurer la sécurité des personnes et des biens, mais également pour organiser les activités économiques. Dans le contexte du changement climatique, où les épisodes de très fortes pluies, de vagues de chaleur ou de mégafeux ne cessent de se multiplier, les populations sont d’autant plus vulnérables, ce qui renforce le besoin en prévisions précises à une échelle très locale.

L’élaboration d’une prévision météorologique est un processus complexe, qui exploite plusieurs sources de données et qui demande une grande puissance de calcul. Donner du sens et une utilité socio-économique à la prévision pour la prise de décision est aussi un enjeu majeur, qui requiert une expertise scientifique et technique, une capacité d’interprétation et de traduction de l’information en services utiles à chaque usager. L’intelligence artificielle (IA) peut aider à répondre à ces défis.

L’IA : un nouveau paradigme pour la prévision météorologique ?

Comme on peut le lire dans le rapport Villani sur l’IA, rendu public en mars 2018, « définir l’intelligence artificielle n’est pas chose facile ». On peut considérer qu’il s’agit d’un champ pluridisciplinaire qui recouvre un vaste ensemble de méthodes à la croisée des mathématiques, de la science des données et de l’informatique. L’IA peut être mise en œuvre pour des tâches variées, notamment de la prévision, de la classification, de la détection ou encore de la génération de contenu.

Les méthodes d’IA parmi les plus utilisées et les plus performantes aujourd’hui fonctionnent sur le principe de l’apprentissage machine (machine learning) : des programmes informatiques apprennent, sur de grands jeux de données, la meilleure façon de réaliser la tâche demandée. Les réseaux de neurones profonds (deep learning) sont un type particulier d’algorithmes d’apprentissage, permettant actuellement d’atteindre des performances inégalées par les autres approches. C’est de ce type d’algorithme dont il est question ici.

La prévision météorologique repose actuellement, et depuis plusieurs décennies, sur des modèles qui simulent le comportement de l’atmosphère. Ces modèles intègrent des lois physiques, formulées pour calculer l’évolution des principales variables atmosphériques, comme la température, le vent, l’humidité, la pression, etc. Connaissant la météo du jour, on peut ainsi calculer les conditions atmosphériques des prochains jours. Les modèles météorologiques progressent très régulièrement, en particulier grâce à l’utilisation de nouvelles observations, satellitaires ou de terrain, et à l’augmentation des ressources de calcul.

La prochaine génération de modèles aura pour objectif de produire des prévisions à un niveau de qualité et de finesse spatiale encore plus élevé, de l’ordre de quelques centaines de mètres, afin de mieux appréhender les risques locaux comme les îlots de chaleur urbains par exemple. Cette ambition soulève néanmoins plusieurs challenges, dont celui des coûts de production : effectuer une prévision météo requiert une puissance de calcul très importante, qui augmente d’autant plus que la précision spatiale recherchée est grande et que les données intégrées sont nombreuses.

Gagner en temps et en qualité

Cette étape de modélisation atmosphérique pourrait bientôt bénéficier des avantages de l’IA. C’est ce qui a été démontré dans plusieurs travaux récents, qui proposent de repenser le processus de prévision sous l’angle des statistiques et de l’apprentissage profond. Là où les experts de la physique atmosphérique construisent des modèles de prévision où ils explicitement le fonctionnement de l’atmosphère, l’IA peut apprendre elle-même ce fonctionnement en analysant de très grands jeux de données historiques.

Cette approche par IA de la prévision du temps présente plusieurs avantages : son calcul est beaucoup plus rapide – quelques minutes au lieu d’environ une heure pour produire une prévision à quelques jours d’échéance – et donc moins coûteux, et la qualité des prévisions est potentiellement meilleure. Des études montrent par exemple que ces modèles sont déjà au moins aussi efficaces que des modèles classiques, puisqu’ils permettent d’anticiper plusieurs jours à l’avance des phénomènes tels que les cyclones tropicaux, les tempêtes hivernales ou les vagues de chaleur.

Les modèles d’IA sont encore au stade de développement dans plusieurs services météorologiques nationaux, dont Météo France, et font l’objet de recherches actives pour mieux comprendre leurs potentiels et leurs faiblesses. À court terme, ces modèles d’IA ne remplaceront pas les modèles fondés sur la physique, mais leur utilisation pour la prévision du temps est amenée à se renforcer, à l’instar du modèle AIFS, produit par le Centre européen de prévision météorologique à moyen terme, opérationnel depuis début 2025.

De la prévision météorologique à la prise de décision

Au-delà des modèles, c’est toute la chaîne d’expertise des prévisions et des observations météorologiques qui pourrait être facilitée en mobilisant les techniques d’IA. Cette expertise repose actuellement sur des prévisionnistes qui, chaque jour, analysent une grande quantité de données afin d’y détecter des événements potentiellement dangereux, d’élaborer la carte de vigilance météorologique en cas d’événements extrêmes, comme les fortes pluies, ou encore les bulletins à destination de différents usagers. Dans un contexte où le volume de données à traiter croît rapidement, l’IA pourrait aider les prévisionnistes dans l’extraction et la synthèse de l’information.

Une grande partie des données météorologiques étant assimilable à des images, les méthodes d’IA utilisées en traitement d’images, notamment pour la reconnaissance de formes et la classification automatique, peuvent être appliquées de façon similaire à des données météo. Les équipes de recherche et développement de Météo France ont par exemple mis en œuvre des méthodes d’IA pour l’identification du risque d’orages violents à partir de cartes météorologiques. D’autres travaux ont porté sur le développement d’IA pour la détection de neige sur les images issues de webcams, et l’estimation des quantités de pluie à partir d’images satellites. Enfin, des travaux sont en cours pour utiliser les grands modèles de langage (à l’origine des applications comme ChatGPT) comme support d’aide à la rédaction des bulletins météo.

Dans tous les cas il ne s’agit pas de remplacer l’humain, dont l’expertise reste essentielle dans le processus de décision, mais de développer des IA facilitatrices, qui permettront de concentrer l’expertise humaine sur des tâches à plus forte valeur ajoutée.

En poursuivant les efforts déjà engagés, l’IA contribuera à répondre aux défis climatiques et à renforcer les services de proximité avec une réactivité et une précision accrues. Faire de l’IA un outil central pour la prévision du temps nécessite néanmoins une vigilance particulière sur plusieurs aspects, en particulier la disponibilité et le partage de données de qualité, la maîtrise de l’impact environnemental des IA développées en privilégiant des approches frugales, et le passage de preuves de concept à leur industrialisation.


Cet article est publié dans le cadre de la Fête de la science (qui a lieu du 3 au 13 octobre 2025), dont The Conversation France est partenaire. Cette nouvelle édition porte sur la thématique « Intelligence(s) ». Retrouvez tous les événements de votre région sur le site Fetedelascience.fr.

The Conversation

Laure Raynaud a reçu des financements de l'Agence Nationale de la Recherche (ANR), l'Union Européenne.

PDF

13.11.2025 à 14:31

La quête de « l’utérus artificiel » : entre fiction et avancées de la recherche

Allane Madanamoothoo, Associate Professor of Law, EDC Paris Business School

L’utérus artificiel relève pour l’heure de la science-fiction, mais des recherches sont en cours. Les enjeux liés à ce pari technologique sont vertigineux.
Texte intégral (2486 mots)

Et si la gestation ou, du moins, une partie du processus, pouvait être externalisée au moyen de dispositifs extra-utérins, que ce soit pour poursuivre le développement de nouveau-nés prématurés ou pour des visées plus politiques, comme lutter contre la baisse des naissances ? Une telle technologie est encore très loin d’être réalisable, mais des recherches sont bel et bien menées dans ce domaine.


En août dernier, la rumeur circulait qu’un chercheur chinois, Zhang Qifeng, fondateur de Kaiwa Technology, travaillait au développement de robots humanoïdes dotés d’utérus artificiels, capables de porter un fœtus jusqu’à dix mois. Le prototype serait presque finalisé et devrait être prêt d’ici à 2026. Prix du « robot de grossesse » : 100 000 yuans (environ 12 000 euros).

Après vérification, il s’avère que cette technique de procréation, appelée « ectogenèse », ne verra pas le jour en Chine et que les informations relayées sont fausses. Il en est de même de l’existence de Zhang Qifeng.

Toutefois, même si pour l’heure l’utérus artificiel (UA) relève de la science-fiction, la création d’un tel dispositif technique – perçu comme le prolongement des couveuses néonatales et des techniques de procréation médicalement assistée – fait l’objet de recherches dans plusieurs pays.

Des recherches sur l’animal autour de dispositifs extra-utérins

L’idée de concevoir et de faire naître un enfant complètement en dehors du corps de la femme, depuis la conception jusqu’à la naissance, n’est pas nouvelle. Le généticien John Burdon Sanderson Haldane (1892-1964), inventeur du terme « ectogenèse », l’avait imaginé en 1923.

Selon les prédictions de ce partisan de l’eugénisme, le premier bébé issu d’un UA devait naître en 1951.

Henri Atlan, spécialiste de la bioéthique et auteur de l’Utérus artificiel (2005), estimait, quant à lui, que la réalisation de l’UA pourrait intervenir d’ici le milieu ou la fin du XXIᵉ siècle.

Même si l’UA n’existe pas encore, les chercheurs ont d’ores et déjà commencé à faire des essais chez les animaux, dans l’espoir de développer par la suite des prototypes d’UA applicables à l’être humain.

En 1993, par exemple, au Japon, le professeur Yoshinori Kuwabara a conçu un incubateur contenant du liquide amniotique artificiel permettant à deux fœtus de chèvres (de 120 jours et de 128 jours, la gestation étant de cinq mois chez la chèvre, soit autour de 150 jours) de se développer hors de l’utérus pendant trois semaines. À leur naissance, ils ont survécu plus d’une semaine.

En 2017, un article publié dans Nature Communications a révélé les travaux de l’équipe d’Alan Flake, chirurgien fœtal à l’hôpital pour enfants de Philadelphie (États-Unis), qui ont permis à des fœtus d’agneaux de se développer partiellement, là encore dans un dispositif extra-utérin rempli de liquide amniotique artificiel, pendant quatre semaines. Avec un apport nutritionnel approprié, les agneaux ont connu une croissance apparemment normale, notamment au niveau du développement des poumons et du cerveau.

Côté développement embryonnaire, toujours chez l’animal, en 2021, des chercheurs chinois ont mis au point un système capable de surveiller le développement d’embryons de souris de manière entièrement automatisée, abusivement surnommé « nounou artificielle ».

L’utilisation d’animaux à des fins de recherche, bien qu’elle soit réglementée dans de nombreux pays, y compris les pays de l’Union européenne (Directive européenne 2010/63 UE) et aux États-Unis (Animal Welfare Act), soulève néanmoins des questions éthiques.

Des recherches et des avancées aussi sur l’humain

Dans le domaine de la procréation humaine, les avancées sont également considérables. Il est possible depuis 1978 – année de la naissance de Louise Brown, premier « bébé-éprouvette » du monde – de concevoir un embryon par fécondation in vitro (FIV), puis de l’implanter avec succès dans l’utérus de la mère.

En 2003, les travaux de la chercheuse américaine Helen Hung Ching Liu ont démontré la possibilité d’implanter des embryons dans une cavité biodégradable en forme d’utérus humain et recouverte de cellules endométriales. Faute d’autorisation légale, les embryons, qui se développaient normalement, ont été détruits au bout de six jours.

En 2016, un article publié dans Nature Cell Biology a également révélé que le développement embryonnaire pouvait se poursuivre en laboratoire, grâce à un système in vitro.

Le défi pour les chercheurs consiste à combler la période qui suit les 14 premiers jours de l’embryon conçu par FIV – période qui correspond à un seuil critique car elle comprend des étapes clés du développement de l’embryon.

À ce jour, de nombreux pays ont défini une limite de quatorze jours à ne pas dépasser pour le développement embryonnaire in vitro à des fins de recherche ou pour la fécondation, soit sous la forme de recommandations, soit par l’intermédiaire d’une loi, comme c’est le cas en France.

Dans le futur, un risque de détournement des finalités initiales ?

Les recherches actuelles sur le développement de l’UA « partiel » dans lequel l’enfant serait placé dans un dispositif extra-utérin rempli de liquide de synthèse sont motivées par des raisons thérapeutiques, notamment la réduction de la mortalité des nouveau-nés prématurés.

Toutefois, l’UA « total » qui permettrait une gestation extra-corporelle, de la fécondation à la naissance, pourrait se déployer pour répondre à d’autres objectifs. Il s’agit naturellement d’un exercice de prospective, mais voici certains développements qui semblent envisageables si l’UA « total » venait à être développé et à devenir largement accessible.

Certaines femmes pourraient y avoir recours pour des raisons personnelles. Henri Atlan en avait déjà prédit la banalisation :

« Très vite se développera une demande de la part de femmes désireuses de procréer tout en s’épargnant les contraintes d’une grossesse […] Dès qu’il sera possible de procréer en évitant une grossesse, au nom de quoi s’opposera-t-on à la revendication de femmes pouvant choisir ce mode de gestation ? »

Dans une société capitaliste, certaines entreprises pourraient encourager la « culture des naissances » extra-corporelles afin d’éviter les absences liées à la grossesse humaine. Une discrimination pourrait alors s’opérer entre les salariées préférant une grossesse naturelle et celles préférant recourir à l’UA dans le cadre de leur projet de maternité. Dans un contexte concurrentiel, d’autres entreprises pourraient financer l’UA. Rappelons à cet égard que, aux États-Unis, plusieurs grandes entreprises (Google, Apple, Facebook, etc.) couvrent déjà le coût de la FIV et/ou de la congélation des ovocytes afin d’attirer les « meilleurs profils », bien qu’aucune de ces pratiques ne constitue une « assurance-bébé ». Plusieurs cycles de FIV peuvent en effet être nécessaires avant de tomber enceinte.

L’UA pourrait être utilisé afin de pallier l’interdiction de la gestation pour autrui (GPA) en vigueur dans de nombreux États, ou être préféré à la GPA afin d’éviter les situations où la mère porteuse, après s’être attachée à l’enfant qu’elle portait, refuse de le remettre aux parents d’intention, ou encore pour une question de coût.

L’industrie de la fertilité pourrait développer ce qui serait un nouveau marché — celui de l’UA —, parallèlement à ceux de la FIV, du sperme, des ovocytes et de la GPA, déjà existants. Nous aboutirions alors à une fabrication industrielle de l’humain, ce qui modifierait profondément l’humanité.

Indéniablement, l’UA pourrait mener à la revendication d’un droit à un designer baby (bébé à la carte ou bébé sur mesure) sous le prisme d’un eugénisme privé. Avec un corps pleinement visible et contrôlable dans l’UA, les parents pourraient exiger un « contrôle de qualité » sur l’enfant durant toute la durée de la gestation artificielle.

Aux États-Unis, plusieurs cliniques de fertilité proposent déjà aux futurs parents de choisir le sexe et la couleur des yeux de leur enfant conçu par FIV, option couplée à un diagnostic préimplantatoire (DPI). D’autres, telles que Genomic Prediction, offrent la possibilité de sélectionner le « meilleur embryon » après un test polygénique, avant son implantation dans l’utérus de la mère. La naissance de bébés génétiquement modifiés est aussi possible depuis celles de Lulu et de Nana en Chine, en 2018, malgré l’interdiction de cette pratique.

Dernier élément de cet exercice de prospective : l’UA pourrait être utilisé à des fins politiques. Certains pays pourraient mener un contrôle biomédical des naissances afin d’aboutir à un eugénisme d’État. D’autres États pourraient tirer avantage de l’UA pour faire face au déclin de la natalité.

Qu’en pensent les féministes ?

En envisageant la séparation de l’ensemble du processus de la procréation – de la conception à la naissance – du corps humain, l’UA suscite des débats au sein du mouvement féministe.

Parmi les féministes favorables à l’UA, Shulamith Firestone (1945-2012), dans son livre The Dialectic of Sex : The Case for Feminist Revolution (1970), soutient que l’UA libérerait les femmes des contraintes de la grossesse et de l’accouchement. Plaidant contre la sacralisation de la maternité et de l’accouchement, elle estime que l’UA permettrait également aux femmes de ne plus être réduites à leur fonction biologique et de vivre pleinement leur individualité. Cette thèse est partagée par Anna Smajdor et Kathryn Mackay.

Evie Kendel, de son côté, juge que, si l’UA venait à devenir réalité, l’État devrait le prendre en charge, au nom de l’égalité des chances entre les femmes.

Chez les féministes opposées à l’UA, Rosemarie Tong considère qu’il pourrait conduire à « une marchandisation du processus entier de la grossesse » et à la « chosification » de l’enfant. Au sujet des enfants qui naîtraient de l’UA, elle affirme :

« Ils seront de simples créatures du présent et des projections dans l’avenir, sans connexions signifiantes avec le passé. C’est là une voie funeste et sans issue. […] Dernière étape vers la création de corps posthumains ? »

Tous ces débats sont aujourd’hui théoriques, mais le resteront-ils encore longtemps ? Et quand bien même l’UA deviendrait un jour réalisable, tout ce qui est techniquement possible est-il pour autant souhaitable ? Comme le souligne Sylvie Martin, autrice du Désenfantement du monde. Utérus artificiel et effacement du corps maternel (2012), tous les êtres humains naissent d’un corps féminin. Dès lors, en cas d’avènement de l’UA, pourrions-nous encore parler « d’être humain » ?

The Conversation

Allane Madanamoothoo ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

13.11.2025 à 14:06

Comment la gestion de la dette publique appauvrit l’État au profit du secteur privé

Jérôme Baray, Professeur des universités en sciences de gestion, Le Mans Université

Recourir aux marchés financiers pour la dette publique n’est pas neutre. D’autres voies ont existé dans le passé. Existe-t-il des modes alternatifs valides ?
Texte intégral (1953 mots)

La croissance de la dette publique fait l’objet de toutes les attentions. Toutefois, si tel est le cas, c’est en raison des choix qui ont été faits pour l’assumer. Recourir aux marchés financiers n’est pas neutre. Et si la solution passait par une définanciarisation de la gestion de la dette.


« L’État vit au-dessus de ses moyens. » La phrase est si souvent répétée qu’elle n’est plus questionnée. De moins de 20 % du produit intérieur brut (PIB) dans les années 1970, la dette atteint aujourd’hui environ 110 %. Au-delà de ces chiffres, de nombreux travaux critiques, de Thomas Piketty à Pierre Bourdieu, montrent une autre réalité.

Loin d’être née d’un excès de dépenses sociales, la dette est aussi née d’une série de choix politiques favorables aux marchés financiers, comme l’ont montré Frédéric Lordon ou François Chesnais, la financiarisation de l’État transformant la dette en outil de transfert de richesses vers le secteur privé.

L’interdiction de la monétisation directe (c’est-à-dire le financement de la dette par émission monétaire), les privatisations massives et les aides publiques non conditionnées ont affaibli l’État, tout en enrichissant le secteur financier. Ainsi, chaque année, des milliards d’euros d’intérêts (68 milliards d’euros en 2025, soit un peu plus que le budget de l’éducation nationale) rémunèrent les créanciers privés, tandis que les services publics doivent se restreindre. Le récit dominant occulte la responsabilité de choix politiques assumés et construits dans le temps long.

L’année du basculement

Jusqu’en 1973, l’État pouvait se financer auprès de la Banque de France à taux nul. La loi du 3 janvier 1973 y a mis fin, imposant l’emprunt sur les marchés. Cette décision s’inscrivait dans un contexte d’inflation forte et dans l’adhésion aux idées monétaristes naissantes : limiter la création monétaire publique était perçu comme un moyen de stabiliser les prix et de moderniser la politique économique.

Cette dépendance a été renforcée par les traités européens : l’Acte unique européen (1986), le traité de Maastricht (1992) puis le traité de Lisbonne (2007).


À lire aussi : Mille ans de dettes publiques : quelles leçons pour aujourd’hui ?


Cette réforme, souvent présentée comme une modernisation, peut aussi être lue – et c’est la perspective que je défends – comme un basculement structurel vers une dépendance durable aux marchés financiers. Ce choix était motivé par la crainte de l’inflation et par la volonté d’inscrire la France dans le mouvement de libéralisation financière qui gagnait les économies occidentales à la même époque.

Dans les années 1980, avec la désinflation compétitive, l’endettement a été transformé en une sorte d’impôt implicite, la « taxe intérêts de la dette » ayant remplacé la « taxe inflation ». En effet, à cette époque, le taux d’intérêt était devenu supérieur au taux de croissance de l’économie. Dès lors, la dette augmentait même en l’absence de nouveaux déficits : c’est l’effet dit de « boule de neige », où le poids des intérêts croît plus vite que les recettes publiques.

Ce tournant illustre la manière dont la dette, de simple outil, s’est muée en carcan durable. Il a aussi renforcé l’idée que les marges de manœuvre budgétaires étaient contraintes par des forces extérieures, ce qui a profondément marqué la culture économique et politique française.

Un appauvrissement organisé

À cette contrainte monétaire s’est ajoutée la vente d’actifs publics : banques, télécoms, énergie, autoroutes, aéroports. Ces privatisations ont dépossédé l’État de dividendes réguliers, réduisant sa capacité d’action à long terme. Parallèlement, les aides aux entreprises se sont multipliées, atteignant plus de 210 milliards d’euros en 2023 (Sénat, rapport 2025).

Si certaines aides ont pu avoir des effets positifs à court terme, leur généralisation sans contrepartie claire pose problème. C’est à ce moment-là que l’État s’est progressivement privé d’un levier de régulation.

En additionnant privatisations (moins de ressources régulières) et aides (davantage de dépenses), l’endettement apparaît comme le résultat d’un appauvrissement de l’État, appauvrissement révélateur d’une orientation stratégique privilégiant la rente sur l’investissement collectif. Cette rente est payée par les contribuables sous forme d’intérêts de la dette, et captée par les détenteurs d’obligations d’État – banques, fonds et assureurs.

Qui profite de la dette ?

Le résultat de toutes ces orientations prises au fil du temps est qu’en 2023, le service de la dette a coûté 55 milliards d’euros, soit plusieurs fois le budget de la justice). Ces montants bénéficient surtout aux banques, fonds et assureurs… Une partie est détenue via l’épargne domestique, mais ce circuit reste coûteux : les citoyens prêtent à l’État, paient les intérêts par l’impôt, pendant que les intermédiaires captent la marge. Autrement dit, la collectivité se prête à elle-même, mais avec intérêts.

Pierre Bourdieu parlait de « noblesse d’État » pour désigner les élites circulant entre ministères, banques et grandes entreprises. Dans ce système de connivence, la dette devient une rente pour les acteurs économiques et financiers qui détiennent la dette souveraine, mais aussi pour certains hauts fonctionnaires et dirigeants d’entreprises passés du public au privé. D’où les appels à réorienter la gestion des actifs stratégiques (infrastructures, énergie, transports, recherche) et à renégocier les intérêts jugés illégitimes.

Ces débats dépassent la seule technique financière : ils interrogent la légitimité même du mode de gouvernance économique.

La dette comme instrument de gouvernement

Le discours économique dominant mobilise des termes technocratiques – « règle d’or », « solde structurel » – qui transforment des choix politiques en nécessités. Plus de 90 % de la monnaie en zone euro est créée par les banques commerciales au moment du crédit. En renonçant à la création monétaire publique, l’État rémunère des créanciers privés pour accéder à sa propre monnaie, institutionnalisant sa dépendance. En termes simples, lorsqu’une banque commerciale accorde un prêt, elle crée de la monnaie ex nihilo ; à l’inverse, l’État, privé de ce pouvoir, doit emprunter cette monnaie avec intérêts pour financer ses politiques publiques. À mesure que l’austérité progresse se déploie une « gouvernance par les instruments » : indicateurs, conditionnalités, surveillance numérique des dépenses.

Comme l’avaient anticipé Michel Foucault, dans Surveiller et punir. Naissance de la prison, 1975), et Gilles Deleuze (Post-scriptum sur les sociétés de contrôle, 1990), l’économie se confond avec un dispositif disciplinaire. La dette devient ainsi l’alibi qui légitime les restrictions et le contrôle social.

Dans le quotidien des citoyens, cela se traduit par des dispositifs concrets : notation bancaire, suivi des allocataires sociaux, encadrement des dépenses publiques, autant de mécanismes qui étendent la logique de surveillance. Ces pratiques ont un effet durable, car elles façonnent des comportements de conformité et réduisent l’espace du débat politique, en donnant l’impression que « l’économie impose ses propres lois ».

France Inter, 2025.

Quelles alternatives crédibles ?

Repenser la dette suppose de l’utiliser de façon ciblée, à taux nul, comme avant 1973. Les aides aux entreprises devraient être conditionnées à des engagements vérifiables en matière d’emploi et d’innovation, au profit des petites et moyennes entreprises. La fiscalité doit être rééquilibrée, en réduisant les niches, en taxant les rentes, en imposant aux grandes entreprises actives en France d’y payer leurs impôts. L’exemple de la taxe sur les superprofits énergétiques (UE, 2022) montre que c’est possible. Il s’agit là d’une mesure de justice élémentaire, que beaucoup de citoyens comprennent intuitivement, mais qui peine encore à s’imposer dans le débat public.

En outre, une loi antitrust limiterait la concentration excessive dans le numérique, la finance ou l’énergie. Pour être efficace, elle devrait s’accompagner d’autorités de régulation fortes, capables de sanctionner réellement les abus de position dominante. Enfin, une cotisation sociale sur l’intelligence artificielle permettrait de partager les gains de productivité et de financer la protection sociale. Une telle mesure contribuerait aussi à une meilleure répartition du temps de travail et à un équilibre de vie plus soutenable. Au-delà de ces leviers, une simplification des structures administratives libérerait des marges de manœuvre budgétaires, permettant de renforcer les métiers à forte utilité sociale et d’améliorer la qualité du service rendu aux citoyens.

La dette publique française n’est pas le fruit d’un peuple dépensier, mais celui d’un système construit depuis 1973 pour enrichir une minorité et fragiliser la puissance publique. Privatisations, aides sans condition, rente d’intérêts et connivence entre élites ont transformé l’endettement en transfert de richesses. Rompre avec cette logique suppose de recourir à l’emprunt à taux nul, de conditionner les aides, de rééquilibrer la fiscalité, de réguler les monopoles et de taxer l’IA.

Reprendre la main sur la dette, c’est gouverner la monnaie et les priorités collectives en fonction de l’intérêt général. C’est aussi affirmer que l’économie n’est pas une fatalité technique, mais un choix de société qui engage la souveraineté et le contrat social de demain.

The Conversation

Jérôme Baray est membre de l'Académie des Sciences Commerciales.

PDF

13.11.2025 à 09:55

Pesticides : quand les équipements censés protéger exposent davantage

Fabienne Goutille, Enseignante-chercheure en ergonomie, Université Clermont Auvergne (UCA)

Alain Garrigou, Professeur en ergonomie, Université de Bordeaux

Peu adaptées aux conditions de travail réelles des agriculteurs, les équipements censées les protéger des expositions aux pesticides se révèlent bien souvent inefficaces voire même néfastes.
Texte intégral (1855 mots)
Les équipements individuels de protection sont obligatoires pour les agriculteurs qui épandent des pesticides. Pourtant, on sait aujourd’hui qu’ils peuvent aggraver l’exposition aux pesticides. RGtimeline/Shutterstock, CC BY

Peu adaptés aux conditions de travail réelles des agriculteurs, les équipements censés les protéger des expositions aux pesticides se révèlent bien souvent inefficaces voire même néfastes. La discipline de l’ergotoxicologie tâche de remédier à cela en travaillant auprès des premiers concernés.


Alors que la loi Duplomb a été adoptée, ouvrant la voie à la réintroduction de pesticides interdits et à la remise en cause de garde-fous environnementaux, un angle mort persiste dans le débat public : qui, concrètement, est exposé à ces substances, dans quelles conditions, et avec quelles protections ?

Loin des protocoles théoriques, la réalité du terrain est plus ambivalente. Porter une combinaison ne suffit pas toujours à se protéger. Parfois, c’est même l’inverse. Une autre approche de la prévention s’impose donc en lien avec les personnes travaillant en milieu agricole.

Avec le programme PESTEXPO (Baldi, 2000-2003), en observant le travail en viticulture en plein traitement phytosanitaire, une réalité qui défiait le bon sens est apparue : certaines personnes, pourtant équipées de combinaisons de protection chimique, étaient plus contaminées que celles qui n’en portaient pas.

Grâce à des patchs cutanés mesurant l’exposition réelle aux pesticides, l’équipe de l’Université de Bordeaux et de l’Institut national de la santé et de la recherche médicale (Inserm) a confirmé un phénomène aujourd’hui bien documenté : la perméation, c’est-à-dire la traversée des tissus protecteurs par les molécules chimiques.

Sous l’effet de la chaleur, de l’humidité et de l’effort, la combinaison piégeait en fait les pesticides à l’intérieur du vêtement, empêchant leur évaporation et créant un effet piège, favorisant leur contact prolongé avec la peau. Ce n’était pas seulement un échec de protection : c’était un facteur aggravant.

Cette situation soulève une question centrale : comment des équipements conçus pour protéger peuvent-ils exposer davantage ?

Une protection illusoire imposée… et mal pensée

Les équipements de protection individuelle (EPI) portés par les agriculteurs relèvent en grande partie d’une conception industrielle. Leur homologation repose sur des tests réalisés en laboratoire, par les fabricants eux-mêmes, selon des protocoles standardisés dans des conditions semi-contrôlées, déconnectées du travail réel. Les conditions extrêmes du terrain – chaleur, humidité, densité – et les variabilités du travail ne sont pas prises en compte.

Dans les exploitations, ces équipements sont portés sur des corps en action : monter et descendre du tracteur, passer sous les rampes, manipuler les tuyaux, se faufiler entre les rangs, porter des charges, travailler au contact des machines ou de végétaux abrasifs. Les combinaisons ne suivent pas toujours ces gestes. Elles peuvent gêner la précision, limiter l’amplitude, se coincer ou se déchirer. Et parce qu’elles sont conçues sur un gabarit standardisé, elles s’ajustent mal à la diversité des morphologies, notamment des femmes, pour qui la coupe, la longueur ou l’encombrement des tissus rendent certains mouvements plus difficiles, voire plus risqués.

Pourtant, la réglementation impose le port de ces équipements. En cas de contrôle, ou d’accident, la responsabilité incombe aux propriétaires ou aux gestionnaires de l’exploitation. Cette logique repose sur une fiction rassurante : le port d’un EPI serait une protection suffisante. La réalité est tout autre.

Les personnes qui travaillent au contact des pesticides le savent bien. Lors des manifestations, on a pu entendre le slogan « Pas d’interdiction sans solution », qui résume bien leur colère : trop de normes, trop peu de moyens pour les appliquer.

Porter une combinaison étanche, par 30 °C, retirer ses gants à chaque étape, se rincer entre deux manipulations, tout en assurant la rentabilité de l’exploitation… Cela relève souvent de l’impossible. De plus, les combinaisons sont pour la plupart à usage unique, mais compte tenu de leur coût, elles peuvent être réutilisées de nombreuses fois.

On ne peut pas simplement reprocher aux agriculteurs et agricultrices de ne pas faire assez. C’est tout un système qui rend la prévention inapplicable.

L’ergotoxicologie : partir de l’activité réelle pour mieux prévenir

Face à ces constats, l’ergotoxicologie propose un autre regard. Issue de la rencontre entre ergonomie et toxicologie, cette approche s’attache à comprendre les situations d’exposition telles qu’elles se vivent concrètement : gestes, contraintes, matériaux, marges de manœuvre, savoirs incorporés. Elle repose sur une conviction : on ne peut pas prévenir sans comprendre le travail réel.

Dans notre démarche, nous utilisons des vidéos de l’activité, des mesures d’exposition, et surtout des temps de dialogue sur le travail, avec et entre les travailleurs et travailleuses. Ce sont elles et eux qui décrivent leurs gestes, les développent, et proposent des ajustements. Nous les considérons comme des experts de leurs expositions.

Dans le projet PREVEXPO (2017-2022), par exemple, un salarié de la viticulture expliquait pourquoi il retirait son masque pour remplir la cuve et régler le pulvérisateur :

« Il était embué, je n’y voyais rien. Je dois le retirer quelques secondes pour éviter de faire une erreur de dosage. »

Ce type de témoignage montre que les choix en apparence « déviants » sont souvent des compromis raisonnés. Ils permettent de comprendre pourquoi la prévention ne peut pas se réduire à une simple application de règles abstraites ou générales.

Co-construire les solutions, plutôt que blâmer

En rendant visibles ces compromis, les personnes concernées peuvent co-construire des pistes de transformation, à différentes échelles. Localement, cela peut passer par des ajustements simples : une douche mobile, un point d’eau plus proche et assigné aux traitements, un nettoyage ciblé du pulvérisateur ou du local technique, des sas de décontamination entre les sphères professionnelle et domestique, une organisation du travail adaptée aux pics de chaleur.

Encore faut-il que l’activité de protection soit pensée comme une activité en soi, et non comme un simple geste ajouté. Cela implique aussi de créer les conditions d’un dialogue collectif sur le travail réel, où risques, contraintes et ressources peuvent être discutés pour mieux concilier performance, santé et qualité du travail.

Mais cela va plus loin : il s’agit aussi d’interroger la conception des équipements, les normes d’homologation et les formulations mêmes des produits.

Faut-il vraiment demander aux agriculteurs et agricultrices uniquement de porter la responsabilité de leur exposition ? Ces réflexions dépassent leur seul cas. La chaîne d’exposition est en réalité bien plus large : stagiaires personnels et familles vivant sur l’exploitation, saisonniers et saisonnières qui passent en deçà des radars de l’évaluation des risques, mécaniciens et mécaniciennes agricoles qui entretiennent le matériel, conseillers et conseillères agricoles qui traversent les parcelles… Sans parler des filières de recyclage, où des résidus persistent malgré le triple rinçage.

Faut-il leur imposer à toutes et tous des EPI ? Ou repenser plus largement les conditions de fabrication, de mise sur le marché, d’utilisation et de nettoyage des produits phytopharmaceutiques ?

L’ergotoxicologie ne se contente pas de mesurer : elle propose des objets de débat, des images, des données, qui permettent de discuter avec les fabricants, les syndicats, les pouvoirs publics. Ce n’est pas une utopie lointaine : dans plusieurs cas, les travaux de terrain ont déjà contribué à alerter les agences sanitaires, à faire évoluer les critères d’évaluation des expositions, ou à modifier des matériels et équipements agricoles.

Ni coupables ni ignorants : un savoir sensible trop souvent ignoré

Contrairement à une idée reçue, les personnes qui travaillent dans l’agriculture ne sont pas ignorantes des risques. Elles les sentent sur leur peau, les respirent, les portent parfois jusque chez elles. Certaines agricultrices racontent que, malgré la douche, elles reconnaissent l’odeur des produits quand leur partenaire transpire la nuit.

Ce savoir sensible et incarné est une ressource précieuse. Il doit être reconnu et pris en compte dans les démarches de prévention. Mais il ne suffit pas, si l’organisation, les équipements, les produits et les règles restent inadaptés et conçus sans tenir compte du travail réel.

Prévenir, ce n’est pas culpabiliser. C’est redonner du pouvoir d’agir aux personnes concernées, pour qu’elles puissent faire leur métier sans abîmer leur santé au sens large et celle de leur entourage. Et pour cela, il faut les écouter, les associer, les croire, et leur permettre de contribuer à la définition des règles de leur métier.

Dans le contexte de la loi Duplomb, qui renforce l’autorisation de produits controversés sans se soucier des conditions réelles d’usage, ce travail de terrain collaboratif et transdisciplinaire est plus que jamais nécessaire pour une prévention juste, efficace, et réellement soutenable.


📽️ Le film documentaire Rémanences, disponible sur YouTube (Girardot-Pennors, 2022) illustre cette démarche collaborative en milieu viticole.

The Conversation

Alain Garrigou a reçu des financements de ANR, ECOPHYTO

Fabienne Goutille ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

12.11.2025 à 16:39

Programme 13-Novembre : comprendre et réparer la mémoire traumatisée

Francis Eustache, Directeur de l'unité Neuropsychologie et imagerie de la mémoire humaine, Inserm, Ecole Pratique des Hautes Etudes, Université de Caen Normandie, Université de Caen Normandie

Depuis dix ans, des chercheurs de tous horizons s’efforcent, au sein du Programme 13-Novembre, de décrypter les mécanismes du traumatisme, afin de mieux aider les victimes, dont certaines sont impliquées dans ces travaux.
Texte intégral (3879 mots)

En avril 2016, quelques mois après les attentats du 13 novembre 2015 qui ont endeuillé la France, démarrait un ambitieux projet de recherche, le Programme 13-Novembre. À l’initiative du neuropsychologue Francis Eustache et de l’historien Denis Peschanski, des spécialistes de tous horizons allaient travailler ensemble pour tenter de mieux comprendre ce moment traumatique et ses conséquences sur les individus et la société, sur le temps long. Une décennie plus tard, voici ce qu’il faut retenir de ces travaux dans le champ de l’étude de la mémoire traumatique. L’occasion de démonter quelques idées reçues.


Lorsqu’un événement traumatisant percute une société de plein fouet, pourquoi certains témoins vont-ils développer un trouble de stress post-traumatique, et pas d’autres ? Quels sont les mécanismes neurologiques à l’œuvre ? La façon dont est construite et évolue la mise en récit par la société peut-elle faciliter – ou contrarier – la guérison ? Autrement dit, comment s’articulent les mémoires individuelles, collectives, sociales (ou sociétales) ?

Pour répondre à ces questions, le Programme 13-Novembre a conjugué l’expertise de chercheurs de nombreux horizons : neurobiologistes, psychopathologues, sociologues, historiens, neuropsychologues, spécialistes d’intelligence artificielle, de big data, linguistes… Une décennie plus tard, leurs travaux ont permis de faire avancer les connaissances sur ces sujets. Avec l’espoir de mieux prendre en charge les conséquences des événements traumatiques, au niveau individuel comme au niveau collectif.

La mémoire n’est pas figée

Une erreur, en matière de représentation de notre mémoire, est de s’imaginer une sorte de système de stockage dans lequel seraient emmagasinés des souvenirs et des connaissances inaltérables, un peu à la manière d’un disque dur d’ordinateur.

En réalité, notre mémoire n’est pas figée. Nos souvenirs évoluent au fil du temps, en fonction des relations que l’on a avec notre environnement, de nos aspirations, de nos projets, de nouveaux événements qui surviennent autour de nous. Notre mémoire autobiographique, celle qui nous définit et se compose de connaissances générales sur nous-mêmes ainsi que de souvenirs stockés sur le temps très long, se construit en lien avec les autres et se modifie au fil de notre existence. En vieillissant, nous changeons notre perception du passé, car nos souvenirs évoluent au fil de nos relations, de nos rencontres, de nos convictions et de nos paroles.

Mais il arrive que la mécanique se grippe. En cas d’exposition à un choc intense, la mémoire autobiographique peut être bouleversée. Dans une telle situation, chez certaines personnes, la mémoire semble se figer : le traumatisme envahit l’ensemble de l’identité de la personne, phénomène qui transparaît dans son récit. C’est, de fait, ce qui arrive aux individus souffrant de trouble de stress post-traumatique, contraints de revivre en boucle des éléments saillants de l’événement qui a menacé leur existence.

Le symptôme principal de ce trouble est la survenue de ce que l’on appelle des reviviscences (ou des « intrusions ») : les personnes revoient des images (ou réentendent des sons, perçoivent des odeurs, etc.) de la scène du traumatisme. Il ne s’agit pas de « souvenirs traumatiques », comme cela est trop souvent écrit : elles « revivent » la scène, sous forme de « flashbacks ».

Les intrusions ne sont pas des souvenirs

    Les intrusions ne doivent pas être confondues avec des souvenirs, et encore moins avec des souvenirs flash (alors qu'ils constituent une manifestation inverse du fonctionnement de la mémoire). Le souvenir flash est un “vrai” souvenir, particulièrement intense: il nous donne l'impression subjective de nous souvenir très précisément de conditions dans lesquelles nous avons appris la survenue d'un événement marquant, qui nous a surpris et a déclenché en nous une forte émotion.
    Les intrusions, elles aussi très émotionnelles, correspondent à des éléments disparates, désorganisés, chaotiques, très sensoriels. L'individu qui en est victime les perçoit comme si l'événement se produisait à nouveau, dans le présent (au contraire des souvenirs qui appartiennent au passé), ce qui empêche la blessure psychique causée par le traumatisme de se résorber. Pour s'en protéger, la personne développe des mécanismes d'évitement qui finissent par avoir un impact sur sa vie sociale (et ainsi la priver du soutien social). À quoi s'ajoutent les stigmates de la blessure psychique que sont les cauchemars, les sursauts, les troubles du sommeil, les pensées négatives, etc., et parfois d'autres troubles (comorbidités): dépression, anxiété, addictions…

Comment cette expression particulière de la mémoire traumatique, puisée dans l’horreur du passé et envahissant le quotidien, peut-elle à nouveau évoluer au fil du temps et retrouver sa plasticité ? Pour le comprendre, le Programme 13-Novembre s’est articulé autour de deux études principales : l’étude « 1 000 » (pour 1 000 participants) et l’étude biomédicale « Remember ».

Deux études pour mieux comprendre la mémoire traumatique

L’étude 1 000 a consisté à diviser les participants en quatre cercles, selon leur proximité avec les attentats du 13-Novembre. Le cercle 1 correspond aux personnes directement exposées aux attentats. Le cercle 2, aux personnes qui vivent ou travaillent dans les quartiers visés, mais n’étaient pas présentes au moment des attaques. Le cercle 3 est constitué par les personnes qui vivaient en région parisienne à l’époque (à l’exclusion des personnes des deux premiers cercles). Enfin, dans le cercle 4, on retrouve des personnes qui vivaient en province, plus précisément dans trois villes : Caen (Calvados), Metz (Moselle) et Montpellier (Hérault). Les personnes des cercles 2, 3 et 4 ont appris la survenue de l’attentat à la radio, à la télévision, par téléphone, sur les réseaux sociaux, etc.

Les participants ont d’abord intégré l’étude 1 000, qui consiste en des entretiens filmés, avec l’appui de l’Institut national de l’audiovisuel (certains extraits ont donné lieu à la réalisation d’un film 13-Novembre, nos vies en éclats).

Dans un second temps, 200 personnes (parmi les 1 000), appartenant uniquement aux cercles 1 (120 personnes) et 4 (80 personnes), ont intégré l’étude Remember. Elles ont alors bénéficié d’examens médicaux, psychologiques, et d’imagerie cérébrale (IRM) afin de décrypter les mécanismes impliqués dans le développement d’un trouble de stress post-traumatique (TSPT), ainsi que les éléments qui les renforcent ou les résorbent. Les objectifs de l’étude étaient ainsi de comprendre, à différents niveaux d’analyse, les facteurs favorisant le TSPT ou au contraire la résilience.

Dans l’étude Remember, le groupe des personnes exposées aux attentats (venant du cercle 1) a été subdivisé en deux sous-groupes, selon qu’elles ont développé un trouble de stress post-traumatique ou non. Les membres des deux sous-groupes ont ensuite été appariés en fonction de leur situation face aux scènes des attentats (dans la fosse du Bataclan, sur une terrasse, plus loin…) et de leur rôle (public, policiers, médecins, etc.).

Un défaut de contrôle des intrusions

Pour comprendre les mécanismes neurologiques à l’œuvre, les chercheurs ont eu recours à l’IRM de haute résolution. L’activité cérébrale des participants a été analysée pendant qu’ils se livraient à une tâche expérimentale appelée « think – no think ». Ce paradigme, adapté à la compréhension du TSPT par le chercheur Pierre Gagnepain au sein du laboratoire, consiste à faire surapprendre aux participants des associations entre des couples de concepts. Par exemple, le mot bateau et l’image d’une maison. Après cet apprentissage, quand le participant lit le mot bateau, immédiatement lui vient à l’esprit l’image d’une maison, de façon quasi irrépressible.

De cette façon, la survenue d’une « intrusion expérimentale » et éphémère est provoquée, mais sans réactiver le traumatisme, ce que nous voulions bien sûr éviter. Après toute cette phase d’apprentissage, les participants sont ensuite installés dans l’IRM. Lorsque le mot bateau leur est montré écrit en lettres vertes, ils doivent laisser s’imposer dans leur conscience l’image associée (celle d’une maison dans cet exemple). C’est la partie « think ». Si le mot est écrit en rouge, au contraire, ils doivent bloquer l’image de la maison qui survient. On mesure l’activité du cerveau dans cette situation précise.

Les résultats montrent que la capacité à réfréner les intrusions, qui permet la résilience, est liée à des capacités de contrôle de cette forme de mémoire reposant sur des structures en réseau coordonnées par le cortex préfrontal, situé à l’avant du cerveau.

Quand, dans l’exemple précédent, une personne résiliente cherche à repousser l’intrusion de l’image de la maison, toutes les connexions neuronales de cette zone se synchronisent avec d’autres structures cérébrales impliquées dans les perceptions, les émotions, la mémoire et tout particulièrement les hippocampes, structures clés pour cette fonction. Ce couplage permet ainsi au cortex préfrontal de contrôler les régions du cerveau impliquées dans ces différentes fonctions et in fine d’inhiber les intrusions intempestives.

Point intéressant : chez les personnes résilientes, ce contrôle est particulièrement efficace. Ce travail ne met donc pas seulement en évidence des mécanismes défaillants, mais aussi ceux qui sont préservés et dans certains cas amplifiés pour permettre aux victimes de surmonter l’adversité.

Ces résultats ont été confirmés lorsque, deux ans plus tard, en 2018, nous avons réanalysé l’activité cérébrale de personnes chez qui le trouble de stress post-traumatique était devenu chronique et que nous l’avons comparée avec celle de personnes qui n’en souffraient plus (dites « rémittentes »). Nous avons découvert que le retour à la normale des processus de contrôle inhibiteur, qui régulent la résurgence des intrusions, prédisait non seulement la rémission du syndrome de stress post-traumatique, mais précédait également la réduction des intrusions.

Cette amélioration de ces mécanismes de contrôle était en outre associée à l’interruption de l’atrophie induite par le stress observée dans une région spécifique de l’hippocampe.

Souvenirs et émotions

Le trouble de stress post-traumatique est une pathologie de la mémoire émotionnelle. On sait que la mémorisation d’un souvenir est renforcée par le contexte dans lequel il se produit.

L’exemple typique est le « souvenir flash » : lorsque l’on ressent une émotion forte au cours d’un événement marquant, le souvenir est particulièrement durable. Si l’on demande aux gens ce qu’ils faisaient lorsque les attentats du 13 novembre se sont produits, l’immense majorité a l’impression subjective de se souvenir de ce qu’ils faisaient à ce moment-là (97 % des personnes interrogées par le Centre de recherche pour l’étude et l’observation des conditions de vie (Credoc) – lors d’une première enquête menée en juin 2016 dans le cadre du Programme 13-Novembre).

Mais si l’émotion est extrême, comme chez les victimes, l’activité de certaines régions du cerveau impliquées dans les émotions (le circuit amygdalien notamment) devient désordonnée. La mémorisation ne fonctionne plus correctement, et des éléments disparates issus de l’événement traumatique vont devenir des intrusions.

Les personnes rappellent alors des éléments sensoriels : des odeurs (la poudre, le sang…), des sons (des bruits « de pétards » correspondant aux détonations des cartouches…). Parfois, on constate aussi que certains éléments du contexte de l’événement ont été « oubliés » (on décèle parfois une réelle amnésie, dite dissociative) ou au contraire que les gens se sont focalisés sur des éléments spécifiques, qu’ils jugent a posteriori saugrenus, ce qui peut être une réaction de mise à distance du danger.

Après l’événement, les victimes vont essayer d’intégrer ces éléments étrangers à leur vécu, en entamant spontanément un travail de réflexion qui va parfois modifier profondément leurs vies, en changeant leurs priorités, leurs perspectives, leurs façons de voir le monde.

Améliorer les thérapies existantes, en élaborer de nouvelles

Les travaux menés dans le cadre de l’étude Remember se poursuivent actuellement au cours d’une troisième phase de recueil de données. En parallèle, de nombreuses données collectées en psychopathologie et en neuropsychologie font l’objet d’analyses approfondies qui portent notamment sur l’évolution des symptômes et de diverses modifications cognitives.

Ce qui ressort de ces travaux, c’est que le trouble de stress post-traumatique affecte le traitement précoce des informations fortement émotionnelles, comme l’expression des visages, ce qui a des conséquences sur leur compréhension et leur mémorisation, et peut contribuer à rompre des liens sociaux. Toutefois, il faut se garder de décrire une situation univoque car les trajectoires sont extrêmement diverses d’une situation et d’une personne à l’autre.


À lire aussi : Stress post-traumatique : rompre le silence


Une autre piste d’analyse des données, qui prend place aux confins de l’étude 1 000 (les récits enregistrés) et de l’étude Remember, porte sur la mémoire autobiographique. Les récits des personnes souffrant de trouble de stress post-traumatique sont en effet envahis par le traumatisme lui-même. Ce dernier affecte le passé, le présent et obère toute projection dans l’avenir.

Les travaux visent à comprendre les mécanismes de raisonnement autobiographique qui permettent de « sortir » progressivement du trauma. Menés conjointement avec des psychopathologues et reposant sur l’emploi des outils de l’intelligence artificielle, ils ouvrent des pistes fructueuses pour élaborer de nouvelles formes de thérapies, ou apporter des éléments théoriques et méthodologiques supplémentaires à des thérapies existantes.

Trouble de stress post-traumatique : éviter la tentation du déterminisme

Lorsque l’on parle de traumatisme, il faut intégrer le fait qu’il existe des différences interindividuelles notables. Les gens ne réagissent pas tous de la même façon. Néanmoins, si l’on parle en terme statistique, on constate que plus le traumatisme correspond à un événement lié à une intention de faire du mal, et plus l’impact sera délétère sur la victime. Typiquement, un attentat ou un viol vont avoir un impact plus délétère qu’une catastrophe naturelle ou un accident de voiture, par exemple, car, dans ces derniers cas, il n’y a pas cette intentionnalité.

On parle là d’événements qui ne se répètent pas. Le cas d’événements traumatiques qui se répètent sur des durées longues, comme dans le cas de conflits armés, pose d’autres problèmes. Lors d’une guerre, les traumatismes sont récurrents et multiples. Leur impact va être différent, et mener à un trouble de stress post-traumatique différent lui aussi, dit « complexe ». C’est également le cas des violences intrafamiliales.


À lire aussi : Reconnaître enfin le trouble de stress post-traumatique complexe, pour mieux le soigner


Il faut cependant se garder, lorsqu’on aborde la question du traumatisme, d’adopter une vision déterministe : être exposé à un événement traumatique ne mène pas systématiquement à développer un trouble de stress post-traumatique.

La trajectoire la plus fréquente est la résilience, qui concerne environ 75 % des gens. Ce chiffre va évoluer au fil du temps. Durant les premières heures, les premiers jours, 90 % des gens vont faire des cauchemars, repenser à tout cela. Au bout d’un mois, environ 50 % des gens vont faire des cauchemars, avoir un sentiment de stress augmenté, être méfiants dans la rue… Au-delà de cette période, 25 % vont développer un trouble de stress post-traumatique. Et parmi ces 25 %, environ 15 % finiront par se remettre avec le temps.

Pour bien accompagner les personnes concernées, il est essentiel de comprendre pourquoi, chez certains, survient un « point de rupture » émotionnel et ce qui l’influence : la nature de l’événement, la façon dont la personne l’a ressenti, dont elle va être aidée ensuite… Nos travaux ont par exemple révélé que les professionnels (policiers, membres des professions médicales…) étaient mieux protégés vis-à-vis de ce trouble que les autres victimes. Probablement en raison de leur formation, et du fait qu’elles sont intervenues avec un rôle précis et selon un protocole d’intervention bien rodé.

Comprendre ces phénomènes, la façon dont ils vont impacter la mémoire émotionnelle et son évolution est essentiel. Le soutien social, en particulier, est primordial, car les chemins de la résilience passent par une synergie des mémoires.

Mémoire individuelle, mémoire collective, mémoire sociale

S’agissant d’un traumatisme collectif comme les attentats du 13-Novembre, la mémoire de la société tout entière joue un rôle important dans la guérison des individus qui ont directement vécu l’événement.

La mémoire collective va elle aussi influencer, positivement ou négativement, le devenir des individus traumatisés. Cette représentation du passé, qui participe à la construction identitaire de la société dans son ensemble ou de groupes spécifiques, va retenir certains événements et pas d’autres. Or, les traumatismes continuent de s’écrire en lien avec le monde qui évolue autour de la victime. Ils peuvent être réactivés par certains événements (guerres, nouveaux attentats…).

La façon dont on souvient collectivement (ou dont on ne se souvient pas) de l’événement va aussi avoir un impact sur les victimes. Dix ans après, on constate que les attentats du 13-Novembre deviennent parfois « les attentats du Bataclan ». On imagine l’effet que peut avoir ce raccourci sur les personnes qui étaient présentes au Stade de France ou sur les terrasses des cafés parisiens attaqués…

Après un événement traumatique majeur, la mémoire sociale qui se construit influence profondément la mémoire individuelle. Les individus qui ont vécu un traumatisme doivent être accompagnés dans ces différentes strates de mémoire. Si on ne prend pas en compte ces dimensions collectives et sociales en plus de la dimension individuelle, il n’est pas possible de comprendre les pathologies qui en découlent.

Prendre soin de notre mémoire commune, c’est donc soigner l’individu et la société.


Pour aller plus loin

Couverture de l’ouvrage « Faire face. Les Français et les attentats du 13 novembre 2015
Faire face. Les Français et les attentats du 13 novembre 2015, Flammarion, octobre 2025. DR, Fourni par l'auteur

Remerciements

L’auteur exprime sa reconnaissance à toutes les personnes qui se sont portées volontaires pour participer aux études mentionnées dans cet article, aux associations de victimes qui ont soutenu ce projet ainsi qu’à tous les chercheurs impliqués, en particulier Denis Peschanski, Carine Klein-Peschanski et Pierre Gagnepain.

Ce travail a bénéficié d’une aide de l’État gérée par l’Agence nationale de la recherche (ANR) au titre de France 2030 portant la référence ANR-10-EQPX-0021. Ces études sont réalisées dans le cadre du « Programme 13-Novembre », parrainé par le CNRS et l’Inserm et soutenu administrativement par l’Université Paris 1 Panthéon-Sorbonne, regroupant 35 partenaires).

The Conversation

Francis Eustache a reçu des financements de l'Agence nationale de la recherche (ANR) pour le Programme 13-Novembre.

PDF

12.11.2025 à 16:37

Faut-il partager ou épargner les terres ? Pourquoi le dilemme agriculture-biodiversité est dépassé

Damien Beillouin, Docteur en agronomie, Cirad

Bruno Rapidel, Chercheur en agronomie, PhD, HDR, Cirad

Sarah Jones, Chercheur en agroécologie, CGIAR

Ce dilemme ne vous dit peut-être rien, mais il a été une question centrale chez tous ceux qui veillent à la protection de la biodiversité. C’est celui du « land sparing » ou du « land sharing ».
Texte intégral (2784 mots)
Faut-il séparer les espaces agricoles et ceux consacrés à la biodiversité, ou bien les réunir ? Bernd Dittrich/Unsplash, CC BY

Ce dilemme ne vous dit peut-être rien, mais il a constitué une question centrale chez tous ceux qui veillent à la protection de la biodiversité. C’est celui du land sparing ou du land sharing.


Depuis plus de vingt ans, un débat anime les chercheurs qui travaillent sur la protection de la biodiversité : faut-il séparer les espaces agricoles des espaces naturels, ou les faire cohabiter ? Ce débat oppose deux visions connues sous les termes anglais land sparing (épargner les terres) et land sharing (partager les terres).

Formulé au milieu des années 2000 par des chercheurs de l’Université de Cambridge, ce dilemme part d’une idée simple :

  • soit on intensifie la production agricole sur des surfaces restreintes, pour préserver le reste des terres pour la nature (sparing),

  • soit on intègre des pratiques plus favorables à la biodiversité directement dans les champs (sharing), par exemple via l’agriculture biologique, l’agroforestierie, ou d’autres formes de diversification des cultures.

Pourquoi opposer agriculture et biodiversité ?

Dans la logique du land sparing, agriculture et biodiversité sont pensées comme deux mondes séparés : l’un occupe l’espace productif, l’autre les zones mises à l’écart. L’agriculture y est vue comme l’adversaire du vivant. Et dans l’état actuel des pratiques, ce constat n’est pas infondé. Le rapport mondial de la Plateforme intergouvernementale pour la biodiversité et les services écosystémiques (IPBES) rappelait en 2019 que l’agriculture était le principal facteur de pression sur les écosystèmes, du fait de l’intensification des pratiques, de la pollution, et de la fragmentation des paysages qu’elle engendrait.

Une réalité confirmée par un rapport récent

  • Le rapport EAT-Lancet publié il y a quelques jours confirme cette responsabilité à une échelle plus globale. Il montre que les systèmes alimentaires figurent parmi les principaux moteurs du dépassement de plusieurs limites planétaires, notamment pour la biodiversité, l’usage des terres et les cycles de l’azote et du phosphore. Pour la première fois, ce rapport propose des « limites alimentaires sûres » qui relient directement nos modes de production et de consommation à la stabilité écologique de la planète.

Au milieu des années 2000 et 2010, des travaux, comme ceux des zoologues anglais Rhys Green en 2005 puis Ben Phalan en 2011, concluaient ainsi que le land sparing était la meilleure stratégie pour préserver les espèces. Ces travaux ont eu un large écho, confortant l’idée que l’intensification agricole « durable » pourrait sauver la biodiversité.

Mais entre land sparing et land sharing, faut-il vraiment choisir ? Des travaux récents montrent plutôt qu’aucune de ces deux options n’est une solution miracle généralisable partout, et qu’il est de plus en plus nécessaire de dépasser l’opposition stricte entre agriculture et nature.

Quand les modèles rencontrent la réalité

Les critiques du land sparing se sont de fait accumulées au fil des années. Les modèles initiaux reposaient sur des hypothèses simplificatrices : ils ignoraient les coûts sociaux et environnementaux de l’intensification. Or, intensifier l’agriculture suppose en général des intrants (engrais, pesticides, semences améliorées), de la mécanisation lourde et des infrastructures de marché. Cela favorise souvent les grandes exploitations au détriment des petits producteurs, qui peuvent être marginalisés, expulsés ou contraints de coloniser de nouvelles terres. De plus, certaines pratiques liées à l’intensification, comme la promotion des organismes génétiquement modifiés, renforcent le contrôle de certaines grandes firmes sur la production agricole.

Ces modèles simplifiaient aussi le rôle de la biodiversité. Pourtant celle-ci fournit de nombreux services écosystémiques essentiels à l’agriculture et aux sociétés : pollinisation, régulation des ravageurs, qualité de l’eau, stockage du carbone… L’agriculture intensive maximise souvent la production alimentaire, mais peut aussi générer des risques pour la santé ou les activités humaines.

Une agriculture intensive qui appauvrit également notre résilience alimentaire

  • L’agriculture intensive réduit largement la diversité des espèces et des variétés cultivées, érodant ainsi la diversité génétique de notre système alimentaire et agricole. Cette réalité peut entraîner la disparition de cultures présentant des propriétés nutritionnelles uniques, des capacités d’adaptation aux aléas climatiques et d’autres valeurs potentiellement déterminantes pour le futur. La perte de ce type de biodiversité qui soutient notre système alimentaire amplifie le risque d’épidémies et d’infestations parasitaires ainsi que la vulnérabilité de la chaîne de valeur alimentaire aux chocs climatiques, commerciaux et tarifaires.

Les tentatives d’évaluation économiques montrent de fait que la valeur de ces services dépasse souvent de plusieurs fois celle des produits agricoles eux-mêmes. Par exemple, la valeur annuelle des services écosystémiques des forêts françaises surpasse largement le revenu issu de leur exploitation. Fonder les stratégies sur la seule valeur marchande des produits agricoles est donc une démarche incomplète.

Le land sparing présente également des limites face aux changements globaux. Les polluants agricoles – engrais et pesticides – ne restent pas confinés aux champs. Ils contaminent les cours d’eau et les sols, et peuvent même être transportés dans l’atmosphère, jusqu’à être détectés dans des nuages à des centaines de kilomètres des zones cultivées.

Ainsi, les zones protégées ne garantissent pas toujours la survie des espèces : par exemple, les grenouilles rousses (Rana temporaria) et les crapauds communs (Bufo bufo) déclinent dans certaines régions d’Europe, car les pesticides utilisés dans les champs voisins contaminent leurs habitats aquatiques. Les abeilles sauvages et domestiques subissent également les effets des néonicotinoïdes, réduisant la pollinisation et perturbant les services écosystémiques essentiels à l’agriculture.

De plus, l’argument central du sparing – « produire plus pour convertir moins » – ne se vérifie pas toujours. Les économistes parlent alors d’effet rebond ou « Jevons paradox » : augmenter la productivité peut accroître la rentabilité des terres agricoles, incitant à en exploiter davantage au lieu d’en libérer. Ce phénomène a été documenté dans plusieurs études, notamment en Amérique latine ou en Asie du Sud-Est, où l’intensification locale de la culture de soja ou de palmier à huile a alimenté la déforestation importée.

Mais le land sharing n’est lui non plus pas exempt de limites. Intégrer la biodiversité directement dans les champs – par exemple, à travers l’agroforesterie caféière en Amérique latine, des bandes fleuries pour les pollinisateurs en Europe, ou des haies favorisant les auxiliaires de culture – peut améliorer à la fois la production et la biodiversité.

Cependant, ces pratiques ne suffisent pas toujours à protéger les espèces. Certaines espèces très spécialisées, comme les oiseaux forestiers de la forêt humide du Costa Rica ou certaines abeilles sauvages européennes, ont besoin de grands habitats continus ou de corridors connectés entre les zones naturelles pour survivre : des bandes fleuries ou quelques arbres isolés dans les champs ne leur apportent pas ce dont elles ont besoin.

Autre limite souvent pointée : la productivité. Les critiques du land sharing se sont concentrées sur le fait que les pratiques favorables à la biodiversité – comme l’agroforesterie, les haies ou les bandes fleuries – peuvent réduire légèrement les rendements agricoles par hectare. Si ces rendements ne suffisent pas à couvrir les besoins alimentaires ou économiques, cela pourrait théoriquement pousser à exploiter davantage de surface agricole, réduisant ainsi l’espace disponible pour la nature. Par exemple, certaines études en Europe centrale montrent que l’intégration de bandes fleuries ou de haies peut diminuer de 5 % à 10 % la surface cultivable productive. Dans ce cas, si les agriculteurs compensent en étendant leurs cultures sur d’autres terres, le gain pour la biodiversité pourrait être annulé.

Enfin, le succès du sharing dépend fortement de l’adhésion et de la capacité des agriculteurs à appliquer ces pratiques. Sans soutien technique, économique ou incitatif, les bandes fleuries ou l’agroforesterie peuvent être abandonnées après quelques années, et l’impact sur la biodiversité disparaît.

Un débat qui s’enrichit

Aujourd’hui, la recherche montre que sparing et sharing ne sont pas des solutions exclusives, mais deux pôles d’un continuum d’options. Selon les contextes, les deux approches peuvent se combiner. Protéger des zones à haute valeur écologique reste essentiel, mais il est tout aussi crucial de rendre les paysages agricoles plus accueillants pour la biodiversité et d’aménager des corridors écologiques entre zones protégées trop petites pour assurer seules la survie de certaines espèces.

Par exemple, une étude récente souligne que de 20 % à 25 % au moins d’habitat semi-naturel par kilomètre carré sont nécessaires dans les paysages modifiés par l’être humain pour maintenir les contributions de la nature aux populations humaines. En deçà de 10 %, la plupart des bénéfices fournis par la nature sont presque complètement perdus.

Mais œuvrer à des pratiques agricoles hospitalières pour la biodiversité ne signifie pas qu’il faille renoncer à améliorer les rendements. Cela ne signifie pas non plus que « tout ne se résout pas à l’échelle de la parcelle ou de la ferme ».

Dans certaines régions, maintenir une productivité suffisante est nécessaire pour réduire la pression sur les terres. L’enjeu est donc de l’inscrire dans une stratégie multifonctionnelle, combinant protection d’espaces naturels, diversification agricole et politiques alimentaires.

L’agroécologie propose des pratiques concrètes : associer cultures et arbres, maintenir haies et prairies, ou diversifier les rotations. Ces actions soutiennent à la fois la production et les services écosystémiques essentiels, comme la pollinisation, la régulation des ravageurs et la fertilité des sols. Par exemple, introduire des bandes fleuries ou des haies favorise les prédateurs naturels des insectes nuisibles : dans certaines cultures maraîchères européennes, cela a permis de réduire jusqu’à 30 % l’incidence des ravageurs tout en maintenant les rendements.

À l’inverse, l’agriculture intensive peut parfois voir ses rendements diminuer : l’usage répété de pesticides favorise la résistance des ravageurs, et les systèmes monoculturaux sont plus vulnérables aux aléas climatiques, comme la sécheresse ou les vagues de chaleur. L’agriculture de conservation, qui limite le labour et favorise le développement de couvertures végétales, peut ainsi augmenter la production tout en préservant la santé des sols, alors que le labour intensif et l’usage accru d’intrants conduisent souvent à une dégradation progressive du sol.

Une synthèse de 95 méta-analyses, couvrant plus de 5 000 expériences à travers le monde, montre que ces pratiques augmentent en moyenne la biodiversité de 24 % et la production de 14 %. De manière complémentaire, 764 comparaisons dans 18 pays indiquent que des rendements équivalents ou supérieurs à ceux de l’agriculture conventionnelle sont souvent possibles, même si cela dépend du contexte et des pratiques adoptées.

Les baisses de production restent généralement limitées et sont fréquemment compensées par d’autres bénéfices écosystémiques. Autrement dit, diversifier les cultures est réalisable et peut être gagnant-gagnant dans de nombreux cas, mais il n’existe pas de solution universelle.

Enfin, les politiques agricoles doivent dépasser la seule logique du rendement pour inclure des indicateurs de bien-être humain, d’équité sociale et de résilience écologique. Cela suppose d’impliquer les agriculteurs et les communautés locales dans la définition des priorités, plutôt que d’imposer des modèles dits « universels ».

Dans une étude que nous avons publiée en 2025, nous avons voulu dépasser le faux dilemme entre intensification et partage. Nous montrons que se focaliser uniquement sur les rendements agricoles est une impasse : cela occulte les coûts cachés des systèmes alimentaires (estimés à plus de 10 000 milliards de dollars, ou 8,6 milliards d’euros, en 2020 en équivalent pouvoir d’achat).

Par exemple, les systèmes agricoles actuels utilisent de grandes quantités d’eau, qui peuvent limiter et polluer l’accès à l’eau potable des personnes, générant des coûts qui sont imputés à d’autres secteurs, comme celui de la santé. De la même manière, ces systèmes agricoles produisent de plus en plus de situations de malnutrition, de famine ou d’obésité, qui ont des coûts énormes pour les sociétés qui doivent les assumer. D’autres coûts sur les écosystèmes (par émission de gaz à effet de serre, par exemple) doivent également être pris en compte.

Nos travaux soulignent qu’une approche centrée sur le rendement risque d’accélérer la perte de biodiversité et d’agrobiodiversité, tout en renforçant la dépendance des petits producteurs aux intrants et aux grandes firmes. Or les transitions agricoles ne sont pas de simples choix techniques. Ce sont des processus socio-écologiques, qui engagent des questions de pouvoir, de justice et de culture. On les observe, par exemple, dans les zones dites de frontière agricole, où des populations autochtones, ou premières nations, sont déplacées par les porteurs de nouveaux modèles techniques, avec toutes les conséquences sociales engendrées par ces déplacements.

Un tournant pour la science et les politiques

Le débat entre land sparing et land sharing a eu le mérite d’ouvrir une réflexion structurante sur les liens entre agriculture et biodiversité. Mais les solutions ne passent pas par des choix binaires. La réalité impose de penser la durabilité à travers des solutions hybrides et contextualisées qui intègrent les dimensions écologiques, sociales et économiques.

En fin de compte, la question n’est pas seulement « Comment produire plus avec moins », mais « Comment produire mieux, avec et pour la biodiversité ». C’est ce changement de perspective qui peut réellement orienter les transitions agricoles vers des systèmes à la fois productifs, justes et respectueux du vivant.

The Conversation

Sarah Jones is part-funded by CGIAR donors, through the CGIAR Multifunctional Landscapes and Policy Innovations science programs.

Bruno Rapidel et Damien Beillouin ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur poste universitaire.

PDF

12.11.2025 à 16:35

L’Irlande a une présidente de gauche, mais la vie politique reste dominée par des hommes de droite

Camille Barbe, Doctorante en droit public, Université de Bordeaux

Une candidate de gauche vient d’être élue présidente de l’Irlande. Le pays ne vire pas à gauche pour autant, la fonction étant, à la différence de la France, relativement protocolaire.
Texte intégral (2522 mots)

La victoire d’une femme de gauche à la présidentielle qui vient de se tenir en Irlande ne signifie pas que la politique du pays sera significativement changée. Contrairement à la France, la présidence, en Irlande, est une fonction secondaire, l’essentiel du pouvoir exécutif se trouvant entre les mains du chef du gouvernement.


Le vendredi 24 octobre, le corps électoral irlandais s’est rendu aux urnes pour choisir sa future présidente. Le suspense a été de courte durée : Catherine Connolly, candidate indépendante et soutenue par les partis de gauche, est arrivée largement en tête. Elle devance Heather Humphreys, sa rivale investie par le parti de centre droit Fine Gael.

Connue pour ses engagements en faveur de la justice sociale et de la protection du climat, Catherine Connolly a fréquemment dénoncé le génocide du peuple palestinien durant sa campagne, n’hésitant pas à critiquer ouvertement les actions de Donald Trump. Peu après sa victoire, elle a assuré, en irlandais et en anglais, qu’elle serait « une présidente inclusive ».

Cette large victoire ne signifie pourtant pas qu’une politique de gauche sera désormais mise en œuvre en Irlande, les prérogatives de la présidence irlandaise étant nettement moins étendues que celles de son homologue française.

Le classement : l’originalité du mode de scrutin irlandais

Au premier abord, ce sont les similitudes entre les deux fonctions qui frappent. En France, comme en Irlande, c’est le peuple qui est directement chargé de désigner la personne qui occupera la fonction. Les modalités de ce vote sont pourtant très différentes.

En France, l’élection se déroule au scrutin majoritaire uninominal à deux tours, et le corps électoral s’exprime en sélectionnant un candidat à chaque tour. Le système irlandais est plus complexe, mais offre plus d’espace à l’expression démocratique. Le scrutin se fait à la proportionnelle et repose sur un vote unique transférable.

Dans l’isoloir, chaque personne à la possibilité de classer les candidates et les candidats. La première préférence sera systématiquement comptabilisée. Si aucun candidat n’a atteint la majorité absolue après le premier dépouillement des premières préférences, le candidat arrivé en dernier est éliminé et le transfert débute. Si le candidat classé premier sur un bulletin est éliminé après le dépouillement des premières préférences, le vote sera transféré au candidat classé deuxième et ainsi de suite jusqu’à ce qu’un candidat ou une candidate soit élue. Vendredi dernier, aucun transfert n’a été nécessaire pour élire Catherine Connolly puisqu’elle a obtenu 63,36 % des premières préférences.

Des compétences constitutionnelles en apparence similaires

Les dispositions consacrées à la présidence dans les Constitutions française et irlandaise confirment les ressemblances. Dans les deux pays, la présidence est normalement assurée de mener son mandat à terme (elle ne peut être forcée à la démission par le Parlement que dans des circonstances exceptionnelles ; en France comme en Irlande, aucune destitution n’a jamais abouti). Elle est également, à la tête des forces armées, chargée de promulguer les lois, de nommer le premier ministre et son gouvernement, et de prononcer la dissolution de la chambre basse du Parlement. Pourtant, des détails importants distinguent les deux fonctions.

Le pouvoir de nomination de la présidence irlandaise n’est pas libre : il s’exerce systématiquement sur avis du Dáil Éireann (la chambre basse du Parlement irlandais), comme le veut la pratique traditionnelle des régimes parlementaires. Le pouvoir de dissolution est lui aussi conditionné à la demande du Taoiseach, le premier ministre irlandais. La présidente peut néanmoins refuser une telle demande si le premier ministre ne dispose plus de la confiance de l’Assemblée. À ce jour, aucun refus n’a jamais été exprimé.

La présidente irlandaise peut également transférer un projet de loi à la Cour suprême pour contrôler sa conformité à la Constitution – l’équivalent d’une saisine du Conseil constitutionnel par la présidence française –, mais cette compétence est également rarement utilisée.

Une présidence irlandaise moins genrée car moins puissante

Lorsqu’elle est entrée en fonctions le 11 novembre, Catherine Connolly est devenue la troisième femme à occuper la présidence irlandaise.

La première, Mary Robinson, a été élue en 1990 et a démissionné en 1997 afin de devenir Haut-Commissaire des Nations unies aux droits de l’homme. L’élection qui a suivi la démission de Mary Robinson a vu le succès d’une autre Mary. Mary McAleese, présidente pendant quatorze ans, entre 1997 et 2011, a été la première présidente née en Irlande du Nord.

En comparaison, la fonction présidentielle française, qui n’a jamais été occupée par une femme, est plus marquée par les normes de genre. Cependant, il ne faut pas en tirer de conclusions hâtives. La gouvernance en Irlande est menée par le Taoiseach (le premier ministre). L’histoire irlandaise n’a vu que des hommes se succéder à cette fonction. En France comme en Irlande, jusqu’ici, jamais une femme n’a exercé le rôle principal et chargé de mener la politique du pays (la présidence en France et le Taoiseach en Irlande).

La composition de l’actuel gouvernement irlandais, dirigé par le Taoiseach Micheál Martin (Fianna Fáil, centre droit), confirme tristement l’actualité de ces stéréotypes de genre, puisqu’il ne compte que 3 femmes sur 15 membres, ce qui reflète le classement de l’Irlande à la dernière place en Europe en termes de proportion de femmes députées.

Le gouvernement actuel de l’Irlande comporte au total 5 femmes sur 19 membres, dont 3 femmes sur 15 ministres de plein exercice. Government Information Service

Une présidence qui préside, l’autre qui gouverne

Les différences les plus significatives entre les présidences française et irlandaise se révèlent dans la pratique de ces fonctions et dans leur relation au pouvoir politique.

La présidence irlandaise ne s’aventure pas dans le jeu politique et la politique du pays, sphère confiée au Taoiseach et au gouvernement. Pourtant, Eoin Daly rappelle que la présidence irlandaise peut être amenée à un jouer un rôle d’arbitre dans la procédure législative, notamment en cas de conflits entre les deux chambres de l’Oireachtas, le Parlement irlandais.

Dans les faits, l’émergence de majorités stables au sein des deux assemblées du Parlement a cantonné les occupants de la présidence à un rôle cérémonial.

Les occupants de la présidence irlandaise ont démontré beaucoup de réticences à s’immiscer dans les questions de politique intérieure. On peut tout de même noter une tendance grandissante de la présidence à exprimer des positions politiques depuis les années 1990 et le mandat de Mary Robinson. Le président sortant, le populaire Michael D. Higgins, est connu pour ses positions critiques à l’égard de certaines politiques gouvernementales. Il a notamment dénoncé l’incapacité des politiques publiques à contrôler la crise du logement en Irlande.

Dans le contexte français, dès 1958, positionner la présidence dans la posture d’un arbitre ne satisfaisait pas. Face au Conseil d’État, Michel Debré (qui a dirigé le groupe de rédaction de la Constitution de la Vᵉ République, ndlr) esquissait à l’époque, une présidence qui serait « bien plus qu’un arbitre entre les partis », une véritable « clé de voûte » des institutions, selon la célèbre formule. Le président, élu au suffrage universel depuis 1962, dispose de prérogatives dispensés de contreseing, dont l’usage n’est pas conditionné à l’aval du Parlement.

C’est là une différence majeure avec la présidence irlandaise. Sous la Ve République, l’Élysée est devenu le centre gravitationnel du pouvoir, son occupant étant souvent simultanément chef de l’État, chef de parti et chef de majorité politique à l’Assemblée nationale. La réunion de ces trois fonctions autour d’une figure populairement désignée a notamment permis l’émergence d’une pratique présidentialiste du régime.

La Constitution faite « par et pour le pouvoir exécutif » a néanmoins aussi vu des présidents en difficulté. Cependant, même lorsqu’un président s’est retrouvé en retrait, soit parce qu’il devait cohabiter avec un premier ministre d’une autre formation politique, soit parce qu’il n’était plus soutenu par une majorité stable, comme Emmanuel Macron depuis 2022, les présidents sont restés – sous différentes formes et par divers moyens – des figures actives dans la gouvernance du pays.

Les paradoxes des présidences française et irlandaise

Pour Eoin Daly, la campagne présidentielle précédant l’élection de Catherine Connolly a illustré les paradoxes de la fonction. Alors que, durant la campagne, les débats ont longuement évoqué les positionnements politiques des deux candidates sur des problèmes politiques actuels, la fonction est presque exclusivement cérémoniale après l’élection.

Aussi, les conséquences de la large victoire de la candidate de gauche ne doivent pas être surestimées. L’Irlande a déjà eu des présidentes de gauche, mais elle n’a jamais eu un gouvernement de gauche.

Le journaliste Fintan O’Toole y voit le grand paradoxe de la vie politique irlandaise :

« les victoires présidentielles de la gauche n’ont pas inauguré la social-démocratie, mais un capitalisme financier féroce. »

L’élection directe par le peuple d’une personnalité ne vaut pas adoption de son positionnement politique à l’échelle nationale. Daly souligne ainsi que les candidats doivent ainsi « faire campagne pour obtenir un mandat du peuple, mais une fois en fonction, ils ne trouvent aucun moyen réel, autre que la parole, pour remplir ce mandat ». Bref, l’élection éclipse la fonction.

Ce déséquilibre est absent du contexte français, tant la présidence a progressivement gagné en pouvoir depuis 1962. Pourtant, les événements politiques des deux dernières années ont ravivé le paradoxe propre à la pratique du mandat présidentiel français. La présidence n’a pu s’imposer qu’en comptant sur des majorités parlementaires dévouées et disciplinées. Une fois ce socle fragilisé (en 2022) puis rompu (en 2024), elle s’est éloignée des schémas connus jusqu’ici et tente désormais de maintenir un équilibre précaire. Du fait des compétences que lui attribuent la Constitution, la présidence française, contrairement à la fonction irlandaise, ne sera jamais uniquement réduite à la parole, même si la valeur de celle-ci peut drastiquement baisser dans certaines circonstances.

The Conversation

Camille Barbe ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

12.11.2025 à 14:49

Le marché des chevaux de course : entre passion, économie et patrimoine vivant

Éric Le Fur, Professeur, INSEEC Grande École

Benoît Faye, Full Professor Inseec Business School, Chercheur associé LAREFI Université de Bordeaux Economiste des marchés du vin, de l'art contemporain et Economiste urbain, INSEEC Grande École

Derrière le glamour des courses hippiques se joue un marché mondial des chevaux de course évalué à plus de 250 milliards d’euros. Est-il rentable d’investir ?
Texte intégral (2260 mots)
Avec 12 097 ventes, les yearlings sont majoritaires, suivis des juments avec 4 951 ventes et des chevaux d’entraînement avec 3 417 ventes. LukasGojda/Shutterstock

Derrière le glamour des courses hippiques se joue un marché mondial des chevaux de course évalué à 300 milliards de dollars (ou 258,1 milliards d’euros). Véritables actifs vivants, les pur-sang attirent investisseurs et passionnés dans un univers où performances sportives, pedigree et spéculation s’entremêlent. Mais entre prestige et rentabilité, le rapport rendement/risque reste souvent défavorable.

Le monde des courses de chevaux n’est pas seulement un sport, c’est un écosystème économique et culturel, où un actif unique, le cheval de course, concentre enjeux financiers, prestige et tradition. Comprendre ce marché, c’est plonger dans un univers où la performance sportive rencontre l’investissement et la passion. Notre contribution questionne ainsi le risque et le rendement de cet investissement.

Définition et catégories d’un cheval de course

C’est un équidé élevé, dressé et entraîné spécifiquement pour participer à des compétitions officielles de vitesse ou d’endurance. Il ne faut pas le confondre avec un cheval de sport qui est utilisé dans d’autres disciplines équestres, comme le saut d’obstacles, le dressage ou le concours complet. Sa valeur dépend à la fois de sa performance sportive, de sa lignée génétique et de son potentiel de reproduction. Les chevaux de course sont classifiés en fonction de leur âge.

Fourni par l'auteur

Marché des chevaux de course et ventes aux enchères

Contrairement à un actif financier, un cheval est un actif vivant qui peut courir, gagner des compétitions, générer des revenus, participer à la reproduction et être vendu. C’est un marché où la performance sportive et la valeur économique sont fortement liées. Ce marché, mondial, est évalué à 300 milliards de dollars (258,1 milliards d’euros).

La France, le Royaume-Uni et l’Irlande représentent 133 milliards de dollars (114,4 milliards d’euros). Les États-Unis et le Canada totalisent 118 milliards de dollars (101,5 milliards d’euros). Le reste des ventes se répartit entre l’Asie-Océanie (Australie, Chine, Hong-kong et Japon), l’Afrique du Sud, et le Moyen-Orient (Arabie saoudite et les Émirats arabes unis).

Chevaux yearlings, ou chevaux pur-sang anglais, descendants du pur-sang arabe. ErinDaugherty/Shutterstock

L’événement phare en France est la vente de yearlings d’août aux enchères de Deauville (Calvados), organisée par Arqana, des pur-sang dans leur deuxième année. Depuis plusieurs années, les records dans les ventes aux enchères s’accumulent. Par exemple, le 9 décembre 2023, lors de la vente d’élevage de Deauville, Place-du-Carrousel, une jument de 4 ans a été adjugée 4,025 millions d’euros. Lors de la même vente en 2022, Malavath, une pouliche d’entraînement, a été adjugée 3,2 millions d’euros. Enfin, une pouliche de Dubawi, acquise en 2015 pour 2,6 millions d’euros par Godolphin, l’écurie du cheikh Mohammed Al-Maktoum, émir de Dubaï, détient le record pour un yearling vendu aux enchères publiques en France.

Construction d’un indice de prix pour déterminer le risque et le rendement

Nous utilisons 28 310 ventes aux enchères provenant du site Arqana entre novembre 2016 et novembre 2023. Avec 12 097 ventes, les yearlings sont majoritaires, suivis des juments (4 951 ventes) et des chevaux d’entraînement (3 417 ventes).

Plus de 93 % des ventes sont réalisées à Deauville ; le reste, 1 054 à Saint-Cloud (Hauts-de-Seine), 553 en ligne, 87 à Chantilly (Oise) et 29 à Auteuil (Paris XVIᵉ). Les amateurs représentent 22 % des acheteurs. La difficulté de l’analyse repose sur le fait que chaque cheval possède des caractéristiques uniques (généalogie, pays d’origine, sexe, âge). Afin d’extraire une tendance des prix qui mesure l’évolution de la valeur globale des chevaux de course en prenant en compte leurs attributs spécifiques, nous construisons un indice de prix hédonique.

Évolution de l’indice de prix hédonique pour l’ensemble des chevaux de course. Fourni par l'auteur

La tendance générale est à la hausse, avec une accélération des prix après la pandémie de Covid-19. Cependant, l’analyse des indices par catégorie révèle des évolutions de prix très différentes. Alors que les chevaux de deux ans, les chevaux d’entraînement et les juments ont connu des tendances stables, voire en baisse, après la pandémie de Covid-19, les yearlings et les pouliches ont atteint des sommets.

Rendements et risques d’un investissement dans les chevaux de course

Nos résultats indiquent des rendements positifs mais faibles. Tous les rendements trimestriels et semestriels sont positifs, suggérant qu’investir dans les chevaux de course pourrait être une opportunité, mais sont généralement inférieurs au taux sans risque.

Par conséquent, investir dans les chevaux de course semble davantage relever de la passion que de la rentabilité financière. Par catégorie, les yearlings sont les plus attractifs pour les investisseurs prêts à prendre des risques, surtout depuis la pandémie de Covid-19.

Autres caractéristiques des chevaux à prendre en compte pour mieux appréhender les rendements

Certaines informations ne sont pas prises en compte dans notre modèle et permettraient probablement d’affiner les résultats. La valeur d’un cheval de course dépend aussi de ses caractéristiques physique, morale et esthétique. Un corps bien proportionné, un cœur puissant, un métabolisme efficace et une récupération rapide sont des éléments clés de la performance et de la longévité. Le tempérament du cheval joue également un rôle crucial. La couleur de la robe, bien qu’elle n’ait aucune influence sur les aptitudes physiques, peut susciter l’attrait commercial. Enfin, dans certaines catégories, les informations sur les performances passées peuvent peser significativement sur le prix.

Compte tenu de ces facteurs, le retour sur investissement des chevaux de course est une équation complexe. Il dépend de la différence entre les prix de revente et d’achat, ou des bénéfices actualisés, incluant le prix de revente. Supposons que l’investissement consiste à acheter un cheval de sa conception à sa mort. Dans ce cas, la valeur actuelle nette prend en compte négativement les prix actualisés de la saillie, de l’élevage, de l’entraînement, du transport et de l’entretien post-carrière, et positivement les bénéfices actualisés des courses et de l’élevage. Il est également nécessaire de prendre en compte les risques de blessure, de maladie et de sous-performance potentielle.

Les chevaux de course représentent-ils davantage un investissement de prestige ou de passion ?

Comme nous le démontrons, les chances de profit sont faibles, et il peut être plus facile de considérer cet investissement comme une dépense récréative. Investir dans un cheval de course peut être émotionnellement gratifiant. Pour les passionnés, le prestige et la passion justifient les pertes.

Posséder un cheval de course pour les élites et la communauté équestre, surtout s’il remporte des courses prestigieuses, est synonyme de reconnaissance. Ainsi, certains investisseurs sont davantage motivés par l’amour des chevaux, la passion des sports équestres et l’excitation des courses que par la rentabilité financière. Il s’agit d’un loisir coûteux, comme les voitures de collection.

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.

PDF

12.11.2025 à 14:47

Nos ancêtres du Paléolithique savaient fabriquer des outils simples et efficaces

Evgeniya Osipova, Préhistoire, Université de Perpignan Via Domitia

Rimma Aminova, Chercheure en archéologie, Margulan Institute of Archaeology

Saule Rakhimzhanova, Chercheure en archéologie, Margulan Institute of Archaeology

Yslam Kurmaniyazov, PhD, Université Korkyt Ata de Kyzylorda

La découverte d’une alternative simple et efficace aux outils de découpe complexes aménagés sur deux faces change notre vision des humains du Paléolithique.
Texte intégral (1308 mots)
Archéologue sur le site paléolithique du nord de la mer d’Aral. Étude du matériel. E.A. Osipova

L’industrie lithique – soit l’ensemble des objets en pierre taillée, pierre polie et matériel de mouture – est souvent le seul témoignage de la culture matérielle préhistorique qui nous soit parvenu. Or, nos ancêtres disposaient d’un kit d’outillage en pierre très diversifié : à chaque activité correspondait un outil spécifique, en particulier pour tout ce qui touchait à la recherche de nourriture et la découpe de la viande.


La viande était une source d’alimentation importante pour les humains préhistoriques, depuis les premiers hominidés, Homo habilis (entre 2,4 millions et 1,6 million d’années), jusqu’à l’apparition de notre espèce, Homo sapiens archaïque (il y a 300 000 ans). Pour trouver de la viande, ils pratiquaient le charognage opportuniste avec les animaux carnivores, puis bien plus tard, la chasse sélective et spécialisée des animaux herbivores.

Mais parvenir à dégager de la viande des carcasses d’animaux nécessite de réaliser une séquence de gestes complexes, en utilisant des outils performants. Au Paléolithique inférieur (entre 800 000 et 300 000 ans avant notre ère) et Paléolithique moyen (entre 300 000 ans et 40 000 ans), il s’agissait d’outils de découpe : des couteaux ou d’autres outils utilisés comme tels. Au fil du temps et en fonction des sites, certains outils travaillés sur deux faces sont devenus de véritables marqueurs culturels. Il s’agit d’abord des bifaces, ces « outils à tout faire » en pierre taillée, qui sont traditionnellement attribués à la culture acheuléenne (entre 700 000 et 200 000 ans en Europe).

Ce sont ensuite des couteaux à dos – le dos correspondant à une partie du bord de la pièce, aménagée ou naturelle, non tranchante et opposée au bord actif, souvent tranchant – autrement appelés des Keilmesser, qui sont typiques de la culture micoquienne (entre 130 000 et 50 000 ans).

Outils de découpe

Les bifaces sont omniprésents en Eurasie, tandis que les couteaux à dos sont majoritairement concentrés en Europe centrale et orientale, dans le Caucase, dans la plaine d’Europe orientale. Les deux catégories d’outils, souvent utilisés pour plusieurs activités, ont en commun une fonction de découpe.

La partie de l’objet qui sert aux pratiques de boucherie est dotée d’un bord suffisamment tranchant et plus ou moins aigu. La fonction de découpe peut être assurée par des éclats simples non aménagés (c’est-à-dire non travaillés par la main humaine) qui ont souvent un bord assez coupant.

La réalisation de ces outils sophistiqués nécessite à la fois de se procurer les matières premières adaptées et d’avoir des compétences avancées en taille de pierre. Mais nos ancêtres avaient-ils vraiment besoin d’outils aussi complexes et polyfonctionnels pour traiter les carcasses d’animaux ? Existait-il d’autres solutions pour obtenir un outil de découpe aussi efficace ?

Notre étude de la période paléolithique à partir d’outils trouvés en Asie centrale, au Kazakhstan, répond en partie à cette question.

Fracturation intentionnelle

La fracturation intentionnelle est une technique qui consiste à casser volontairement un outil en pierre par un choc mécanique contrôlé fait à un endroit précis. Cette technique a été abordée pour la première fois dans les années 1930 par le préhistorien belge Louis Siret. Elle était utilisée au cours de la Préhistoire et de la Protohistoire pour fabriquer des outils spécifiques : burins et microburins, racloirs, grattoirs… La fracture intentionnelle détermine la forme de l’outil en fonction de l’idée de celui qui le taille.

Mais les pièces fracturées sont souvent exclues des études, car la fracture est généralement considérée comme un accident de taille, qui rend la pièce incomplète. Néanmoins, la fracture intentionnelle se distingue d’un accident de taille par la présence du point d’impact du coup de percuteur, qui a provoqué une onde de choc contrôlée, tantôt sur une face, tantôt sur les deux.

À travers l’étude d’une série de 216 pièces en grès quartzite (soit le tiers d’une collection provenant de huit sites de la région Nord de la mer d’Aral), nous avons découvert une alternative simple et efficace aux outils complexes aménagés sur deux faces.

Les objets sélectionnés dans cet échantillon sont uniquement des pierres intentionnellement fracturées. La majorité des pièces présentent un point d’impact laissé par un seul coup de percuteur, porté au milieu de la face la plus plate de l’éclat de grès quartzite. D’autres pièces, plus rares, montrent la même technique, mais avec l’utilisation de l’enclume. La fracture est généralement droite, perpendiculaire aux surfaces de la pierre, ce qui permet d’obtenir une partie plate – un méplat, toujours opposé au bord coupant d’outil.

La création des méplats par fracturation intentionnelle est systématique et répétitive dans cette région du Kazakhstan. Parmi ces outils, on en trouve un qui n’avait encore jamais été mentionné dans les recherches qui y ont été menées : le couteau non retouché à méplat sur éclat, créé par fracture intentionnelle. Cette catégorie de méplat correspond à une fracture longue et longitudinale, parallèle au bord coupant d’un éclat de pierre.

La fabrication de cet outil peu élaboré et pourtant aussi efficace que le biface et le Keilmesser pour la découpe de la viande prend peu de temps et nécessite moins de gestes techniques. C’est pourquoi ils sont abondants et standardisés dans la collection étudiée.

Avec le biface et le Keilmesser, le couteau à méplat sur éclat pourrait ainsi être le troisième outil de découpe du Paléolithique ancien, utilisé dans la région de la mer d’Aral. Les recherches à venir permettront de mieux comprendre le comportement gastronomique de nos ancêtres et d’en savoir plus sur leurs kits de « couverts » en pierre.

The Conversation

Cette recherche a été financée par une subvention du Comité de la Science du Ministère de la Science et de l’Enseignement supérieur de la République du Kazakhstan (Projet N° AP22788840 « Études archéologiques des sites paléolithiques de la région Est de la Mer d’Aral »).

Rimma Aminova, Saule Rakhimzhanova et Yslam Kurmaniyazov ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur poste universitaire.

PDF

12.11.2025 à 14:47

Nicolas Sarkozy interdit de contact avec Gérald Darmanin : l’indépendance de la justice renforcée ?

Vincent Sizaire, Maître de conférence associé, membre du centre de droit pénal et de criminologie, Université Paris Nanterre

Nicolas Sarkozy, mis en liberté sous contrôle judiciaire, ne peut entrer en contact avec les personnes liées à l’enquête ni avec le ministre de la justice Gérald Darmanin, qui lui avait rendu visite en prison.
Texte intégral (2057 mots)

Nicolas Sarkozy a été mis en liberté sous contrôle judiciaire, lundi 10 novembre, par la Cour d’appel de Paris. Il n’a plus le droit de quitter le territoire, et ne doit pas entrer en contact avec les personnes liées à l’enquête ni avec le ministre de la justice Gérald Darmanin. Cette interdiction est liée à la visite que lui a rendu le ministre en prison, interprétée comme une pression exercée sur les magistrats. Le contrôle judiciaire de l’ancien président de la République va donc dans le sens d’une réaffirmation du principe d’indépendance des magistrats vis-à-vis du pouvoir exécutif. Au-delà de l’affaire Sarkozy, quelles sont les capacités d’influence du pouvoir exécutif sur la justice ?


Le 10 novembre 2025, la Cour d’appel de Paris a fait droit à la demande de mise en liberté de Nicolas Sarkozy. Contrairement à ce qu’on pourrait penser, cette décision n’est nullement le résultat des pressions diverses qui pèsent sur l’institution judiciaire depuis le prononcé de la condamnation de l’ancien chef de l’État. D’une part, la Cour d’appel a estimé que les conditions de la détention provisoire n’étaient pas réunies, aucun élément objectif ne laissant craindre que l’ancien chef de l’État soit tenté de prendre la fuite avant le jugement définitif de son affaire. D’autre part, et surtout, la Cour a assorti la mise en liberté d’un contrôle judiciaire strict, interdisant en particulier à M. Sarkozy tout contact avec le garde des sceaux Gérald Darmanin et avec son cabinet, considérant que de tels liens lui permettraient d’influer sur le cours de la procédure.

Ce faisant, la juridiction vient non seulement réaffirmer l’indépendance du pouvoir judiciaire, mais aussi apporter une réponse à la polémique soulevée par la visite du garde des sceaux, agissant à titre officiel, à l’ancien locataire de l’Élysée incarcéré, le 27 octobre. Cette démarche avait en effet suscité de nombreuses critiques au sein du monde judiciaire, à l’image des propos du procureur général de la Cour de cassation dénonçant un risque « d’obstacle à la sérénité et d’atteinte à l’indépendance des magistrats » ou, plus encore, de la plainte pour prise illégale d’intérêt déposée à l’encontre du ministre par un collectif d’avocats.

Le ministre de la justice peut-il rendre visite à un détenu ?

Au-delà de la polémique médiatique, c’est d’abord l’état de la relation entre le pouvoir exécutif et le pouvoir judiciaire – sensément séparés et indépendants – que cette visite interroge. Certes, les textes actuels permettent bien au ministre, au moins indirectement, d’y procéder. Le Code pénitentiaire reconnaît en effet à certains services de l’administration pénitentiaire le droit de procéder à des visites de contrôle du bon fonctionnement des établissements carcéraux. Dans la mesure où le ministre de la justice est à la tête de cette administration, rien ne lui interdit donc, en théorie, de procéder lui-même à de telles visites. Par ailleurs, toute personne détenue « peut demander à être entendue par les magistrats et fonctionnaires chargés de l’inspection ou de la visite de l’établissement, hors la présence de tout membre du personnel de l’établissement pénitentiaire ». Ainsi, le cadre juridique aujourd’hui applicable au contrôle des prisons n’interdit pas au garde des sceaux de visiter lui-même un établissement et de s’entretenir, à cette occasion, avec les personnes incarcérées.

Mais c’est justement un tel cadre qui, du point de vue de la séparation des pouvoirs, mérite d’être questionné. Faut-il le rappeler, c’est toujours en vertu d’une décision de l’autorité judiciaire qu’un individu peut être mis en prison, qu’il s’agisse d’un mandat de dépôt prononcé avant l’audience ou de la mise à exécution d’un jugement de condamnation définitif. C’est également l’autorité judiciaire, en la personne du juge d’application des peines, qui est seule compétente pour décider des mesures d’aménagement des peines d’emprisonnement (réduction de peines, semi-liberté, libération conditionnelle…). Et si la direction de l’administration pénitentiaire peut prendre seule certaines décisions (placement à l’isolement, changement d’établissement…), c’est sous le contrôle du juge administratif, non du ministre.

C’est pourquoi la visite dans un établissement carcéral du garde des sceaux, lequel – à la différence des fonctionnaires placés sous son autorité – est membre du pouvoir exécutif, est toujours porteuse d’un risque d’immixtion ou de pression, au moins indirecte, sur le pouvoir judiciaire. Tel est notamment le cas quand cette visite a pour seul objet d’accorder, sinon un soutien, du moins une attention particulière à un détenu parmi d’autres, quand les juges ont pour mission de traiter chacun d’entre eux sur un strict pied d’égalité.

À cet égard, il est intéressant de relever que les autres autorités habilitées – aux côtés des magistrats – à se rendre en prison ont, quant à elles, pour seule attribution de veiller au respect des droits fondamentaux de l’ensemble des personnes emprisonnées, à l’image du défenseur des droits et du contrôleur général des lieux de privation de liberté ou, encore, du comité de prévention de la torture du conseil de l’Europe.

Les leviers du pouvoir exécutif sur le pouvoir judiciaire

La polémique suscitée par la visite faite à l’ancien chef de l’État a ainsi le mérite de mettre en lumière à quel point le pouvoir exécutif dispose, encore aujourd’hui, de nombreux leviers pour intervenir plus ou moins directement dans le champ d’intervention du pouvoir judiciaire. Ainsi, ce qui est vrai pour l’exécution des peines l’est, plus encore, pour l’exercice de la police judiciaire, c’est-à-dire l’ensemble des actes ayant pour objet la constatation et l’élucidation des infractions pénales. Alors que l’ensemble des agents et officiers de police judiciaire sont en principe placés sous l’autorité exclusive du procureur de la République ou – lorsqu’il est saisi – du juge d’instruction, ils demeurent en pratique sous l’autorité du ministre de l’intérieur, seul compétent pour décider de leur avancement, de leurs mutations et, plus largement, de leurs conditions générales de travail. C’est en particulier le ministère qui décide, seul, de l’affectation des agents à tel ou tel service d’enquête, du nombre d’enquêteurs affectés à tel service et des moyens matériels qui leur sont alloués. En d’autres termes, les magistrats chargés des procédures pénales n’ont aucune prise sur les conditions concrètes dans lesquelles leurs instructions peuvent – ou non – être exécutées par les services de police.

Mais le pouvoir exécutif dispose d’autres leviers lui permettant d’exercer encore plus directement son influence sur le cours de la justice. Les magistrats du parquet sont ainsi placés sous la stricte subordination hiérarchique du garde des sceaux, seul compétent pour décider de leur affectation, de leur avancement, et des éventuelles sanctions disciplinaires prises à leur encontre.

Une situation de dépendance institutionnelle qui explique que, depuis plus de quinze ans, la Cour européenne des droits de l’homme considère que les procureurs français ne peuvent être regardés comme une autorité judiciaire au sens du droit européen. Si les magistrats du siège bénéficient quant à eux de réelles garanties d’indépendance, ils ne sont pas à l’abri de toute pression. Certes, ils sont inamovibles et le Conseil supérieur de la magistrature a le dernier mot sur les décisions disciplinaires et les mutations les concernant. Toutefois, si les juges ne peuvent être mutés contre leur gré, c’est le ministère qui reste compétent pour faire droit à leurs demandes de mutation, le Conseil n’intervenant que pour valider (ou non) les propositions faites par les services administratifs – à l’exception des présidents de tribunal et des magistrats à la Cour de cassation, qui sont directement nommés par le Conseil supérieur de la magistrature.

Des juridictions dépendantes du ministère pour leur budget

Par ailleurs, alors que le conseil d’État négocie et administre en toute indépendance le budget qui lui est confié pour la gestion des juridictions de l’ordre administratif, les juridictions judiciaires ne bénéficient quant à elles d’aucune autonomie budgétaire. Là encore, c’est le ministère de la justice qui, seul, négocie le budget alloué aux juridictions et prend les principales décisions quant à son utilisation, notamment en matière d’affectation des magistrats et des greffiers à telle ou telle juridiction et en matière immobilière. Le pouvoir exécutif dispose ainsi d’une influence considérable sur l’activité concrète des tribunaux et, en particulier, sur leur capacité à s’acquitter de leurs missions dans de bonnes conditions.

Au final, c’est peu dire qu’il existe de significatives marges de progression si l’on veut soustraire pleinement le pouvoir judiciaire à l’influence du pouvoir exécutif. Une émancipation qui, faut-il le rappeler, n’aurait pas pour fonction d’octroyer des privilèges aux magistrats, mais tendrait uniquement à assurer à tout justiciable – et, plus largement, à tout citoyen – la garantie d’une justice véritablement indépendante, à même d’assurer à chaque personne le plein respect de ses droits, quelle que soit sa situation sociale.

The Conversation

Vincent Sizaire ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

12.11.2025 à 14:41

Paris grapples with the remembrance of terrorist attacks, from 1974 to November 13, 2015

Sarah Gensburger, Directrice de recherche au CNRS, Centre de Sociologie des Organisations Sciences Po Paris, Sciences Po

Of the nearly 150 attacks that have taken place in Paris since 1974, only a few have left a mark on its ‘urban memory’. Why do so many attacks remain absent from the public sphere?
Texte intégral (2611 mots)

Since 1974, almost 150 terrorist attacks have either taken place in or departed from Paris. The sinister list includes the attacks against the synagogue on Copernic Street (1980), the Jo Goldenberg restaurant on Rosiers Street in the Marais district (1982), the Tati shop in Rennes Street (1986), as well as two bomb explosions on the RER B commuter train at Saint-Michel (1995) and Port-Royal (1996) stations. However, only a few attacks continue to be recollected in urban memory. Why have so many fallen into oblivion?

On November 13, 10 years after the terrorist attacks in Paris and its northern suburb of Saint-Denis, the French capital’s mayor will open a garden in tribute to the victims, located on Saint-Gervais Square at the back of city hall. Well-tended and original, the new memorial site comes after the plaques that were placed in front of the targeted locations of the attacks in November 2016. Some of the names of the victims have already been honoured in other spaces. This is the case, for example, of Lola Saline and Ariane Theiller, who used to work in the publishing industry and whose names adorn a plaque in the interior hall of the National Book Centre in the 7th arrondissement.

The attacks of November 13 have profoundly transformed the Parisian public space. While commemorative plaques are now more numerous and almost systematic, they also shed light on the memory lapses surrounding most of the terrorist attacks that have taken place in the capital since 1974.

Collective memory and oblivion

In Paris, there are now more than 15 plaques commemorating the various attacks that have taken place in the city and paying tribute to their victims. Spread across seven arrondissements, they commemorate the attacks of October 3, 1980 against the synagogue on rue Copernic (16th arrondissement); August 9, 1982 against the kosher restaurant Jo Goldenberg on rue des Rosiers (4th arrondissement); September 17, 1986 against the Tati store on rue de Rennes (6th arrondissement); and the two explosions that targeted the RER B commuter train on July 25, 1995 at Saint-Michel station (5th arrondissement) and December 3, 1996 at Port-Royal station (5th arrondissement).

The rest of these plaques refer to attacks in January, 2015 (11th and 12th arrondissements), and, above all, November 2015 (10th and 11th arrondissements), with the exception of those commemorating the attack that killed Xavier Jugelé on April 20, 2017 on the Champs-Élysées (8th arrondissement), and the attack that killed Ronan Gosnet on May 12, 2018 on rue Marsollier (2nd arrondissement).

Commemorative plaques for the November 13, 2015 attacks. Fourni par l'auteur

While demonstrating a desire for commemoration, these examples of urban memory also highlight the real memory gap surrounding most of the terrorist attacks that have occurred in Paris in the contemporary period.

How the 1974 attack on the Drugstore Publicis paved the way for modern-day terrorism

The French state has designated 1974 as the starting point of contemporary terrorism. Indeed, this year has been retained as the start of the period that the permanent exhibition of the future Terrorism Memorial Museum aims to cover. And the “victims of terrorism”, who stand apart in France through their right to be awarded a special medal, are those affected by attacks that have occurred since 1974. This choice refers to the attack on the Drugstore Publicis Saint-Germain-des-Prés, which took place in Paris (on the Boulevard Saint-Germain, 6th arrondissement) on September 15 of that year. This chronological milestone is, of course, open to debate, as is any temporal division. However, it is taken here as a given.

Since 1974, historian Jenny Raflik-Grenouilleau has recorded nearly 150 attacks in Paris or originating in Paris in her preliminary research for the Terrorism Memorial Museum. Of this total, 130 attacks resulted in at least one injury and just over 80 resulted in the death of at least one victim. Depending on where one chooses to draw the line between what is worthy of commemoration – from deaths to property damage alone – there are more than 80 attacks and up to nearly 150 in Paris that could potentially have given rise to a permanent memorial in the public space.

The 17 existing plaques therefore concern only a very small minority of the terrorist acts that have taken place in the city. In this respect, the situation in Paris mirrors that described by Kenneth Foote in his pioneering study: plaques are both sources of memory and producers of oblivion. For example, the attack on the Drugstore Publicis Saint-Germain-des-Prés in 1974 left two people dead and thirty-four wounded. Although it is considered the starting point of the contemporary wave of terrorism, there is no plaque to remind passers-by, whether they are Parisians or tourists, many of whom pass through this busy crossroads in the Saint-Germain-des-Prés neighbourhood every day.

Selective narratives and invisible perpetrators

What do the few plaques in Paris that commemorate attacks there have in common?

Firstly, it appears that it is the deadliest attacks that are commemorated, foremost among which, of course, are those of November 13, 2015. All attacks that have claimed at least four lives are commemorated in public spaces. There is only one exception: the bomb attack by a revolutionary brigade in June 1976, which targeted a temporary employment agency to denounce job insecurity. The building’s concierge and her daughter, as well as two residents, were killed.

Only two attacks that resulted in a single death are commemorated: these are the most recent ones, which occurred in 2017 and 2018, and whose victims were named above.

Furthermore, the existing plaques only refer to attacks carried out by Islamist organisations (Armed Islamic Group, al-Qaida, Daesh, etc.) on the one hand, or attacks claimed in the name of defending the Palestinian cause on the other. In this respect, the existing plaques primarily reflect the infinitely more criminal nature of the attacks carried out by these groups, as well as their majority presence. Nevertheless, they consequently only show two sides of terrorism.

Diverse forms of terrorism, but a partial memory

And yet, there has been no shortage of variety since 1974. For example, memory of extreme left-wing terrorism and, to a lesser extent, of extreme right-wing terrorism is nowhere to be found in the public space – notwithstanding their importance in the 1970s and 1980s and the many injuries and deaths left in their wake.

Take, for example, the 1983 attack carried out by far-right group Action Directe at the restaurant Le Grand Véfour, which left Françoise Rudetzki seriously injured as she was having dinner. The event inspired Rudetzski to found SOS Attentats, an organisation that enabled public authorities to compensate terrorism victims. However, even today, there is not a word about the attack on the walls of the building in question in the 1st arrondissement.

The memory gap is all the more puzzling given that the justifications put forward for these invisible attacks have not disappeared. Between July 5 and 21, 1986, Action Directe carried out three successive bomb attacks. The attack on July 9 targeted the police anti-gang squad, killing one officer and injuring 22 others. In their claim, the perpetrators mentioned that they had sought to “avenge” Loïc Lefèvre, a young man killed by a member of the security forces in Paris four days earlier. In October 1988, this time it was Catholic fundamentalists who attacked the Saint-Michel cinema, which was screening Martin Scorsese’s film The Last Temptation of Christ, which they considered blasphemous. The attack injured 14 people. These two examples show how some of the attacks that have remained invisible in the public sphere nonetheless resonate with themes that are still very much present in contemporary public debate, from “police violence” to “freedom of expression”.

Finally, no plaque mentions the motivations of the perpetrators of the attack. Whether they were installed in 1989 or 2018, Paris’s plaques either pay tribute to “the victims of terrorism” or commemorate an “act of terrorism”, without further detail. Although, here too, there is an exception to this rule, which in turn allows us to reflect implicitly through a borderline case. The plaques commemorating the 1982 attack on the kosher restaurant Jo Goldenberg and the 2015 attack on the Hyper Casher supermarket on avenue de la Porte de Vincennes are the only ones to add an adjective, in this case “antisemitic”, to the mention of the attack, while the plaque hung on rue Copernic, which was targeted by a bomb in 1980, refers to “the heinous attack perpetrated against this synagogue”, thus specifying the reason for the attack. To date, only antisemitic attacks are named as such.

Commemorative plaque for the attack on the Jo Goldenberg restaurant on rue des Rosiers. Fourni par l'auteur

Memorial practices in Parisian public spaces

Only a tiny fraction of the terrorist acts committed in Paris since 1974 are now marked for passers-by’s attention, producing, thereby, memory as well as oblivion. The question of how these reminders of the past are used in Parisian public spaces remains open.

While the issue is not specific to the commemoration of terrorist attacks, it is particularly acute in the case of plaques referring to them, since they refer to an event – “terrorism” – which, unlike a war marked by a beginning and an end, is an ongoing process that is difficult to consider as having ended. In 1996, when the public transport company, the RATP, was asked by the families of the victims of the RER B attack to have their names included on a plaque, it initially expressed its hesitations. It said it feared dangerous crowds on the narrow metro platform. These fears proved unfounded. Very few passengers actually look up to see the plaque.

In this respect, the new November 13, 2015 memorial garden creates a form of commemoration that leaves open the possibility of new ways of remembering, combining the uses of an urban park with participation in the preservation of memory.


A weekly e-mail in English featuring expertise from scholars and researchers. It provides an introduction to the diversity of research coming out of the continent and considers some of the key issues facing European countries. Get the newsletter!


The Conversation

Sarah Gensburger ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

12.11.2025 à 12:22

Mort à 97 ans, James Watson incarna à la fois le meilleur et le pire de la science

Andor J. Kiss, Director of the Center for Bioinformatics and Functional Genomics, Miami University

James Dewey Watson est surtout connu pour sa découverte de la structure de l’ADN, récompensée par le prix Nobel. La controverse autour cette attribution met en lumière les difficultés inhérentes à la collaboration scientifique.
Texte intégral (2091 mots)

James Dewey Watson est mort à l’âge de 97 ans, a annoncé le 7 novembre 2025 le Cold Spring Harbor Laborator. Co-découvreur de la structure de l’ADN et prix Nobel en 1962, a marqué à jamais la biologie moderne. Mais son héritage scientifique est indissociable des controverses qui ont entouré sa carrière et sa personnalité.


James Dewey Watson était un biologiste moléculaire américain, surtout connu pour avoir remporté conjointement le prix Nobel de physiologie ou de médecine en 1962 grâce à la découverte de la structure de l’ADN et de son rôle dans le transfert d’informations au sein des organismes vivants. L’importance de cette découverte ne saurait être exagérée. Elle a permis de comprendre le fonctionnement des gènes et donné naissance aux domaines de la biologie moléculaire et de la phylogénétique évolutive. Elle a inspiré et influencé ma carrière de scientifique ainsi que mes activités de directeur d’un centre de recherche en bioinformatique et en génomique fonctionnelle.

Personnalité provocatrice et controversée, il transforma la manière de transmettre la science. Il reste le premier lauréat du prix Nobel à offrir au grand public un aperçu étonnamment personnel et brut du monde impitoyable et compétitif de la recherche scientifique. James D. Watson est décédé le 6 novembre 2025 à l’âge de 97 ans.

La quête du gène selon Watson

Watson entra à l’université de Chicago à l’âge de 15 ans, avec l’intention initiale de devenir ornithologue. Après avoir lu le recueil de conférences publiques d’Erwin Schrödinger sur la chimie et la physique du fonctionnement cellulaire, intitulé What is Life ?, il se passionna pour la question de la composition des gènes – le plus grand mystère de la biologie à l’époque.

Les chromosomes, un mélange de protéines et d’ADN, étaient déjà identifiés comme les molécules de l’hérédité. Mais la plupart des scientifiques pensaient alors que les protéines, composées de vingt éléments constitutifs différents, étaient les meilleures candidates, contrairement à l’ADN qui n’en possédait que quatre. Lorsque l’expérience d’Avery-MacLeod-McCarty, en 1944, démontra que l’ADN était bien la molécule porteuse de l’hérédité, l’attention se concentra immédiatement sur la compréhension de cette substance.

Watson obtint son doctorat en zoologie à l’université de l’Indiana en 1950, puis passa une année à Copenhague pour y étudier les virus. En 1951, il rencontra le biophysicien Maurice Wilkins lors d’une conférence. Au cours de l’exposé de Wilkins sur la structure moléculaire de l’ADN, Watson découvrit les premières cristallographie par rayons X de l’ADN. Cette révélation le poussa à rejoindre Wilkins au laboratoire Cavendish de l’université de Cambridge pour tenter d’en percer le secret de la structure. C’est là que Watson fit la connaissance du physicien devenu biologiste Francis Crick, avec qui il noua immédiatement une profonde affinité scientifique.

Peu après, Watson et Crick publièrent leurs travaux fondateurs sur la structure de l’ADN dans la revue Nature en 1953. Deux autres articles parurent dans le même numéro, l’un coécrit par Wilkins, l’autre par la chimiste et cristallographe aux rayons X Rosalind Franklin.

C’est Franklin qui réalisa les cristallographies par rayons X de l’ADN contenant les données cruciales pour résoudre la structure de la molécule. Son travail, combiné à celui des chercheurs du laboratoire Cavendish, conduisit à l’attribution du prix Nobel de physiologie ou de médecine de 1962 à Watson, Crick et Wilkins.

Le prix et la controverse

Bien qu’ils aient eu connaissance des précieuses images de diffraction des rayons X de Franklin, diffusées dans un rapport interne du laboratoire Cavendish, ni Watson ni Crick ne mentionnèrent ses contributions dans leur célèbre article publié en 1953 dans Nature. En 1968, Watson publia un livre relatant les événements entourant la découverte de la structure de l’ADN tels qu’il les avait vécus, dans lequel il minimise le rôle de Franklin et la désigne avec des termes sexistes. Dans l’épilogue, il reconnaît finalement ses contributions, mais sans lui accorder le plein mérite de sa participation à la découverte.


À lire aussi : Rosalind Franklin : la scientifique derrière la découverte de la structure de l’ADN, bien trop longtemps invisibilisée


Certains historiens ont soutenu que l’une des raisons invoquées pour ne pas reconnaître officiellement le rôle de Franklin tenait au fait que son travail n’avait pas encore été publié et qu’il était considéré comme une « connaissance partagée » au sein du laboratoire Cavendish, où les chercheurs travaillant sur la structure de l’ADN échangeaient couramment leurs données. Cependant, l’appropriation des résultats de Franklin et leur intégration dans une publication officielle sans autorisation ni mention de son nom sont aujourd’hui largement reconnues comme un exemple emblématique de comportement déplorable, tant du point de vue de l’éthique scientifique que dans la manière dont les femmes étaient traitées par leurs collègues masculins dans les milieux professionnels.

Au cours des décennies qui ont suivi l’attribution du prix Nobel à Watson, Crick et Wilkins, certains ont érigé Rosalind Franklin en icône féministe. On ignore si elle aurait approuvé cette image, car il est difficile de savoir ce qu’elle aurait ressenti face à sa mise à l’écart du Nobel et face au portrait peu flatteur que Watson lui consacra dans son récit des événements. Ce qui est désormais incontestable, c’est que sa contribution fut décisive et essentielle, et qu’elle est aujourd’hui largement reconnue comme une collaboratrice à part entière dans la découverte de la structure de l’ADN.

Une prise de conscience collective

Comment les attitudes et les comportements envers les jeunes collègues et les collaborateurs ont-ils évolué depuis ce prix Nobel controversé ? Dans de nombreux cas, les universités, les institutions de recherche, les organismes financeurs et les revues à comité de lecture ont mis en place des politiques formelles visant à identifier et reconnaître de manière transparente le travail et les contributions de tous les chercheurs impliqués dans un projet. Bien que ces politiques ne fonctionnent pas toujours parfaitement, le milieu scientifique a évolué pour fonctionner de manière plus inclusive. Cette transformation s’explique sans doute par la prise de conscience qu’un individu seul ne peut que rarement s’attaquer à des problèmes scientifiques complexes et les résoudre. Et lorsqu’un conflit survient, il existe désormais davantage de mécanismes officiels permettant de chercher réparation ou médiation.

Des cadres de résolution des différends existent dans les directives de publication des revues scientifiques, ainsi que dans celles des associations professionnelles et des institutions. Il existe également une revue intitulée Accountability in Research, « consacrée à l’examen et à l’analyse critique des pratiques et des systèmes visant à promouvoir l’intégrité dans la conduite de la recherche ». Les recommandations destinées aux chercheurs, aux institutions et aux organismes de financement sur la manière de structurer l’attribution des auteurs et la responsabilité scientifique constituent un progrès significatif en matière d’équité, de procédures éthiques et de normes de recherche.

J’ai moi-même connu des expériences à la fois positives et négatives au cours de ma carrière : j’ai parfois été inclus comme coauteur dès mes années de licence, mais aussi écarté de projets de financement ou retiré d’une publication à mon insu, alors que mes contributions étaient conservées. Il est important de noter que la plupart de ces expériences négatives se sont produites au début de ma carrière, sans doute parce que certains collaborateurs plus âgés pensaient pouvoir agir ainsi en toute impunité.

Il est également probable que ces expériences négatives se produisent moins souvent aujourd’hui, car je formule désormais clairement mes attentes en matière de co-signature dès le début d’une collaboration. Je suis mieux préparé et j’ai désormais la possibilité de refuser certaines collaborations.

Je soupçonne que cette évolution reflète ce que d’autres ont vécu, et qu’elle est très probablement amplifiée pour les personnes issues de groupes sous-représentés dans les sciences. Malheureusement, les comportements inappropriés, y compris le harcèlement sexuel, persistent encore dans ce milieu. La communauté scientifique a encore beaucoup de chemin à parcourir – tout comme la société dans son ensemble.

Après avoir co-découvert la structure de l’ADN, James Watson poursuivit ses recherches sur les virus à l’université Harvard et prit la direction du Cold Spring Harbor Laboratory, qu’il contribua à revitaliser et à développer considérablement, tant sur le plan de ses infrastructures que de son personnel et de sa réputation internationale. Lorsque le Projet génome humain était encore à ses débuts, Watson s’imposa comme un choix évident pour en assurer la direction et en accélérer le développement, avant de se retirer après un long conflit portant sur la possibilité de breveter le génome humain et les gènes eux-mêmes – Watson s’y opposait fermement.

En dépit du bien immense qu’il a accompli au cours de sa vie, l’héritage de Watson est entaché par sa longue série de propos publics racistes et sexistes, ainsi que par ses dénigrements répétés, tant personnels que professionnels, à l’encontre de Rosalind Franklin. Il est également regrettable que lui et Crick aient choisi de ne pas reconnaître pleinement tous ceux qui ont contribué à leur grande découverte aux moments décisifs.

The Conversation

Andor J. Kiss ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

12.11.2025 à 12:21

Ces champignons qui brillent dans la nuit : la bioluminescence fongique décryptée

Romain Garrouste, Chercheur à l’Institut de systématique, évolution, biodiversité (ISYEB), Muséum national d’histoire naturelle (MNHN)

Alors que s’ouvre l’exposition « En voie d’illumination : Lumières de la Nature » au Jardin des Plantes de Paris, plongez dans le monde fascinant des champignons bioluminescents.
Texte intégral (1580 mots)
Mycena cf chlorophos est un champignon totalement lumineux : chapeau, lamelles et mycelium. Parc National de Cuc Phuong, Vietnam Romain Garrouste, Fourni par l'auteur

Alors que s’ouvre l’exposition En voie d’illumination : Lumières de la Nature au Jardin des Plantes de Paris, plongez dans le monde fascinant des champignons bioluminescents.


Il y a des rencontres qui illuminent littéralement vos nuits. Un de ces derniers soirs d’automne, au détour d’un jardin du sud de la France et à la faveur du changement d’heure, j’ai remarqué une étrange lueur verte, douce, presque irréelle, au pied d’une vieille souche. Non, je ne rêvais pas : c’était bien un champignon qui luisait dans le noir. Il ne s’agissait pas d’un gadget tombé d’un sac d’enfant ou d’un reflet de la Lune, mais bien d’un organisme vivant, émettant sa propre lumière. Bienvenue dans le monde fascinant des champignons bioluminescents.

Une lumière naturelle… et vivante

La bioluminescence est la production naturelle de lumière par un être vivant, sans illumination préalable et en cela diffère de la fluorescence ou de la phosphorescence qui ont besoin d’une source de lumière. On la connaît chez certains poissons abyssaux, des requins, des crevettes, du plancton ou chez les lucioles.

Mais les champignons, eux aussi, ont ce « superpouvoir ». Plus de 90 espèces sont aujourd’hui connues dans le monde, surtout en zones tropicales humidescmais certaines, comme l’Omphalotus illudens, sont présentes chez nous, en Europe, et même dans les jardins du sud de la France où l’on trouve aussi Omphalotus olearius, souvent inféodé à l’Olivier mais pas uniquement. L’entomologiste Jean Henri Fabre la connaissait bien et cela a constitué sa première publication en 1856 sur les champignons.

Une chimie simple, une magie complexe

La lumière fongique ne produit pas chaleur, elle est constante et le plus souvent verte. Elle provient d’une réaction chimique impliquant une molécule appelée luciférine, de l’oxygène, et une enzyme, la luciférase. Cette réaction produit de la lumière dans le vert (vers 520 nm). Le mécanisme, bien que désormais mieux compris, reste fascinant : une lumière sans électricité, sans feu, et pourtant visible à l’œil nu, dans le silence du sous-bois. La bioluminescence est donc une forme de chimioluminescence, puisqu’elle dépend d’une réaction chimique.

Chez les champignons, cette lumière n’est pas toujours visible partout : parfois seules les lamelles, d’autres fois le mycélium (le réseau souterrain de filaments) sont luminescents, ou les deux. Beaucoup d’espèces sont par contre fluorescentes aux UV. Comme nous l’avons dit la fluorescence diffère de la bioluminescence par la nécessité d’avoir une source lumineuse d’excitation qui va provoquer une luminescence dans une longueur d’onde différente. Ce sont des phénomènes très différents même s’ils sont souvent associés chez les organismes.

Pourquoi un champignon brille-t-il ?

Pourquoi un organisme qui ne bouge pas et n’a pas d’yeux se donnerait-il la peine d’émettre de la lumière ? Plusieurs hypothèses ont été proposées comme attirer des insectes nocturnes pour disperser les spores, à l’image d’une enseigne clignotante dans la forêt. Une autre hypothèse est un effet secondaire métabolique, sans rôle adaptatif (ça fait moins rêver, mais cela reste peu probable). La dissuasion de prédateurs (insectes, petits rongeurs) grâce à cette signature visuelle inhabituelle a été également étudiée.

Une étude publiée dans Current Biology a montré que des insectes sont effectivement attirés par la lumière de certains champignons, renforçant l’idée d’une stratégie de dissémination.

Le champignon Omphalotus illudens. I. G. Safonov (IGSafonov) at Mushroom Observer, CC BY

L’espèce que vous avez peut-être déjà trouvé dans votre jardin, Omphalotus illudens (ou encore O. olearius dans le sud de la France) est remarquable à plus d’un titre. D’abord, parce qu’elle est toxique : ne vous fiez pas à sa belle couleur orangée et son odeur suave de sous-bois. Ensuite, parce qu’elle émet une lumière verte depuis ses lames, bien visible dans le noir complet. Ce phénomène est observable à l’œil nu si l’on s’éloigne des sources lumineuses parasites.

Ce champignon est de plus en plus étudié pour comprendre les variations génétiques liées à la bioluminescence entre espèces fongiques, et rechercher des molécules d’intérêt dans leur métabolisme, comme l’illudine, l’une des molécules à la base de leur toxicité, intéressante pour ses propriétés anticancéreuse.

Lumière sur la nature

Photographier ces champignons est un défi passionnant : il faut une longue pose, souvent au-delà de 30 secondes, un environnement très sombre, et parfois, un peu de chance. Mais l’image qui en résulte est souvent saisissante : un halo lumineux semblant flotter dans l’obscurité, témoin de la vitalité nocturne des sous-bois.

J’ai relevé le défi une fois de plus, comme la toute première fois dans une forêt du Vietnam sur une autre espèce ou récemment sur des litières en Guyane. Le défi est en fait double, détecter le phénomène et le photographier ensuite comme un témoignage fugace, un caractère discret qui disparaît à la mort de l’organisme.

Pour étudier ces phénomènes notre unité de recherche s’est dotée d’une plate-forme originale d’imagerie et d’analyse des phénomènes lumineux dans le vivant mais aussi pour explorer la géodiversité, par exemple dans les fossiles (pour la fluorescence) : le laboratoire de photonique 2D/3D de la biodiversité. Entre le vivant lors d’expéditions ou de missions de terrains pas forcément lointaine et les collections du MNHN, le registre de l’exploration de ces phénomènes est immense et nous l’avons juste commencé.

Bioluminescence et écologie fongique

Outre son effet esthétique, la bioluminescence pourrait aussi être un marqueur de l’activité biologique : elle reflète le métabolisme actif de certains champignons en croissance, leur interaction avec le bois, la température, l’humidité. Certains chercheurs envisagent même d’utiliser ces espèces comme indicateurs écologiques.

Alors la prochaine fois que vous sortez de nuit, observez les bords des sentiers, les vieux troncs en décomposition… car parfois, la nature éclaire son propre théâtre. Et si un champignon vous fait de l’œil fluorescent, n’ayez pas peur : il est plus poétique que dangereux… sauf si vous le cuisinez. Mais n’oubliez pas d’éteindre votre lampe et d’aller loin des sources de pollution lumineuses.

The Conversation

Romain Garrouste a reçu des financements de : MNHN. CNRS, Sorbonne Université, IPEV, LABEx BCDiv, LABEx CEBA, MTE, MRAE, National Geographic, Institut de la Transition Environnementale et Institut de l'Océan (Sorbonne Univ.)

PDF

12.11.2025 à 12:21

Pourquoi le cochon est-il devenu l’animal de référence pour les xénogreffes ?

Coralie Thieulin, Enseignant chercheur en physique à l'ECE, docteure en biophysique, ECE Paris

Greffer un organe d’animal à un être humain n’est plus de la science-fiction. Ces dernières années, plusieurs patients ont reçu des cœurs, des reins ou même la peau d’un porc génétiquement modifié.
Texte intégral (980 mots)

Greffer l’organe d’un animal à un être humain n’est plus de la science-fiction. Ces dernières années, plusieurs patients ont reçu des cœurs, des reins ou même la peau d’un porc génétiquement modifié. Mais pourquoi choisir le cochon, plutôt qu’un autre animal ?


Le terme xénogreffe désigne la transplantation d’un tissu ou d’un organe provenant d’une espèce différente de celle du receveur, par exemple, d’un porc vers un humain. Elle se distingue de l’allogreffe, entre deux humains, et de l’autogreffe, utilisant les propres tissus du patient. L’objectif est de remédier à la pénurie chronique d’organes humains disponibles pour la transplantation, tout en garantissant la compatibilité et la sécurité du greffon.

En France, au 1er janvier 2025, 22 585 patients étaient inscrits sur la liste nationale d’attente pour une greffe, dont 11 666 en liste active. En 2024, 852 patients sont décédés en attendant une greffe.

La peau de porc, une pionnière des xénogreffes

C’est d’abord la peau qui a ouvert la voie. Depuis les années 1960, la peau de porc est utilisée comme pansement biologique temporaire pour les grands brûlés. Sa structure et son épaisseur sont étonnamment proches de celles de la peau humaine, ce qui permet une bonne adhérence et une protection efficace contre les infections et la déshydratation.

Contrairement à d’autres animaux (vache, mouton, lapin), la peau de porc présente un réseau de collagène (protéine structurelle présente dans le tissu conjonctif et responsable de la résistance et élasticité des tissus) et une densité cellulaire similaires à ceux de l’homme, limitant les réactions de rejet immédiat. Ces greffes ne sont toutefois que temporaires : le système immunitaire finit par les détruire. Néanmoins, elles offrent une protection temporaire avant une autogreffe ou une greffe humaine.

Une proximité biologique frappante

Au-delà de la peau, le cochon partage de nombreux points communs physiologiques avec l’être humain : taille des organes, rythme cardiaque, pression artérielle, composition du plasma, voire métabolisme. Le cœur d’un cochon adulte, par exemple, a des dimensions proches de celui d’un humain, ce qui en fait un candidat naturel pour les greffes.

D’autres espèces, comme les primates non humains, présentent une proximité génétique encore plus importante, mais leur utilisation soulève des questions éthiques et sanitaires beaucoup plus lourdes, sans parler de leur reproduction lente et de leur statut protégé.

Un animal compatible avec la médecine moderne

Au contraire, les cochons sont faciles à élever, atteignent rapidement leur taille adulte, et leurs organes peuvent être obtenus dans des conditions sanitaires contrôlées. Les lignées génétiquement modifiées, comme celles développées par la société américaine Revivicor, sont désormais dépourvues de certains gènes responsables du rejet hyper aigu, ce qui rend leurs organes plus « compatibles » avec le système immunitaire humain.

Les chercheurs ont aussi supprimé des virus « dormants » (qui ne s’activent pas) présents dans le génome du porc, réduisant le risque de transmission d’agents infectieux à l’Homme.

Du pansement biologique à la greffe d’organe

Après la peau, les chercheurs se tournent vers les reins, le cœur, le foie ou encore le pancréas. En 2024, des patients ont survécu plusieurs semaines avec un cœur de porc génétiquement modifié, une prouesse longtemps jugée impossible. Des essais ont également été menés avec des reins de porc, notamment chez des patients en état de mort cérébrale ou, plus récemment, chez un patient vivant. En revanche, les recherches sur le foie et le pancréas en sont encore au stade préclinique, menées uniquement chez l’animal. Ces avancées ne sont pas seulement symboliques : la pénurie mondiale de donneurs humains pousse la médecine à explorer des alternatives réalistes.

Cependant, le défi immunologique reste immense – même génétiquement modifiés, les organes porcins peuvent être rejetés par le système immunitaire humain – tout comme les enjeux éthiques liés notamment au bien-être animal

Le cochon s’est imposé non par hasard, mais parce qu’il représente un compromis entre proximité biologique, faisabilité et acceptabilité sociale. Si les essais confirment la sécurité et la durabilité des greffes, le porc pourrait bientôt devenir un allié inattendu mais essentiel de la médecine humaine.

The Conversation

Coralie Thieulin ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

12.11.2025 à 12:21

Des accélérateurs de particules pour comprendre la cuisson parfaite des pâtes

Andrea Scotti, Senior lecturer of Physical Chemistry, Lund University

Des chercheurs ont utilisé des accélérateurs de particules pour percer les secrets de la cuisson parfaite des pâtes. Leurs expériences révèlent le rôle crucial du gluten, du sel et du temps de cuisson dans la structure des spaghettis.
Texte intégral (1455 mots)

Et si la physique des particules pouvait améliorer la cuisson des pâtes ? En scrutant leur structure à l’échelle atomique, des chercheurs ont compris comment le gluten maintient la fermeté des spaghettis et pourquoi les versions sans gluten restent si fragiles.


Que vous préfériez vos spaghettis al dente ou délicieusement fondants, il n’est pas toujours facile d’atteindre la perfection à la maison. Beaucoup d’entre nous ont déjà vu leurs pâtes se transformer en une bouillie beige – surtout lorsqu’il s’agit d’alternatives sans gluten.

Alors, quelle quantité d’eau et de sel faut-il vraiment utiliser, et combien de temps faut-il cuire les pâtes pour obtenir un résultat optimal ? Et surtout, comment adapter sa méthode de cuisson quand on utilise des pâtes sans gluten ? Une étude récente que mes collègues et moi avons menée, publiée dans Food Hydrocolloids, apporte des réponses en dévoilant la physique du processus de cuisson.

En nous tournant vers le Diamond Light Source, le synchrotron national du Royaume-Uni (un accélérateur de particules circulaire), nous avons étudié la diffusion des rayons X sur des pâtes afin d’en révéler la structure interne. Nous nous sommes ensuite rendus à Isis et à l’Institut Laue-Langevin, deux centres de recherche situés respectivement au Royaume-Uni et en France, pour analyser à l’aide de neutrons (qui, avec les protons, composent le noyau atomique) la microstructure des spaghettis classiques et sans gluten soumis à différentes conditions de cuisson.

L’étude montre comment la structure cachée des pâtes se modifie au cours de la cuisson, et pourquoi les versions sans gluten se comportent de manière si différente.

Ce dispositif nous a permis d’examiner la structure de l’amidon et du gluten dans les spaghettis à des échelles très fines, allant de plusieurs dizaines de fois le rayon d’un atome à plusieurs milliers de fois. Nous avons ainsi pu comparer les transformations qui s’opèrent dans les pâtes classiques et sans gluten selon diverses conditions de cuisson – par exemple lorsqu’elles sont trop cuites ou cuites sans sel.

Nos expériences nous ont permis de « voir » séparément les différents composants des pâtes. En mélangeant de l’eau normale et de « l’eau lourde » (qui contient un isotope appelé deutérium), nous pouvions rendre soit le gluten, soit l’amidon invisible au faisceau de neutrons. De cette manière, nous avons pu isoler efficacement chaque structure à tour de rôle et comprendre le rôle respectif de l’amidon et du gluten pendant la cuisson.

Le rôle du gluten et du sel

Notre étude montre que, dans les pâtes classiques, le gluten agit comme une armature solide qui maintient les granules d’amidon en place même pendant l’ébullition, ce qui confère aux pâtes leur fermeté et leur lenteur de digestion. Dans les pâtes sans gluten, en revanche, les granules d’amidon gonflent et s’effondrent plus facilement – ce qui explique leur texture pâteuse et leur dégradation plus rapide lorsque ce type de pâtes est cuit dans des conditions non optimales.

Nous avons également étudié l’effet du sel contenu dans l’eau de cuisson sur la structure des pâtes. Nous avons constaté que le sel ne se contente pas d’améliorer leur goût : il influence fortement la microstructure des spaghettis. Lorsque des pâtes classiques sont bouillies dans une eau salée, le gluten conserve sa structure, et les granules d’amidon sont moins altérés par le processus de cuisson.

Alors, quelle quantité de sel faut-il ajouter pour préserver la structure microscopique des pâtes ? Notre étude a révélé que l’idéal est de sept grammes de sel par litre d’eau, avec une quantité d’eau plus importante nécessaire pour de plus grandes portions de pâtes. Le temps de cuisson idéal est de dix minutes pour les pâtes classiques et onze minutes pour les pâtes sans gluten. À l’inverse, lorsque la concentration en sel était doublée, l’ordre interne se dégradait plus rapidement et la structure des granules d’amidon était significativement altérée par la cuisson.

Spaghetti is taken out of the pan with tongs
La quantité idéale est de 7 grammes de sel par litre d’eau. Kalashnikov Dmitrii/Shutterstock

Pour les pâtes sans gluten, les conclusions étaient encore différentes en raison de l’absence de la protection offerte par le gluten. Même de petites quantités de sel ne pouvaient compenser cette absence. Les composés artificiels à base d’amidons transformés, utilisés par les fabricants pour remplacer le gluten, se dégradaient rapidement. L’exemple le plus extrême de cette dégradation est survenu lorsque les spaghettis sans gluten étaient cuits trop longtemps – par exemple treize minutes au lieu de onze – et dans une eau très salée.

La principale conclusion est donc que les pâtes sans gluten sont structurellement plus fragiles et moins tolérantes à une cuisson prolongée ou à une mauvaise proportion de sel.

Améliorer les alternatives sans gluten

Comprendre la structure des pâtes à des échelles aussi infimes, invisibles même au microscope, aidera à concevoir de meilleurs aliments sans gluten. L’objectif est notamment de créer des alternatives sans gluten plus résistantes aux mauvaises conditions de cuisson et dont la texture se rapproche davantage de celle des spaghettis classiques.

Les pâtes de blé classiques ont un faible indice glycémique, car le gluten ralentit la dégradation des granules d’amidon lors de la digestion. Les pâtes sans gluten, fabriquées à partir de farines de riz et de maïs, manquent souvent de cette structure, ce qui entraîne une libération plus rapide des sucres. Grâce à la diffusion des neutrons, les scientifiques de l’alimentation peuvent désormais identifier quels ingrédients et quelles conditions de cuisson reproduisent le mieux la structure du gluten.

C’est aussi une illustration de la manière dont des outils expérimentaux de pointe, principalement utilisés pour la recherche fondamentale, transforment aujourd’hui la recherche alimentaire. La diffusion des neutrons a joué un rôle essentiel dans la compréhension des matériaux magnétiques, des batteries, des polymères et des protéines. Elle permet désormais aussi d’expliquer le comportement de nos aliments du quotidien à l’échelle microscopique.

The Conversation

Andrea Scotti reçoit des financements de la Fondation Knut et Alice Wallenberg ainsi que du Conseil suédois de la recherche.

PDF

12.11.2025 à 12:21

Réagir face au danger mortel par l’entraide, le réconfort et le soutien : témoignages de l’attentat au Bataclan le 13 novembre 2015

Guillaume Dezecache, Directeur de recherche en sciences de la durabilité, psychologie et sciences comportementales, Institut de recherche pour le développement (IRD); Université de Versailles Saint-Quentin-en-Yvelines (UVSQ) – Université Paris-Saclay

Comment un groupe réagit-il face à un danger de mort ? L’analyse des témoignages de 32 victimes de l’attentat du Bataclan du 13-Novembre montre que les comportements d’entraide, de réconfort émotionnel ou de soutien physique ont été nombreux.
Texte intégral (1771 mots)

Comment un groupe réagit-il face à un danger de mort ? L’analyse des témoignages de 32 victimes de l’attentat du Bataclan du 13 novembre 2015 montre que les comportements d’entraide, de réconfort émotionnel ou de soutien physique ont été nombreux. Cette stratégie de défense collective est souvent plus efficace que celle du « chacun pour soi ».


Le soir du 13 novembre 2015, six attentats quasi simultanés avaient ensanglanté les abords du Stade de France à Saint-Denis (Seine-Saint-Denis), des terrasses des dixième et onzième arrondissements de Paris ainsi que l’enceinte, la fosse et les coursives du Bataclan (XIᵉ). Dans cette célèbre salle de concert, trois individus armés de fusils d’assaut font feu, tuent 90 personnes et en blessent plusieurs dizaines.

Dans un contexte marqué par de nombreux attentats en France, en Europe et ailleurs, le CNRS avait souhaité, fin novembre 2015, financer des projets de recherche permettant notamment d’appréhender les répercussions sociétales de ces nombreux événements meurtriers. Avec des collègues psychiatres, neuroscientifiques et psychologues sociaux, nous nous sommes penchés sur la question de ce que deviennent les conduites sociales (la façon dont nous nous comportons avec et face à autrui) lorsque la survie est en jeu.

Cette question est cruciale pour préparer au mieux les communautés aux situations d’urgence, et notamment pour articuler les dispositifs de secours institutionnels avec la tendance des populations à prendre les devants en se protégeant mutuellement dans l’attente ou à la place des secours.

Les comportements « antisociaux » sont rares

Depuis les années 1960 et grâce notamment aux travaux des sociologues du Disaster Research Center de l’Ohio State University (États-Unis), nous savons que la « panique » (définie comme un intense affect négatif, une croyance qu’un danger est présent mais qu’on peut en réchapper, et une motivation à atteindre la sécurité à tout prix) est rare. Évidemment, les personnes qui se sentent mortellement menacées ont peur et fuient. Mais elles le font sans volonté de nuire à autrui. Face au danger mortel, de tels comportements dits « antisociaux » (une action qui a un effet résolument délétère sur autrui) sont ainsi sans doute peu courants. Un survivant à l’attentat de Londres en 2005 raconte notamment « qu’il n’a constaté aucun comportement non coopératif », qu’il a « juste vu certaines personnes tellement absorbées par leurs propres émotions qu’elles étaient davantage concentrées sur elles-mêmes », mais « personne qui ne coopérait pas » ; il n’avait d’ailleurs « constaté aucun mauvais comportement ».

De fait, les comportements prosociaux (entraide, réconfort émotionnel, soutien physique) sont nombreux. Un témoin de la bousculade mortelle lors de la Love Parade de 2010 à Duisbourg (Allemagne) raconte qu’une personne (probablement décédée) l’avait sauvé de la mort en maintenant son bras au-dessus de sa tête, de façon à la protéger des piétinements.

Pourquoi nous montrerions-nous plutôt prosociaux face au danger mortel ? Selon la littérature scientifique, il y aurait trois grandes raisons à cela : d’abord, les normes sociales de l’ordinaire (ne pas marcher sur les autres, respecter leur intimité physique, protéger les personnes blessées, etc.) sont si importantes dans la vie quotidienne qu’elles sont maintenues. De même, la réponse au danger perçu est largement affiliative : face au danger, nous cherchons ce qui est sûr, par le rapprochement voire le contact physique. Enfin, le fait de se trouver avec d’autres face à un élément menaçant crée un sentiment de « destin commun » qui favorise des normes de protection du groupe.

Ces explications ont leur mérite, mais ne nous satisfont pas en ce qu’elles semblent présupposer que les réponses sociales au danger ne dépendent pas également des circonstances matérielles dans lesquelles se trouvent les individus. Serions-nous tout aussi prosociaux si nous avions d’abord l’occasion de nous échapper ? Faut-il se sentir en sécurité physique même minimale avant de vouloir aider autrui ? La prosocialité est-elle la réponse spontanée ou met-elle du temps à émerger ? Nous souhaitions, par un travail empirique, mieux comprendre la dynamique des réponses sociales face au danger mortel.

Une recherche menée avec les rescapés du Bataclan

Entre juin et novembre 2016, nous avons eu l’occasion de rencontrer individuellement trente-deux rescapé·e·s de l’attentat du Bataclan, approché·e·s grâce à nos contacts avec deux associations de victimes des attentats du 13-Novembre.

Après nous être assurés que chacun·e des participant·e·s se sentait en capacité de revivre par le récit sa soirée au Bataclan, nous avons discuté avec elles et eux autour d’un questionnaire portant sur leur position dans l’enceinte du Bataclan, leur perception de la menace, les comportements d’autrui et leurs propres comportements à trois moments clés de l’attentat : le moment où ils ont compris que quelque chose de grave se produisait ; lorsqu’ils prenaient conscience qu’il s’agissait d’une attaque terroriste ; enfin, les suites de l’attentat. Puisque certain·e·s participant·e·s ne se retrouvaient pas dans une telle partition du récit (nous disant notamment qu’elles ou ils n’avaient jamais pris conscience qu’il s’agissait d’un attentat), nous avons très vite abandonné l’idée d’analyser la temporalité des comportements prosociaux – à savoir s’ils émergeaient précocement ou tardivement face au danger.

Pour autant, nous avons pu analyser le rôle des contraintes spatiales et matérielles sur 426 actions sociales (réconfort autrui, pousser quelqu’un, appeler à l’aide, etc.) provenant des 32 participant·e·s (environ 13 épisodes narrés par participant·e), à savoir si elles étaient réalisées lorsqu’il était possible de s’échapper et si les agents de l’action étaient alors protégés par une paroi.

Que nous ont raconté les participant·e·s ? Évidemment, on nous a raconté l’usage de la force et des coudes pour se frayer un chemin jusqu’à la sortie.

Un participant nous a dit :

« On s’est levés, et il y a eu un mouvement de foule à ce moment-là […] on s’est fait un petit peu marcher dessus… »

On nous a aussi raconté des paroles difficiles échangées ainsi que des ordres donnés de manière violente et brutale :

« Y’a un mec (un autre spectateur) qui est arrivé derrière la porte […] et j’entendais : “Si tu n’ouvres pas la porte, je vais te b*, je vais te b*, tu vas le regretter toute ta vie, je vais te… tu vas mourir, je vais te’…” Il était complètement fou. »

Enfin, on nous a parlé de négligence des autres :

« La menace est toujours là […] je lâche la main de mon mari, enfin, le truc hyper égoïste […] je me barre et voilà. Et… euh ben, je marche sur des corps, mais je peux pas faire autrement. […] Les corps, les corps qui sont dans le hall, euh, je je, bah pour moi ils sont morts, mais je vais pas vérifier s’ils sont morts ou pas… »

Cependant, on nous a plus souvent raconté le réconfort donné aux autres :

« Je me retrouve allongée par terre, avec des gens empilés donc, je me retrouve avec un couple en face de moi, avec le mari qui couvre sa femme, et elle [est] terrorisée, et euh… […] je lui parle et je lui dis “Pleure pas… pleure pas… comment tu t’appelles ?" »

Il y eut également des transmissions d’information importante pour la survie d’autrui, en dépit du risque de se faire repérer par un terroriste :

« Quand je me suis retourné, y’avait un des assaillants […] qui était en train d’achever des gens au sol. […] Quand il a levé son arme pour recharger, j’ai demandé… et j’ai dit aux gens "Cassez-vous ! Cassez-vous, il recharge”. Et ma compagne me tenait la main elle était en pleurs, je lui ai dit “Tu te casses !" »

Des personnes témoignent de la collaboration physique :

« Ils tenaient la porte, ils ont arraché le néon, ils se sont occupés de la blessée, lui ont donné de l’eau. »

Notre analyse de la distribution des actions sociales en fonction de la position des participant·e·s suggère que les actions prosociales apparaissent plus fréquemment lorsque les individus ne peuvent pas fuir et bénéficient d’une protection minimale. Les contraintes physiques – murs, recoins, impossibilité de fuite – façonnent un espace d’action où les individus, privés d’alternatives, se tournent les uns vers les autres. La prosocialité devient alors une stratégie de survie collective, lorsque d’autres options ne sont pas ou plus aussi disponibles.

Face au danger, nous ressentons un fort besoin d’affiliation et de contact physique, davantage à l’égard des personnes qui nous sont familières, mais aussi sans doute avec le tout-venant. De fait aussi, des facteurs matériels nous empêchent parfois de nous échapper, nous obligeant à faire avec les autres. Cela tombe bien, la présence d’autres personnes est aussi souvent très rassurante.

La prosocialité face au danger peut donc être envisagée comme une stratégie de défense collective fondée sur un principe plus élémentaire : l’interdépendance. Lorsque nos chances de survie sont liées à celles des autres, agir pour soi revient à agir pour autrui – et inversement.

The Conversation

Guillaume Dezecache a reçu des financements du programme CNRS Attentats-Recherche.

PDF

12.11.2025 à 10:50

Enseigner le français langue étrangère : faut-il « gommer » les accents ?

Grégory Miras, Professeur des Universités en didactique des langues, Université de Lorraine

Apprendre une nouvelle langue, c’est s’initier à de nouvelles prononciations. Mais cela suppose-t-il pour autant de gommer son accent ?
Texte intégral (1713 mots)

Apprendre une nouvelle langue, c’est s’initier à de nouvelles sonorités et façons de prononcer. Mais cela suppose-t-il de gommer son accent ? La recherche montre qu’enseigner le français en tant que langue étrangère ne consiste pas forcément à imposer un modèle unique mais s’enrichit de la diversité de ses locuteurs. Explications.


Pourquoi entend-on si peu d’accents dans les médias français ? C’est une question qui a interrogé l’Institut national de l’audiovisuel (INA) à l’occasion des derniers Rendez-vous de l’histoire, organisés à Blois, en octobre 2025. Le mythe d’une langue « standard » s’oppose à la diversité des parlers français dits régionaux, de la francophonie et plus largement à la pratique du français dans le monde.

Ce constat invite à s’interroger sur la manière dont l’enseignement du français dans différents pays prend en compte la variété des accents des apprenants. Quelle place la prononciation tient-elle dans l’apprentissage du français comme langue étrangère ? Comment son approche évolue-t-elle à l’heure de l’IA ?

Exercices de prononciation et « surdité » phonologique

La didactique de la prononciation a particulièrement évolué au cours du temps au regard des technologies disponibles permettant à la phonétique, l’étude des sons, de se perfectionner. Enrica Galazzi, professeure à l’Université catholique du Sacré-Cœur (Italie), souligne que, même si la phonétique expérimentale allait devenir essentielle pour l’étude de la parole, sa naissance à la fin du XIXe siècle a été accueillie avec méfiance par les chercheurs français de l’époque. L’usage d’appareils scientifiques semblait alors mystérieux et suscitait la prudence, alors même que cette approche reposait sur un projet profondément humaniste.

Très tôt, l’étude systématique des sons de la parole dans une vision comparée s’est focalisée sur les difficultés rencontrées par les locuteurs d’une langue qui apprennent le français, par exemple de l’espagnol au français. Ces travaux vont permettre de sensibiliser à ce que le chercheur Nikolaï Troubetzkoy a appelé le « filtre » ou la « surdité » phonologique. Cette dernière fait référence à la difficulté à percevoir et donc à produire de nouveaux sons d’une langue étrangère.

Cependant, cette approche a partiellement été remise en question par des modèles ultérieurs qui démontrent – de manière contre-intuitive – qu’il est parfois plus difficile d’acquérir des sons qui se rapprochent de ceux de sa langue première plutôt que ceux qui sont très différents. Toutefois, la plupart des manuels de prononciation en français langue étrangère continuent de se focaliser sur des exercices de répétition qui postulent que répéter permet d’apprendre.

« Joey Can’t Learn French », (série Friends).

En parallèle, d’autres méthodes ont mis l’accent sur des techniques spécifiques : association des voyelles et de couleurs, modulation des gestes du corps pour aider à l’articulation ou à l’intonation, répétition rapide de texte en même temps qu’un locuteur, etc.

De récentes méta-analyses ont montré que l’enseignement de la prononciation en langue étrangère est globalement efficace, surtout lorsqu’il est sur le temps long, accompagné de retours formatifs individualisés et mené par des enseignants avec un recours raisonné aux technologies numériques.

Toutefois, les études se concentrent encore majoritairement sur des sons isolés (des voyelles ou des consonnes), ne permettant pas de s’assurer d’une capacité à réinvestir ce travail dans des interactions en situation réelle. Produire des phonèmes ne garantit pas la capacité à être compris et à faire vivre le discours.

Être à l’écoute de la diversité des accents

En parallèle de ces techniques de correction, certains chercheurs en appellent à une médiation de la prononciation qui partirait de l’apprenant lui-même et des ses envies plutôt que d’imposer un seul modèle à atteindre, souvent celui imaginaire du « natif ».

Il s’agit de reconnaître que chaque individu qui apprend le français devient un locuteur légitime de cette langue et contribue donc à enrichir l’éventail des accents de la francophonie. Il peut donc déterminer son propre objectif en termes d’accents. Des auteurs comme Jacques Maurais défendent l’idée de la nécessité d’accepter toute la diversité en francophonie pour se décentrer d’une norme standardisée de la France hexagonale.

En effet, loin de compliquer la communication entre francophones (toute personne qui parle français), ces perspectives pourraient élargir les capacités du français à constituer un pont entre de nombreuses langues, et de nombreux individus.


À lire aussi : « L’envers des mots » : Glottophobie


Dans sa thèse de doctorat, Aleksandra D. Savenkova a montré qu’il était possible d’intégrer des variations régionales du français (Sud-Ouest, Québec, Mauritanie, Guadeloupe, etc.) dans l’enseignement du français langue étrangère en Roumanie, même chez des débutants. Il est important de noter que des chercheurs comme Munro et Derwing ont démontré que tout ce qui contribue à la perception d’un accent dans une langue étrangère n’affecte pas forcément l’intelligibilité (capacité à transcrire ce qui est dit) ou la compréhensibilité (le sentiment d’effort pour comprendre).

Ils défendent l’idée de mieux éduquer tous les locuteurs à percevoir la diversité dans les langues plutôt que de se focaliser sur la seule correction de celui qui parle. Cela peut prendre, par exemple, la forme d’exercices d’écoute dans différentes langues présentant une variété d’accents. Le cerveau apprend ainsi à réduire le poids cognitif de la variation et facilite donc la compréhension.

Quelle place pour l’intelligence artificielle ?

La didactique de la prononciation est impactée par l’intelligence artificielle (IA) au même titre que les autres domaines. La plupart des plateformes d’apprentissage en ligne promettent de travailler sur votre prononciation via des modèles de reconnaissance de la parole offrant un retour formatif en temps réel.

Or ces modèles – majoritairement privés – ne permettent pas de savoir ce qui s’y cache en termes d’algorithme et de données d’entraînement. En effet, très souvent ce sont des modèles de voix à texte – une transcription de l’oral. Le retour formatif est fait à partir d’une comparaison de l’audio ainsi transcrit avec un modèle lui aussi écrit.

Par ailleurs, les IA génératives sont des technologies humaines qui produisent des biais liés à des erreurs reproduisant ainsi certaines discriminations, incluant celles sur l’accent.

Si les outils technologiques ont toujours été un support d’aide à l’individualisation pédagogique, ils ne peuvent constituer le centre de l’enseignement et l’apprentissage. C’est d’autant plus vrai pour la prononciation qui nécessite de co-construire l’intelligibilité et la compréhensibilité entre deux partenaires d’une même danse.

« Les multiples prononciations de la lettre R » (TV5 Monde Info, mars 2024).

Actuellement, les recherches sur le langage tendent à mieux valoriser le fait que les locuteurs plurilingues mélangent les langues qu’ils maitrisent (le translanguaging) et qu’ils disposent d’un éventail de sons qu’ils mobilisent en fonction de leurs interlocuteurs et des contextes (la pluriphonie). Cela va donc dans le sens de faire entrer la diversité des accents dans les classes, les manuels et les applications de nos téléphones.

Il n'est donc pas possible de gommer des accents sans effacer l'identité des personnes au profit d'une variété dominante. Penser la diversité des prononciations et des accents, c’est aussi réfléchir aux rapports de pouvoir entre les personnes. Mélanger les langues n’est pas neutre : le français, langue dominante marquée par une histoire coloniale, peut parfois affaiblir des langues minorisées ou menacées. Valoriser la diversité des sons des langues, c’est donc permettre à chacun d’être légitime dans le français qu’il apprend ou d’autres langues qu’il parle.


Cet article est publié en partenariat avec la Délégation générale à la langue française et aux langues de France du ministère de la Culture.

The Conversation

Grégory Miras ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

11.11.2025 à 16:45

Avec son nouveau plan quinquennal, la Chine prend un pari très risqué

Shaoyu Yuan, Adjunct Professor, New York University; Rutgers University

Le dernier plan directeur de Pékin met l’accent sur « l’autosuffisance » et le développement des industries de pointe. Mais cela suffira-t-il à compenser la faiblesse de la croissance intérieure et la morosité de la consommation ?
Texte intégral (2144 mots)

En adoptant en octobre le quinzième plan quinquennal du pays, Xi Jinping renforce le modèle dirigé par l’État, misant sur la technologie et la défense plutôt que sur la consommation des ménages. Un pari à haut risque…


A intervalle régulier, depuis 1953, le gouvernement chinois dévoile une nouvelle stratégie directrice pour son économie : le très important plan quinquennal. Dans l’ensemble, ces feuilles de route ont eu pour objectif de stimuler la croissance et l’unité du pays alors qu’il se transformait d’une économie rurale et agricole en une puissance urbaine et développée.

La tâche à laquelle les dirigeants chinois étaient confrontés lorsqu’ils se sont réunis début octobre 2025 pour élaborer leur quinzième plan de ce type se heurtait cette fois à deux difficultés majeures : la faiblesse de la croissance intérieure et l’intensification des rivalités géopolitiques.

Leur solution ? Miser sur les mêmes recettes. En promettant d’assurer un « développement de haute qualité » grâce à l’autonomie technologique, à la modernisation industrielle et à l’expansion de la demande intérieure, Pékin renforce son pari sur un modèle dirigé par l’État, celui-là même qui a alimenté son essor ces dernières années. Le président Xi Jinping et les autres responsables ayant finalisé le plan 2026-2030 parient sur le fait qu’une croissance industrielle tirée par l’innovation pourrait garantir l’avenir de la Chine, même si des interrogations persistent sur la faiblesse des dépenses de consommation et sur les risques économiques croissants.

En tant qu’expert de l’économie politique de la Chine, je considère le nouveau plan quinquennal chinois autant comme un instrument de pouvoir que comme un outil économique. En réalité, il s’agit avant tout d’une feuille de route destinée à naviguer dans une nouvelle ère de compétition. Ce faisant, il risque toutefois de ne pas s’attaquer au fossé grandissant entre une capacité industrielle en plein essor et une demande intérieure atone.

Des rêves high-tech

Au cœur du nouveau plan on trouve des orientations plaçant l’industrie et l’innovation technologique au premier plan. Concrètement, cela signifie moderniser les usines traditionnelles, automatiser et « verdir » l’industrie lourde, tout en favorisant l’émergence de « secteurs d’avenir » tels que l’aérospatiale, les énergies renouvelables ou l’informatique quantique.

En faisant migrer l’économie vers le haut de la chaîne de valeur, Pékin espère échapper au piège du revenu intermédiaire et consolider son statut de superpuissance technologique autosuffisante. Pour protéger la Chine des contrôles à l’exportation instaurés par d’autres pays afin de freiner son ascension, Pékin redouble d’efforts pour « internaliser » les technologies critiques, en injectant massivement des fonds dans les entreprises nationales tout en réduisant la dépendance envers les fournisseurs étrangers.

Cette quête d’autosuffisance ne relève pas uniquement de considérations économiques : elle est explicitement liée à la sécurité nationale. Sous la direction de Xi Jinping, la Chine a poursuivi avec détermination ce que le Parti communiste chinois appelle la « fusion militaro-civile », c’est-à-dire l’intégration de l’innovation civile aux besoins militaires. Le nouveau plan quinquennal devrait institutionnaliser cette fusion comme principal levier de modernisation de la défense, garantissant que toute avancée dans l’intelligence artificielle ou la puissance de calcul civiles profite automatiquement à l’Armée populaire de libération.

Restructurer le commerce mondial

L’offensive chinoise, pilotée par l’État, dans les industries de haute technologie porte déjà ses fruits, et le nouveau plan quinquennal vise à prolonger cette dynamique. Au cours de la dernière décennie, la Chine s’est hissée au rang de leader mondial des technologies vertes – panneaux solaires, batteries et véhicules électriques – grâce à un soutien massif du gouvernement. Pékin entend désormais reproduire ce succès dans les semi-conducteurs, les machines de pointe, la biotechnologie et l’informatique quantique.

Une telle ambition, si elle se concrétise, pourrait redessiner les chaînes d’approvisionnement mondiales et les normes industrielles à l’échelle planétaire.

Mais cette stratégie accroît également les enjeux de la rivalité économique qui oppose la Chine aux économies avancées. La maîtrise chinoise de chaînes d’approvisionnement complètes a poussé les États-Unis et l’Europe à évoquer une réindustrialisation afin d’éviter toute dépendance excessive vis-à-vis de Pékin.

En promettant de bâtir « un système industriel moderne fondé sur une industrie manufacturière de pointe » et d’accélérer « l’autosuffisance scientifique et technologique de haut niveau », le nouveau plan indique clairement que la Chine ne renoncera pas à sa quête de domination technologique.

Un rééquilibrage insaisissable

Ce à quoi le plan accorde en revanche une attention relativement limitée, c’est au manque de dynamisme de la demande intérieure. Le renforcement de la consommation et des conditions de vie ne reçoit guère plus qu’un assentiment de principe dans le communiqué publié à l’issue du plénum au cours duquel le plan quinquennal a été élaboré.

Les dirigeants chinois ont bien promis de « stimuler vigoureusement la consommation » et de bâtir « un marché intérieur solide », tout en améliorant l’éducation, la santé et la protection sociale. Mais ces objectifs n’apparaissent qu’après les appels à la modernisation industrielle et à l’autosuffisance technologique – signe que les priorités anciennes continuent de dominer.

Et cela ne manquera pas de décevoir les économistes qui appellent depuis longtemps Pékin à passer d’un modèle ouvertement tourné vers les exportations à un modèle de croissance davantage porté par la consommation des ménages.

La consommation des ménages ne représente encore qu’environ 40 % du produit intérieur brut, bien en deçà des standards des économies avancées. En réalité, les ménages chinois se remettent difficilement d’une série de chocs économiques récents : les confinements liés au Covid-19 qui ont ébranlé la confiance des consommateurs, l’effondrement du marché immobilier qui a anéanti des milliers de milliards de richesse, et la montée du chômage des jeunes, qui a atteint un niveau record avant que les autorités n’en suspendent la publication.

Avec des gouvernements locaux enchevêtrés dans la dette et confrontés à de fortes tensions budgétaires, le scepticisme est de mise quant à la possibilité de voir émerger prochainement des politiques sociales ambitieuses ou des réformes favorables à la consommation.

Puisque Pékin renforce son appareil manufacturier tandis que la demande intérieure demeure faible, il est probable que l’excédent de production soit écoulé à l’étranger – notamment dans les secteurs des véhicules électriques, des batteries et des technologies solaires – plutôt qu’absorbé par le marché domestique.

Le nouveau plan reconnaît la nécessité de maintenir une base industrielle solide, en particulier dans des secteurs industriels en difficulté et d’autres, anciens, peinant à rester à flot. Cette approche peut ainsi éviter, à court terme, des réductions d’effectifs douloureuses, mais elle retarde le rééquilibrage vers les services et la consommation que de nombreux économistes jugent nécessaire à la Chine.

Effets en cascade

Pékin a toujours présenté ses plans quinquennaux comme une bénédiction non seulement pour la Chine, mais aussi pour le reste du monde. Le récit officiel, relayé par les médias d’État, met en avant l’idée qu’une Chine stable et en croissance demeure un « moteur » de la croissance mondiale et un « stabilisateur » dans un contexte d’incertitude globale. Le nouveau plan appelle d’ailleurs à un « grand niveau d’ouverture », en conformité avec les règles du commerce international, à l’expansion des zones de libre-échange et à l’encouragement des investissements étrangers – tout en poursuivant la voie de l’autosuffisance.

Pourtant, la volonté de la Chine de gravir l’échelle technologique et de soutenir ses industries risque d’intensifier la concurrence sur les marchés mondiaux – potentiellement au détriment des fabricants d’autres pays. Ces dernières années, les exportations chinoises ont atteint des niveaux record. Cet afflux de produits chinois à bas prix a mis sous pression les industriels des pays partenaires, du Mexique à l’Europe, qui commencent à envisager des mesures de protection. Si Pékin redouble aujourd’hui de soutien financier à la fois pour ses secteurs de pointe et ses industries traditionnelles, le résultat pourrait être une surabondance encore plus forte de produits chinois à l’échelle mondiale, aggravant les tensions commerciales.

Autrement dit, le monde pourrait ressentir davantage la puissance industrielle de la Chine, sans pour autant bénéficier suffisamment de son pouvoir d’achat – une combinaison susceptible de mettre à rude épreuve les relations économiques internationales.

Un pari risqué sur l’avenir

Avec le quinzième plan quinquennal de la Chine, Xi Jinping mise sur une vision stratégique à long terme. Il ne fait aucun doute que le plan est ambitieux et global. Et s’il réussit, il pourrait propulser la Chine vers des sommets technologiques et renforcer ses prétentions au statut de grande puissance.

Mais ce plan révèle aussi la réticence de Pékin à s’écarter d’une formule qui a certes généré de la croissance, mais au prix de déséquilibres ayant pénalisé de nombreux ménages à travers le vaste territoire chinois.

Plutôt que d’opérer un véritable changement de cap, la Chine tente de tout concilier à la fois : rechercher l’autosuffisance tout en poursuivant son intégration mondiale, proclamer son ouverture tout en se fortifiant, et promettre la prospérité au peuple tout en concentrant ses ressources sur l’industrie et la défense.

Mais les citoyens chinois, dont le bien-être est censé être au cœur du plan, jugeront en fin de compte de son succès à l’aune de la progression de leurs revenus et de l’amélioration de leurs conditions de vie d’ici 2030. Et ce pari s’annonce difficile à tenir.

The Conversation

Shaoyu Yuan ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

11.11.2025 à 16:43

Les cigognes et les goélands transportent des centaines de kilos de plastique depuis les décharges jusqu’aux zones humides d’Andalousie

Julián Cano Povedano, PhD student, Estación Biológica de Doñana (EBD-CSIC)

Andy J. Green, Profesor de investigación, Estación Biológica de Doñana (EBD-CSIC)

Le plastique ne se déplace pas seulement par le vent ou la mer. En Andalousie, des milliers d’oiseaux en deviennent les livreux involontaires de déchets plastiques, reliant les décharges humaines aux zones naturelles protégées.
Texte intégral (1837 mots)
Cigognes et goélands se nourrissant dans une décharge. Enrique García Muñoz (FotoConCiencia), CC BY-ND

Le plastique ne se déplace pas seulement par le vent ou la mer. En Andalousie, des milliers d’oiseaux en deviennent les livreurs involontaires, reliant les décharges humaines aux zones naturelles protégées.


L’image d’oiseaux envahissant les décharges et se nourrissant de nos déchets suscite des inquiétudes quant à ce qu’ils mangent réellement. On sait, par exemple, que ces animaux peuvent mourir après avoir ingéré du plastique. Mais ce qui est moins connu, c’est ce qu’il advient ensuite de ces plastiques avalés et comment ils peuvent affecter d’autres organismes partageant le même écosystème.

Notre groupe de recherche étudie depuis plusieurs années le transport de graines et d’invertébrés par les oiseaux aquatiques. Cependant, nous trouvions souvent du plastique, du verre et d’autres produits d’origine anthropique dans les pelotes de réjection – des boules rejetées contenant des restes organiques non digestibles – et dans les fientes que nous analysions. Nous nous sommes donc demandé : et s’ils transportaient aussi du plastique ?

La pollution plastique est l’une des menaces auxquelles notre société est confrontée. Si elle a été largement étudiée dans les écosystèmes marins, les informations sur la provenance et l’impact du plastique dans les zones humides, comme les lacs ou les marais, restent limitées.

Comment les oiseaux transportent-ils les plastiques ?

Dans de nombreux endroits, des oiseaux comme les cigognes, les goélands ou les hérons garde-bœufs effectuent chaque jour le même trajet. Ils se nourrissent dans les décharges puis se déplacent vers les zones humides pour se reposer. Là, ces espèces régurgitent des pelotes contenant le matériel impossible à digérer, comme les plastiques. Elles agissent ainsi comme des vecteurs biologiques, et leur comportement entraîne une accumulation de plastiques dans les zones humides utilisées pour le repos.

Mais quelle est l’ampleur de ce phénomène ?

Pour répondre à cette question, nous nous sommes concentrés sur trois espèces d’oiseaux courantes dans les décharges andalouses : le goéland brun, le goéland leucophée et la cigogne blanche. Nous avons suivi des individus équipés de GPS et prélevé des pelotes de réjection dans les zones humides reliées aux décharges par leurs déplacements.

Après avoir quantifié le plastique en laboratoire, nous avons finalement combiné les données GPS, les recensements des espèces et l’analyse des pelotes de réjection afin d’estimer la quantité de plastique transportée par l’ensemble de la population. Le travail et le traitement des échantillons réalisés dans le cadre du projet ont été présentés dans un documentaire consacré au transport de plastique par les oiseaux vers les zones humides aquatiques.

Des centaines de kilos de plastique chaque année

La lagune de Fuente de Piedra, à Málaga, est célèbre pour sa colonie de flamants roses. Il s’agit d’une lagune endoréique, c’est-à-dire que l’eau y entre par des ruisseaux mais n’en sort pas, ce qui entraîne une concentration de sels et de tout polluant qui y pénètre, y compris les plastiques.

En hiver, des milliers de goélands bruns venus se reproduire dans le nord de l’Europe s’y rassemblent. Nous estimons que cette population importe en moyenne 400 kg de plastique par an vers cette zone humide classée Ramsar, provenant des décharges des provinces de Málaga, Séville et Cordoue.

Une autre étude récente menée dans le Parc naturel de la baie de Cadix nous a permis de comparer les trois espèces mentionnées, qui fréquentent les mêmes décharges et partagent le parc naturel comme zone de repos. Au total, nous avons constaté que ces espèces transportaient environ 530 kg de plastique par an vers les marais de la baie de Cadix, mais chacune le faisait d’une manière légèrement différente.

Différences entre cigognes et goélands

La cigogne, plus grande, transporte davantage de plastique par individu que les goélands, car ses pelotes de réjection sont plus volumineuses. Cependant, le facteur le plus déterminant pour évaluer l’impact de chaque espèce reste le nombre d’individus effectuant le trajet entre la décharge et la zone humide. Dans notre étude, c’est encore une fois le goéland brun qui déplaçait le plus de plastique (285 kg par an), en raison de son abondance durant l’hiver.

La corrélation directe entre la fréquence des visites aux décharges et la distance à celles-ci est évidente, tant chez les goélands que chez les cigognes. Les écosystèmes situés à proximité des décharges sont donc les plus exposés à ce problème.

Notre étude montre également que les différences spatio-temporelles propres à chaque espèce se traduisent dans leur manière de transporter le plastique. Par exemple, nous avons observé que la zone de la baie de Cadix la plus exposée aux plastiques provenant du goéland leucophée se situe autour de ses colonies de reproduction. De plus, cette espèce transportait du plastique tout au long de l’année, tandis que les deux autres ne le faisaient qu’en lien avec leur passage migratoire.

Enfin, nous avons relevé certaines différences dans les types de plastiques transportés : la cigogne était la seule espèce à rapporter des morceaux de silicone depuis les décharges, pour des raisons encore inconnues.

Goélands et cigognes sur le sol terreux d’une décharge
Goélands et cigognes dans une décharge. Enrique García Muñoz, CC BY-ND

Impact et solutions

Les plastiques et leurs additifs peuvent causer de nombreux problèmes, non seulement pour les oiseaux eux-mêmes, mais aussi pour les organismes avec lesquels ils partagent leur écosystème – que ce soient des plantes ou d’autres oiseaux. Par exemple, les plastiques de grande taille peuvent provoquer des étranglements ou obstruer leurs systèmes digestifs.

Les effets des plastiques plus petits, ainsi que ceux de leurs additifs et des contaminants qui s’y fixent, passent souvent plus inaperçus : ils agissent notamment comme des perturbateurs endocriniens et entraînent des troubles métaboliques et reproductifs. De plus, ils peuvent entrer dans la chaîne alimentaire – passant d’un organisme à celui qui le consomme – et s’y accumuler progressivement à mesure qu’on en gravit les niveaux, affectant ainsi divers maillons de l’écosystème.

Résoudre ce problème n’est pas simple. Une directive européenne (1999/31/CE) prévoit l’utilisation de mesures dissuasives visant à limiter la fréquentation des décharges par ces oiseaux. Cependant, un débat persiste quant à leurs effets possibles sur les populations aviaires.

D’un autre côté, il existe une solution à notre portée, qui n’implique pas les oiseaux et que chacun peut appliquer : celle des célèbres trois « R » – réutiliser, réduire et recycler les plastiques que nous utilisons.

The Conversation

Julián Cano Povedano a reçu un financement du ministère espagnol de la Science, de l’Innovation et des Universités (bourse FPU). Les travaux réalisés ont également reçu le soutien financier de la Junta de Andalucía dans le cadre du projet de R&D+i GUANOPLASTIC (réf. PY20_00756).

Andrew J. Green a été le chercheur principal du projet « Aves acuáticas como vectores de plásticos y nutrientes entre vertederos y humedales andaluces : GuanoPlastic », financé par la Junta de Andalucía (réf. PY20_00756), mené d’octobre 2021 à mars 2023.

PDF

11.11.2025 à 09:26

Anatomie d’un effort, ou comment déjouer notre tendance à la paresse pour bouger plus

Boris Cheval, Associate professor, École normale supérieure de Rennes

Florent Desplanques, Professeur agrégé d'EPS, chargé d'enseignement, École normale supérieure de Rennes

Silvio Maltagliati, Maître de conférence, Université Bretagne Sud (UBS)

Pour nous aider à bouger plus, des chercheurs décryptent les trois phases de l’effort qui permettent, par exemple, de faire un marathon, en dépit des efforts physiques que cela implique.
Texte intégral (2281 mots)

On entend souvent dire que l’effort est perçu comme désagréable, chacun étant enclin à céder aux sirènes du moindre effort. Mais alors, comment expliquer que tant de personnes se lancent, par exemple, dans des marathons, en dépit de l’effort évident qu’implique cette activité physique ? En décryptant les trois phases de l’effort (avant, pendant et après), nous pouvons lutter contre notre tendance naturelle à la paresse.


Se creuser la tête sur un puzzle, monter un escalier, pratiquer une activité physique intense… l’effort est consubstantiel à nombre de nos actions. Sa perception influence non seulement notre motivation immédiate à agir, mais aussi notre engagement durable dans le temps.

Souvent vu comme un coût, l’effort peut constituer une barrière majeure à l’engagement dans des tâches exigeantes, qu’elles soient physiques ou mentales.

L’effort, une composante essentielle de nos comportements

Pendant longtemps, la recherche a considéré l’effort comme un coût à éviter, dans un monde où notre environnement permet de plus en plus de minimiser nos efforts. C’est dans cette perspective que nous avons formulé la théorie de la minimisation de l’effort en activité physique (theory of effort minimization in physical ou TEMPA), selon laquelle nous sommes naturellement enclins à une certaine paresse physique.

Pourtant, cette vision demeurait incomplète. Dans un même contexte donné, pourquoi certains d’entre nous s’adonnent-ils régulièrement – et parfois excessivement – à une activité physique, tandis que d’autres peinent à traduire leurs louables intentions en actions ? Certains travaux montrent que, si l’effort est souvent perçu comme aversif, il peut, chez certaines personnes et en fonction des situations, devenir une source de motivation, voire de plaisir.

Ce contraste illustre le « paradoxe de l’effort » : l’effort est à la fois perçu comme un coût et comme quelque chose de valorisé. Pour mieux comprendre ce paradoxe, et enrichir la théorie de la minimisation de l’effort en activité physique (TEMPA), nous avons proposé dans une publication scientifique récente de distinguer trois phases clé au cours desquelles la perception de l’effort influence de manière spécifique la régulation de nos comportements : avant, pendant et après l’action.

Avant l’effort physique : l’anticiper freine l’action

Avant de passer à l’action, notre cerveau évalue si le bénéfice potentiel vaut l’effort requis. Ainsi, entre monter un escalier ou prendre l’escalator, la tendance automatique de la plupart des personnes est d’éviter l’effort physique.

En conditions de laboratoire, des participants manifestent aussi une préférence spontanée envers les actions demandant moins d’effort, même sans percevoir consciemment la différence. Dans la vie quotidienne, cela se traduit par des comportements très concrets : plus de 90 % des individus optent pour l’escalator plutôt que l’escalier lorsqu’ils ont le choix.


À lire aussi : Activité physique et santé : aménager nos espaces de vie pour contrer notre tendance au moindre effort


Mais dans la vie réelle, le choix entre deux comportements ne se résume pas à la seule différence d’effort à fournir. Certaines activités exigeantes sur le plan physique, comme la course, la danse ou le jardinage, ou sur le plan mental, comme les mots croisés, les échecs ou le sudoku, sont aussi choisies en raison des récompenses qu’elles procurent, telles que le plaisir, la fierté, le bien-être, le sentiment d’accomplissement. Dans ces cas, l’effort anticipé peut certes constituer un frein, mais il ne suffit généralement pas à dissuader l’engagement dans une activité désirée.

Pendant l’effort : économiser l’énergie

Une fois engagés dans l’action, nous cherchons à limiter notre dépense énergétique en réduisant l’effort fourni – tout en atteignant nos buts. Par exemple, lorsque l’on court pour attraper un bus, on ralentit dès qu’on est sûr de l’attraper. Ce mécanisme, hérité de l’évolution, s’inscrit dans un héritage évolutif crucial à la survie.

Dès l’enfance, ce mécanisme d’économie d’énergie émerge. Les tout-petits passent d’une démarche maladroite à un pas nettement plus économe. En laboratoire. Des chercheurs ont même équipé des adultes d’un exosquelette – un cadre robotisé fixé aux jambes – pour rendre leur marche habituelle plus coûteuse. Ils ont alors observé que très rapidement ces derniers réajustent la fréquence et l’amplitude de leurs pas pour réduire l’effort à fournir, même lorsque les gains d’énergie sont minimes.

Ce résultat souligne comment notre système moteur s’adapte aux contraintes environnantes pour converger vers un optimum énergétique. Chez les coureurs d’élite, la foulée, le balancement des bras et la répartition de l’effort sont finement calibrés, démontrant l’importance de cette stratégie tant ici pour la performance sportive que plus largement pour la survie.

Ainsi, minimiser l’effort ne signifie pas refuser l’effort, mais l’employer judicieusement pour atteindre ses objectifs sans gaspiller d’énergie.

Après l’effort, la récompense perçue est renforcée

Après l’action, nous avons tendance à accorder d’autant plus de valeur au résultat que l’effort fourni a été important. Imaginez gravir une montagne à la force de vos mollets. Le sentiment d’accomplissement en magnifie la vue, alors qu’un trajet en téléphérique, aussi spectaculaire soit-il, laisse souvent un souvenir moins marquant. Cet effet, baptisé « Ikea effect » en référence à la satisfaction d’avoir soi-même monté ses meubles, montre que les récompenses gagnées au prix d’un effort paraissent plus gratifiantes.

En laboratoire, cet effet se vérifie par des mesures de l’activité encéphalographique. Lorsque les participants choisissent entre tâches à faible ou intense effort pour obtenir une récompense, l’activité neuronale associée à la récompense est plus intense après un effort élevé. Autrement dit, même si nous cherchons à éviter l’effort, une fois celui‑ci accompli, nous jugeons les gains obtenus d’autant plus gratifiants.

Ce phénomène, appelé justification de l’effort, est une forme de dissonance cognitive décrite il y a plus de soixante ans par le psychologue américain Leon Festinger. Ce mécanisme illustre comment, par réinterprétation, pour atténuer l’inconfort ressenti lors d’une tâche exigeante, nous justifions l’effort important consenti en attribuant une valeur supérieure au résultat obtenu. Cette théorie aide à comprendre le paradoxe de l’effort : bien que nous évitions généralement l’effort, il peut aussi être activement recherché car il signale l’obtention de récompenses potentielles.

Exploiter le rôle dynamique de l’effort pour promouvoir l’engagement dans des tâches exigeantes

En jouant sur les trois phases de l’effort, il est possible de remodeler la perception de l’effort et d’encourager, entre autres comportements, la pratique régulière d’activité physique.

Avant l’effort, ajuster les attentes liées à l’effort permettrait de lever les freins associés la surestimation de l’effort. De courtes séances d’initiation, un retour d’expérience personnalisé, ou une progression graduelle, aide à calibrer ces attentes, surtout chez les personnes les plus sédentaires. Attention toutefois : sous-estimer l’effort réel risquerait de provoquer une déception et de freiner les tentatives suivantes.

Pendant l’effort, détourner l’attention des sensations désagréables (fatigue, inconfort) à l’aide d’éléments externes (musique, environnement perçu comme agréable…), ou se projeter mentalement ailleurs, peut diminuer la perception de l’effort et améliorer les ressentis émotionnels. De même, adapter l’intensité, la durée et le type d’exercice aux préférences de chacun rend l’expérience plus agréable et renforce la motivation.

Après l’effort, il convient d’encourager la prise de conscience des efforts réalisés et des bénéfices immédiats (meilleure humeur, énergie, sentiment de vitalité et de bien-être…). En associant systématiquement l’effort à ces récompenses, on crée une dynamique vertueuse qui incite à persévérer.

Contrairement au fait d’évoquer les bénéfices à long terme sur la santé – même s’ils sont réels –, ce sont ces expériences affectives positives qui constituent l’un des leviers les plus puissants pour encourager une pratique régulière de l’activité physique.


À lire aussi : Pourquoi mettre en avant ses bénéfices pour la santé ne suffit pas à promouvoir une activité physique régulière


Peut-on apprendre à aimer l’effort ?

L’effort, souvent vu comme un coût, peut aussi accroître la valeur que l’on perçoit d’une activité donnée, surtout quand cette activité procure in fine des bénéfices tangibles. Ce type d’associations pourrait expliquer pourquoi certaines personnes valorisent plus que d’autres, les tâches exigeantes, que ce soit mentalement ou physiquement.

La théorie de « l’ardeur apprise » suggère que l’effort devient gratifiant quand il est associé à des récompenses répétées, même simples comme des encouragements. Des études montrent que des participants récompensés pour des tâches difficiles tendent à persévérer dans d’autres efforts, même une fois que les récompenses en ont été tirées.

Cependant, l’effort peut-il être une récompense en soi ? D’un point de vue évolutif, économiser l’énergie est essentiel, et choisir l’option la plus économique semble logique. Chercher l’effort sans bénéfice peut être contre-productif, voire devenir pathologique (addiction, anorexie). L’effort devient valorisé quand il est associé à des expériences positives (fierté, sentiment de compétence). Ce n’est donc pas l’effort lui-même qui est gratifiant, mais ce qu’il permet d’atteindre, en dépit de son coût.

Apprendre à exploiter l’effort pour les bénéfices qu’il procure

L’effort guide nos comportements à chaque étape de l’action : avant, il façonne nos décisions ; pendant, il guide la manière dont nous allouons notre énergie ; après, il peut renforcer la valeur du résultat obtenu.

En jouant sur cette dynamique – recalibrer nos attentes, alléger le ressenti de l’effort en temps réel et souligner les récompenses glanées – on peut transformer l’effort en moteur durable d’engagement, voire susciter le goût de l’effort.

Plutôt que d’en subir le coût, nous apprendrions ainsi à exploiter l’effort pour apprécier les bénéfices qu’il procure.

The Conversation

Boris Cheval a reçu des financements de Rennes Métropole et de l'Union Européenne

Florent Desplanques et Silvio Maltagliati ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur poste universitaire.

PDF

10.11.2025 à 17:27

Menace terroriste en France : sur TikTok, une propagande djihadiste à portée des jeunes

Laurène Renaut, Maîtresse de conférence au Celsa, Sorbonne Université

Le profil des volontaires au djihad armé se rajeunit en France. Sur les réseaux sociaux comme TikTok, l’accès à la propagande djihadiste est extrêmement facile.
Texte intégral (2314 mots)

Dix ans après les attentats de 2015, la menace terroriste, toujours vive, s’est transformée : elle émane d’individus de plus en plus jeunes, présents sur le territoire français, sans lien avec des organisations structurées. La propagande djihadiste sur les réseaux sociaux, très facile d’accès, permettrait un « auto-endoctrinement » rapide. Entretien avec Laurène Renaut, spécialiste des cercles djihadistes en ligne.


The Conversation : Dix ans après les attentats de 2015, comment évolue la menace terroriste en France ?

Laurène Renaut : Le procureur national antiterroriste Olivier Christen a souligné que la menace djihadiste reste élevée et qu’elle a même tendance à croître au regard du nombre de procédures pour des contentieux djihadistes ces dernières années. Mais cette menace a muté. Elle est aujourd’hui endogène, moins commandée de l’étranger et plutôt liée à des individus inspirés par la propagande djihadiste, sans contact avec des organisations terroristes. Par ailleurs, il y a une évolution des profils depuis fin 2023 avec un rajeunissement des candidats au djihad armé. En 2023, 15 jeunes de moins de 21 ans étaient impliqués dans des projets d’attentats, 19 en 2024 et 17 en 2025. Ce phénomène de rajeunissement est européen, et pas seulement français. La seconde mutation réside dans une forme d’autoradicalisation de ces jeunes qui ne vont pas forcément avoir besoin de contacts avec les organisations terroristes pour exprimer des velléités de passage à l’acte.

Enfin, ce qui semble se dessiner, ce sont des formes de basculement très rapides, que l’on n’observait pas il y a quelques années. Lorsque j’ai commencé mon travail de thèse, fin 2017, la radicalisation s’inscrivait sur du long terme, avec de nombreuses étapes, un environnement familial, des rencontres, des échanges en ligne. Or là, depuis fin 2023 début 2024, le délai entre le moment où ces jeunes commencent à consommer de la propagande en ligne et le moment où certains décident de participer à des actions violentes tend à se réduire.

Comment arrivez-vous à ces conclusions ?

L. R. : Je m’appuie ici sur les données fournies par le parquet national antiterroriste ainsi que sur des échanges avec des acteurs de terrain et professionnels de la radicalisation. Mon travail, depuis huit ans, consiste à analyser l’évolution des djihadosphères (espaces numériques où y est promu le djihad armé), sur des réseaux comme Facebook, X ou TikTok. En enquêtant sur ces communautés numériques djihadistes, j’essaie de comprendre comment les partisans de l’organisation de l’État Islamique parviennent à communiquer ensemble, malgré la surveillance des plateformes. Comment ils et elles se reconnaissent et interagissent ? Quels moyens ils déploient pour mener le « djihad médiatique » qu’ils considèrent comme essentiel pour défendre leur cause ?

Quels sont les profils des jeunes radicalisés dont on parle ?

L. R. : On sait que la radicalisation, quelle qu’elle soit, est un phénomène multifactoriel. Il n’y pas donc pas de profil type, mais des individus aux parcours variés, des jeunes scolarisés comme en décrochage scolaire, d’autres qui ont des problématiques familiales, traumatiques, identitaires ou de santé mentale. On retrouve néanmoins un dénominateur commun : une connexion aux réseaux sociaux. Et il est possible de faire un lien entre cette hyperconnexion aux réseaux, où circulent les messages djihadistes, et la forme d’autoradicalisation observée. On n’a plus besoin de rencontrer un ami qui va nous orienter vers un prêche ou un recruteur : il est aujourd’hui relativement facile d’accéder à des contenus djihadistes en ligne, voire d’en être submergé.

Peut-on faire un lien entre le rajeunissement et la présence des jeunes sur les réseaux sociaux ?

L. R. : Les organisations terroristes ont toujours eu tendance à cibler des jeunes pour leur énergie, leur combativité, parce qu’ils sont des proies manipulables aussi, en manque de repères, sensibles aux injustices et, bien sûr, aujourd’hui familiers des codes de la culture numérique. On sait aussi que les jeux vidéo sont devenus des portes d’entrée pour les recruteurs. Sur Roblox, par exemple, il est possible de harponner ces jeunes ou de les faire endosser des rôles de combattants en les faisant participer à des reconstitutions de batailles menées par l’État Islamique en zone irako-syrienne.

Ce qu’on appelle l’enfermement algorithmique, c’est-à-dire le fait de ne recevoir qu’un type de contenu sélectionné par l’algorithme, joue-t-il un rôle dans ces évolutions ?

L. R. : Oui certainement. Sur TikTok, c’est assez spectaculaire. Aujourd’hui, si j’y tape quelques mots clés, que je regarde trois minutes d’une vidéo labellisée État islamique et que je réitère ce comportement, en quelques heures on ne me propose plus que du contenu djihadiste.

Les réseaux sociaux sont censés lutter activement contre les contenus de propagande terroriste. Ce n’est donc pas le cas ?

L. R. : Ce que j’observe, c’est que la durée de vie de certains contenus violents sur TikTok reste importante et que des centaines de profils appelants au djihad armé et suivis par de larges communautés parviennent à maintenir une activité en ligne. Les spécialistes de la modération mettent en évidence que les contenus de nature pédocriminelle ou terroriste sont actuellement les mieux nettoyés et bénéficient d’une attention particulière des plateformes, mais celles-ci n’en demeurent pas moins submergées, ce qui explique que de nombreux contenus passent sous les radars. Sans compter que les partisans de l’État Islamique déploient une certaine créativité, et même un savoir-faire, pour faire savoir qu’ils sont « là » sans se faire voir. Quand je tape « ma vengeance » par exemple (titre d’un chant djihadiste qui rend hommage aux terroristes du 13 novembre 2015), il est tout à fait possible, encore aujourd’hui, de retrouver des extraits de ce chant particulièrement violent. S’il est toujours présent en ligne, comme d’autres contenus de propagande, c’est parce que les militants djihadistes trouvent des astuces pour recycler d’anciens contenus et déjouer les stratégies de détection des plateformes (langage codé, brouillage du son et camouflage des images par exemple, afin d’éviter une reconnaissance automatique).

Le contenu de la propagande djihadiste sur les réseaux sociaux a-t-il évolué depuis 2015 ?

L. R. : En 2015, l’organisation de l’État Islamique avait encore une force de frappe importante en termes de propagande numérique. Puis elle est défaite militairement en Syrie et en Irak, en 2017, et on observe une nette baisse de la production de propagande. Mais il y a eu une certaine détermination chez ses partisans à rester en ligne, comme si les espaces numériques étaient des prolongements du champ de bataille militaire. Ont alors émergé des tactiques de camouflage et des incitations à une forme de résistance ou de patience avec une vision de long terme du combat pour « la cause ». L’objectif pour ces cybermilitants était d’être à la fois visibles pour leur réseau et invisible des « surveillants », tapis dans l’ombre mais prêts à agir le moment opportun.

Puis on note un pic d’activité de propagande qui coïncide aux massacres perpétrés par le Hamas, le 7 octobre 2023, en Israël. Il faut préciser que l’organisation de l’État Islamique est ennemie du Hamas qu’elle considère comme un groupe de faux musulmans (ou apostats). Néanmoins, le 7-Octobre a été un moment d’euphorie collective dans les djihadosphères, avec la volonté pour l’État islamique de promouvoir ses militants comme les seuls « vrais moudjahidine » (combattants pour la foi).

Aujourd’hui, dans les djihadosphères, cohabitent des contenus ultraviolents (formats courts) que certains jeunes consomment de manière frénétique et des contenus théoriques qui nécessitent une plus grande accoutumance à l’idéologie djihadiste.

Quels sont les principaux contenus des échanges de djihadistes sur les réseaux que vous étudiez ?

L. R. : On trouve des vidéos violentes, mais de nombreux contenus ne sont pas explicitement ou visuellement violents. Ils visent à enseigner le comportement du « vrai musulman » et à condamner les « faux musulmans » à travers le takfir (acte de langage qui consiste à déclarer mécréant une personne ou un groupe de personnes). Dans sa conception salafiste djihadiste, cette accusation de mécréance équivaut à la fois à une excommunication de l’islam et à un permis de tuer – puisque le sang du mécréant est considéré comme licite.

La grande question, que l’on retrouve de manière obsessionnelle, c’est « Comment être un vrai musulman ? Comment pratiquer le takfir ? Et comment éviter d’en être la cible ? » Pour l’État islamique et ses partisans, il y a les « vrais musulmans » d’un côté et les « faux musulmans » (apostats) ou les non-musulmans (mécréants) de l’autre. Il n’y a pas de zone grise ni de troisième voie. La plupart des débats dans les djihadosphères portent donc sur les frontières de l’islamité (l’identité musulmane) : à quelles actions est-elle conditionnée et qu’est-ce qui entraîne sa suspension ?

« Est-ce que je pratique l’islam comme il le faut ? Si je fais telle prière, si je parle à telle personne (à mes parents ou à mes amis qui ne sont pas musulmans, par exemple), est-ce que je suis encore musulman ? » Telles sont, parmi d’autres, les sources de préoccupation des acteurs de ces djihadosphères, la question identitaire étant centrale chez les jeunes concernés.

Dans cette propagande, il y a un lien très fort entre le fait de se sentir marginalisé et l’appartenance au « vrai islam »…

L. R. : Effectivement, un autre concept majeur, connecté au concept de takfir, c’est celui d’étrangeté (ghurba). Dans la propagande djihadiste, le « vrai musulman » est considéré comme un « étranger » et désigné comme tel.

Ce concept, qui n’est pas présent dans le Coran, renvoie à un hadith (recueil des actes et des déclarations du prophète Muhammad), qui attribue ces paroles au prophète Muhammed : « L’islam a commencé étranger et il redeviendra étranger, heureux soient les étrangers ». Pour l’expliquer brièvement, si l’islam a commencé étranger, c’est qu’il a d’abord été, tout comme ses premiers adeptes, incompris. En effet, ceux qui adhèrent à cette religion à l’époque et qui ont suivi le prophète lors de l’Hégire sont perçus comme des marginaux ou des fous et sont même réprimés.

Mais progressivement le message de Muhammed s’étend, et l’islam devient la norme dans une grande partie du monde ; les musulmans cessant d’y être perçus comme étranges ou anormaux. Selon la tradition prophétique, c’est à ce moment-là, quand la nation musulmane grandit, que les « vrais croyants » se diluent dans une masse de mécréants et de « faux musulmans » corrompus.

Aujourd’hui, l’État Islamique s’appuie sur ce hadith pour dire que si on se sent étranger à cette terre de mécréance, à l’Occident, à sa propre famille, c’est qu’on est certainement sur le chemin du véritable islam. Leurs propagandistes se nourrissent d’une littérature apocalyptique qui met sur le même plan ces « étrangers » et « la secte sauvée » (al-firqah an-najiyah), le groupe de croyants qui combattra les mécréants jusqu’au Jugement dernier et qui, seul parmi les 73 factions de l’islam, gagnera le paradis.

Leur message est clair : aujourd’hui les « vrais musulmans » sont en minorité, marginalisés et mis à l’épreuve mais eux seuls accéderont au paradis. Cette rhétorique de l’étrangeté est centrale dans le discours djihadiste en ligne. Sur TikTok, on lit beaucoup de messages du type : « Si tu te sens seul ou rejeté, si personne ne te comprend, c’est peut-être parce que tu es un étranger », un « vrai musulman » appelé ici à combattre.

The Conversation

Laurène Renaut ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

10.11.2025 à 16:12

Est-il possible de passer un hiver confortable sans chauffage (ou presque) ?

Gaëtan Brisepierre, Sociologue indépendant, École Nationale des Ponts et Chaussées (ENPC)

Et si le confort hivernal ne dépendait pas que du chauffage ? Une expérimentation montre que la sobriété, lorsqu’elle est choisie plutôt que subie, peut porter ses fruits.
Texte intégral (2529 mots)

Et si le confort thermique en automne et en hiver n’était pas seulement une affaire de thermostat ? Une expérimentation sociale menée avec un groupe de ménages volontaires ouvre des perspectives intéressantes. Cette approche, pour être utile, ne doit bien entendu pas se substituer à l’impératif de rénovation énergétique du parc immobilier, mais la compléter. Elle explore ainsi une autre piste : celle d’une sobriété choisie plutôt que contrainte.


Alors que les Français viennent de rallumer le chauffage, que reste-t-il des deux années de sobriété énergétique que nous venons de vivre ? Souvenez-vous : en 2022, face au conflit en Ukraine et à ses répercussions sur le prix de l’énergie, le gouvernement lui-même demandait aux entreprises et aux citoyens de limiter la thermostat à 19 °C.

Même si une majorité de ménages déclare désormais se chauffer à 19 °C ou moins, la mise en pratique d’une véritable sobriété thermique reste encore limitée, voire assimilée à la précarité énergétique – qui reste toutefois un enjeu clé et une réalité vécue par plus d’un Français sur cinq.

Pourtant, il est possible, à certaines conditions, de passer l’hiver à une température comprise entre 14 °C et 18 °C chez soi, et même d’éteindre le chauffage, tout en se sentant bien.

L’hiver dernier, une quinzaine de familles ont tenté l’aventure du programme Confort sobre, accompagnés par un designer énergétique. Cette expérimentation a donné lieu à une étude sociologique et qui fera prochainement l’objet d’une publication scientifique.

Bien vivre à moins de 19 °C

Aucune de ces familles, toutes en chauffage individuel, n’envisage désormais de revenir à ses anciennes habitudes de chauffage. Les baisses de consommation d’énergie, mesurées par les ménages eux-mêmes, sont loin d’être le seul bénéfice perçu.

Les participants ont mis en avant un mieux-être lié à une ambiance plus fraîche : qualité du sommeil, moins de fatigue, réduction des maladies hivernales… Ils ont également valorisé l’autonomie gagnée en étant moins dépendants du chauffage, et se sentent ainsi mieux préparés aux crises à venir.

Ces ménages ayant fait le choix de s’engager dans un programme de sobriété ne sont pas forcément des « écolos extrémistes ». Certains avaient déjà, avant l’expérience, multiplié les actions pour réduire leur budget énergie, et voulaient voir s’il était possible d’aller plus loin sans perdre en confort. D’autres – parfois les mêmes – étaient dans un parcours de transformation écologique de leur mode de vie et voulaient réduire l’impact de leur consommation de chauffage.


À lire aussi : Isolation thermique et lumière du soleil: les défis des nouveaux vitrages économes en énergie


Le confort sobre : qu’est-ce que c’est ?

Le programme de sobriété ici expérimenté est une déclinaison adaptée aux particuliers de la « Méthode Design énergétique », inventée par Pascal Lenormand, déjà éprouvée dans des bâtiments du secteur tertiaire.

L’expression « confort sobre », utilisée pour nommer le programme, a contribué au vif intérêt qu’il a suscité : plus de 500 candidatures reçues ! Cet oxymore permet de contourner l’imaginaire de privation associé à la sobriété. A la fin du programme, il faisait partie du langage courant des participants.

Concrètement, les ménages sont été suivis pendant un hiver, avec cinq rendez-vous en visioconférence animés par Pascal Lenormand. Entre chaque visio, ils étaient invités à expérimenter de nouvelles pratiques chez eux à travers des missions bien plus larges que les habituels écogestes, par exemple, mieux isoler son propre corps en s’habillant différemment. Plusieurs « périodes d’entraînement » successives et progressives les ont encouragés à acquérir une posture d’expérimentateurs de leur propre confort.

Un groupe WhatsApp a été mis en place par l’équipe pour permettre aux participants de s’approprier collectivement l’expérience. À l’issue du programme, les participants ont décidé de le prolonger. Cette dynamique entre pairs a fortement soutenu les efforts de sobriété thermique, même si la radicalité de certains participants a pu en marginaliser d’autres, comme on l’illustrera plus loin.

Et dans la pratique ?

Les nouvelles pratiques adoptées par les ménages ont suivi la logique progressive prévue par le programme. La mesure des températures et des consommations d’énergie a fourni un bon point de départ. Souvent réalisé avec les moyens du bord et par les ménages eux-mêmes, ce suivi les a conduits à prendre conscience de leurs croyances limitantes sur le confort. Ils ont par exemple pu se rendre compte qu’ils étaient, tour à tour, confortables à 17 °C à certains moments de la journée, et frigorifiés à 19 °C à d’autres moments, en fonction de l’heure, de leur état de forme, etc.

L’arrêt du chauffage réglé sur une température de consigne par défaut a ouvert de nouvelles perspectives de pilotage, en s’appuyant sur le ressenti plutôt que sur la température mesurée. Cela a pu aller, dans certains cas et pour certains ménages, jusqu’à l’arrêt complet du chauffage.

Ce détachement de la logique du chauffage central s’est opéré par palier, avec des retours en arrière en fonction de la météo, de l’état de santé… Bien entendu, il est d’autant plus facile dans un logement bien isolé et/ou ensoleillé, qui reste tempéré malgré l’absence de chauffage.

La combinaison de différents types de pratiques thermiques comme alternatives au chauffage a permis de ressentir du confort malgré une ambiance fraîche, avec des configurations variées en fonction des pièces.

Port du bonnet en intérieur (photo envoyée sur le groupe WhatsApp par un participant, reproduite dans cet article avec son accord). Fourni par l'auteur

L’adoption de tenues d’intérieur chaudes, en particulier, représentait un levier particulièrement efficace, qui a fait l’objet d’une recherche de personnalisation (charentaises versus crocs) par les participants en fonction de leur identité.

Ces pratiques thermiques recoupent un vaste répertoire hétéroclite de tactiques de compensation : ajouter un tapis, isoler une prise, faire du ménage ou du sport pour augmenter momentanément son métabolisme, accepter une sensation de froid passagère, utiliser ponctuellement un chauffage soufflant plutôt que le chauffage central, prendre une boisson chaude…

« Challenge douche froide » et transgression sociale

La consommation d’eau chaude est un thème qui a été spontanément abordé par certains des participants, même si la mise en œuvre des actions d’optimisation technique conseillées (par exemple, baisser la température du chauffe-eau) est restée rare. Plusieurs d’entre eux ont tout de même lancé un « challenge douche froide », ce qui a suscité un clivage dans le groupe, certains souhaitant rester à distance d’une pratique jugée radicale.

Ce clivage s’explique aussi par le fait que l’adoption de certaines pratiques de sobriété thermique puisse apparaître comme une transgression des normes sociales de confort en vigueur.

De fait, au sein des foyers, le bouleversement des habitudes nécessitait de tenir compte des sensibilités de chacun : conjoint suiveur ou récalcitrant, ado rebelle ou écolo, bébé et personne âgée dépendante. La difficile négociation avec les plus frileux passe par des compromis et par des exceptions. Cela a poussé certains participants à agir sans le dire, à imposer ou encore à renoncer.

Malgré le plan de sobriété en vigueur depuis 2023, certains des participants observaient un phénomène de surchauffage de certains locaux hors de chez eux : domiciles de leur entourage, lieux de travail, commerces, et tout particulièrement les lieux de santé et de la petite enfance. Ils déploraient alors le manque d’options : se découvrir, ou baisser discrètement le chauffage, ce qui n’était pas toujours possible.

Avec leurs invités en revanche, les ménages disposaient une capacité de prescription thermique. La proposition du designer d’organiser une soirée sans chauffage a été l’occasion d’expérimenter un nouvel art de recevoir : choisir des invités pas trop frileux, annoncer sans effrayer, réaménager le salon, proposer des accessoires comme le font certains cafetiers en terrasse (par exemple, plaids ou chaussons), des activités ou des dîners qui réchauffent (par exemple, une soirée raclette), etc.

La stigmatisation (« folle », « extrémiste ») subie par certains des participants de la part de leur entourage a parfois suscité une attitude de prudence, voire une dissimulation de leur participation à l’expérimentation (par exemple, relancer le chauffage quand les grands-parents viennent à la maison).

En revanche, les participants évoquaient plus volontiers leurs expériences thermiques dans le cadre de ce qu’on appelle les liens faibles : univers professionnel, voisinage élargi, cercles associatifs, etc.

Faut-il revoir nos normes de confort moderne ?

Depuis quelques années, les recherches convergent à commencer par celles des historiens, pour démontrer que les normes contemporaines du confort sont relatives. De multiples expérimentations sociotechniques en cours ouvrent le champ des possibles et pourraient bien contribuer à un nouveau départ en la matière.

Citons par exemple celle des pionniers belges de Slow Heat, de la designer Lucile Sauzet ou encore de l’architecte Martin Fessard. Notre expérimentation s’inscrit dans cette lignée et dessine les contours d’un nouvel idéal type de confort thermique, que nous proposons d’appeler : le confort sobre.

Il constitue une alternative au principe du chauffage central – chauffer (souvent uniformément) toutes les pièces d’un logement – composante essentielle du confort moderne, qui s’est démocratisé en France pendant les Trente Glorieuses (1945-1975). Le projet du confort sobre est de concilier les acquis de la modernité avec les exigences actuelles de la sobriété.


À lire aussi : Quelle est la température idéale pour être heureux ?


Jusqu’à présent, la sobriété thermique est trop souvent réduite à l’application d’une température de consigne. Mais, parler de confort sobre, c’est dépasser la pensée unique des 19 °C. Notre expérimentation a montré à quelles conditions les ménages pouvaient entrer dans une démarche de réexamen approfondi de leurs besoins en chauffage pour aboutir à une forme de détachement volontaire. Ce type de démarche pourrait servir de base à la mise en place d’une véritable politique de sobriété énergétique, volontaire plutôt que contrainte.

En effet, la stratégie actuelle de transition énergétique des logements repose encore trop souvent sur une forme de solutionnisme technologique. Pourtant, les participants à l’expérimentation sur le confort sobre ont souvent écarté les systèmes de pilotage intelligent pour leur préférer un pilotage manuel.

L’amélioration de la performance énergétique des logements reste bien sûr essentielle et peut faciliter l’adoption du confort sobre. Mais ce dernier interroge la pertinence d’un modèle de rénovation globale appliquée à l’aveugle à tous les logements.

Bien entendu, cette expérimentation reste, à ce stade, un pilote uniquement testé avec une quinzaine de familles. Mais l’ampleur des changements constatés chez ces ménages et leur volonté de prolonger l’expérience – voire de l’approfondir – cet hiver indiquent que la piste est intéressante. Les modalités de l’accompagnement à distance (visio, WhatsApp…) laissent à penser qu’un élargissement à grande échelle est possible, par le biais des fournisseurs d’énergie par exemple.

The Conversation

Gaëtan Brisepierre a reçu des financements de Leroy Merlin Source et Octopus Energy.

PDF

10.11.2025 à 16:10

Le collège unique, une ambition révolue ?

Lisa d'Argenlieu, Doctorante en management, Université Paris Dauphine – PSL

Vu comme l’un des derniers chaînons d’égalité des chances et d’ascenseur social, l’idéal du collège unique se fissure.
Texte intégral (1710 mots)

Entre l’autonomie des établissements et la montée d’un marché scolaire officieux, l’idéal du collège unique instauré il y a cinquante ans se fissure. Mais, sur le terrain, a-t-il été réellement été mis en œuvre ? Et comment aider les établissements à affronter les enjeux d’attractivité actuels ?


2025 marque le cinquantième anniversaire d’une célèbre loi : la loi Haby, qui instaure le collège unique, présente dans tous les discours sur les enjeux de méritocratie, et vue comme l’un des derniers chaînons d’égalité des chances et d’ascenseur social.

En cinquante ans, cet idéal s’est toutefois fissuré sous l’effet conjugué de l’autonomisation des établissements scolaires et des enjeux croissants de concurrence, provoqués par les différentes brèches légales à la carte scolaire.

Les chercheurs en sciences de l’éducation font état de cette évolution, provoquée par les dérogations stratégiques, les déménagements dans le secteur d’un collège ou encore la fuite vers le privé et intensifiée par la baisse démographique, l’augmentation de la ségrégation sociale et la pression aux résultats.

Dès lors, quelle forme prend l’idéal d’un collège unique tiraillé entre unification du programme et liberté des parents ? Le collège se retrouve désormais au cœur d’un marché scolaire officieux ou officiel, « l’espace d’interdépendance local ». A travers des pratiques de marketing scolaire, le système censé offrir le même vécu à tous les adolescents français se transforme.

Le collège unique a-t-il réellement existé ?

La Loi Haby traduit l’espoir d’une éducation commune à tous les jeunes, d’un report des échéances d’orientation et d’une élévation globale du niveau d’études. Elle a changé la façon dont l’école se définit. En décalant à 16 ans l’orientation professionnelle, les espoirs d’éducation de toutes les générations à venir ont été modifiés.

Le collège unique, c’est avant tout l’espoir d’une mixité sociale. Il repousse les logiques de tri social et de ségrégation de genre. Cette réforme s’inscrit dans une histoire longue et progressive d’ouverture de l’école. En 1975, tous les élèves fréquentent le même collège, et le brevet des collège remplace tous les diplômes de cette tranche d’âge.

Mais, derrière cet idéal, les interprétations divergent. Le collège unique est-il celui d’une homogénéité sociale et culturelle ou d’une égalité des chances à toute filière ? Au début des années 2000, dans le projet de loi sur la refondation de l’école, le député Yves Durand déclare que « le collège unique est une fiction ou, tout au plus, une appellation qui ne répond à rien ».

Dès sa mise en œuvre, il a dû aménager son idéal en proposant des dispositifs compensatoires pour réduire les inégalités de capital social, culturel et économique : sections d’éducation spécialisée (précurseurs des section d’enseignement général et professionnel adapté, Segpa), soutien ciblé, dispositif d’éducation prioritaire à partir des années 1980 (ZEP, puis REP et REP+). Pourtant, quarante ans plus tard, les écarts de réussite entre établissements demeurent forts. Peut-on alors encore parler d’un collège unique et de méritocratie, ou faut-il reconnaître un dualisme proche de celui qui opposait hier collèges d’enseignement secondaire (CES) et collèges d’enseignement généraux (CEG) ?

De l’autre côté du spectre, les familles ont progressivement remis en cause le principe du collège de secteur, pierre angulaire du collège unique. Dès les années 2000, et plus encore depuis 2007, avec l’assouplissement de la carte scolaire, les recherches en sciences de l’éducation montrent une montée des stratégies parentales de contournement. Ces stratégies d’évitement consistent à jouer avec les marges offertes par le système : demandes de dérogations motivées par des options sélectives, déménagement vers le secteur d’un collège spécifique, fuite vers le privé.

La montée d’un marché scolaire officieux

Le choc des savoirs a été décrié dans la presse comme l’effondrement du collège unique. Mais est-il vraiment le premier coup de bulldozer ou est-il le dernier à enlever la poussière d’un monument longtemps effondré ? Réorganisation en groupes de niveaux, multiplications des dispositifs différenciées : toutes ces mesures peuvent traduire la fin d’un idéal d’enseignement commun.

En 2007, les sociologues de l’éducation mettent en évidence le marché scolaire officieux français. Entre journées portes ouvertes, travail sur la réputation, ouverture d’options ou de sections bilingues, l’attractivité devient centrale dans le pilotage des établissements. Ce phénomène a été pointé par le mouvement #PasDeVague : la peur de la mauvaise publicité conduit certains chefs d’établissement à dissimuler les incidents, afin de préserver leur réputation.

Dans un contexte où la démographie baisse et où la mixité sociale s’effondre entre les établissements, certains établissements jouent leur survie. Et ceux qui semblent pécher sur le plan de l’attractivité travaillent sur leurs audiences, cherchent à devenir les meilleurs de leur créneau, voire à obtenir un solde de dérogation positive en REP.

Plan d’attractivité des collège de Seine-Saint-Denis pour lutter contre l’évitement scolaire (septembre 2024).

Ces initiatives traduisent certes une adaptation, mais aussi un renoncement au collège unique : en lieu d’émancipation, les collèges deviennent des reflets des réalités locales et de la diversité de visions de ce qu’est « un bon collège ». Dans une étude menée en 2022 pour comprendre la manière dont les parents perçoivent le marketing scolaire en France, il en ressort une conscience des parents vis-à-vis de l’usage du marketing dans les écoles. Cependant, ce marketing peut être mal perçu, comme le montre cette parole de parent en collège public :

« Le collège, il n’est pas là pour se vendre. Et nous, on n’est pas des clients, on n’est pas là pour choisir notre collège. »

Néanmoins, les parents peuvent apprécier à la fois les opportunités pour leurs enfants mais aussi les efforts que l’école met pour se différencier :

« Notre fille a trouvé ça fantastique le spectacle de la chorale et ça lui a donné super envie d’y aller donc c’est super pour la réputation. »

Le collège, entre échecs et transformations

Comme tout bien social, le collège n’a pas échappé à la logique de la massification : plus d’accès nécessite de se différencier par d’autres moyens. À mesure que le collège est devenu universel, il a vu émerger en son sein de nouvelles formes de hiérarchisation : options sélectives, filières élitistes, stratégies de distinction entre établissements. Comme l’écrivait François Dubet, dans ce contexte, « chaque acteur, chaque famille, a intérêt à accentuer ses avantages et accroître les inégalités scolaires en choisissant les formations, les filières et les établissements les plus efficaces ».

Le collège unique, tel que pensé en 1975, semble révolu. Mais doit-on y voir un échec, ou une transformation ? Et vers quoi ? Si l’on accepte que les établissements doivent se rendre attractifs, alors le marketing scolaire, encadré, peut-il être envisagé, non comme une défaillance, mais comme un levier de transparence et d’informations parmi tous les dispositifs de rééquilibrage ?

L’enjeu serait alors de donner les mêmes outils à tous les personnels d’éducation, d’offrir à leurs collèges un marketing scolaire adapté, sans dénigrer les autres mais en rendant les élèves fiers de leur établissement, et en leur permettant de se différencier sur leurs forces pour obtenir une mixité sociale de familles en accord avec le projet d’établissement.

The Conversation

Lisa d'Argenlieu ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

10.11.2025 à 16:10

Du tendon d’Achille aux trompes de Fallope : quand la nomenclature anatomique cache des histoires de pouvoir et d’exclusion

Lucy E. Hyde, Lecturer, Anatomy, University of Bristol

Pourquoi une partie de votre cheville porte-t-elle le nom d’un héros de la mythologie grecque ? La réponse en dit autant sur le pouvoir et la mémoire que sur l’histoire de la médecine.
Texte intégral (2158 mots)
_Gabriele Falloppio expliquant l’une de ses découvertes au cardinal-duc de Ferrare_, par Francis James Barraud (1856-1924). WellcomeTrust, CC BY-SA

La description anatomique du corps humain comprend de nombreux termes qui doivent leur nom au savant qui a découvert ou étudié pour la première fois cette partie du corps, ou encore à un personnage de la mythologie. Ces appellations dites éponymes sont à elles seules des « petits monuments » d’histoire de la médecine, mais elles véhiculent aussi des biais et ne facilitent pas toujours la compréhension. Certaines sont pittoresques quand d’autres font référence à des heures sombres du passé.

Nous nous promenons avec les noms d’inconnus gravés dans nos os, notre cerveau et nos organes.

Certains de ces noms semblent mythiques. Le tendon d’Achille, le ligament situé à l’arrière de la cheville, rend hommage à un héros de la mythologie grecque tué par une flèche dans son point faible. La pomme d’Adam fait référence à une certaine pomme biblique.

Mais la plupart de ces noms ne sont pas des mythes. Ils appartiennent à des personnes réelles, pour la plupart des anatomistes Européens d’il y a plusieurs siècles, dont l’héritage perdure chaque fois que quelqu’un ouvre un manuel de médecine. Il s’agit de ce qu’on appelle l’éponymie, c’est-à-dire que ces structures anatomiques ont reçu le nom des personnes, par exemple, qui les ont découvertes plutôt qu’un nom inspiré ou issu de leur description physique ou fonctionnelle.

Prenons l’exemple des trompes de Fallope. Ces petits conduits (qui correspondent à un véritable organe, ndlr) situés entre les ovaires et l’utérus ont été décrits en 1561 par Gabriele Falloppio, un anatomiste italien fasciné par les tubes, qui a également donné son nom au canal de Fallope dans l’oreille.

Gabriele Falloppio (1523-1562) était un anatomiste et chirurgien italien qui a décrit les trompes de Fallope dans son ouvrage de 1561, Observationes Anatomicae. commons.wikimedia.org/w/index.php ?curid=1724751

Ou encore l’aire de Broca, du nom de Paul Broca, médecin français du XIXᵉ siècle qui a établi un lien entre une région du lobe frontal gauche et la production de la parole. Si vous avez déjà étudié la psychologie ou connu quelqu’un qui a été victime d’un accident vasculaire cérébral, vous en avez probablement entendu parler de cette région du cerveau.

Il y a aussi la trompe d’Eustache, ce petit conduit relié aux voies respiratoires (mais qui fait néanmoins partie du système auditif, ndlr) et qui s’ouvre lorsque vous bâillez dans un avion. Elle doit son nom à Bartolomeo Eustachi, médecin du pape au XVIe siècle. Ces hommes ont tous laissé leur empreinte sur le langage anatomique.

Si nous avons conservé ces noms pendant des siècles, c’est parce que cela ne renvoient pas qu’à des anecdotes médicales. Ils font partie intégrante de la culture anatomique. Des générations d’étudiants ont répétés ces noms dans les amphithéâtres et les ont griffonnés dans leurs carnets. Les chirurgiens les mentionnent au milieu d’une opération comme s’ils parlaient de vieux amis.

Ils sont courts, percutants et familiers. « Aire de Broca » se prononce en deux secondes. Son équivalent descriptif, « partie antérieure et postérieure du gyrus frontal inférieur », ressemble davantage à une incantation. Dans les environnements cliniques très actifs, la concision l’emporte souvent.

Ces appellations sont également associées à des histoires, ce qui les rend plus faciles à mémoriser. Les étudiants se souviennent de Falloppio parce que son nom ressemble à celui d’un luthiste de la Renaissance. Ils se souviennent d’Achille parce qu’ils savent où diriger leur flèche. Dans un domaine où les termes latins sont si nombreux et si difficiles à retenir, une histoire devient un repère utile.

Le tendon d’Achille a été nommé en 1693 d’après le héros de la mythologie grecque, connu notamment par l’Iliade d’Homère, Achille. Panos Karas/Shutterstock

Il y a aussi le poids de la tradition. Le langage médical s’appuie sur des siècles de recherche. Pour beaucoup, supprimer ces noms reviendrait à effacer l’histoire elle-même.

La face sombre de la nomenclature anatomique

Mais ces aspects mnémotechniques cachent un côté plus sombre. Malgré leur charme historique, les noms éponymes manquent souvent leur objectif principal. Ils indiquent rarement la nature ou la fonction de l’élément anatomique qu’ils désignent. Le terme « trompe de Fallope », par exemple, ne donne aucune indication sur son rôle ou son emplacement. Alors que quand on dit « trompe utérine » ou « tube utérin », c’est bien plus clair.

Les noms ou expressions éponymes reflètent également une vision étroite de l’histoire. La plupart ont vu le jour pendant la Renaissance européenne, une époque où les « découvertes » anatomiques consistaient souvent à s’approprier des connaissances qui existaient déjà ailleurs. Les personnes célébrées à travers ces expressions sont donc majoritairement des hommes blancs européens. Les contributions des femmes, des savants non européens et des systèmes de connaissances autochtones sont presque invisibles dans ce langage.

Cette pratique cache parfois une vérité vraiment dérangeante : le « syndrome de Reiter », par exemple, a été nommé d’après Hans Reiter, médecin nazi qui a mené des expériences particulièrement brutales sur des prisonniers du camp de concentration de Buchenwald (Allemagne). Aujourd’hui, la communauté médicale utilise le terme neutre « arthrite réactionnelle » afin de ne plus valoriser Reiter.

Chaque nom éponyme est comparable à un petit monument. Certains sont pittoresques et inoffensifs, d’autres ne méritent pas que nous les entretenions.

Les noms descriptifs, eux, sont simplement logiques. Ils sont clairs, universels et utiles. Avec ces noms, nul besoin de mémoriser qui a découvert quoi, seulement où cela se trouve dans le corps et quelle en est la fonction.

Si vous entendez parler de « muqueuse nasale », vous savez immédiatement qu’elle se trouve dans le nez. Mais demandez à quelqu’un de localiser la « membrane de Schneider », et vous obtiendrez probablement un regard perplexe.

Les termes descriptifs sont plus faciles à traduire, à normaliser et à rechercher. Ils rendent l’anatomie plus accessible aux apprenants, aux cliniciens et au grand public. Plus important encore, ils ne glorifient personne.

Que faire alors des anciens noms ?

Un mouvement croissant vise à supprimer progressivement les éponymes, ou du moins à les utiliser parallèlement à des termes descriptifs. La Fédération internationale des associations d’anatomistes (IFAA) encourage l’utilisation de termes descriptifs dans l’enseignement et la rédaction d’articles scientifiques, les éponymes étant placés entre parenthèses.

Cela ne signifie pas que nous devrions brûler les livres d’histoire. Il s’agit simplement d’ajouter du contexte. Rien n’empêche d’enseigner l’histoire de Paul Broca tout en reconnaissant les préjugés inhérents aux traditions de dénomination. On peut aussi apprendre qui était Hans Reiter sans associer son nom à une maladie.

Cette double approche nous permet de préserver l’histoire sans la laisser dicter l’avenir. Elle rend l’anatomie plus claire, plus juste et plus honnête.

Le langage de l’anatomie n’est pas seulement un jargon académique. C’est une carte du pouvoir, de la mémoire et de l’héritage inscrits dans notre chair. Chaque fois qu’un médecin prononce le mot « trompe d’Eustache », il fait écho au XVIe siècle. Chaque fois qu’un étudiant apprend le mot « trompe utérine », il aspire à la clarté et à l’inclusion.

Peut-être que l’avenir de l’anatomie ne consiste pas à effacer les anciens noms. Il s’agit plutôt de comprendre les histoires qu’ils véhiculent et de décider quels sont ceux qui méritent d’être conservés.

The Conversation

Lucy E. Hyde ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

10.11.2025 à 16:09

Il y a 140 ans, la France attaquait Taïwan

Paco Milhiet, Visiting fellow au sein de la Rajaratnam School of International Studies ( NTU-Singapour), chercheur associé à l'Institut catholique de Paris, Institut catholique de Paris (ICP)

Dans le cadre de sa rivalité coloniale avec le Royaume-Uni, la France a affronté la Chine en 1884-1885 et s’est emparée, un temps, du nord de Taïwan.
Texte intégral (2928 mots)
_Prise de Ma Koung par l’escadre de l’amiral Courbet_ (1885), d’Édouard Adam (1847-1929). Le tableau se trouve au Musée d’Orsay, mais n’est actuellement pas exposé en salle. Wikipédia

Épisode peu connu des aventures militaires françaises au XIXe siècle, la guerre franco-chinoise de 1884-1885 fut marquée par plusieurs batailles, dont témoigne notamment le cimetière militaire français à Keelung, dans le nord de Taïwan. L’île, que les troupes françaises n’envahirent que très partiellement, est aujourd’hui sous la menace d’une invasion venue de République populaire de Chine. Même si les moyens employés ne seraient bien sûr pas les mêmes, les affrontements de Keelung demeurent porteurs de leçons stratégiques à ne pas négliger.


Depuis la loi du 28 février 2012, le 11 novembre – traditionnellement journée de commémoration de l’Armistice de 1918 et de la victoire de la Première Guerre mondiale – rend hommage à tous les « morts pour la France », quels que soient le lieu et le conflit, y compris ceux tombés lors des opérations extérieures. À près de 10 000 kilomètres de la tombe du Soldat inconnu face aux Champs-Élysées (Paris), cette journée revêt une signification particulière au cimetière français de Keelung, sur la côte nord de l’île de Taïwan. Ce lieu, largement méconnu du grand public, abrite les sépultures de soldats français tombés durant la guerre franco-chinoise de 1884-1885, un conflit qui opposa les forces françaises de la IIIe République à l’empire Qing chinois.

Poignant vestige d’un affrontement meurtrier ayant coûté la vie à au moins 700 soldats français et à plusieurs milliers de combattants chinois, ce cimetière incarne la mémoire douloureuse d’une guerre coloniale brutale menée par la France en Asie dans sa quête de domination sur l’Indochine. Cent quarante ans après la fin du conflit, ces tombes rappellent le prix payé par ces hommes, loin de leur patrie, dans une guerre dont l’histoire reste peu enseignée.

Chaque 11 novembre, une cérémonie discrète, mais solennelle y est organisée par le Bureau français de Taipei, pour honorer ces « morts pour la France » et raviver la mémoire d’une page méconnue de l’histoire franco-chinoise et franco-taïwanaise.

Aux prémices de l’Indochine, une guerre franco-chinoise

Bien que plus tardive que celle d’autres puissances européennes comme le Portugal, les Pays-Bas ou le Royaume-Uni, l’entreprise coloniale française en Asie, amorcée sous Louis XIV, se généralise au XIXe siècle. Elle débute en Chine continentale, dans le but d’obtenir des avantages commerciaux équivalents à ceux accordés au Royaume-Uni par le traité de Nankin en 1842. Ce sera chose faite en 1844, avec la signature du traité de Huangpu.

En 1856, la deuxième guerre de l’opium éclate. La France y prend une part active, justifiant son intervention par l’assassinat d’un missionnaire français. En décembre 1857, les troupes franco-britanniques s’emparent de la ville de Canton, qu’elles occuperont pendant quatre ans. Le traité de Tianjin, signé en 1858, ouvre onze ports supplémentaires aux puissances étrangères, autorise l’établissement d’ambassades à Pékin, le droit de navigation sur le Yangzi Jiang, et la libre circulation des étrangers dans toute la Chine. En octobre 1860, les troupes alliées marchent sur Pékin et le palais d’été est pillé. Cette première guerre ouvre une période de rivalité entre la France et la Chine qui se prolongera jusqu’à la chute de Diên Biên Phu en 1954 – une véritable « guerre de cent ans », selon le professeur François Joyaux.

Mais en parallèle, un autre théâtre cristallise les tensions : l’Indochine. La France, qui mène une politique active sur le Mékong, établit la colonie de Cochinchine en 1862. Les ambitions françaises sur le Tonkin, région historiquement sous suzeraineté chinoise, exacerbent les tensions. Les « Pavillons noirs », anciens rebelles Taiping expulsés par la dynastie Qing, s’allient avec leurs anciens bourreaux pour attaquer les intérêts français. La riposte française entraîne une nouvelle guerre.

Keelung et l’extension du conflit à l’île de Formose

Bien que le traité de Hué, signé en 1884, place l’Annam et le Tonkin sous protectorat français, la Chine refuse de verser l’indemnité de guerre et attaque une colonne française à Bac Lê.

Le conflit s’intensifie et prend une dimension maritime. L’amiral Courbet prend la tête de l’escadre d’Extrême-Orient. En août 1884, la flotte du Fujian et l’arsenal de Fuzhou – construit par le Français Prosper Giquel – sont anéantis en trente minutes.

The Destruction of the Foochow Arsenal and Chinese Fleet by the French Squadron under Admiral Courbet, par Joseph Nash le jeune. Illustration pour le journal The Graphic, 18 octobre 1884. Wikimedia

Contre l’avis de Courbet, qui souhaitait concentrer l’effort sur le nord de la Chine (notamment Port Arthur), Jules Ferry ordonna de poursuivre les opérations vers l’île de Formose (Taïwan) afin de saisir des gages territoriaux en vue de forcer la Chine à négocier.

D’abord repoussées à Keelung fin août, les forces françaises arrivent à s’emparer de la ville début octobre, mais échouent à capturer Tamsui. Par la suite, après l’échec du blocus de l’île par l’escadre de Courbet et l’impossibilité de s’enfoncer dans les terres, des renforts d’Afrique permettent une nouvelle offensive en janvier 1885 sur les hauteurs de Keelung. Malgré la conquête des Pescadores fin mars, les troupes françaises sont décimées par des épidémies de choléra et de typhoïde. Face au blocage tactique des forces françaises à Formose et au début des négociations d’un armistice franco-chinoise, les hostilités cessèrent à la mi-avril.

La bataille de Formose s’achève sur un retour au statu quo ante bellum. Dans le Tonkin, malgré les revers de Bang Bo et Lạng Sơn – qui provoquent la chute du gouvernement de Jules Ferry –, les forces françaises finissent par prendre le dessus. Le Traité de Tianjin, signé en juin 1885, met fin à la guerre : la Chine renonce à toute prétention souveraine sur l’Annam et le Tonkin, tandis que la France quitte Formose et restitue les Pescadores.

Deux ans plus tard, en 1887, l’Union indochinoise est officiellement créée, regroupant la Cochinchine, l’Annam, le Tonkin et le Cambodge. Le Laos y sera intégré en 1899. C’est le point de départ de l’Indochine française, future perle de l’empire, qui marquera pendant plusieurs décennies la présence de la France en Asie du Sud-Est.

Le cimetière de Keelung, une histoire tumultueuse

Chronologie du cimetière de Keelung. P. Milhiet, C. Doridant, Fourni par l'auteur

Officiellement, près de 700 soldats français ont perdu la vie à Keelung. Parmi eux, 120 sont tombés au combat, 150 ont succombé à leurs blessures, et les autres ont été emportés par la maladie. À l’origine, les corps des soldats français furent répartis entre deux cimetières : l’un à Keelung, et l’autre à Makung, dans l’archipel des Pescadores.

D’abord sous protection chinoise, le cimetière est quasiment entièrement détruit puis relocalisé, après l’invasion japonaise de Formose en 1895. Plusieurs accords furent signés entre les autorités françaises et japonaises pour assurer l’entretien du nouveau cimetière. Cependant, après la Seconde Guerre mondiale, le site fut progressivement abandonné et tomba en ruine. En 1947, le consulat général de France à Shanghai entreprit une rénovation du cimetière. Puis, en 1954, les stèles et les corps restants du cimetière de Makung furent transférés à Keelung.

Avec la reprise progressive de relations non officielles entre la France et Taïwan, le site passa sous la responsabilité du secrétariat général de l’Institut français de Taipei. En 1997, la mairie de Keelung en reprit la gestion. Classé monument historique par la ville en 2001, le cimetière est désormais intégré à un parc urbain. Chaque année, le Bureau français de Taipei et l’association du Souvenir français y organisent des cérémonies commémoratives à l’occasion du 11-Novembre, en hommage aux soldats morts pour la France.

Lors de la Fête des fantômes, célébrée le 15e jour du septième mois lunaire selon les traditions bouddhiste et taoïste, les habitants rendent également hommage aux défunts du cimetière.

Quelles leçons géopolitiques au XXIᵉ siècle ?

Alors que de nombreux analystes évoquent l’ambition de Pékin de reprendre l’île par la force, les enseignements historiques de la bataille de Formose constituent un précieux legs tactique et stratégique pour mieux appréhender la complexité d’une telle entreprise. Récemment, un article du think tank états-unien RAND Corporation lui a même été consacré.

En 1885, Taïwan n’était certes qu’un objectif secondaire pour la France, qui cherchait avant tout à affaiblir la Chine impériale dans le cadre de sa conquête de l’Indochine. De surcroît, la dynastie Qing était en pleine décrépitude et au crépuscule de son règne. Pourtant, malgré une nette supériorité technologique, les forces françaises échouèrent à imposer durablement leur présence sur l’île, soulignant la résilience locale et les limites de la puissance militaire face à un environnement insulaire aux reliefs marqués.

L’expédition française fut d’ailleurs observée avec attention par un autre acteur régional alors en pleine ascension, qui convoitait également l’île : le Japon. Ainsi, l’amiral Tōgō Heihachirō, futur commandant en chef de la marine impériale japonaise, a même visité Keelung pendant l’occupation française et aurait été briefé par le maréchal Joffre (alors capitaine).

Si la planification de l’invasion de Taïwan par les États-Unis en 1944, ainsi que de récents wargames privilégiaient un débarquement au sud de l’île, la défense du nord reste aujourd’hui centrale dans la stratégie taïwanaise. En témoigne l’exercice militaire annuel taïwanais Han Kuang. Lors de la dernière édition en juillet 2025, la 99e brigade des Marines taïwanais s’est notamment entraînée à se déployer rapidement du sud vers le nord de l’île et avait simulé la réponse à une tentative de pénétration des forces de l’Armée populaire de libération à Taipei via la rivière Tamsui, la même manœuvre qu’avait échoué à réaliser l’amiral Courbet cent quarante ans auparavant.

La bataille de Formose est donc une leçon tactico-stratégique qui conserve toute sa pertinence aujourd’hui, gravée dans les pierres tombales du cimetière français qui surplombe encore la rade, témoin silencieux des ambitions contrariées et des échecs humains sur cette île disputée.


Cet article a été co-rédigé avec Colin Doridant, analyste des relations entre la France et l’Asie.

The Conversation

Paco Milhiet ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

10.11.2025 à 14:44

L’avenir de la gastronomie française ne se joue pas uniquement dans l’assiette

Mihaela Bonescu, Enseignant-chercheur en communication / marketing, Burgundy School of Business

Pascale Ertus, Maître de conférences en Sciences de Gestion, Nantes Université

Quelle vision du bien-manger ? Quels défis pour pérenniser la haute gastronomie française ? Dix-huit chefs étoilés répondent dans une étude scientifique.
Texte intégral (1638 mots)
Si les CAP, Bac pro ou BTS assurent le premier niveau de formation, les chefs prennent le relais pour consolider l’aspect technique des apprentis et insuffler les valeurs du métier. TatjanaBaibakova/Shutterstock

Une étude scientifique, menée auprès de 18 chefs de cuisine étoilés en Bretagne, dans les Pays de la Loire et en Bourgogne, met en lumière les défis pour pérenniser la gastronomie française. Les solutions : transmettre le métier par l’apprentissage, encourager le « fait maison » et promouvoir un bénéfice santé pour la population.


Le 29 septembre 2025, l’agenda du président de la République annonçait un « déjeuner de la gastronomie et de la restauration traditionnelle ». De nombreux représentants de la gastronomie française – restaurateurs et chefs de cuisine étoilés, éleveurs, vignerons, bouchers, charcutiers et autres acteurs – ont fait le déplacement à l’Élysée pour défendre la filière et demander l’aide de l’État. Parmi eux, le chef Mathieu Guibert qui souligne :

« Un peuple qui mange bien est un peuple heureux. »

Après la rencontre avec le chef de l’État, la défiscalisation du pourboire a été préservée, et le discours s’est recentré sur l’attractivité des métiers, la promotion de la qualité ou encore l’éducation au bien-manger. De surcroît, ces échanges ont entériné l’augmentation de maîtres-restaurateurs, titre garantissant le travail des produits frais en cuisine.

Alors, quelle vision du bien-manger ? Quels sont les défis pour pérenniser la haute gastronomie française ? Ces questions ont animé notre recherche menée durant l’année 2024 auprès de 18 chefs de cuisine étoilés, localisés en Bretagne, dans les Pays de la Loire et en Bourgogne.

Problème de recrutement et baisse des fréquentations

Le secteur de la restauration rencontre des difficultés de recrutement du personnel. Plus de 200 000 emplois demeurent non pourvus chaque année, dont environ 38 800 postes d’aides en cuisine.

À cela s’ajoute une baisse de la fréquentation des restaurants traditionnels par les consommateurs. Plusieurs pistes d’explication peuvent la justifier :

  • le prix – critère essentiel de leurs choix ainsi que l’augmentation des tarifs affichés par les restaurants ;

  • l’amplification de l’effet de saisonnalité – avec des pics d’activité durant les périodes de vacances et les week-ends ;

  • l’évolution des habitudes de manger – la déstructuration du repas (plateau-télé, repas sur le pouce, apéro dînatoire ou grignotage) prend le dessus sur le repas traditionnel familial, qui reste un moment de socialisation et de convivialité …

  • l’évolution des comportements de consommation vers des régimes alimentaires moins carnés, moins caloriques, s’inscrivant dans une consommation plus responsable tout en exigeant du goût et de la qualité, des produits frais et naturels, locaux et du terroir, issus du travail des artisans.

L’apprentissage, condition de survie du métier

Un premier résultat de cette étude souligne l’importance de la continuité du financement de l’apprentissage comme l’indique un chef :

« Les bonnes écoles sont souvent des écoles privées qui sont très coûteuses, donc, de nouveau, on met les pieds dans un système où l’argent a une place importante. »

À ces considérations financières se rajoute une nécessaire adaptation des contenus et des compétences attendues des programmes pédagogiques qui « sont en retard ».

L’enjeu est de préserver les bases techniques du métier. Les chefs interrogés le regrettent : « Les bases en cuisine, maintenant on ne les apprend plus à l’école. » Ils pensent « qu’il y a un problème de formation », car « les apprentis n’ont pas de lien avec le produit, on leur apprend juste à cuisiner, on devrait revoir un peu notre façon de former et d’aller à la base ».

La transmission de la maîtrise technique du métier de cuisinier – savoir-faire, tours de main, recettes – reste une préoccupation quotidienne pour que les jeunes apprentis progressent et choisissent ces filières de formation. Si des cursus, tels que les CAP, Bacs pro, brevets professionnels (BP) ou BTS, assurent le premier niveau de formation, ce sont par la suite les chefs qui prennent le relais auprès de la nouvelle génération pour consolider l’aspect technique du métier et insuffler des valeurs qui portent la communauté.

« C’est à nous de nous battre pour que les gens se fédèrent autour de nous et que les jeunes suivent. En tant que chef, c’est ça la transmission. »

Ambassadeurs du terroir et des territoires

Les chefs interrogés ont exprimé leur nette préférence pour les bons produits provenant d’un approvisionnement en circuit court, grâce au travail des petits producteurs situés souvent à quelques kilomètres du restaurant.

« J’essaye de pas dépasser les 100 kilomètres pour m’approvisionner. »

S’instaure une relation pérenne avec ces producteurs de proximité, relation qui implique la confiance comme condition. Avec le temps, cette relation de proximité peut se transformer en relation amicale et durable, comme l’affirme un chef :

« Moi, j’aime bien ce travail de confiance avec nos producteurs. »

Valoriser les richesses du territoire devient une évidence, avec une conscience éclairée de leur responsabilité sociale vis-à-vis de l’économie locale. Pour les chefs, « le travail pour s’épanouir, pour avancer, pour bien gagner sa vie, pour élever sa famille, pour développer un territoire, pour développer une société » est important, tout comme le fait de « participer à une communauté, à un système économique qui est géographiquement réduit ».

Les chefs de cuisine étoilés n’hésitent pas à s’engager dans la valorisation des aménités patrimoniales locales. Ils mobilisent le tissu des artisans locaux pour offrir aux consommateurs une « cuisine vivante », reflet du territoire, et se considèrent comme des « passeurs » et « ambassadeurs du terroir et du territoire ». Les chefs n’hésitent pas à rendre visible le travail des producteurs en mentionnant leur identité sur les cartes et les sites Internet des restaurants.


À lire aussi : De Byzance à nos tables : l’étonnante histoire de la fourchette, entre moqueries, scandales et châtiment divin


Éduquer au bien-manger pour une meilleure santé

Les chefs interviewés pensent qu’ils ont un rôle à jouer dans l’amélioration de la santé publique par l’alimentation. Comment ? En insistant sur l’importance des repas, y compris à la maison, et sur la nécessité d’apprendre à cuisiner dès le plus jeune âge. « Bien manger, c’est important ; mais il faut surtout manger différemment », témoigne un chef interviewé.

Ils s’inquiètent de la place du bien-manger au sein des familles.

« Quand je discute avec des institutrices, des enfants de moins de dix ans viennent à l’école sans avoir petit-déjeuné. Là, on parle de santé publique ! »

Ils suggèrent d’introduire des cours de cuisine au sein des programmes scolaires pour sensibiliser les plus jeunes à la saisonnalité des produits, à la conservation des ressources naturelles et à la culinarité.

Même si des dispositifs officiels existent comme la loi Égalim, le programme national nutrition santé (PNNS) avec le célèbre mantra « Bien manger et bien bouger », leur application reste à développer au moyen d’actions concrètes. Si la défiscalisation reste un sujet en restauration, d’autres enjeux sont à considérer : la transmission du métier par l’apprentissage, le « fait maison » et le bien-manger pour conserver un bénéfice santé et le plaisir à table.

The Conversation

Pascale Ertus a reçu des financements de l'Académie PULSAR de la Région des Pays de la Loire, de l'Université de Nantes et du LEMNA (Laboratoire d'Economie et de Management de Nantes Université).

Mihaela Bonescu ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

10.11.2025 à 14:33

Pourquoi les girafes ont-elles de si longues pattes ? Une nouvelle étude révèle une explication surprenante

Roger S. Seymour, Professor Emeritus of Physiology, University of Adelaide

Edward Snelling, Faculty of Veterinary Science, University of Pretoria

Il est très improbable qu’un animal, même un dinosaure, ait jamais atteint une taille supérieure à celle de la girafe.
Texte intégral (1713 mots)

La longueur du cou des girafes est un défi colossal pour leur cœur, obligé de pomper le sang jusqu’à plus de deux mètres de haut. Une nouvelle étude montre que ces mammifères ont trouvé une solution inattendue à ce casse-tête de la gravité : leurs longues pattes.


Si vous vous êtes déjà demandé pourquoi les girafes ont un cou si long, la réponse semble évidente : cela leur permet d’atteindre les feuilles succulentes au sommet des grands acacias des savanes d’Afrique.

Seules les girafes peuvent atteindre directement ces feuilles, tandis que les mammifères plus petits doivent se partager la nourriture au niveau du sol. Cette source de nourriture exclusive permettrait aux girafes de se reproduire toute l’année et de mieux survivre aux périodes de sécheresse que les espèces plus petites.

Mais ce long cou a un prix. Le cœur de la girafe doit générer une pression suffisamment forte pour propulser le sang à plusieurs mètres de hauteur jusqu’à sa tête. Résultat : la pression artérielle d’une girafe adulte dépasse généralement 200 millimètres de mercure (mm Hg), soit plus du double de celle de la plupart des mammifères.

Ainsi, le cœur d’une girafe au repos consomme plus d’énergie que l’ensemble du corps d’un être humain au repos –,et même davantage que celui de tout autre mammifère de taille comparable. Pourtant, comme nous le montrons dans une nouvelle étude publiée dans le Journal of Experimental Biology, le cœur de la girafe bénéficie d’un allié insoupçonné dans sa lutte contre la gravité : ses très longues pattes.

Découvrez l’« élaffe »

Dans notre étude, nous avons estimé le coût énergétique du pompage sanguin chez une girafe adulte typique, puis nous l’avons comparé à celui d’un animal imaginaire doté de pattes courtes, mais d’un cou plus long, capable d’atteindre la même hauteur que la cime des arbres.

Cette créature hybride, sorte de Frankenstein zoologique, combine le corps d’un éland (Taurotragus oryx) et le cou d’une girafe. Nous l’avons baptisée « élaffe ».

Images d’une girafe, d’un éland et de l’« élaffe », mi-girafe mi-eland, avec l’emplacement de leur cœur respectif mis en évidence
L’« élaffe » imaginaire, avec le bas du corps d’un éland et un long cou de girafe, utiliserait encore plus d’énergie pour pomper le sang de son cœur jusqu’à sa tête. Estelle Mayhew/Université de Pretoria (Afrique du Sud)

Nos calculs montrent que cet animal dépenserait environ 21 % de son énergie totale pour faire battre son cœur, contre 16 % pour la girafe et 6,7 % pour l’être humain.

En rapprochant son cœur de sa tête grâce à ses longues pattes, la girafe économise environ 5 % de l’énergie tirée de sa nourriture. Sur une année, cela représenterait plus de 1,5 tonne de végétaux – une différence qui peut littéralement décider de la survie dans la savane africaine.

Comment fonctionnent les girafes

Dans son ouvrage How Giraffes Work, le zoologiste Graham Mitchell explique que les ancêtres des girafes ont développé de longues pattes avant d’allonger leur cou – un choix logique sur le plan énergétique. Des pattes longues allègent le travail du cœur, tandis qu’un long cou l’alourdit.

Un troupeau de girafes dans une plaine herbeuse
Les ancêtres des girafes ont développé de longues pattes avant leur long cou. Zirk Janssen Photography

Mais ces pattes ont un coût : les girafes doivent les écarter largement pour boire, ce qui les rend maladroites et vulnérables face aux prédateurs.

Les données montrent d’ailleurs que la girafe est le mammifère le plus susceptible de quitter un point d’eau… sans avoir pu boire.

Jusqu’où un cou peut-il s’allonger ?

Squelette de dinosaure dans un musée, disposé presque à la verticale avec son cou extrêmement long
De son vivant, le dinosaure giraffatitan aurait très probablement été incapable de lever la tête aussi haut. Shadowgate/Wikimedia, CC BY

Plus le cou est long, plus le cœur doit fournir d’efforts. Il existe donc une limite physique.

Prenons le giraffatitan, un dinosaure sauropode de 13 mètres de haut dont le cou atteignait 8,5 mètres. Pour irriguer son cerveau, il aurait fallu une pression artérielle d’environ 770 mm Hg – près de huit fois celle d’un mammifère moyen. Une telle pression aurait exigé une dépense énergétique supérieure à celle du reste de son corps, ce qui est hautement improbable.

En réalité, ces géants ne pouvaient sans doute pas lever la tête aussi haut sans s’évanouir. Il est donc peu probable qu’un animal terrestre n’ait jamais dépassé la taille d’un mâle girafe adulte.

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.

PDF

10.11.2025 à 14:32

Maladie de Lyme : comment la bactérie « Borrelia burgdorferi » nous infecte

Sébastien Bontemps-Gallo, Microbiologiste - Chargé de recherche, Centre national de la recherche scientifique (CNRS); Université de Lille

Transmise par les tiques, la maladie de Lyme est causée par des bactéries capables de se camoufler, de s’adapter et de résister à nos défenses immunitaires grâce à d’ingénieux stratagèmes.
Texte intégral (2229 mots)
Cette image obtenue par microscopie électronique à balayage (fausses couleurs) montre des bactéries anaérobies à Gram négatif <em>Borrelia burgdorferi</em>, responsables de la maladie de Lyme. Claudia Molins/CDC

Pour échapper à notre système immunitaire, la bactérie responsable de la maladie de Lyme utilise une méthode de camouflage particulièrement efficace. Après avoir décrypté son fonctionnement, les scientifiques commencent à mettre au point des vaccins afin de s’attaquer à la bactérie avant qu’elle puisse recourir à ce stratagème.


Avec près de 500 000 personnes diagnostiquées chaque année aux États-Unis et entre 650 000 et 850 000 cas estimés en Europe, la maladie de Lyme, ou borréliose de Lyme, représente un problème de santé publique majeur dans tout l’hémisphère Nord.

Les symptômes de la maladie sont très variables, ils vont de lésions cutanées à des atteintes cardiovasculaires, articulaires ou neurologiques. Ces différences s’expliquent notamment par le fait que les bactéries impliquées peuvent différer en fonction de la zone géographique considérée. Mais, malgré leurs différences, toutes les bactéries impliquées ont un point commun : leur capacité à se rendre invisibles à l’œil du système immunitaire de leur hôte.

Des symptômes variables

La maladie de Lyme résulte d’une infection bactérienne transmise par les tiques du genre Ixodes, de petits animaux hématophages qui se nourrissent du sang des animaux, et parfois du nôtre.

Le microbe responsable est une bactérie, Borrelia burgdorferi, ainsi nommée en l’honneur du Dr Willy Burgdorfer, qui l’a découverte en 1982 aux Rocky Mountain Laboratories (Montana, États-Unis).

Dix ans plus tard, le Pr Guy Baranton, à l’Institut Pasteur, a montré qu’en Europe, plusieurs bactéries proches de B. burgdorferi peuvent provoquer la maladie.

Ces espèces forment ce qu’on appelle le complexe Borrelia burgdorferi sensu lato (s.l.), littéralement les Borrelia burgdorferi « au sens large », par comparaison avec Borrelia burgdorferi sensu stricto, autrement dit Borrelia burgdorferi « au sens strict ».

Aux États-Unis, c’est surtout Borrelia burgdorferi sensu stricto qui cause la maladie, tandis qu’en Europe, Borrelia afzelii et Borrelia garinii dominent.

Ces différences expliquent la variabilité des formes que peut revêtir la maladie selon les régions. Ainsi, B. afzelii provoque plus souvent des manifestations cutanées, tandis que B. garinii est plutôt associée à des atteintes neurologiques.

Une bactérie pas comme les autres

Borrelia burgdorferi est une bactérie en forme de spirale, appelée spirochète, qui se déplace activement. Elle possède un petit patrimoine génétique, constitué d’ADN, dont la taille est environ trois fois moindre que celle du patrimoine génétique d’Escherichia coli, la bactérie bien connue dans les laboratoires de recherche.

Mais l’ADN de B. burdgorferi a une organisation unique. Les génomes bactériens sont habituellement constitués d’un seul chromosome circulaire. Mais au lieu d’un chromosome circulaire classique, B. burgdorferi possède un chromosome linéaire, comme les cellules humaines. Ce chromosome est accompagné de plus d’une dizaine de plasmides (petites molécules d’ADN) circulaires et linéaires.

Les gènes indispensables à la survie de la bactérie sont majoritairement retrouvés sur le chromosome linéaire, qui est bien conservé entre les différentes espèces du complexe B. burgdorferi s.l. (ce qui signifie qu’il diffère très peu d’une espèce à l’autre).

Les plasmides contiennent quant à eux des gènes qui permettent à la bactérie d’infecter, de se cacher du système immunitaire et de survivre dans la tique. Le nombre et le contenu de ces plasmides varient d’une espèce à l’autre, et ils peuvent se réorganiser comme des pièces de puzzle, offrant potentiellement à la bactérie de nouvelles capacités pour s’adapter.

S’adapter pour survivre : les secrets de B. burgdorferi

Pour survivre, B. burgdorferi doit être capable de prospérer dans des environnements opposés : celui de la tique et celui du mammifère. Lorsqu’une tique se nourrit sur un animal infecté, la bactérie colonise l’intestin de l’arachnide acarien (rappelons que les tiques ne sont pas des insectes !). Elle y reste en dormance entre deux repas sanguins. Dans cet organisme, elle doit supporter le froid (puisque les tiques - contrairement aux mammifères - ne régulent pas leur température corporelle), le manque de nourriture et un environnement acide.

Dès qu’une tique commence à se nourrir sur un animal à sang chaud tel qu’un mammifère, la chaleur du sang et les modifications chimiques associées à son absorption déclenchent un changement de programme moléculaire. Tout se passe comme si le sang jouait le rôle d’un interrupteur activant un « mode infection ». Ce mode permet aux bactéries B. burgdorferi de migrer vers les glandes salivaires de la tique, et donc d’être transmises à un nouvel hôte avec la salive.

Une fois dans le mammifère, les bactéries doivent encore contrer les défenses du système immunitaire. Heureusement pour elles, la salive de la tique contient des molécules protectrices vis-à-vis du système immunitaire de leur hôte commun. Certains de ces composés bloquent le système du complément, un groupe de protéines sanguines capables de détecter et de détruire les microbes.

C’est le cas des protéines de la salive de tique appelées Salp15. En se fixant à des protéines situées à la surface de la bactérie (nommées OspC), les protéines Salp15 se comportent comme un bouclier temporaire, qui protège la bactérie pendant qu’elle commence à se disséminer dans l’organisme.

Mais les bactéries B. burgdorferi ne s’arrêtent pas là. Elles changent continuellement d’apparence, pour mieux se fondre dans chacun des environnements où elles évoluent, tels des caméléons. Lorsqu’elles sont à l’intérieur de la tique, elles produisent des protéines appelées OspA, qui leur permettent d’adhérer à l’intestin du parasite. Mais juste avant la transmission, elles remplacent ces protéines OspA par des protéines OspC, qui leur permettent d’envahir les tissus de l’hôte.

Cependant, ces protéines OspC attirent rapidement l’attention du système immunitaire. Une fois la bactérie installée dans le mammifère, les protéines OspC sont donc à leur tour remplacées par d’autres protéines, appelées VlsE.

Le gène vlsE qui sert à les fabriquer a la particularité de subir des transformations (on parle de recombinaisons), ce qui permet aux bactéries B. burgdorferi de fabriquer différentes versions de la protéine VlsE, les rendant ainsi très difficiles à reconnaître par le système immunitaire de l’hôte.

Tout se passe en quelque sorte comme si les B. burgdorferi changeaient régulièrement de « vêtement », afin que le système immunitaire ne puisse pas les reconnaître. Ce jeu de cache-cache moléculaire, appelé « variation antigénique », les rend presque invisibles au système immunitaire, ce qui leur permet de continuer à se multiplier discrètement.

Depuis quelques années, les scientifiques tentent de contrer ce stratagème, en développant notamment des vaccins contre les bactéries B. burgdorferi.

Les pistes pour prévenir et contrôler la maladie de Lyme

En 2025, deux projets de vaccins ont ravivé l’espoir d’une victoire contre la maladie de Lyme. Ceux-ci ciblent la protéine OspA, présente à la surface de la bactérie lorsqu’elle se trouve dans la tique. À Paris, l’Institut Pasteur, en partenariat avec Sanofi, a présenté un candidat vaccin à ARN messager, basé sur la même technologie que celle utilisée contre le Covid-19.

De leur côté, les laboratoires pharmaceutiques Valneva et Pfizer développent un vaccin qui cible lui aussi OspA, mais via une autre approche, fondée sur l’emploi de protéines recombinantes. Ces protéines, produites en laboratoire, correspondent à plusieurs variantes d’OspA exprimées par différentes souches de Borrelia burgdorferi présentes en Amérique du Nord et en Europe. Lors de l’injection, elles sont associées à un adjuvant afin de renforcer la réponse immunitaire et d’induire une production plus efficace d’anticorps. Les premiers résultats de ce vaccin, baptisé VLA15, semblent encourageants.

Bien qu’ils soient différents dans leur conception, ces deux vaccins reposent sur une approche originale qui a déjà fait ses preuves. En effet, en 1998 aux États-Unis, la Food and Drug Administration (FDA), l’agence chargée de la surveillance des denrées alimentaires et des médicaments avait autorisé la commercialisation du vaccin LYMErix, développé par l’entreprise pharmaceutique GSK, qui ciblait uniquement la protéine OspA produite par la souche américaine de Borrelia burgdorferi.

Commercialisé à partir de 1999, ce vaccin conférait une protection de 76 % contre la maladie aux États-Unis. Bien qu’imparfait, il s’avérait intéressant notamment pour les personnes les plus à risque de contracter la maladie. Il a cependant été retiré du marché en 2002 par GSK, en raison d’une polémique concernant la survenue de potentiels effets secondaires chez certaines personnes vaccinées.

L’analyse des données n’a pas permis de déceler de problème sur les cohortes étudiées, ce qui a amené la FDA à maintenir l’autorisation de mise sur le marché. Cependant, l’importante couverture médiatique a entraîné une chute des ventes, menant les responsables de GSK à décider d’en stopper la production et la commercialisation.

Concrètement, les vaccins ciblant OspA permettent de bloquer la bactérie dans le corps de la tique, empêchant son passage à l’être humain. Lorsqu’une tique infectée pique une personne vaccinée, elle aspire du sang contenant les anticorps anti-OspA produits suite à la vaccination. Dans son intestin, ces anticorps se fixent sur la surface des bactéries Borrelia burgdorferi, les empêchant de migrer vers les glandes salivaires. Résultat : la bactérie n’atteint jamais le site de la piqûre, et l’infection est bloquée avant même de commencer.

Cette approche a été privilégiée, car cibler la bactérie directement dans le corps humain est beaucoup plus difficile. Comme on l’a vu, grâce aux recombinaisons du gène vlsE, qui s’active lorsque B. burgdorferi entre dans le corps d’un mammifère, la bactérie devient alors une experte dans l’art de se cacher.

Mais la lutte est loin d’être terminée. En continuant à décoder toujours plus précisément les stratégies de survie et d’évasion des bactéries Borrelia, les chercheurs espèrent ouvrir la voie à de nouveaux outils de diagnostic, de traitement et de prévention.

The Conversation

Sébastien Bontemps-Gallo travaille au Centre d'Infection et d'Immunité de Lille (Institut Pasteur de Lille, Université de Lille, Inserm, CNRS, CHU Lille). Il a reçu des financements de l'Agence Nationale de la Recherche, de l'I-SITE Université Lille Nord-Europe, de l'Inserm Transfert et du CNRS à travers les programmes interdisciplinaires de la MITI.

PDF

10.11.2025 à 11:52

Évaluer les structures d’insertion par l’activité économique au-delà des chiffres

Anne Le Roy, Enseignante chercheuse en Economie au CREG à l'UGA, Université Grenoble Alpes (UGA)

L’évaluation des structures d’insertion par l’activité économique (SIAE) ne doit pas reposer uniquement sur le taux de sortie dynamique. C’est ce que démontre une recherche menée en Isère.
Texte intégral (1915 mots)
Une démarche d’évaluation a été construite par un groupe de travail de structures d’insertion par l’activité économique en Isère, aux côtés de l’Université Grenoble-Alpes. TI38, Fourni par l'auteur

Mesurer n’est pas synonyme d’évaluer. C’est ce que démontre une recherche menée en Isère sur les structures de l’insertion par l’activité économique (SIAE), à l’occasion du mois de l’économie sociale et solidaire (ESS). Si le taux de sortie dynamique est leur unique indicateur d’évaluation, il convient d’en explorer d’autres… avec moins de chiffres, et plus de lettres.


Alors que la raison d’être des structures de l’insertion par l’activité économique (SIAE) est d’accompagner les personnes rencontrant des difficultés à s’insérer sur le marché de l’emploi, leurs actions sont évaluées à l’aune d’un seul indicateur : le taux de sorties dynamiques. Non seulement ce taux ne révèle qu’une partie de ce que ces structures produisent, mais il met dans l’ombre « tout le reste ».

Afin d’éclairer ce qui est mis dans l’ombre, un collectif associatif de structures d’insertion en Isère, TI38, a proposé une démarche collective pour répondre à ce besoin de connaissances aujourd’hui partagé : que génèrent les SIAE ? Qu’apportent-elles à la société ?

Démarche d’évaluation en Isère

Pour reprendre les propos tenus par le collectif porteur de la démarche, « la réflexion est née d’un constat partagé : ce qui fait le cœur du travail réalisé jour après jour par l’insertion par l’activité économique (IAE) est peu visible et les indicateurs existants n’en rendent pas suffisamment compte ». Ces structures sont régulièrement sous tension :

« Les subventions accordées ne compensent que très partiellement les surcoûts engendrés par leur mission sociale et ne paraissent pas constituer un avantage économique. »

Pour éclairer et faire exister ce qui est invisibilisé, un groupe de travail émanant de TI38 s’est constitué et m'a sollicitée compte tenu de mes recherches sur l’évaluation des réalités échappant aux indicateurs classiques.

C’est ainsi qu’une démarche d’évaluation a été élaborée, afin d’identifier, d’apprécier et d’expliquer les changements générés sur les salariés en insertion et sur leur territoire.

Évaluation des structures d’insertion

L’évaluation est bien plus qu’une mesure, bien plus qu’une série de mesures. C’est un moyen de rendre compte des actions réalisées, de révéler la manière dont elles sont mises en œuvre et les effets générés en vue, notamment, de mettre en perspective leur diversité et leur transversalité.

Restituer la démarche menée au niveau isérois et nourrir une réflexion impulsée au niveau national par l’Inspection générale des affaires sociales (Igas) peut aider à révéler les richesses créées par les SIAE.

Étape 1 : rendre visible le travail autour de cinq dimensions

À partir de questionnaires et d’entretiens avec les partenaires impliqués (SIAE, État, Département et Métropole), il s’agissait de proposer une vision partagée de l'insertion par l'activité économique et son évaluation ; vision à partir de laquelle ont émergé les composantes de l’utilité sociale des SIAE, appelées « dimensions ».

Cinq dimensions ont été discutées, complétées puis validées par le groupe, en vue de les traduire collectivement en indicateurs :

  • insertion et accompagnement professionnels,

  • accompagnement social, prise en charge des freins et lutte contre la pauvreté,

  • lien social, intégration et mieux être,

  • développement économique et territorial,

  • environnement.

Étape 2 : récolter des données

Le groupe a ensuite travaillé chacune des dimensions retenues pour proposer des chiffres à même de les rendre visibles et les questions permettant de les obtenir.

Les données créées ont permis de donner corps aux dimensions de l’utilité sociale dont l’analyse a été complétée par des entretiens, collectifs et individuels. Il s’agissait de faire parler et comprendre les informations soulevées, mais aussi de creuser des questions apparues lors du traitement des données.

Les apprentissages de l’évaluation de l’utilité sociale des SIAE de l’Isère. ti38

Étape 3 : la valeur ajoutée des structures de l’insertion par l’activité économique (SIAE)

L’analyse collective des données chiffrées et lettrées a mis en lumière la complexité du travail réalisé par les acteurs des SIAE, qu’un taux de sortie dynamique ne peut pas révéler à lui seul. Leurs créations sont diverses et transversales, comme l’attestent les cinq points saillants ressortant de la démarche menée par TI38.

L’accueil de publics aux multiples problématiques

Les publics accueillis ont des difficultés, communément appelées « freins à l’emploi », plus nombreuses et plus diverses que par le passé – langue, transport, santé, etc. Ce cumul de difficultés, selon les dires des professionnels, transforme et complexifie le travail d’accompagnement et d’encadrement.

Un accompagnement relevant de plus en plus de l’action sociale

Les conseillères en insertion sociale et professionnelle (CISP) interviennent de différentes façons – mise en lien, écoute, suivi et accompagnement aux démarches – et sur de nombreux fronts – langue, numérique, logement, handicap, addiction, etc. – pour faire avancer les problématiques sociales. Cela est à l’origine d’une complexité croissante du volet social qui demande du temps, tout en étant difficile à caractériser et à mesurer.

Une professionnalisation sur différents registres

La mission principale des conseillères en insertion sociale et professionnelle est de conduire les salariés vers l’emploi durable. Ce travail se situe dans la structure d’insertion via l’activité support et en extérieur en proposant des formations, des stages ou par des expériences en CDD et intérim. Le nombre de suspensions de contrat d’insertion liées à ce motif pourrait être un indicateur à ajouter dans les futures évaluations.

Des salariés exprimant le sentiment de retrouver une place dans la société

Les salariés interviewés mettent en avant les effets du parcours sur leur vie quotidienne. Ils parlent de confiance, de motivation et d’espoir retrouvés, sources d’effets positifs sur leur santé, physique et mentale, et sur leur vie sociale. Ils ont l’impression de « retrouver une place » dans la société dès le début du parcours, ce que le taux de sortie dynamique ne révèle pas.

Des entreprises de proximité essentielles au territoire isérois

Les structures de l’insertion par l’activité économique (SIAE) sont des acteurs économiques ayant un savoir-faire, des réseaux de fournisseurs (8 millions d’euros d’achat) et de clients (10 000 clients) à l’origine d’un chiffre d’affaires en Isère de plus de 40 millions d’euros en 2024. La réponse aux besoins locaux et la richesse produite sur le territoire contribuent au développement territorial qu’il importerait de valoriser.

Révéler les richesses créées par les SIAE

L’évaluation menée nous invite à changer le regard porté sur les structures de l’insertion par l’activité économique (SIAE) et à prolonger la réflexion pour mettre en lumière leurs effets sur d’autres politiques – logement, santé, éducation. Pourrait être ainsi envisagée la fin d’un pilotage par un chiffre, court-termiste et inadapté aux SIAE, car pouvant entrer en contradiction avec les besoins des personnes accompagnées et la raison d’être des structures.

Ce n’est pas le chiffre qui pose problème, mais comme l’a montré le sociologue Olivier Martin dans le prolongement des travaux d’Alain Desrosière, c’est son usage laissant entendre que mesurer serait synonyme d’évaluer.


Cet article a été co-rédigé avec Magda Mokhbi, directrice des Ateliers Marianne (Le Pont-de-Claix), un chantier d’insertion.

The Conversation

Anne Le Roy ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

10.11.2025 à 11:52

Publicité digitale et empreinte carbone : comment concilier performance et durabilité ?

Galina Kondrateva, enseignant-chercheur en marketing, EDC Paris Business School

Nadr El Hana, Maître de conférences, IAE Paris – Sorbonne Business School; Université Mohammed VI Polytechnique

Silvia L. Martin, Full Professor of Marketing, California State University, Los Angeles

Le secteur de la publicité tient-il vraiment compte de son empreinte environnementale&nbsp;? Quelles seraient les solutions les plus efficaces pour améliorer cette dernière&nbsp;?
Texte intégral (1404 mots)

Le marketing et la publicité digitale prennent-ils vraiment en considération l’impact environnemental de leurs actions ? Si on s’intéresse aux indicateurs de performance, on remarque que l’efficacité d’une campagne en tient peu compte. À quand un coût CO2 pour 1 000 ?


Dans l’univers du marketing digital, les indicateurs de performance sont bien connus : impressions, clics, taux de conversion ou encore nombre de visionnages. Ces « métriques » structurent la prise de décision et guident les stratégies des marques. Mais une autre donnée, encore peu visible, gagne en importance : l’empreinte carbone des campagnes digitales. Ce phénomène reste largement sous-estimé, alors même que le digital représente aujourd’hui 4,4 % de l’empreinte carbone nationale en France.

Une étude de 2022, menée par Fifty-Five, le cabinet français spécialisé dans la data et le marketing digital a permis de quantifier l’impact d’une campagne standard : jusqu’à 71 tonnes de CO2 émises, soit l’équivalent de 35 allers-retours Paris-New York ou l’empreinte carbone annuelle de sept personnes. Ces émissions proviennent non seulement de la diffusion des contenus, mais aussi de leur production, de leur hébergement et de leur consultation par les utilisateurs finaux.

Une chaîne publicitaire énergivore

Tous les formats digitaux n’ont pas le même poids carbone : les vidéos, surtout en haute résolution ou en lecture automatique, sont parmi les plus énergivores. Un spot de 15 secondes diffusé sur mobile consomme ainsi plus qu’un visuel statique consulté avec une connexion wifi. Les plates-formes comptent aussi : TikTok se révèle plus gourmande que YouTube ou Facebook en raison du volume de données et de ses algorithmes intensifs.


À lire aussi : Marketing : une approche et des outils qui peuvent se mettre au service du développement durable


Enfin, l’ensemble de la chaîne de diffusion, depuis la sélection des acteurs jusqu’à l’analyse des performances en passant par les canaux, le ciblage, l’achat programmatique et les pixels de tracking, mobilise des ressources techniques dont l’impact carbone reste largement ignoré.

Un angle mort des indicateurs de performance

Cette réalité soulève un paradoxe : les campagnes sont conçues pour maximiser leur performance, mais sans intégrer de critères environnementaux dans l’équation. Les indicateurs traditionnels de performance comme le taux de clic, le coût par conversion ou le taux d’engagement n’intègrent pas la consommation énergétique des supports ou des canaux utilisés. Autrement dit, plus une campagne est performante selon ses indicateurs, plus elle risque d’être énergivore, un paradoxe rarement pris en compte dans la mesure digitale.

Des outils émergents, comme le CO₂ PM ou CarbonTag, tentent d’introduire une lecture environnementale des campagnes en traduisant les impressions ou les vues en équivalent CO2. Toutefois, ces méthodes restent limitées et peu adoptées par les marques, car elles ne permettent pas d’évaluer avec précision l’empreinte carbone à toutes les étapes d’une campagne digitale.

Vers un marketing plus responsable

Ce constat invite à repenser les arbitrages entre performance publicitaire et sobriété énergétique. Il pose la question de la capacité de tous les acteurs de l’écosystème publicitaire à concevoir des campagnes efficaces et responsables, sans sacrifier la qualité des contenus ni l’engagement des publics.

Notre étude, menée auprès de 22 experts en France et aux États-Unis comprenant des annonceurs, des régies publicitaires, des agences média et de conseil ainsi que des spécialistes en data analytics, a permis de définir des stratégies publicitaires conciliant efficacité et impact environnemental. L’objectif final était de parvenir à un consensus et de proposer une liste de solutions capables de maintenir la performance tout en réduisant l’empreinte carbone. De cette façon, les bases de nouveaux indicateurs de performance (ou KPI en anglais, pour key performance indicators) pour la publicité numérique pourraient être mises au point.

L’idée de réutiliser du contenu déjà diffusé a été fréquemment évoquée lors des entretiens. À un moment où le recyclage s’impose comme une approche courante dans de nombreux domaines, cette pratique est identifiée comme l’une des stratégies possibles. Cependant, elle reste reléguée au bas de la liste, en raison d’un problème principal : l’ancien contenu risque de ne plus avoir d’impact sur les consommateurs, tout en nécessitant plus d’efforts et de ressources pour être adapté.

Compter, tracer, économiser

L’option suivante, moins attrayante, consiste à travailler sur les données générées ou exploitées dans le cadre des campagnes digitales (données clients, comportementales, etc.), car leur stockage nécessite l’usage de serveurs, qui polluent en grande partie. Le nettoyage des données est donc un moyen simple de réduire l’empreinte carbone. Il existe quelques contraintes, par exemple, une obligation légale de conserver les données pendant un certain temps. Comme le recyclage, ce sont des stratégies inscrites dans la durée.

Ces deux stratégies, à savoir la gestion responsable des données et la réutilisation des contenus existants, reposent sur une idée simple : il faut d’abord mesurer pour pouvoir agir. Le suivi précis des émissions, complété par des économies d’énergie même modestes au sein des organisations, contribuera à améliorer l’empreinte globale des campagnes. Dans cette optique, l’intégration d’indicateurs environnementaux permettrait ensuite d’optimiser en continu et de corriger la trajectoire dès qu’un seuil critique est franchi.

La précision est la reine !

Les changements directs dans les campagnes digitales concernent avant tout la précision du ciblage. Plus il est fin plus l’impact est fort, car les contenus peuvent être mieux adaptés. La deuxième dimension clé réside dans la diffusion : choisir le bon canal, qu’il s’agisse du wifi ou du mobile, au moment et à l’endroit appropriés, reste l’une des approches les plus efficaces.

De Vinci Executive Education, 2025.

Le choix des partenaires est un élément clé de la solution au problème. Si toutes les parties prenantes suivent les mêmes KPI, en choisissant d’abord l’environnement, toute la chaîne de performance sera améliorée. Comme disait un des participants :

« Dans le but de réduire les émissions de carbone dans le monde numérique, l’idéal serait de choisir des plateformes et des services économes en énergie » (Digital Account Manager)

Parce qu’il est important de travailler avec des partenaires ayant de sincères « préoccupations écologiques », il est crucial de créer un label pour les partenaires qui respectent et prennent en compte les émissions de CO2 dans leur stratégie publicitaire numérique. De nombreux intervenants utilisent plusieurs outils qui remplissent des fonctions similaires, ce qui entraîne des émissions de CO2 supplémentaires. L’utilisation d’outils redondants est à éviter.

En mettant en œuvre ces recommandations, les parties prenantes peuvent contribuer de manière significative à l’obtention d’une performance médiatique élevée et d’une réduction de l’impact environnemental.

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.

PDF

10.11.2025 à 11:28

Expérience client : tout le monde en parle, mais qui s’y intéresse vraiment ?

Bert Paesbrugghe, Professeur (Associate) de ventes et achat, IÉSEG School of Management

La satisfaction du client est devenue le b.a.-ba du marketing. Mais les actes sont parfois loin des déclarations d’intention.
Texte intégral (1493 mots)

Il ne suffit pas de dire que « le client est roi » pour que ce dernier soit satisfait. De nombreuses entreprises affirment que toutes leurs actions visent l’objectif d’une bonne expérience client, mais qu’en est-il derrière les paroles ? Et comment reconnaître celles qui s’impliquent véritablement ?


Lorsque nous consultons les sites Web ou les supports marketing de différentes entreprises, nous trouvons facilement des déclarations telles qu’« orienté client » et autres « satisfaction garantie », voire « nous accordons toujours la priorité à nos clients ». Ces déclarations prometteuses suscitent des attentes élevées, mais l’organisation derrière ne peut pas toujours tenir ces promesses.

La question posée est la suivante : comment reconnaître une entreprise qui s’efforce véritablement chaque jour de créer la meilleure expérience client possible ? Bien que toutes les entreprises clament leur dévouement envers le client, et non envers leurs profits, nous pouvons suggérer quelques signaux d’alerte en termes de gestion de l’expérience client.

Un service de palace

Dans l’esprit commun, une excellente expérience client est souvent associée à un service hôtelier de luxe 5 étoiles. Mais il est erroné de croire que les clients s’attendent toujours à un traitement VIP. Dans les faits, une bonne expérience client est celle qui dépasse légèrement les attentes du client. Par exemple, un client peut vivre une excellente expérience client en achetant un hamburger à emporter, alors qu’un autre jour, il pourrait ne pas être satisfait de son dîner dans un restaurant étoilé au guide Michelin.

Définir les bonnes attentes et indiquer clairement ce qui n’est pas possible et ce à quoi il ne faut pas s’attendre peut contribuer à éviter l’insatisfaction des clients). Par exemple, une entreprise devrait indiquer au client quand il peut espérer une solution à son problème, plutôt que de promettre une garantie de satisfaction à 100 % à tout moment de la journée. Le problème sous-jacent est d’avoir une approche unique pour différents segments de clientèle. Cela conduit très probablement à décevoir le client. En réalité, il est préférable de refuser des actions à certains segments lorsqu’il n’y a aucune chance réelle de satisfaire leurs besoins. Les entreprises ne peuvent pas répondre à tous les besoins de tous les clients.


À lire aussi : Comment les vendeurs du luxe gèrent-ils leurs amitiés commerciales avec les super-riches ?


Pas de promesse

De plus, les entreprises commettent souvent l’erreur de faire des promesses excessives par rapport à ce qu’elles peuvent véritablement offrir. Chaque offre est présentée comme la meilleure, alors que la plupart du temps, le client se satisfait d’un produit ou d’un service offrant une qualité qu’il estime suffisante. Il est très tentant de présenter l’offre sous un jour plus favorable qu’elle ne l’est en réalité. Cela conduit presque inévitablement à des déceptions.

À l’inverse, des entreprises comme Ryanair s’efforcent de réduire les attentes des clients, ce qui leur permet de dépasser plus facilement leurs promesses. Ryanair ne s’est jamais positionné comme une compagnie premium, préférant miser sur des tarifs ultracompétitifs et une approche minimaliste du service.

Ce qu’attendent d’abord les clients, c’est que l’on réponde vraiment à leurs différents types de besoins. Une expérience client de haute qualité ne consiste pas à connaître le nom de leur chien. Tout d’abord, il y a les besoins fondamentaux des clients, qui ne sont pas négociables. Il s’agit, par exemple, d’exigences spécifiques à un secteur, telles que les normes de sécurité alimentaire pour les producteurs alimentaires ou les contrôles de sécurité des données pour les banques. Répondre à ces besoins n’améliore pas l’expérience du client, car il s’agit de besoins attendus. Ne pas répondre entièrement à ces besoins conduit inévitablement à une expérience client désastreuse).

Ensuite, un produit apporte de la valeur au client lorsqu’il contribue directement à la croissance de son entreprise, soit par l’accroissement des recettes, la réduction des dépenses, soit par la minimisation des risques inhérents à son activité.

Avoir les bons indicateurs

Une autre façon de reconnaître une entreprise fidèle à ses intentions en matière d’expérience client est lorsque la direction s’appuie sur et agit selon des indicateurs de réussite client basés sur le comportement. Ces indicateurs comportementaux de la satisfaction client sont par exemple le nombre de renouvellements d’achats, le taux de fidélité des clients ou l’augmentation du pourcentage de dépenses que le client consacre à cette entreprise. Les indicateurs indirects sont le Net Promotor Score (NPS), ou la probabilité qu’un client recommande votre entreprise à un ami ou un collègue. Le risque avec ces indicateurs est qu’ils peuvent être gonflés. Par exemple, de nombreux responsables suggèrent à leurs clients d’attribuer une note de 9 sur 10 ou 10 sur 10 à la relation ou au produit pour une expérience satisfaisante.

Les entreprises et leurs représentants agissent ainsi parce que les notes sont liées à leurs objectifs et à leurs récompenses. De cette manière, la note sera faussée, c’est-à-dire que le responsable influencera un entretien ou une enquête positive, afin que les notes semblent bonnes, du moins sur le papier. Ou bien le responsable ne sélectionne pas les répondants au hasard, mais choisit ceux qui sont susceptibles de donner des notes élevées. La liste des approches biaisées est longue.

Pour remédier à ces biais, la solution consiste à trianguler ou à combiner au moins trois sources de données). Par exemple, les données de vente du CRM (un logiciel qui aide les entreprises à gérer les interactions et les données des clients) plus un entretien annuel avec les clients, plus une enquête de satisfaction et des notes informelles issues de la livraison. Le score réel d’un seul indicateur client peut être moins favorable à l’entreprise. Cela ne pose aucun problème, car le score biaisé ne menace en rien son positionnement sur le marché. Jusqu’à ce que la situation change. Car avec des données faussées, même le meilleur manager ne peut pas prendre de bonnes décisions.

Répondre aux avis sollicités

Un autre problème se pose lorsque les entreprises collectent les commentaires des clients sans donner suite. Si elles n’ont pas l’intention d’agir, l’expérience client ne s’améliorera pas). Au contraire, il est préférable de ne pas solliciter l’avis des clients si l’on n’a pas l’intention d’en tenir compte.

Une entreprise axée sur l’expérience client doit s’efforcer de s’améliorer en permanence. Ce sont ces améliorations continues qui renforcent la confiance des clients. La volonté de s’engager dans de petites améliorations continues nécessite, même lorsque tout va bien, de disposer d’une culture d’entreprise consacrée à ces dernières.

Répondre aux attentes augmente les chances de satisfaire les clients. Cela semble plus facile à dire qu’à faire. Pour y parvenir, les entreprises doivent se concentrer sur les bons segments de clientèle et offrir une valeur ajoutée constante grâce à des processus harmonisés. L’un des processus clés consiste à « boucler la boucle » avec le client, soit pour prendre des mesures correctives, soit pour apporter des améliorations futures.

L’objectif est de devenir proactif plutôt que réactif. Tout cela nécessite une entreprise harmonisée en interne, avec des communications internes et externes claires, pour que le client soit vraiment roi.

The Conversation

Bert Paesbrugghe ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

10.11.2025 à 11:26

Changer la conduite du changement : un impératif

Maxime Massey, Docteur en Sciences de Gestion & Innovation - Chercheur affilié à la Chaire Improbable, ESCP Business School

C’est quand on a décidé d’effectuer un changement que les difficultés commencent. Tous les moyens ne se valent pas pour y parvenir. Coup de projecteur sur les bonnes manières de faire.
Texte intégral (1986 mots)

Ah ! si les salariés résistaient moins au changement, tout irait pour le mieux dans le meilleur des mondes. Tel est, semble-t-il, le motto de bien des conseils en organisation. Mais, même si la nécessité de s’adapter n’est pas discutée, on peut s’interroger sur les moyens mobilisés pour y parvenir. Illustration avec un cas rencontré dans l’armée de terre.


Face aux évolutions, les organisations doivent s’adapter et se transformer. Pour ce faire, elles peuvent s’appuyer sur la « conduite du changement », définie comme « une approche structurée visant à faire évoluer des individus, des équipes et des organisations d’un état actuel vers un état futur souhaité ».

Parmi les démarches actuelles de conduite du changement, beaucoup restent fondées sur une approche directive et rigide, de type top-down et command-and-control. Cette approche est souvent suivie lorsqu’il s’agit d’opérer la transformation rapide et parfois radicale d’une organisation.

Stress, épuisement et échec

En étant source de stress, d’épuisement, d’isolement voire de harcèlement, l’approche directive et rigide peut produire des effets délétères sur le plan humain. En témoigne l’affaire tristement emblématique de France Télécom, dont la réorganisation brutale, empreinte de « harcèlement moral institutionnel », a provoqué une vague de suicides.

Outre ces graves répercussions psychosociales, de nombreux gestionnaires observent que les transformations conduites à marche forcée se soldent fréquemment par des blocages et des échecs. Des recherches confirment que « les programmes de changement débutés et introduits dans l’ensemble de l’entreprise de façon top-down ne fonctionnent pas ».

En finir avec l’approche directive

Dans un article publié en août 2025, dans le réputé Journal of Change Management, plusieurs auteurs ont appelé à délaisser l’approche directive et rigide pour conduire le changement qui est non seulement simpliste, mais aussi injuste et inefficace. Dans la même veine, le chercheur Thierry Nadisic a souligné l’importance d’accompagner les changements de façon juste en faisant preuve de respect et d’empathie à l’égard des travailleurs.

Mais concrètement, quelle approche adopter pour conduire le changement de manière plus juste et efficace ? Pour répondre à cette question, nous relirons et revisiterons l’étude de Ludivine Perray-Redslob et Julien Malaurent qui, en mobilisant la grille de lecture de l’analyse sociotechnique, ont retracé un changement conduit au sein de l’armée de terre.

Comment fait l’armée ?

Au début des années 2000, la volonté politique de modernisation et de rationalisation des organisations publiques s’est incarnée dans deux lois : la loi organique relative aux lois de finances (LOLF) et la révision générale des politiques publiques (RGPP). Ces lois ont promu la doctrine du New Public Management (nouveau management public), un modèle aspirant à améliorer les performances du secteur public à travers des méthodes issues du secteur privé.

C’est dans ce contexte que l’armée de terre a dû conduire un changement majeur en introduisant dans sa culture l’activité de contrôle de gestion et un outil managérial associé : le « Balanced Scorecard » (tableau de bord prospectif ou équilibré), conçu à l’origine pour piloter la stratégie et la performance d’une entreprise à partir de quatre axes (client, processus, apprentissage, finances) schématisés sous forme de « cartes stratégiques ». Ce changement a été conduit selon deux approches successives bien différentes.

Résistances au changement. Vraiment ?

La première approche a été portée par des contrôleurs de gestion qui entendaient réformer l’organisation militaire pour la rendre plus performante. Ils considéraient que leur rôle était, dans la droite ligne des lois promulguées et de l’état-major, de déployer l’outil tel qu’il était déjà utilisé dans le secteur privé.

Mais lorsque les contrôleurs déployèrent l’outil auprès des militaires, ces derniers (composés d’opérationnels et de hauts dirigeants) exprimèrent des critiques. Ils ne voyaient pas en quoi l’outil pouvait être utile dans le cadre de leur mission. Selon eux, leur rôle était de protéger la nation, pas de « remplir des tableaux de bord ».

Une controverse opposa alors ces deux groupes. D’un côté, les militaires refusaient d’utiliser l’outil en estimant qu’il n’était pas adapté à leur culture et qu’il les détournait de leur mission. De l’autre, les contrôleurs insistaient pour déployer l’outil en présumant que les militaires exprimaient des « résistances au changement » par conservatisme ou mauvaise volonté.

Quand trop d’autorité bloque

On retrouve ici à l’œuvre l’approche directive et rigide : directive car l’outil a été imposé par les contrôleurs sans considérer la culture, les critiques ni les besoins des militaires, ce qui a renforcé le rejet de l’outil ; et rigide car les deux groupes ont campé sur leurs positions, fermes et opposées.

Une telle approche correspond à ce que le sociologue Norbert Alter appelle une « invention dogmatique » : une nouveauté (ici, un nouvel outil) que des décideurs croient et décrètent être « une bonne idée » et qui est imposée telle quelle, en veillant à ce qu’elle soit appliquée comme prévu.

Cette approche a conduit au blocage du changement. Plus d’un an après son déploiement, l’outil n’était toujours pas correctement utilisé. Néanmoins, certains contrôleurs ont perçu les critiques des militaires comme légitimes et ont tenté une autre approche…

Xerfi Canal 2022.

Favoriser l’appropriation par de l’écoute et du dialogue

La seconde approche a été pilotée par une équipe de contrôleurs qui, forts de leur expérience de terrain, ont reconnu la nécessité d’adapter l’outil à la culture militaire en privilégiant l’écoute et le dialogue. Cette équipe était directement appuyée par le contrôleur de gestion du chef d’état-major.

D’abord, un diagnostic a été réalisé en menant des entretiens avec des militaires. Ce diagnostic révéla un manque d’appropriation de l’outil dû au fait que les militaires ne comprenaient pas pourquoi ni comment l’utiliser. Puis, deux solutions ont été retenues pour favoriser l’appropriation :

  • la création d’un mode d’emploi ;

  • la traduction de l’outil en langage militaire, en utilisant les mêmes termes que ceux d’un « ordre d’opération » (qui correspond à la façon de formaliser un ordre militaire, selon un format standard défini par l’Otan).

La mise en place de ces deux solutions a été soutenue par un discours qui, loin d’opposer le contrôle de gestion et la culture militaire, rapprocha ces deux domaines en soulignant leurs méthodes de raisonnement communes.

Par ailleurs, des séminaires ont été organisés avec d’autres contrôleurs pour leur expliquer l’intérêt de cette démarche et leur permettre d’y participer. Les contrôleurs ont ainsi discuté et travaillé ensemble pour permettre aux militaires de s’approprier l’outil. Cette implication a suscité l’adhésion et la mobilisation, tout en dissipant les résistances.

La controverse entre les contrôleurs et les militaires s’est alors apaisée. Leur opposition a cédé la place à leur coopération en faveur du changement, comme l’atteste ce témoignage d’un contrôleur comparant l’avant et l’après :

« Les cartes stratégiques, c’était la catastrophe, le chef ne comprenait rien et disait à son contrôleur de gestion : “Ok, très bien, vous me ramenez un truc pour moi la semaine prochaine ?”. Alors que là ils rentrent dans le pilotage sans savoir que ça en est. »

Une approche coopérative et agile pour réussir le changement

Cette seconde approche était coopérative et agile : coopérative car l’outil a été déployé en faisant coopérer les contrôleurs et les militaires, ce qui a favorisé leur adhésion ; et agile car les deux groupes ont assoupli leurs positions pour adapter ensemble l’outil à la culture, de façon progressive et itérative.

L’invention est alors devenue une véritable « innovation s’appuyant sur un processus créateur », comme l’exprime encore Norbert Alter : une nouveauté adaptée à la culture et aux besoins des utilisateurs qui se voit, chemin faisant, appropriée et adoptée. C’est « une idée qui devient bonne » grâce « aux apprentissages des employés et à leur capacité à coopérer ».

Moins d’un an après son lancement, cette seconde approche a conquis de nombreux acteurs, militaires comme contrôleurs, qui ont fini par utiliser l’outil. Cette approche a ainsi permis la réussite du changement.

Changer, ça s’organise

Cette étude démontre l’intérêt de l’approche coopérative et agile pour conduire le changement de façon juste et efficace. Mais une telle démarche ne s’improvise pas. Elle s’organise. Deux conditions se révèlent essentielles :

  • l’appui direct d’un acteur haut placé, pourvoyeur d’autorité et de légitimité ;

  • le mandat d’une équipe compétente pour accompagner le changement.

Précisons enfin que cette démarche ne se déploie pas sans suivre un cap. Certes, l’enjeu est d’accepter de dévier de l’invention initiale pour qu’elle soit appropriée, mais en veillant à concrétiser une orientation stratégique portée par la direction et éclairée par le terrain.

Quoi qu’il en soit, « on ne change pas les entreprises par décret », pour reprendre le titre d’un ouvrage du sociologue François Dupuy, ni en multipliant les fausses consultations… mais en pilotant une démarche de coopération agile, qui répond véritablement aux besoins des travailleurs.

The Conversation

Bien que l'auteur travaille pour le ministère des armées, les données mentionnées dans cet article n'ont pas été obtenues par ce biais.

PDF

09.11.2025 à 12:20

Avec son éphémère test anti-« wokisme », l’Oklahoma ouvre un peu plus les portes de l’école aux lobbies conservateurs

Emery Petchauer, Visiting Professor, Teachers College, Columbia University

L’Oklahoma a annoncé en octobre&nbsp;2025 qu’il n’utiliserait plus le test anti-«&nbsp;wokisme&nbsp;» mis sur pied par un lobby conservateur. Malgré tout, cette initiative pourrait inspirer d’autres États.
Texte intégral (1965 mots)
D’après son promoteur, le test anti-«&nbsp;wokisme&nbsp;» devait préserver les écoles de l’«&nbsp;idéologie gauchiste radicale&nbsp;». Ici, une école abandonnée à Picher, dans l’Oklahoma. Sooner4Life/Flicker, CC BY-NC

Inspiré par PragerU, un groupe médiatique conservateur, l’examen « America-First » mêlait patriotisme, religion et croisade anti-« woke ». Même s’il a été abandonné, il laissera des traces.


Aux États-Unis, l’Oklahoma est devenu un terrain d’expérimentation pour remodeler les programmes scolaires publics selon les goûts des conservateurs et les priorités du mouvement Make America Great Again (MAGA). Avec une volonté : imposer le nationalisme chrétien dans les salles de classe.

L’ancien surintendant de l’éducation de l’État, Ryan Walters, a supervisé ces dernières années plusieurs programmes éducatifs controversés, dont l’un imposant en 2024 à tous les enseignants des écoles publiques d’Oklahoma d’intégrer la Bible dans leurs cours.

Walters a démissionné de son poste en septembre 2025 pour prendre la tête de la Teacher Freedom Alliance, un groupe de pression conservateur opposé aux syndicats d’enseignants. L’une des décisions les plus inédites de Walters avait été d’adopter une évaluation des enseignants baptisée The America-First Assessment, conçue par PragerU, un lobby conservateur américain. Walters a expliqué que l’objectif de cet examen, mis en ligne en août 2025, était d’écarter toute forme « d’endoctrinement woke ».

En autorisant cette évaluation, Walters donnait à une organisation politique conservatrice et d’extrême droite un pouvoir d’influence sur la sélection des enseignants venus d’autres États souhaitant obtenir leur licence d’enseignement en Oklahoma.L’examen n’aura pas duré longtemps. Le successeur de Walters, Lindel Fields, a annoncé fin octobre 2025 que l’Oklahoma n’utiliserait plus cette évaluation. Fields a également abrogé l’obligation d’intégrer la Bible dans les écoles publiques de l’État.

Mais d’autres États pourraient encore adopter cet examen, proposé gratuitement. L’épreuve et la controverse qu’elle a suscitée illustrent la politisation croissante des systèmes éducatifs américains, cette fois à travers la question de la délivrance des licences d’enseignement.

En tant que chercheur en éducation, j’ai déjà écrit sur d’autres dispositifs d’évaluation des enseignants et sur certaines des problématiques qui les entourent, notamment leur tendance à écarter les enseignants noirs.

L’examen anti-« woke » de Walters constitue une expérience d’un genre particulier. Ce test n’a pas été conçu par une société spécialisée dans l’évaluation professionnelle et ne mesure en rien les connaissances disciplinaires nécessaires à l’enseignement.

Un test politisé pour les enseignants

L’examen America-First comprend 34 questions à choix multiples portant sur la Constitution des États-Unis, le fonctionnement du gouvernement, la liberté religieuse, l’histoire et les décisions de la Cour suprême. Parmi les questions : « Quels sont les trois premiers mots de la Constitution ? » ou encore « Que protège le deuxième amendement ? » Certaines questions portent sur le genre et le sexe, avec des formulations telles que : « Quelle est la distinction biologique fondamentale entre hommes et femmes ? » ou encore « Quelle paire de chromosomes détermine le sexe biologique chez l’être humain ? »

Walters a clairement affiché la portée politique de cet examen.

« Nous devons nous assurer que les enseignants dans nos classes, lorsque nous recrutons ces personnes, ne soient pas une bande d’activistes woke marxistes », a déclaré Walters, en août 2025.

Il a également déclaré que l’examen avait été conçu pour écarter spécifiquement les candidats enseignants libéraux susceptibles de venir pourvoir les postes vacants en Oklahoma tout en apportant avec eux une formation progressiste sur les questions de race et de genre – ce qu’il a qualifié d’« endoctrinement des États bleus » (NDT : un État dont les résidents ont majoritairement voté pour le Parti démocrate lors de l’élection présidentielle).

Lorsque le test a été mis en ligne en août, il a été rendu obligatoire pour tous les enseignants venant d’autres États souhaitant obtenir une licence pour enseigner en Oklahoma.

Un examen impossible à rater

L’America-First Assessment ne ressemble pas aux examens de certification habituels conçus par des organismes professionnels d’évaluation. Ces derniers portent sur les connaissances disciplinaires nécessaires à l’exercice du métier : les mathématiques pour les professeurs de mathématiques, les sciences pour les professeurs de sciences, etc. Au lieu de se concentrer sur une matière précise, il reprend en grande partie les thèmes chers à la rhétorique « America First » de Donald Trump, notamment en insistant sur les questions de genre et de sexe.

L’aspect le plus frappant de cet examen, toutefois, est qu’il est impossible à rater. Si vous ne connaissez pas les trois premiers mots de la Constitution américaine, vous pouvez tenter des réponses jusqu’à trouver la bonne. En réalité, le test ne passe à la question suivante qu’une fois la bonne réponse enregistrée. Ainsi, toute personne qui le termine obtient un score parfait de 100 %.

En conséquence, comme l’ont souligné plusieurs observateurs, cet examen s’apparente davantage à un test d’idéologie politique qu’à une véritable évaluation des compétences professionnelles. Contrairement au SAT, dont le contenu est protégé par le droit d’auteur, nombre des questions de l’America-First Assessment sont publiquement accessibles.

De plus, à la différence d’examens établis comme le SAT ou le GRE, l’America-First Assessment ne fournit aucune information technique sur sa conception ni sur les compétences censées être mesurées. De ce fait, il ressemble davantage à un « test de loyauté MAGA », selon les mots de Randi Weingarten, présidente de l’American Federation of Teachers.

Une entreprise médiatique conservatrice se lance dans l’évaluation des enseignants

Le format singulier et le contenu politique de l’America-First Assessment reflètent les priorités de PragerU, le lobby conservateur qui l’a conçu. Fondé en 2009 par l’animateur de radio conservateur Dennis Prager, PragerU produit des vidéos éducatives et de divertissement inspirées par l’idéologie conservatrice. Sa chaîne compte plus de 5 000 vidéos, dont des formats courts au titre évocateur : « Make Men Masculine Again » (« Rendre aux hommes leur virilité »), « How Many Radical Islam Sleepers Are in the United States ? » (« Combien d’agents dormants de l’islam radical se trouvent aux États-Unis ? ») ou encore « America Was Founded on Freedom Not Slavery » (« L’Amérique a été fondée sur la liberté, pas sur l’esclavage »). Des figures influentes de l’extrême droite comme Ben Shapiro, Candace Owens et Charlie Kirk y ont participé.

La page principale de PragerU sur YouTube compte plus de 3,4 millions d’abonnés. Des analyses universitaires de ces vidéos ont montré que leur contenu minimise l’impact de l’esclavage et propage de la désinformation sur des sujets tels que le changement climatique.

Dans sa vidéo pour enfants intitulée « Frederick Douglass : l’abolitionniste franc et direct », le personnage animé de Douglass met en garde les enfants contre les « radicaux » qui veulent changer le système américain plutôt que d’y œuvrer de l’intérieur. « Notre système est merveilleux et notre Constitution est un texte magnifique consacré à la liberté. Tout ce que nous devons faire, c’est convaincre suffisamment d’Américains d’y rester fidèles », conclut-il.

En 2021, le think tank a lancé PragerU Kids, une déclinaison destinée aux enfants en âge d’être scolarisés et aux enseignants, proposant des plans de cours, des fiches d’activités et d’autres supports pédagogiques liés à ses vidéos. Depuis 2023, d’autres États, dont la Floride, le New Hampshire et le Montana, ont approuvé les vidéos de PragerU pour une éventuelle utilisation dans leurs écoles publiques.

L’incursion de l’entreprise dans l’évaluation des enseignants en 2025 étend désormais son influence au-delà des programmes scolaires, jusqu’à la définition de ceux qui peuvent ou non obtenir une licence d’enseignement.

Une stratégie susceptible d’inspirer d’autres États

Lors de son lancement en août 2025, Walters et la directrice générale de PragerU, Marissa Streit, ont présenté cet examen comme une option destinée à tous les États « pro-Amérique ». Certains analystes ont également salué cette stratégie, censée débarrasser les écoles publiques de tous les enseignants « woke ».

Il est donc peu probable que PragerU – ou d’autres structures privées cherchant à peser sur le choix des enseignants – en restent là.

The Conversation

Emery Petchauer ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

09.11.2025 à 12:20

Le paradoxe de la Sécurité sociale : et si, pour faire des économies, il fallait l’étendre ?

Nicolas Da Silva, Maître de conférences en économie de la santé, Université Sorbonne Paris Nord

Le mode de financement de la protection sociale n’est pas neutre. Illustration avec le cas de l’Assurance maladie.
Texte intégral (1488 mots)

L'architecture du financement de la Sécurité sociale n’est pas neutre et a même un coût. Illustration avec l’Assurance maladie, qui cumule les sources de financement, tout en produisant des inégalités.

Cet article est publié en partenariat avec Mermoz, la revue du Cercle des économistes dont le numéro 8 a pour thème « Notre modèle social, un chef-d'œuvre en péril ».


Malgré leur diversité, les économistes de la santé s’accordent pour regretter l’organisation actuelle du financement des soins. Au cœur de la critique se trouve l’idiosyncrasie hexagonale : le financement par deux acteurs distincts du même panier de soins. Par exemple, la consultation chez le médecin généraliste donne lieu à un remboursement à hauteur de 70 % par la Sécurité sociale et de 30 % par la complémentaire santé (au tarif opposable).

Cette architecture est coûteuse et inégalitaire. En comparaison internationale, la France consacre une plus grande part de ses dépenses de santé aux coûts de gouvernance du système (Graphique 1). Ces derniers représentent 5 % du total des dépenses contre 4,3 % en Allemagne, 1,8 % au Royaume-Uni et 1,7 % en Italie. Seuls les États-Unis et la Suisse font moins bien. La raison principale de cette situation est la place occupée par les complémentaires santé. Alors que celles-ci sont responsables de la moitié des coûts de gouvernance, elles ne prennent en charge que 12,1 % des dépenses de santé.


À lire aussi : La grande histoire de la Sécurité sociale, de 1945 à nos jours


Près de 96 euros de soins pour 100 euros cotisés

Pour le même montant, la Sécurité sociale finance près de 80 % des dépenses de santé. Les frais de gestion de celle-ci s’élèvent à 4 % contre 19,4 % en moyenne pour les complémentaires santé. Pour 100 euros cotisés, la Sécurité sociale rend 96 euros de soins et les complémentaires 80,6 €. Il est possible de discuter à la marge du montant exact, mais le constat reste sans appel. Le monopole public est particulièrement économe tandis que le marché impose de nombreux coûts évitables (gestion des contrats, marketing, etc.).

Graphique 1 : Dépense de gouvernance des systèmes de santé en 2021

En pourcentage de la dépense courante de consommation au sens international

Systèmes d’assurance maladie gérés par des assurances publiques (à gauche systèmes d’assurance maladie gérés par des assurances privées (au milieu) et systèmes nationaux de santé (à droite).

Source : DREES (2023, p. 180)

Un trio d’inégalités

Les complémentaires santé ne sont pas seulement chères, elles sont aussi inégalitaires. La première source d’inégalité vient du fait que toute la population ne dispose pas d’une complémentaire santé. Environ 2,5 millions de personnes n’ont pas de complémentaire santé, quand tout le monde a accès à la Sécurité sociale.

La seconde source d’inégalité concerne le niveau différencié de solidarité entre Sécurité sociale et complémentaire. La Sécurité sociale opère une redistribution massive entre classes de revenu. Le financement est très progressif et l’accès aux prestations est lié à l’état de santé. À l’inverse, les complémentaires sont peu solidaires et chaque catégorie de revenu récupère sa mise.

Une troisième source d’inégalité porte sur la variété des contrats de complémentaire santé : si presque toute la population a une complémentaire, tout le monde n’a pas la même. Or, ce sont les plus riches, qui sont aussi les moins malades, qui disposent des meilleurs contrats.

Une grande Sécu

Toutes ces critiques (et bien d’autres) conduisent des économistes divers à recommander la fin de la complémentarité. Dans une note du Conseil d’analyse économique de 2014, Brigitte Dormont, Pierre-Yves Geoffard et Jean Tirole préconisaient d’« [e]n finir avec [le] système mixte d’assurance maladie ». Un éditorial de 2021 publié par Florence Jusot et Jérôme Wittwer sur le site Internet du Collège des économistes de la santé se réjouissait de l’hypothèse d’une « Grande Sécu ». Ces positions émanant du centre de la discipline rejoignent celle des tenants de l’approche de l’économie politique de la santé.

La publication en 2021 d’un rapport du Haut Conseil sur l’avenir de l’assurance maladie a apporté un argument de poids supplémentaire. Pour la première fois, une estimation de l’impact de l’extension de la Sécurité sociale aux dépens des complémentaires santé a été réalisée. L’augmentation des prélèvements obligatoires serait plus que compensée par la réduction des cotisations versées aux complémentaires santé. L’économie a été estimée à 5,4 milliards d’euros par an. Contrairement aux idées reçues, la gestion publique permettrait de réaliser des économies de grande ampleur tout en facilitant l’accès aux soins.

France 24 2022.

Retrouver l’esprit de 1945

Le projet d’extension de la Sécurité sociale laisse cependant une question dans l’ombre : quelles limites fixer à cette extension ? Qui doit décider du panier de soin pertinent et des patients éligibles ? Deux grandes options sont envisageables. D’un côté, il paraît naturel d’envisager que cela soit le gouvernement et l’administration compétente qui continue à gouverner la Sécurité sociale. L’extension du financement parachèverait l’étatisation du financement des soins en France.

D’un autre côté, il est possible de prendre au sérieux la célébration cette année des 80 ans de la Sécurité sociale. En 1945, cette institution relève d’une socialisation et non d’une nationalisation. Afin d’échapper au paternalisme social d’avant-guerre, la Sécurité sociale est confiée aux intéressés qui élisent leurs représentants du niveau local au niveau national. Il ne faut pas confondre cette socialisation et la gestion par les organisations syndicales et patronales. Aux premières élections à la Sécurité sociale en 1947, chaque cotisant peut être candidat qu’il soit ou non adhérent à un syndicat. S’instaure alors une forme de double pouvoir entre État et Sécurité sociale, un pluralisme démocratique qui permet d’orienter la politique sociale. Si tout cela peut sembler fantaisiste, il est utile de rappeler que le régime local d’Alsace-Lorraine fonctionne aujourd’hui en grande partie sur ces principes. Le régime est gouverné par les intéressés qui peuvent décider du niveau de financement de certains soins et même du taux de cotisation. Et si on renouait avec l’esprit de 1945 ?


Cet article est publié en partenariat avec Mermoz, la revue du Cercle des économistes dont le numéro 8 a pour objet « Notre modèle social, un chef-d’œuvre en péril ». Vous pourrez y lire d’autres contributions.

Le titre et les intertitres sont de la rédaction de The Conversation France.

The Conversation

Nicolas Da Silva ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

09.11.2025 à 12:19

Comment les banques centrales peuvent éviter la spirale des anticipations d’inflation

Éric Mengus, Professeur associé en économie et sciences de la décision, HEC Paris Business School

La peur de l’inflation ne concerne pas que les consommateurs, mais aussi les banques centrales. Le principal risque&nbsp;: un emballement incontrôlé, ou risque de désancrage.
Texte intégral (1542 mots)
Dans la zone euro, ces anticipations ont contribué à atténuer les pics d’inflation après la pandémie de Covid-19. Earthphotostock/Shutterstock

Lorsque les anticipations d’inflation s’emballent, les banques centrales font face à un défi crucial : le risque de désancrage, ou emballement incontrôlé, par les différends économiques, notamment les consommateurs. Des recherches récentes mettent en lumière les stratégies potentielles pour préserver la stabilité des prix.


L’inflation dans la zone euro a atteint son pic à 10,6 % en octobre 2022. Elle est repassée à 1 %. sur l’année 2025. La Banque centrale européenne (BCE) a de toute façon pour cible un taux d’inflation de 2 % à moyen terme.

Il est bien établi que des anticipations d’inflation ancrées ont historiquement permis de limiter la durée et l’ampleur des épisodes inflationnistes. Une étude de la Banque de France montre que, dans la zone euro, ces anticipations ont contribué à atténuer et à rendre plus transitoires les pics d’inflation lors de la vague post-pandémie de Covid-19.

Cette vague inflationniste a ravivé la crainte d’un désancrage des anticipations – c’est-à-dire leur emballement incontrôlé. Cette inquiétude ne semble pas s’estomper avec la baisse des taux d’inflation, comme en témoigne la récente hausse des anticipations d’inflation des ménages aux États-Unis.

Renforcer la crédibilité à long terme

Les anticipations ne sont pas indépendantes des pressions inflationnistes actuelles et de la manière dont la banque centrale y répond.

Des travaux, comme Monetary Policy & Anchored Expectations : An Endogenous Gain Learning Model, soulignent que les agents privés tirent des enseignements des décisions actuelles des banques centrales. Ils anticipent leurs décisions grâce à l’observation des taux d’inflation.

Comparaison des mesures des anticipations tirées d’enquêtes par rapport aux données de marché (en %). Banque de France

Ce mécanisme peut pousser les autorités à adopter des positions plus agressives pour éviter que les anticipations ne dérapent, même au prix d’un ralentissement de l’activité économique. Ignorer une inflation « transitoire » liée à des chocs d’offre – une stratégie parfois appelée look-through – peut se retourner contre elles, signalant une forme de complaisance et risquant d’affaiblir leur crédibilité à long terme.

Alors, comment préserver la stabilité des prix ?

Lien entre politique monétaire et budgétaire

Parfois, la maîtrise des anticipations d’inflation dépasse les moyens de la banque centrale. Cela peut être le cas lorsque le désancrage provient d’un risque de dominance budgétaire. La banque centrale doit alors adapter sa politique monétaire pour aider l’État à respecter ses contraintes budgétaires. Des recherches, comme celles menées avec les économistes Philippe Andrade, Erwan Gautier, Emanuel Moench et Tobias Schmidt sur les croyances des ménages concernant la dominance budgétaire, montrent que certains ménages perçoivent ce risque et l’associent à une inflation future plus élevée. Dans ce cas, l’ancrage des anticipations ne dépend pas seulement de la politique monétaire, mais aussi de la politique budgétaire.


À lire aussi : Pourquoi la BCE est-elle aussi bavarde ?


Le défi ne se limite pas aux périodes inflationnistes. En contexte déflationniste, comme dans les trappes à liquidité – lorsqu’une politique monétaire devient inefficace –, les banques centrales peuvent regagner le contrôle de l’inflation actuelle. Comment ? En stimulant activement les anticipations d’inflation à moyen terme – c’est l’objet des politiques de forward guidance, à savoir une stratégie d’une banque centrale pour donner des indications sur l’orientation future de sa politique monétaire.

Cela peut exiger de la banque centrale qu’elle signale sa position non seulement par des mots, mais aussi par des actes, comme je le mets en avant avec Jean Barthélemy dans un article publié dans Science Direct en 2018.

Pro-inflationniste et anti-inflationniste

N’y a-t-il pas là une certaine contradiction ? La banque centrale doit en effet afficher une posture anti-inflationniste en cas de risque inflationniste, et pro-inflationniste en cas de risque déflationniste.

Une partie de la réponse réside dans le fait que, qu’en tolérant une inflation supérieure à la cible en raison d’un choc d’offre ou qu’elle recoure au forward guidance, la banque centrale doit gérer avec soin l’impact de ces écarts sur les anticipations d’inflation à long terme. En particulier, les périodes normales, où rien ne justifie de s’écarter de la cible d’inflation, sont des opportunités à ne pas manquer pour assurer la stabilité des prix.

Quoi qu’il en soit, les banques centrales doivent arbitrer un équilibre délicat : rester flexibles à court et moyen terme, tout en préservant leur crédibilité à long terme. Tout écart par rapport aux objectifs d’inflation – qu’il soit dû à des chocs d’offre ou à du forward guidance – doit être clairement communiqué pour que le public en comprenne la justification et le caractère temporaire.

À l’inverse, cela signifie aussi que la banque centrale doit faire preuve de modestie et être prête à renoncer à ses plans si elle observe une variation des anticipations d’inflation à long terme, signe que le public commence à perdre confiance dans son engagement en faveur de la stabilité des prix.

En résumé, pour gérer le risque de désancrage, il faut a minima :

  • Construire sa crédibilité en temps normal : un historique solide est crucial pour maintenir la confiance lorsque celle-ci est le plus nécessaire.

  • Communiquer clairement : expliquer les objectifs, les conditions et le caractère temporaire de tout écart à court ou moyen terme par rapport aux cibles.

  • Faire preuve de modestie : des écarts marqués ou prolongés peuvent éroder la confiance du public.

The Conversation

Éric Mengus ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF
50 / 50
  GÉNÉRALISTES
Ballast
Fakir
Interstices
Lava
La revue des médias
Le Grand Continent
Le Diplo
Le Nouvel Obs
Lundi Matin
Mouais
Multitudes
Politis
Regards
Smolny
Socialter
The Conversation
UPMagazine
Usbek & Rica
Le Zéphyr
 
  Idées ‧ Politique ‧ A à F
Accattone
Contretemps
A Contretemps
Alter-éditions
CQFD
Comptoir (Le)
Déferlante (La)
Esprit
Frustration
 
  Idées ‧ Politique ‧ i à z
L'Intimiste
Jef Klak
Lignes de Crêtes
NonFiction
Nouveaux Cahiers du Socialisme
Période
Philo Mag
Terrestres
Vie des Idées
 
  ARTS
Villa Albertine
 
  THINK-TANKS
Fondation Copernic
Institut La Boétie
Institut Rousseau
 
  TECH
Dans les algorithmes
Framablog
Gigawatts.fr
Goodtech.info
Quadrature du Net
 
  INTERNATIONAL
Alencontre
Alterinfos
CETRI
ESSF
Inprecor
Journal des Alternatives
Guitinews
 
  MULTILINGUES
Kedistan
Quatrième Internationale
Viewpoint Magazine
+972 mag
 
  PODCASTS
Arrêt sur Images
Le Diplo
LSD
Thinkerview
 
Fiabilité 3/5
Slate
 
Fiabilité 1/5
Contre-Attaque
Issues
Korii
Positivr
🌓