26.11.2025 à 15:59
Thomas Tweed, Professor Emeritus of American Studies and History, University of Notre Dame

La fête de Thanksgiving célèbre la générosité et le partage mais l’histoire des pèlerins n’est qu’une partie d’un récit bien plus complexe.
Neuf Américains sur dix se réunissent autour d’une table pour partager un repas à Thanksgiving. À un moment aussi polarisé, toute occasion susceptible de rassembler les Américains mérite qu’on s’y attarde. Mais en tant qu’historien des religions, je me sens tenu de rappeler que les interprétations populaires de Thanksgiving ont aussi contribué à diviser les Américains.
Ce n’est qu’au tournant du XXe siècle que la plupart des habitants des États-Unis ont commencé à associer Thanksgiving aux « pèlerins » de Plymouth et à des « Indiens » génériques partageant un repas présenté comme fondateur mais ces actions de grâce collectives ont une histoire bien plus ancienne en Amérique du Nord. L’accent mis sur le débarquement des pèlerins en 1620 et sur le festin de 1621 a effacé une grande partie de l’histoire religieuse et restreint l’idée de qui appartient à l’Amérique – excluant parfois des groupes comme les populations autochtones, les catholiques ou les juifs.
La représentation habituelle de Thanksgiving passe sous silence les rituels autochtones de gratitude, notamment les fêtes des récoltes. Les Wampanoag, qui partagèrent un repas avec les pèlerins en 1621, continuent de célébrer la récolte de la canneberge. Par ailleurs, des festins similaires existaient bien avant les voyages de Colomb.
Comme je le souligne dans mon ouvrage de 2025, Religion in the Lands That Became America, on se réunissait déjà pour un festin communautaire à la fin du XIe siècle sur l’esplanade de 50 acres de Cahokia. Cette cité autochtone, située de l’autre côté du fleuve, en face de l’actuelle Saint-Louis, était le plus grand centre de population au nord du Mexique avant la révolution américaine.
Les habitants de Cahokia et leurs voisins se rassemblaient à la fin de l’été ou au début de l’automne pour remercier les divinités, fumer du tabac rituel et consommer des mets particuliers – non pas du maïs, leur aliment de base, mais des animaux à forte valeur symbolique comme les cygnes blancs et les cerfs de Virginie. Autrement dit, ces habitants de Cahokia participaient à un festin « d’action de grâce » cinq siècles avant le repas des pèlerins.
La représentation habituelle atténue aussi la tradition consistant pour les autorités à proclamer des « Jours d’action de grâce », une pratique bien connue des pèlerins et de leurs descendants. Les pèlerins, qui s’installèrent dans ce qui correspond aujourd’hui à Plymouth, dans le Massachusetts, étaient des puritains séparatistes ayant dénoncé les éléments catholiques subsistant dans l’Église protestante d’Angleterre. Ils cherchèrent d’abord à fonder leur propre Église et communauté « purifiée » en Hollande.
Après une douzaine d’années, beaucoup repartirent, traversant l’Atlantique en 1620. La colonie des pèlerins, au sud-est de Boston, fut progressivement intégrée à la colonie de la baie du Massachusetts, fondée en 1630 par un groupe plus important de puritains qui, eux, ne s’étaient pas séparés de l’Église officielle d’Angleterre.
Comme l’ont souligné des historiens, les ministres puritains de l’Église congrégationaliste, reconnue par l’État du Massachusetts, ne prêchaient pas seulement le dimanche. Ils prononçaient aussi, à l’occasion, des sermons spéciaux d’action de grâce, exprimant leur gratitude pour ce que la communauté considérait comme des interventions divines – qu’il s’agisse d’une victoire militaire ou de la fin d’une épidémie.
La pratique s’est maintenue et étendue. Pendant la révolution américaine, par exemple, le Congrès continental déclara un Jour d’action de grâce pour commémorer la victoire de Saratoga en 1777. Le président James Madison proclama plusieurs jours d’action de grâce pendant la guerre de 1812. Les dirigeants des États-Unis comme ceux des États confédérés firent de même durant la guerre de Sécession.
Cette tradition a influencé des Américains comme Sarah Hale, qui plaida pour l’instauration d’un Thanksgiving national. Rédactrice en chef et poétesse surtout connue pour Mary Had a Little Lamb, elle réussit à convaincre Abraham Lincoln en 1863.
La vision que beaucoup d’Américains se font du « premier Thanksgiving » ressemble à la scène représentée dans une peinture de J. L. G. Ferris portant ce titre. Réalisée vers 1915, elle est proche d’une autre image très populaire, The First Thanksgiving at Plymouth, peinte à la même époque par Jennie Augusta Brownscombe. Ces deux œuvres déforment le contexte historique et représentent de manière erronée les participants autochtones issus de la confédération Wampanoag toute proche. Les chefs amérindiens y portent des coiffes propres aux tribus des grandes plaines, et le nombre de participants autochtones est nettement sous-estimé.
Le seul témoignage oculaire qui subsiste est une lettre de 1621 du pèlerin Edward Winslow. Il y rapporte que Massasoit, le chef des Wampanoag, était venu avec 90 hommes. Cela signifie, comme le suggèrent certains historiens, que le repas partagé relevait autant d’un événement diplomatique scellant une alliance que d’une fête agricole célébrant une récolte.
La peinture de Ferris laisse aussi entendre que les Anglais avaient fourni la nourriture. Les habitants de Plymouth apportèrent de la « volaille », comme Winslow s’en souvenait – probablement de la dinde sauvage – mais les Wampanoag ajoutèrent cinq daims qu’ils venaient d’abattre. Même la récolte de « maïs indien » dépendit de l’aide autochtone. Tisquantum, dit Squanto, le seul survivant du village, avait prodigué des conseils vitaux en matière de culture comme de diplomatie.
La scène enjouée de l’image masque aussi à quel point la région avait été bouleversée par la mort. Les pèlerins perdirent près de la moitié de leur groupe à cause de la faim ou du froid durant leur premier hiver. Mais, après les premiers contacts avec des Européens, un nombre bien plus important de Wampanoag étaient morts lors d’une épidémie régionale qui ravagea la zone entre 1616 et 1619. C’est pour cela qu’ils trouvèrent le village de Squanto abandonné, et que les deux communautés furent disposées à conclure l’alliance qu’il facilita.
Les pèlerins sont arrivés tard dans l’histoire de Thanksgiving. La proclamation de 1863 de Lincoln, publiée dans Harper’s Monthly, évoquait « la bénédiction des champs fertiles », mais ne mentionnait pas les pèlerins. Ils n’apparaissaient pas non plus dans l’illustration du magazine. La page montrait villes et campagnes, ainsi que des esclaves émancipés, célébrant la journée par une prière « à l’autel de l’Union ». Pendant des années avant et après cette proclamation, d’ailleurs, de nombreux Sudistes se sont opposés à Thanksgiving, qu’ils percevaient comme une fête abolitionniste, venue du Nord.
L’absence des pèlerins s’explique, puisqu’ils n’étaient pas les premiers Européens à débarquer sur la côte est de l’Amérique du Nord – ni à y rendre grâce. Des catholiques espagnols avaient ainsi fondé Saint-Augustin en 1565. Selon un témoignage de l’époque, le chef espagnol demanda à un prêtre de célébrer la messe le 8 septembre 1565, à laquelle assistèrent des Amérindiens, et « ordonna que les Indiens soient nourris ».
Deux décennies plus tard, un groupe anglais avait tenté, sans succès, de fonder une colonie sur l’île de Roanoke, en Caroline du Nord – incluant un ingénieur juif. Les Anglais eurent davantage de succès lorsqu’ils s’installèrent à Jamestown, en Virginie en 1607. Un commandant chargé de mener un nouveau groupe en Virginie reçut pour instruction de marquer « un jour d’action de grâce au Dieu tout-puissant » en 1619, deux ans avant le repas de Plymouth.
Mais au fil des ans, les pèlerins de Plymouth ont lentement gagné une place centrale dans ce récit fondateur de l’Amérique. En 1769, les habitants de Plymouth firent la promotion de leur ville en organisant un « Forefathers’ Day » (« Jour des Pères fondateurs »). En 1820, le politicien protestant Daniel Webster prononça un discours à l’occasion du bicentenaire du débarquement à Plymouth Rock, louant l’arrivée des pèlerins comme « les premiers pas de l’homme civilisé » dans la nature sauvage. Puis, dans un ouvrage de 1841, Chronicles of the Pilgrim Fathers, un pasteur de Boston réimprima le témoignage de 1621 et décrivit le repas partagé comme « le premier Thanksgiving ».
Entre 1880 et 1920, les pèlerins se sont imposés comme les personnages centraux des récits nationaux sur Thanksgiving et sur les origines des États-Unis. Il n’est pas surprenant que cette période corresponde au pic de l’immigration aux États-Unis, et de nombreux Américains considéraient les nouveaux arrivants comme « inférieurs » à ceux qui avaient débarqué à Plymouth Rock.
Les catholiques irlandais étaient déjà présents à Boston lorsque le volume Pilgrim Fathers parut en 1841, et davantage encore arrivèrent après la famine de la pomme de terre dans les années suivantes. La population étrangère de Boston augmenta lorsque la pauvreté et les troubles politiques poussèrent des catholiques italiens et des juifs russes à chercher une vie meilleure en Amérique.
La même situation se produisait alors dans de nombreuses villes du Nord, et certains protestants étaient inquiets. Dans un best-seller de 1885 intitulé Our Country, un ministre de l’Église congrégationaliste avertissait que « La grandeur de bien des villages de Nouvelle-Angleterre est en train de disparaître, car des hommes, étrangers par leur sang, leur religion et leur culture, s’installent dans des foyers où ont grandi les descendants des pèlerins. »
Lors du 300ᵉ anniversaire du débarquement et du repas, célébré en 1920 et 1921, le gouvernement fédéral émit des timbres commémoratifs et des pièces de monnaie. Des responsables organisèrent des spectacles, et des hommes politiques prononcèrent des discours. Environ 30 000 personnes se rassemblèrent à Plymouth pour entendre le président Warren Harding et le vice-président Calvin Coolidge louer « l’esprit des pèlerins ».
Bientôt, les inquiétudes xénophobes concernant les nouveaux arrivants, en particulier les catholiques et les juifs, amenèrent Coolidge à signer le Immigration Act de 1924, qui allait largement fermer les frontières américaines pendant quatre décennies. Les Américains continuèrent de raconter l’histoire des pèlerins même après que la politique migratoire des États-Unis devint de nouveau plus accueillante en 1965, et beaucoup la relaieront encore l’année prochaine à l’occasion du 250ᵉ anniversaire des États-Unis. Compris dans son contexte complet, c’est un récit qui mérite d’être raconté. Mais il convient de rester prudent, car l’histoire nous rappelle que les histoires sur le passé spirituel du pays peuvent soit nous rassembler, soit nous diviser.
Thomas Tweed ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
26.11.2025 à 15:59
Jean-Marc Figuet, Professeur d'économie, Université de Bordeaux
Pour les mercantilistes, la puissance d’un État se mesurait à sa capacité à contrôler la monnaie et les flux qu’elle génère. Avec le Genius Act, Donald Trump a semble-t-il trouvé l’occasion d’étendre l’« exorbitant privilège » du dollar à la crypto-économie.
En juillet 2025, le Congrès américain a adopté le Genius Act, première loi fédérale encadrant l’usage des stablecoins, ces crypto-actifs indexés sur le dollar. Contrairement au bitcoin, dont le cours est très volatil, ces « jetons stables » sont conçus pour maintenir en permanence une parité de 1 pour 1 avec le dollar. Le plus important d’entre eux, Tether (USDT), représente aujourd’hui plus de 160 milliards de jetons en circulation, et son principal concurrent, USD Coin (USDC), environ 60 milliards, soit un encours total de stablecoins en dollar de l’ordre de 250 milliards à 260 milliards de dollars (entre 215 milliards et 224,5 milliards d’euros).
Donald Trump a qualifié ce texte de « formidable », car loin d’être un simple ajustement technique, il marque un tournant dans la stratégie monétaire américaine. Après avoir utilisé massivement les droits de douane comme arme économique, Trump lance désormais une nouvelle étape que l’économiste français Éric Monnet qualifie de crypto-mercantilisme : la diffusion de stablecoins adossés au dollar pour renforcer la puissance monétaire américaine.
Historiquement, le mercantilisme désigne un ensemble de pratiques économiques visant à enrichir l’État par l’accumulation de métaux précieux et la maîtrise du commerce extérieur. En France, la controverse Bodin–Malestroit au XVIe siècle, illustre ce lien entre monnaie et pouvoir. Malestroit attribuait la hausse des prix à l’altération monétaire, issue de la réduction du poids en métal des pièces. Jean Bodin y voyait surtout la conséquence de l’afflux d’or et d’argent en provenance des Amériques. Pour Bodin, père du mercantilisme et précurseur de la théorie quantitative de la monnaie, l’abondance de liquidités accroît le pouvoir des États qui les contrôlent mais engendre l’inflation.
Aux XVIe et XVIIe siècles, l’Angleterre, la France ou l’Espagne créèrent des compagnies de commerce monopolistiques, imposèrent des barrières douanières et cherchèrent à maximiser leurs exportations pour accumuler métaux et devises. Si le mercantilisme permit le financement des armées, la construction de flottes marchandes, il généra aussi l’expansion coloniale, des tensions commerciales et des guerres…
Le crypto-mercantilisme transpose ce raisonnement dans l’univers numérique par l’émission d’instruments financiers et monétaires digitaux.
Le Genius Act définit le stablecoin de paiement comme un jeton numérique adossé au dollar (par exemple, 1 stablecoin pour 1 dollar), intégralement garanti par des actifs liquides (dépôts bancaires, bons du Trésor). Seules des institutions agréées (banques, coopératives de crédit ou entreprises supervisées) peuvent en émettre. Ce cadre légal ouvre la voie à une diffusion massive des stablecoins. Les banques américaines se préparent à lancer leurs propres jetons. Les GAFAM, comme Meta, sont également en première ligne pour intégrer ces instruments sur leurs plates-formes. Mastercard collabore, depuis 2021, avec Circle, l’émetteur de l’USDC. Un premier accord a permis d’utiliser ce stablecoin pour régler certaines transactions sur le réseau Mastercard, coopération qui a depuis été progressivement étendue et continue de monter en puissance.
La stratégie repose sur l’effet réseau. Les flux de stablecoins internationaux se concentrent fortement hors des États-Unis, en particulier en Asie et en Amérique du sud, reflétant une demande globale pour le dollar numérique dans les paiements transfrontaliers. Ces transactions sont souvent plus rapides et moins coûteuses que les circuits bancaires classiques. En encourageant leur expansion, Washington étend la zone d’influence du dollar bien au-delà de son système bancaire national. Cette dynamique pourrait contraindre les grandes plates-formes étrangères à s’aligner sur ce modèle si elles veulent rester compétitives sur les marchés mondiaux des paiements. Lors de l’émission, les émetteurs de stablecoins achètent massivement des bons du Trésor pour garantir leurs réserves. Ainsi, un nouveau canal privé de financement de la dette publique américaine apparaît.
Le crypto-mercantilisme américain s’analyse donc comme un double mouvement. D’une part, la consolidation de la suprématie du dollar dans les échanges mondiaux. D’autre part, la captation de nouveaux flux financiers privés pour soutenir le marché des bons du Trésor.
Sur le plan interne, l’essor des stablecoins peut affaiblir la transmission de la politique monétaire. Si les agents privilégient les jetons numériques pour leurs paiements et leur épargne, la demande de dépôts bancaires diminue, réduisant ainsi la capacité des banques à financer l’économie réelle. Le risque d’un digital bank run, c’est-à-dire une ruée numérique vers un remboursement en dollar est bien réel. En effet, au moindre doute sur la solvabilité d’un émetteur, des millions d’utilisateurs peuvent, en quelques clics, demander le rachat de leurs stablecoins contre des dollars. L’émetteur doit alors liquider les bons du Trésor en réserve pour faire face aux demandes, ce qui peut transformer une inquiétude ponctuelle en crise de liquidité. Or, la confiance, est au cœur de la stabilité financière. Tirole alerte sur le fait que des renflouements massifs pourraient reposer sur les contribuables. Gorton et Zhang dressent un parallèle avec le free banking du XIXe siècle, où des banques privées émettaient leurs propres billets, souvent au prix d’une instabilité chronique. La Réserve Fédérale américaine, créée en 1913, fut la réponse gouvernementale à cette instabilité.
Sur le plan externe, le risque est la perte de souveraineté monétaire des États, déjà fortement dépendants des infrastructures de paiement américaines (Apple Pay, Google Pay, Mastercard, Visa…). La BCE a exprimé ses inquiétudes. Si les Européens utilisent massivement des stablecoins en dollar, elle perd la totale maîtrise de sa politique monétaire car leur usage rompt le lien de convertibilité directe entre la monnaie scripturale et la monnaie centrale. À ce stade, les tentatives de créer des stablecoins en euro restent marginales. L’EURC, stablecoin en euro émis par Circle, représente aujourd’hui un encours de l’ordre de 170 millions à 200 millions d’euros, quand l’USDC pèse près de 60 milliards de dollars (51,8 milliards d’euros) et l’USDT plus de 160 milliards de dollars (plus de 138 milliards d’euros). L’écart de taille est donc spectaculaire et illustre le risque de « dollarisation numérique » de fait si aucune alternative crédible libellée en euro n’est proposée.
L’euro numérique est présenté comme une réponse pour limiter cette dépendance. La BCE insiste sur la nécessité d’un instrument public capable d’offrir une alternative sûre, liquide et universellement accessible. L’euro numérique contribue à la stabilité monétaire, lutte contre les monopoles privés de paiement et incarne un symbole de l’unité européenne. À la différence d’un stablecoin, l’euro numérique sera une nouvelle forme de monnaie de banque centrale, c’est-à-dire une créance directe sur la puissance publique, au même titre que les billets, et non un jeton géré par des acteurs privés.
Le mercantilisme classique s’appuie sur les métaux précieux et le commerce maritime. Son avatar numérique combine la réglementation publique et l’innovation privée pour prolonger l’hégémonie du dollar. Mais ce renforcement s’accompagne d’une fragmentation accrue car l’émergence de stablecoins, de monnaies numériques de banque centrale ou d’initiatives concurrentes, ici et ailleurs, dessine un ordre monétaire international plus instable et conflictuel. La révolution monétaire est en marche.
Pour les États-Unis, la stratégie est claire : maintenir l’« exorbitant privilège » du dollar, même au prix d’une désintermédiation du rôle de la Réserve Fédérale. La domination du dollar repose sur un équilibre fragile entre confiance internationale et capacité d’innovation financière. Le crypto-mercantilisme peut prolonger cet avantage, mais en l’exposant à de nouvelles vulnérabilités.
Pour l’Europe, et le reste du monde, le défi est désormais de ne pas subir cette dollarisation numérique, mais d’y répondre. L’euro numérique illustre cette volonté de bâtir un contrepoids crédible, à la fois pour protéger la souveraineté monétaire et pour offrir une alternative de confiance dans les paiements du futur.
Jean-Marc Figuet a reçu des financements publics.
26.11.2025 à 11:26
Hubert Voiry, Mycologue, Muséum national d’histoire naturelle (MNHN)

On l’oublie trop souvent mais les champignons ont accompagné l’histoire de l’humanité : médecine, géopolitique, psychologie, architecture, gastronomie, ils s’invitent dans de nombreux champs de nos vie depuis le Néolithique.
Dans cet extrait de son ouvrage Dix champignons qui ont changé la vie des hommes (éditions Actes Sud, 2025), le mycologue Hubert Voiry nous parle des deux champignons retrouvés par les archéologues dans la besace d’Ötzi, l’homme préhistorique découvert fortuitement en 1991 à 3 200 mètres d’altitude, dans les Alpes italiennes. Il tâche de comprendre pourquoi cet homme avait, avec lui des amadous et des polypores du bouleau.
Ötzi portait un petit sac en cuir rempli de matière noire. Dans ce sac, il y avait aussi trois outils en silex et un os en forme de poinçon. Au début, on a pensé que la matière noire était de la résine et que ce sac était une sorte de « kit » de réparation d’outils. Or, la substance, une fois séchée, a montré une teinte virant au brun. L’examen microscopique de cet objet a révélé qu’il s’agissait de la chair d’un champignon, l’amadouvier (Fomes fomentarius). Cette chair brune que l’on trouve sous la croûte (la face supérieure) du champignon avait été travaillée manuellement pour obtenir un produit de consistance fibreuse que l’on appelle l’amadou. Mélangées à cette matière, on a détecté aussi des traces de pyrite. Silex, pyrite et amadou ainsi réunis permettent d’allumer le feu et de le conserver.
Ce n’est pas le témoignage le plus ancien de l’usage de l’amadou pour le feu. Celui-ci a en effet été retrouvé en grande quantité associé à des nodules de pyrite sur le site archéologique de Star Carr en Angleterre qui date de près de 10 000 ans. On a fait les mêmes observations dans les fouilles archéologiques de Maglemose au Danemark, site qui remonte à 8 000 ans. Il existe aussi des témoignages plus récents datant de l’âge du bronze en Suisse, dans les sites préhistoriques d’anciens villages lacustres. L’amadou a donc la propriété de produire et de transporter le feu. Contrairement à une idée reçue, les humains de cette époque ne frappaient pas deux silex l’un contre l’autre pour allumer un feu, car les étincelles résultant de leur percussion sont trop éphémères pour enflammer un combustible. Ils avaient recours essentiellement à deux techniques : celle de la friction avec du bois et celle de la percussion, vraisemblablement utilisée par Ötzi. Dans la première, on dispose un morceau de bois à la verticale d’un autre placé au sol. On frotte le morceau de bois sur l’autre en lui donnant un mouvement de rotation avec les mains. Cela produit de la sciure échauffée qui va donner quelques braises. Ensuite, il faudra les mettre en contact avec des brindilles sèches. Ce procédé n’a pas laissé de traces archéologiques. L’autre méthode consiste à utiliser, comme Ötzi, pyrite, silex et amadou. La percussion d’un morceau de disulfure de fer (pyrite ou marcassite) contre une roche dure comme le silex produit des étincelles. L’amadou au contact de l’étincelle est capable de s’embraser facilement du fait de sa structure fibreuse, et le feu peut couver longtemps, ce qui facilite son transport. Il reste à produire des flammes en mettant par exemple en contact l’amadou incandescent avec des herbes très sèches ou des fibres d’écorce.
Pour faciliter l’embrasement, on a perfectionné la technique. L’amadou est débité en tranches fines qui sont amollies à coups de maillet puis qui sont mises à sécher. Au cours des siècles, des traitements au salpêtre ou aux cendres ont été mis au point pour qu’il s’enflamme plus facilement. Le célèbre mycologue Christiaan Hendrik Persoon en donne la description dans son ouvrage Traité sur les champignons comestibles, contenant l’indication des espèces nuisibles paru en 1818. Il précise que les bûcherons des Vosges avaient une technique moins recommandable pour traiter l’amadou : ils enterraient les tranches du “bolet” et les arrosaient pendant un certain temps avec de l’urine.
À partir de l’âge du fer, les morceaux de disulfure sont remplacés par des briquets, petits objets en acier qui au Moyen Âge avaient une forme de crochet aplati. Actuellement, on peut se procurer, dans le commerce, ce type de briquet appelé aussi briquet à silex et ainsi reproduire les gestes de nos ancêtres en frappant l’acier sur un silex aiguisé. On recueille les étincelles avec un morceau d’amadou ou à défaut avec un morceau de coton carbonisé. Les briquets “à amadou” qui apparaissent vers 1840 ne contiennent curieusement pas d’amadou. Le nom a été repris, mais c’est une mèche de coton trempée dans une solution chimique qui joue le rôle de l’amadou.
De nos jours, l’amadou est encore utilisé de façon traditionnelle pour le transport du feu, comme en Autriche lors du Weihfeuertragen, littéralement “le transport de feu consacré”. Le samedi de Pâques, le prêtre catholique réunit les familles de paroissiens autour d’un feu qu’il bénit au cours d’une cérémonie. Ensuite, les enfants récupèrent les braises à l’aide de bidons métalliques et passent dans les maisons du village apporter le feu béni. Pour faciliter le transport, ils ajoutent aux braises des morceaux d’amadou. En plus d’être le polypore le plus efficace pour la fabrication et le transport du feu, grâce à sa chair, l’amadouvier a aussi des vertus médicinales et artisanales, voire spirituelles. Un peuple de l’île d’Hokkaidō au Japon, les Aïnous, procédait, en cas de maladie ou d’épidémie, à un rituel de fumée autour des habitations. Ils faisaient brûler toute la nuit des fructifications de F. fomentarius pour éloigner les démons. Un rite analogue était pratiqué en Sibérie chez les Khantys et en Amérique du Nord dans des tribus amérindiennes.[…]
Le deuxième champignon retrouvé dans les affaires d’Ötzi est le polypore du bouleau, en latin : Fomitopsis betulina. Il se présentait sous forme de deux fragments enfilés sur une lanière de cuir. L’un de forme sphérique et l’autre de forme conique. Le polypore du bouleau, une fois séché, s’enflamme rapidement mais le feu ne couve pas. Ötzi ne l’a pas probablement pas utilisé pour le transport du feu, d’autant qu’il possédait déjà de l’amadou. Quel usage faisait-il donc des morceaux de ce polypore ?
Cette question a naturellement suscité des débats, dont sont ressorties deux grandes hypothèses. La première a été avancée par l’anthropologue italien Luigi Capasso : il suggère que l’Homme des Glaces était conscient de la présence de ses parasites intestinaux et les combattait avec des doses adaptées de Fomitopsis betulina. Ce champignon, qui est comestible – nous en reparlerons plus loin –, était probablement le seul vermifuge disponible à l’époque. L’autre hypothèse est défendue par la biologiste autrichienne Ursula Peintner : elle a fait le rapprochement avec certaines coutumes d’Amérindiens, rapportées par le biologiste américain Robert Blanchette. Ils possédaient des objets décorés avec des morceaux de forme ronde ou ovale d’Haploporus odorus, polypore à l’odeur très suave. Ces fragments étaient enfilés sur des lacets en cuir puis attachés aux tuniques sacrées ou aux colliers des guérisseurs. Ce polypore était aussi considéré comme ayant des vertus médicinales : on le faisait brûler pour produire une fumée agréable pour les personnes malades. Comme souvent dans les traditions, les aspects spirituel et médical sont mêlés. Concernant l’Homme des Glaces, nous avons bien noté que les bouts de F. betulina étaient enfilés sur une lanière de cuir de façon élaborée. S’il s’était agi d’un simple transport, ils auraient été placés sans perforation dans un récipient. On peut donc penser que les morceaux de F. betulina jouaient un rôle spirituel et médicinal. Robert Blanchette évoque aussi l’importance d’un autre champignon, Fomitopsis officinalis, aux propriétés médicinales pour les Amérindiens et leurs chamanes qui l’appellent “le pain des fantômes”. Les chamanes utilisaient des masques sculptés dans ces polypores pour effectuer des rites destinés à guérir certaines maladies. À leur mort, les masques étaient placés à la tête de la tombe et protégeaient l’esprit des chamanes. En Autriche, des fructifications de polypore du bouleau étaient sculptées pour protéger les animaux de ferme de la malchance. Le fragment conique du polypore d’Ötzi pourrait évoquer une sculpture qui n’aurait pas été très bien conservée. On pourrait donc considérer qu’Ötzi était un chamane qui portait sur lui, comme un talisman, ces deux fragments d’un champignon aux vertus médicinales et spirituelles. Rappelons que les affaires d’Ötzi n’ont pas été pillées, ce qui laisse supposer qu’on ne voulait pas s’approprier ses objets : c’était peut-être un personnage important.
Hubert Voiry est l'auteur de l'ouvrage « 10 champignons qui ont changé la vie des hommes », publié aux éditions Actes Sud dont ce texte est tiré.
26.11.2025 à 11:25
Waleed Mouhali, Enseignant-chercheur en Physique, ECE Paris
La question de l’évolution de l’Univers a attisé de nombreux débats au cours de l’histoire de la physique. Au début du XXe siècle, deux camps de scientifiques s’affrontèrent : d’un côté, les tenants d’un Univers stable et ayant toujours existé, de l’autre, les physiciens qui adhèrent au modèle d’un atome primitif, ancêtre de notre théorie du Big Bang.
Au cours du XXe siècle, la cosmologie a été bouleversée par deux visions concurrentes du Cosmos. D’un côté, Georges Lemaître proposait l’hypothèse d’un « atome primitif », précurseur du Big Bang, selon laquelle l’Univers a une histoire et un commencement. De l’autre, Fred Hoyle, Thomas Gold et Hermann Bondi défendaient en 1948 une alternative : l’état stationnaire, un modèle où l’Univers, en expansion, reste inchangé à grande échelle grâce à une création continue de matière.
Cette théorie séduisait par son élégance : elle évitait l’idée d’un début absolu et renouait avec de vieilles intuitions philosophiques – puisqu’elles remontent à la Grèce antique – selon lesquelles le Cosmos était éternel et immuable. Mais elle allait bientôt se heurter à l’épreuve des observations. Le déclin de cette théorie fascinante s’inscrit dans une querelle scientifique majeure, au terme de laquelle le modèle de l’atome primitif de Georges Lemaître s’est imposé.
En 1948, Fred Hoyle, Thomas Gold et Hermann Bondi introduisent le modèle cosmologique de l’état stationnaire. Leur approche repose sur deux principes fondamentaux. D’une part, le principe cosmologique parfait : non seulement l’Univers est homogène et isotrope dans l’espace – cela signifie qu’à grande échelle, l’Univers présente les mêmes propriétés en tout point et dans toutes les directions d’observation, aucun lieu ni direction n’est privilégiés – mais il l’est aussi dans le temps – ses propriétés sont globalement les mêmes à toutes les époques. D’autre part, ils postulent la création continue de matière pour compenser l’expansion observée de l’Univers mise en évidence par Hubble, de la matière est continuellement créée à un rythme très faible (de l’ordre d’un atome d’hydrogène par mètre cube tous les milliards d’années).
Ce modèle évite un commencement à l’Univers, et par conséquent la question philosophique et scientifique de la création de quelque chose à partir du néant. Il offre un cadre élégant, statique à grande échelle, dans lequel l’Univers n’a ni origine ni fin. D’un point de vue philosophique, il s’inscrit dans la continuité d’une vision éternelle du Cosmos, une position qui était majoritaire parmi les savants de l’Antiquité jusqu’au XVIIIe siècle, une idée déjà défendue par les stoïciens ou Aristote. À noter qu’Aristote s’interroge sur les limites de l’Univers et rejette l’idée d’un Univers infini, qu’il juge physiquement insoutenable.
Le modèle de l’état stationnaire a longtemps bénéficié d’un certain prestige pour plusieurs raisons. D’abord, sa simplicité philosophique, que l’on vient de décrire, mais aussi sa stabilité mathématique, puisqu’il repose sur des solutions simples des équations cosmologiques formulées par Einstein dans le cadre de sa relativité générale. Enfin, il séduit aussi du fait de son esthétique scientifique : un Univers inchangé dans le temps apparaît comme harmonieux et prévisible.
Le modèle de l’état stationnaire avait donc tout pour plaire. Sûr de sa théorie, c’est Fred Hoyle, en voulant se moquer et tourner en dérision le modèle concurrent de l’atome primitif qu’il considérait comme absurde, qui forge le terme de Big Bang lors d’une émission de radio sur la BBC en 1949. Et pourtant…
Avant même la formulation du Big Bang moderne tel que nous le concevons aujourd’hui, le prêtre et physicien belge Georges Lemaître avait développé en 1931 une hypothèse audacieuse : le modèle de l’atome primitif. Selon lui, l’Univers aurait été créé à partir de la désintégration d’un « atome cosmique », un point originel dense et chaud, à l’origine de l’expansion de l’espace. Il complète ainsi un modèle qu’il avait commencé à formuler dès 1927, dans lequel il proposait déjà un Univers en expansion.
Lemaître s’appuie sur les solutions dynamiques des équations d’Einstein et sur les observations de Edwin Hubble, astronome américain ayant découvert que les galaxies s’éloignent des unes des autres. Il conçoit un Univers en expansion, mais doté d’un passé à la fois physique et avec un commencement. Lemaître imaginait l’atome primitif comme un noyau contenant toute la matière de l’Univers dont la fission aurait déclenché l’expansion cosmique. Il interprétait les rayons cosmiques, récemment découverts, comme des résidus de cette désintégration initiale. Cette hypothèse s’est avérée inexacte puisqu’ils proviennent en réalité de phénomènes astrophysiques situés dans notre environnement cosmique proche.
Contrairement à Hoyle, il accepte la notion de début sans lien avec une quelconque création religieuse, qu’il considère en tant qu’ecclésiaste comme une notion philosophique et non pas comme un événement particulier. Le modèle de l’atome primitif est le précurseur direct de ce que l’on appellera par découvertes successives le modèle du Big Bang, qui s’imposera plus tard, notamment grâce à ses prédictions observables.
Malgré son attrait initial, le modèle de l’état stationnaire a commencé à vaciller face à des données de plus en plus précises. Le coup le plus dur arrive en 1964, quand Arno Penzias et Robert Wilson détectent par hasard un signal radio bruité provenant de toutes les directions d’observation. Ce bruit, appelé rayonnement cosmologique, est en fait la lueur fossile laissée par l’Univers très jeune, exactement comme l’avaient prédit les partisans du Big Bang. Le modèle stationnaire, lui, n’a aucun moyen d’expliquer un tel vestige. Le fond diffus cosmologique, découvert en 1965, est le témoin le plus direct du Big Bang. Ses détails ont ensuite été étudiés par les satellites COBE (1992), WMAP (2003) et Planck (2009).
D’autres indices vont dans le même sens : les galaxies lointaines – dont l’image qui nous parvient d’elle date du moment où elles étaient encore jeunes – n’ont pas la même apparence que les galaxies actuelles. De plus, les quasars, sortes de noyaux galactiques hyperactifs, étaient bien plus nombreux dans le passé qu’aujourd’hui. Ces différences montrent que l’Univers évolue au fil du temps, contrairement à ce qu’affirmait l’état stationnaire.
Enfin, le Big Bang prédit avec une grande précision les proportions des éléments légers (hélium, deutérium, lithium) formés durant les toutes premières minutes. Les mesures des éléments fossiles qui sont parvenus jusqu’à nous confirment ces valeurs. Le modèle stationnaire, qui n’inclut pas de phase chaude et dense initiale, est incapable de les expliquer.
Face à ces observations, la communauté scientifique adopte progressivement le modèle du Big Bang comme modèle standard. Pourtant, Fred Hoyle, dans les années 1990, refusant d’abandonner son hypothèse, propose un modèle dit quasi stationnaire, mais il reste marginal.
Aujourd’hui, le modèle ΛCDM (Lambda Cold Dark Matter), une version étendue du Big Bang qui intègre la constante cosmologique, l’idée selon laquelle il existe une minuscule énergie du vide, identique partout, exerçant une pression qui accélère l’expansion de l’Univers, est considéré comme le cadre le plus complet pour décrire l’évolution de l’univers. Introduite par Einstein en 1917 pour contrecarrer l’effet de la gravité dans un Univers qu’il pensait lui-même statique, elle a été réhabilitée sous le nom d’énergie sombre pour expliquer l’accélération observée, est considéré comme le cadre le plus complet pour décrire l’évolution de l’Univers.
Le modèle de l’état stationnaire illustre un cas typique d’élégance théorique confrontée à la rigueur de l’expérimentation. Cette controverse a stimulé les débats, inspiré des développements mathématiques et permis une meilleure compréhension de ce qu’est une bonne théorie scientifique : cohérente, testable, et surtout, réfutable.
Elle rappelle aussi que la science avance non par dogme, mais par confrontation avec la réalité du cosmos. Et si certaines théories comme celle de la simulation ou du multivers flirtent aujourd’hui avec la frontière de ce que l’on est capable de tester, elles perpétuent une tradition millénaire : tenter de comprendre ce qui, depuis toujours, nous dépasse.
Waleed Mouhali ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
26.11.2025 à 11:25
Sara Hoummady, DMV, PhD, Associate professor in ethology and animal nutrition, UniLaSalle

Déjà, ses premiers poils gris. Votre chien ou votre chat a pris un petit coup de vieux. Comment prendre soin de lui à présent ? Des chercheurs se sont penchés sur la question et prodiguent quelques conseils faciles à mettre en œuvre.
En France, avec une espérance de vie moyenne de 11,3 ans chez les chiens comme chez les chats, la gériatrie animale est devenue indispensable. Les connaissances progressent rapidement pour mieux accompagner ces animaux. On sait désormais que quelques aménagements simples améliorent nettement le confort et la qualité de vie d’un chat ou d’un chien âgé. L’essentiel pour les propriétaires est de ne pas rester observateur passif du vieillissement de leur compagnon à quatre pattes.
Une recherche portant sur plus de deux millions de chats et plus de quatre millions de chiens a permis de mieux définir leurs différents stades de vie.
Chez le chat, l’entrée dans le « troisième âge » se situe autour de 10 ans. Le « troisième âge » comprend le stade mature, senior et super-senior.
Selon cette même étude, pour le chien, la situation est moins uniforme : la vitesse de vieillissement dépend fortement de la taille.
Les chiens de petit format (toy et small, des races dont le poids est inférieur à 9 kg, comme les chihuahas ou les cavalier king charles) entrent dans le troisième âge vers 7 ans, puis deviennent seniors autour de 12 ans.
Les chiens de format moyen à grand, de plus de 9 kg, comme les welsh corgis, les golden retrievers ou les bergers australiens par exemple, y accèdent plus tôt : environ 6 ans pour le début du troisième âge, puis 10 ans pour le stade sénior.
Il est important d’être rassuré : passer dans ce nouveau stade ne signifie absolument pas que “la fin” approche. Cela indique surtout qu’il est temps d’être plus attentif à son compagnon et d’adapter progressivement son suivi, son environnement et ses soins pour l’aider à vieillir dans les meilleures conditions.
Avant de parler de « vieillissement sain », il est utile de rappeler ce qu’est le vieillissement : un processus naturel, progressif et inévitable. Avec le temps, les animaux tolèrent moins bien les stress de leur environnement et leurs cellules accumulent des dommages, ce qui entraîne des modifications physiologiques variées.
Qu’entend-on alors par un chien ou un chat vieillissant « en bonne santé » ? Un récent article de consensus auquel j’ai participé propose une définition adaptée à nos animaux de compagnie : un animal âgé en bonne santé est celui qui conserve suffisamment de capacités et de résistance pour répondre à ses besoins physiques, comportementaux, sociaux et émotionnels, tout en maintenant une relation stable et positive avec son humain.
Certains signes sont tout à fait normaux : poils qui grisonnent, léger tartre, peau plus fine, perception sensorielle un peu diminuée mais sans impact notable sur la qualité de vie.
En revanche, des difficultés locomotrices entravant l’accès aux ressources (difficulté à se lever, à monter les escaliers ou à interagir facilement avec vous) ne doivent pas être considérées comme de simples manifestations de l’âge. Il en va de même avec les premiers signes de dysfonction cognitive (un syndrome qui présente quelques similitudes avec Alzheimer), lorsqu’un chien ou un chat a du mal à retrouver sa gamelle ou semble perdu dans la maison, par exemple. Ces cas nécessitent un avis vétérinaire.
La qualité de vie devient donc le critère central pour évaluer si un animal suit une trajectoire de vieillissement harmonieuse. Chez le chien et le chat, on utilise désormais la notion de fragilité, issue de la gériatrie humaine (voir tableau ci-dessous).
Les animaux classés comme fragiles sont plus susceptibles de développer des maladies et doivent faire l’objet d’un suivi plus rapproché.
L’intérêt majeur de cette approche est que, comme chez l’humain, la fragilité repérée tôt pourrait parfois être atténuée. D’où l’importance d’un dépistage régulier et d’un accompagnement précoce pour soutenir au mieux nos compagnons âgés.
La première étape consiste à rendre l’environnement de l’animal plus accessible afin qu’il puisse atteindre facilement toutes ses ressources : nourriture, eau, lieux de repos, espaces de cachette, zones d’interaction… De simples aménagements peuvent déjà faire une vraie différence : petits escaliers pour monter sur le canapé, chauffeuses ou coussins fermes et peu hauts, gamelles surélevées pour les chiens et chats souffrant d’arthrose.
Multiplier les points d’accès est également utile : deux ou trois zones d’alimentation, plusieurs endroits pour dormir, et davantage de litières, faciles à enjamber. Certains bacs du commerce sont trop hauts pour des chats arthrosiques ; un plateau large à rebord bas peut être bien plus confortable.
Maintenir une relation apaisée et positive apparaît essentiel. Un comportement jugé « indésirable » doit toujours être investigué avec un vétérinaire et un comportementaliste (ou un vétérinaire comportementaliste) : il peut en effet traduire un besoin, un inconfort ou une difficulté. Un chat qui griffe le tapis plutôt que son arbre à chat, par exemple, peut simplement chercher une position moins douloureuse. Certains animaux deviennent aussi plus anxieux ou plus réactifs avec l’âge ou certaines conditions médicales ; il est alors important d’en comprendre la cause plutôt que de sanctionner, au risque d’abîmer la relation et de ne pas régler la problématique.
La stimulation cognitive et physique doit se poursuivre, mais en s’adaptant aux capacités de l’animal. Les « puzzle feeders »(ou gamelles interactives, des bols où les animaux doivent résoudre des jeux pour avoir leur ration) restent intéressants, à condition d’être choisis en fonction de son état : un tapis de fouille, une gamelle interactive à pousser du nez seront préférables à un système demandant des mouvements complexes des pattes. Les jeux, les apprentissages et les petits entraînements restent bénéfiques ; il suffit parfois de raccourcir les séances et d’utiliser des récompenses très appétentes (petits morceaux de blanc de poulet ou de saucisses…).
Les promenades peuvent être adaptées notamment en utilisant des sacs confortables et sécuritaires pour porter le chien lorsqu’il est trop fatigué, que ce soit pour une partie ou l’ensemble de la balade, l’important étant de continuer à ce que l’animal ait accès à l’extérieur.
L’alimentation joue enfin un rôle majeur dans l’accompagnement des animaux âgés. Le vieillissement entraîne une modification de la digestion et une perte progressive de masse musculaire. Il est donc recommandé de privilégier une alimentation facilement digestible, dont l’odeur et le goût attirent votre animal, et formulée spécifiquement pour les besoins des seniors. Les rations de viande crue sont à éviter : elles sont souvent déséquilibrées en minéraux, ce qui peut être délétère pour les animaux âgés, particulièrement sensibles aux excès de phosphore ou aux rapports calcium/phosphore inadaptés. Elles présentent également un risque sanitaire accru alors que leur système immunitaire est moins performant.
En revanche, combiner une alimentation sèche (croquettes) et humide (terrine, mousses…) est souvent bénéfique. Une ration cuite et faite maison (en suivant les conseils d’un vétérinaire) peut aussi aider un animal à retrouver l’appétit. Et pour les plus difficiles, une astuce simple peut suffire : tiédir légèrement l’aliment humide pour en renforcer l’odeur et la rendre plus attirante.
Les visites de suivi chez le vétérinaire restent indispensables, notamment pour maintenir à jour le protocole vaccinal et le déparasitage. Avec l’âge, le système immunitaire perd en efficacité : un animal senior est donc plus vulnérable et nécessite une protection régulière contre les maladies infectieuses et les parasites.
Les consultations de gériatrie ont pour objectif de suivre l’évolution du vieillissement qui est propre à chaque individu. La première est souvent la plus longue : elle permet un échange approfondi et inclut, lorsque nécessaire, des examens complémentaires. Ces premiers éléments serviront de référence pour les visites suivantes. L’idéal est d’entamer ce suivi dès le début du « troisième âge ». La fréquence des consultations dépend ensuite de la trajectoire de l’animal : tous les six mois si des signes de fragilité apparaissent, ou une fois par an si son état reste stable.
L’enjeu n’est plus seulement d’allonger la durée de vie de nos compagnons, mais surtout de prolonger leur vie en bonne santé, en préservant leur qualité de vie le plus longtemps possible – une démarche qui rejoint celle adoptée pour les humains.
Sara Hoummady est membre de l'AFGASP (Association Française de Gériatrie Animale et de Soins Palliatifs). Elle a reçu la bourse de la FVE (Federation Veterinaire Européenne) pour ses travaux sur le vieillissement félin. Elle a fait partie d'un comité de réflexion sur le vieillissement sain chez le chien et le chat organisé par un petfooder.
25.11.2025 à 15:55
Marc Chalier, Maître de conférences en linguistique française, Sorbonne Université

À en croire un sondage récent, les accents régionaux seraient en train de s’effacer. Derrière cette inquiétude largement relayée se cachent deux réalités que nous connaissons tous mais que nous préférons souvent oublier : la prononciation, par nature éphémère, change constamment et le nivellement actuel des accents n’a rien d’exceptionnel. Quant à l’« accent neutre » auquel nous comparons ces accents régionaux, il n’a jamais existé ailleurs que dans nos imaginaires linguistiques.
Chaque année ou presque, un sondage annonce que les accents seraient « en voie de disparition ». La dernière étude en date, publiée en septembre 2025 par la plateforme Preply et largement propagée par le biais des réseaux sociaux, va dans ce sens : plus d’un Français sur deux (55 %) estimerait que les accents régionaux disparaissent. De manière assez remarquable, cette inquiétude serait surtout portée par les jeunes : près de 60 % des participants de 16 à 28 ans disent constater cette disparition. Cette crainte occulte pourtant deux réalités essentielles : un accent n’est jamais figé, et l’idée d’un accent « neutre » relève davantage du mythe que de la réalité.
Dans les représentations de bon nombre de francophones, il existe une prononciation « neutre » sans marque régionale ou sociale que beaucoup considèrent aussi comme la « bonne prononciation ». Mais cette vision ne résiste pas à l’analyse. Tous les modèles de prononciation avancés jusqu’à aujourd’hui (par exemple, le roi et sa cour au XVIIe siècle, plus tard la bourgeoisie parisienne, et récemment les professionnels de la parole publique, notamment dans les médias audiovisuels) ont en commun un ancrage géographique bien précis : Paris et ses environs, et parfois aussi la Touraine où les rois de France avaient leurs résidences d’été.
L’accent dit « neutre » est donc avant tout un accent parisien. Et la plupart des locuteurs non parisiens le reconnaîtront comme tel. Il n’est pas dépourvu de traits caractéristiques qui nous permettent de le reconnaître, mais il est simplement l’accent du groupe social dominant. D’ailleurs, une enquête menée auprès de différentes communautés parisiennes dans les années 2000 le montrait déjà : les représentations de l’accent parisien varient fortement selon la perspective du locuteur, interne ou externe à la communauté parisienne.
Ainsi, hors de la capitale, de nombreux locuteurs associent Paris à un accent non pas « neutre », mais « dominant » et qu’ils associent implicitement au parler des couches sociales favorisées de la capitale. À Paris même, les perceptions du parler parisien sont beaucoup plus hétérogènes. Certains locuteurs affirment ne pas avoir d’accent, d’autres en reconnaissent plusieurs, comme l’« accent du 16e » (arrondissement) associé aux classes favorisées, « l’accent parigot » des anciens quartiers populaires, ou encore l’« accent des banlieues » socialement défavorisées. Cette pluralité confirme donc une chose : même à Paris, il n’existe pas de prononciation uniforme, encore moins neutre.
Dans une large enquête sur la perception des accents du français menée avec mes collègues Elissa Pustka (Université de Vienne), Jean-David Bellonie (Université des Antilles) et Luise Jansen (Université de Vienne), nous avons étudié différents types de prestige des accents régionaux en France méridionale, au Québec et dans les Antilles. Nos résultats montrent tout d’abord à quel point cette domination de la région parisienne reste vivace dans nos représentations du « bon usage ». Dans les trois régions francophones, les scores liés à ce que l’on appelle le « prestige manifeste » de la prononciation parisienne sont particulièrement élevés. Il s’agit de ce prestige que l’on attribue implicitement aux positions d’autorité et que les locuteurs interrogés associent souvent à un usage « correct » ou « sérieux ». Mais les résultats montrent également l’existence d’un « prestige latent » tout aussi marqué. Il s’agit là d’un prestige que les accents locaux tirent de leur ancrage identitaire. Ce sont souvent les variétés régionales qui sont ainsi caractérisées comme étant « chaleureuses » ou « agréables à entendre », et elles semblent inspirer la sympathie, la confiance, voire une certaine fierté.
Ces deux axes expliquent aussi qu’on puisse, dans la même conversation, dire d’un accent qu’il « n’est pas très correct » tout en le trouvant « agréable à entendre ». Ce jeu de perceptions montre bien que la prétendue neutralité du français « standard » n’existe pas : elle est simplement le reflet d’un équilibre de pouvoirs symboliques continuellement renégocié au sein de la francophonie.
Notre étude montre également que cette association de l’accent parisien au prestige manifeste et des accents dits « périphériques » au prestige latent n’est pas fixée à tout jamais. Dans les trois espaces francophones étudiés, les accents autrefois perçus comme des écarts à la norme deviennent peu à peu porteurs d’un prestige plus manifeste. Ils commencent donc à s’imposer comme des modèles légitimes de prononciation dans de plus en plus de contextes institutionnels ou médiatiques autrefois réservés à la prononciation parisienne.
Ce mouvement s’observe notamment dans les médias audiovisuels. Au Québec, par exemple, les journalistes de Radio-Canada assument et revendiquent aujourd’hui une prononciation québécoise, alors qu’elle aurait été perçue comme trop locale il y a encore quelques décennies. Cette prononciation n’imite plus le français utilisé dans les médias audiovisuels parisiens comme elle l’aurait fait dans les années 1960-1970, mais elle intègre désormais ces traits de prononciation propres au français québécois qui étaient autrefois considérés comme des signes de relâchement ou de mauvaise diction.
Ces changements montrent que la hiérarchie traditionnelle des accents du français se redéfinit. L’accent parisien conserve une position largement dominante, mais son monopole symbolique s’effrite. D’autres formes de français acquièrent à leur tour des fonctions de prestige manifeste : elles deviennent acceptables, voire valorisées, dans des usages publics de plus en plus variés. Ce processus relève d’une lente réévaluation collective des modèles de légitimité linguistique.
Revenons à la question des changements perçus dans les accents régionaux évoquée en introduction. La langue est, par nature, en perpétuel mouvement, et la prononciation n’y échappe pas : certains traits s’atténuent, d’autres se diffusent sous l’effet de facteurs notamment sociaux. La mobilité des locuteurs, par exemple, favorise le contact entre des variétés de français autrefois plus isolées les unes des autres. Ce phénomène est particulièrement visible dans des métropoles comme Paris, Marseille ou Montréal, où se côtoient quotidiennement des profils linguistiques hétérogènes. À cela s’ajoute l’influence des médias, amorcée avec la radio et la télévision au début du XXe siècle et aujourd’hui démultipliée par les réseaux sociaux. Ces dynamiques expliquent en partie le nivellement actuel de certains accents, avec la raréfaction de certains traits locaux. Mais cela ne signifie pas pour autant la disparition de toute variation. Des mouvements parallèles de différenciation continuent d’exister et font émerger de nouveaux accents, qu’ils soient liés à l’origine géographique des locuteurs ou à leur appartenance à un groupe social.
À côté de ces changements « internes à la langue », les valeurs sociales que l’on associe à ces variétés évoluent elles aussi. Les frontières de ce qui paraît « correct », « populaire », « légitime » se déplacent avec les représentations collectives. Ainsi, aussi bien les accents que les hiérarchies qui les encadrent se reconfigurent régulièrement. Une observation qui distingue notre époque, cependant, c’est le fait que les normes langagières ne se redéfinissent plus seulement « par le haut » sous l’influence « normative » d’institutions comme l’Académie française, mais aussi « par le bas » sous l’effet des usages de la langue quotidienne qui s’imposent simplement par la pratique.
En somme, même si l’on redoute la disparition des accents, la variation continuera toujours de suivre son cours. Nul ne peut la figer. Et l’accent prétendument « neutre » n’a jamais existé autrement que dans nos représentations fantasmées. Ainsi, la prochaine fois que vous entendez quelqu’un vous dire qu’il ou elle ne pense pas avoir d’accent, souvenez-vous que ce n’est pas qu’il n’en a pas, mais que c’est simplement le sien qui (jusqu’ici) a dominé – pour reprendre les propos de Louis-Jean Calvet – dans la Guerre des langues et les politiques linguistiques (1987).
Marc Chalier ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.