04.01.2026 à 14:03
Ce que révèle une vaste enquête citoyenne sur la qualité de l’eau en France
Texte intégral (2455 mots)
En 2023, des milliers de citoyens ont pris part à un projet de recherche participative visant à cartographier la qualité de l’eau sur le territoire français. Une démarche qui en apprend beaucoup aux chercheurs et qui sensibilise les bénévoles.
Le 29 septembre 2023, partout en France, des milliers de personnes ont endossé, le temps d’un week-end, la casquette du chercheur. Armés de leur smartphone, d’une bandelette colorée et d’une fiche d’instructions, ils se sont lancés dans une expérience collective inédite : mesurer la qualité des eaux de France dans les rivières, les fontaines, les lacs, les puits et les flaques. En quelques jours, près de 800 échantillons ont été collectés et plus de 20 000 données ont été mesurées.
Derrière ces chiffres impressionnants se cache une aventure humaine et scientifique : la Grande Synchr’Eau, une initiative massive de science participative récompensée par l’une des médailles de la médiation du CNRS en 2025 pour son originalité et son impact sur la société. Cette expérience participative inédite a permis de révéler la diversité chimique des eaux françaises.
Le principe est simple : tremper une bandelette dans l’eau, observer les pastilles se colorer, puis les comparer à une échelle. Ce geste, à la fois simple et ludique, cache en réalité des mesures précieuses : le pH (ou l’acidité), la concentration en nitrates issus des engrais, en chlore, ainsi qu’en métaux lourds tels que le cuivre ou le plomb. Pour beaucoup, l’expérience provoque un effet « waouh » : « On avait l’impression de jouer, mais en fait, on faisait de la vraie science », racontait une mère venue vivre l’expérience avec sa fille. C’est là toute la force de la science citoyenne : permettre à chacun de participer à la recherche, tout en produisant des données utiles aux scientifiques.
Une mosaïque de réalités locales
Les résultats, compilés par les équipes de l’INSA Toulouse et du Toulouse Biotechnology Institute, révèlent une France de l’eau pleine de contrastes. En Bretagne et dans le Massif central, l’eau est plus acide, en raison des sols granitiques et volcaniques, car ces roches contiennent peu de minéraux capables de « tamponner » l’acidité. L’eau de pluie, naturellement légèrement acide, n’est donc pas neutralisée en traversant ces terrains, contrairement aux régions calcaires où les roches relarguent du carbonate qui remonte le pH. Dans les plaines agricoles de la Beauce et de la Champagne, les nitrates dépassent parfois 100 mg/L, témoins directs de l’usage intensif des engrais.
En ville, d’autres signaux apparaissent : à Lyon, Toulouse ou Marseille, les citoyens ont détecté du cuivre jusqu’à 6 mg/L, un niveau trois fois supérieur à la limite de qualité de l’eau potable (2 mg/L), généralement lié à la corrosion des vieilles canalisations en cuivre. Dans certaines zones rurales, le chlore est quasi absent, alors qu’en Île-de-France ou dans le Rhône, la concentration atteint des niveaux dix fois supérieurs à ceux observés dans les campagnes du Massif central. Cela reste compatible avec les normes, mais reflète une désinfection beaucoup plus marquée des grands réseaux urbains, expliquant parfois les goûts d’eau chlorée rapportés par certains usagers.
Autrement dit, il n’existe pas une eau française, mais une mosaïque d’eaux locales, chacune portant la marque de son sol, de ses usages et de ses infrastructures.
Des flaques chlorées et des puits ferrugineux
Parmi les échantillons, certaines eaux sortent franchement du lot. Si, globalement, le pH reste dans des valeurs normales (entre 6 et 7,6), la diversité chimique surprend. Le chlore total, c’est-à-dire à la fois le chlore libre (désinfectant actif) et le chlore combiné (qui a déjà réagi avec d’autres substances), atteint parfois 10 mg/L, soit cinq fois la concentration d’une piscine publique.
Certaines flaques urbaines semblent avoir reçu un traitement sanitaire involontaire : ruissellement des trottoirs, résidus de produits ménagers, lessivage des surfaces. Bref, si l’eau des flaques n’est pas potable, certaines sont surprenamment bien désinfectées !
Certains puits battent tous les records de fer, avec des concentrations pouvant atteindre 25 mg/L, soit 500 fois la limite de potabilité. À ce stade, l’eau prend une teinte orangée et un goût métallique prononcé. Sur le millier de prélèvements effectués, 8,4 % des eaux ont été jugées brunes par les citoyens, un signe d’oxydation intense du fer dans les captages locaux. Ce phénomène, fréquent dans certaines zones rurales, n’est pas dangereux en soi, mais rend l’eau impropre à la consommation et peut entraîner des dépôts, des taches et un encrassement des installations domestiques. Il illustre la forte variabilité chimique des eaux locales et les enjeux propres aux puits non traités.
Autre découverte : l’ammonium, présent jusqu’à 40 mg/L dans certains échantillons. Ce composé, issu de la décomposition de la matière organique ou du ruissellement agricole, témoigne d’une activité biologique intense : en clair, une eau très vivante, mais pas forcément celle qu’on a envie de boire.
L’eau, miroir de nos modes de vie
Derrière les anecdotes et les chiffres, ces mesures citoyennes racontent une vérité simple : l’eau enregistre nos modes de vie. Elle circule, transporte et mémorise nos activités. Dans les villes, elle se charge de chlore, de cuivre et de résidus ménagers. Dans les campagnes, elle emporte du nitrate, de l’ammonium ou du fer. Et dans les zones naturelles, elle reste souvent plus équilibrée, mais jamais totalement vierge de l’empreinte humaine.
En plus des cartes, la Grande Synchr’Eau dessine une France curieuse et engagée. L’enquête menée auprès de 120 participants révèle une mobilisation intergénérationnelle : 22 % ont moins de 18 ans, 21 % sont entre 46 et 55 ans, et 45 classes de primaire et de collège ont participé à l’expérience. Les motivations sont variées : 54 % y voient une façon de protéger l’environnement, 43 % de contribuer à la recherche, 28 % pour apprendre et 25 % par curiosité. Autrement dit, mesurer devient un moyen de comprendre et d’agir.
Nourrir la recherche tout en sensibilisant les citoyens
Les effets de la démarche sur les volontaires sont marquants : 81 % des participants estiment que l’expérience a changé leur regard ou leurs comportements, et 82 % ont eu le sentiment de participer à la protection de l’environnement. Lorsqu’on leur demande les mots auxquels ils pensent pour qualifier l’eau, ceux qui reviennent le plus sont vie, vitale et précieuse, ce qui traduit un rapport sensible, presque affectif, à cette ressource commune.
Enfin, à la question « Qui doit agir pour préserver l’eau ? », 83 % citent l’État, 79 % les scientifiques, 71 % les associations et 54 %… eux-mêmes. La science n’est plus perçue comme un domaine réservé : elle devient un espace partagé, où la connaissance se construit à plusieurs et où chacun assume sa responsabilité sociétale.
Au final, peut-on boire l’eau des flaques d’eau ? Non, car elles contiennent parfois plus de chlore qu’une piscine. Mais on peut toujours les observer, les mesurer et les comparer. Ces expériences rappellent qu’il n’y a pas besoin d’un laboratoire pour faire de la science : un peu de curiosité, une bandelette colorée et l’envie de comprendre suffisent à faire émerger une connaissance collective. La Grande Synchr’Eau en est la preuve : la science peut jaillir de partout, même d’une simple flaque.
Nicolas Dietrich a reçu des financements dans le cadre du projet Grande Expérience Participative (2023), financé par l’initiative Nuit Européenne des Chercheur·e·s dans le cadre des Actions Marie Sklodowska-Curie. Un financement complémentaire a été obtenu dans le cadre du projet SMARTER, soutenu par le programme Horizon 2020 de l’Union européenne (Grant Agreement No. 772787)
Johanne Teychené et Nathalie Clergerie ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur poste universitaire.
02.01.2026 à 09:56
Changement climatique : les stations de ski doivent-elles encore investir dans la production de neige pour s’adapter ?
Texte intégral (1667 mots)
Face au recul de l’enneigement naturel, la neige de culture est l’outil privilégié par les stations de ski pour sécuriser leurs activités. Mais notre analyse de 56 exploitations de remontées mécaniques alpines sur quinze ans montre que ces investissements n’ont pas eu les effets escomptés. Le bien-fondé économique du soutien public à ces investissements mérite d’être interrogé.
La production de neige, également appelée neige de culture ou neige artificielle, s’est fortement développée ces dernières décennies dans les stations de sports d’hiver. Elle est désormais une pratique courante de gestion de la neige, qui a par le passé facilité l’exploitation des remontées mécaniques face à la variabilité de l’enneigement naturel.
Mais est-il pertinent, d’un point de vue économique, de poursuivre les investissements dans la production de neige pour adapter l’économie des stations de sports d’hiver à la raréfaction de l’enneigement naturel ?
Pour répondre à cette question, nous avons analysé la performance économique de 56 exploitations de remontées mécaniques dans les Alpes françaises entre 2004 et 2019. Nos résultats interrogent la poursuite des investissements dans la production de neige pour adapter l’économie des stations de sports d’hiver au changement climatique.
À lire aussi : Production de neige : le piège de la dépendance pour les stations de ski ?
La production de neige désormais au cœur du modèle du ski
De fait, l’enneigement naturel varie fortement d’une saison à l’autre. Depuis leur création, les domaines skiables sont confrontés à des hivers d’enneigement variables, les plus difficiles étant qualifiés d’« hiver sans neige ». En raison du changement climatique, la fréquence des hivers bien enneigés diminue et celle des hivers mal enneigés augmente.
Les stations situées à moins de 2000 m d’altitude sont déjà affectées. Dans un scénario avec un réchauffement atteignant +4 °C, il est estimé que 98 % des stations européennes seront exposées à un risque très élevé de déficit d’enneigement naturel. Cette menace sur l’enneigement affecte l’économie des exploitants de domaines skiables, ainsi que plus largement l’avenir de l’économie des territoires qui en dépendent.
La production de neige s’est généralisée dans les domaines skiables à partir des années 1990 afin d’accompagner l’enneigement naturel, et a effectivement permis d’atténuer l’impact des hivers mal enneigés. Plus récemment, son recours s’est fortement intensifié afin de continuer à sécuriser l’enneigement – et de préserver la rentabilité de l’exploitation des remontées mécaniques – face à la raréfaction de l’enneigement naturel dans le contexte du changement climatique. Cela implique d’importants investissements, en partie financés avec de l’argent public.
En France, la proportion de pistes de ski équipées pour la production de neige est passée d’environ 14 % en 2004 à 39 % en 2018. Cette dynamique illustre le changement de rôle donné à la production de neige : d’un accompagnement de l’enneigement naturel, elle est devenue la principale stratégie d’adaptation du tourisme hivernal au changement climatique.
À lire aussi : Pourra-t-on encore skier en Europe dans un monde à +2 °C ?
Poursuivre ces investissements permet-il aux remontées mécaniques de rester rentables ?
Est-il pertinent, pour l’adaptation de l’économie des stations de sports d’hiver, de poursuivre ces investissements ? Pour le savoir, notre étude de 2024 s’est intéressée aux effets des investissements réalisés dans les équipements de production de neige sur deux indicateurs financiers clés des exploitants de remontées mécaniques : le CA (chiffre d’affaires) et l’EBE (excédent brut d’exploitation).
L’EBE donne un aperçu de la rentabilité économique qu’a une entreprise de par son activité. L’analyse a porté sur un panel de 56 stations situées dans les Alpes françaises, couvrant 15 saisons consécutives de 2004/05 à 2018/19. Ces stations, de taille moyenne à très grande, sont gérées par des exploitants de droit privé, dans le cadre d’une délégation de service public.
Pour mesurer l’effet des investissements dans la production de neige, nous avons utilisé des méthodes économétriques permettant d’analyser leur effet spécifique en isolant l’effet des investissements dans la production de neige des autres facteurs influençant l’économie des stations, par exemple l’altitude de la station, sa taille ou encore sa proximité vis-à-vis des agglomérations urbaines. Cela nous a permis d’établir des liens de causalité, plutôt que de simples corrélations.
Qu’en est-il ? Nos résultats montrent que les investissements réalisés durant la période d’observation n’ont pas eu d’effets significatifs sur les CA ou EBE des entreprises gestionnaires de domaines skiables. Cette absence de relation a été observée en particulier lors des saisons les moins bien enneigées, soit les 20 % des saisons avec le plus faible enneigement naturel.
Le meilleur atout des stations ? L’altitude
À l’inverse, au cours des saisons les plus déficitaires en neige naturelle de la période étudiée, les stations situées en altitude ont bénéficié d’un avantage comparatif, ce qui contraste avec les plus importants investissements réalisés dans la production de neige qui ne se sont pas traduits par une amélioration significative de leur performance économique.
Ces résultats peuvent sembler surprenants, compte tenu de la confiance accordée à ces investissements. Ils corroborent pourtant l’état des connaissances scientifiques sur le sujet.
En effet, dès 2003, une étude canadienne suggérait que la poursuite des investissements dans la production de neige pourrait devenir non-rentable au-delà d’un certain seuil où le surcoût dépasse les gains économiques. Des travaux réalisés en 2008, 2013 et 2016 ont démontré, en France comme en Suisse, que l’intérêt économique de ces investissements était positif mais diminuait progressivement. Plus récemment, une étude menée en Espagne en 2020 a démontré, tout comme notre étude, que les derniers investissements réalisés n’ont pas eu d’effets significatifs sur la profitabilité des exploitants de remontées mécaniques.
Ces conclusions n’invitent pas nécessairement à cesser de produire de la neige dans les stations de sports d’hiver.
Elles interrogent toutefois la pertinence de poursuivre les investissements dans ces équipements, dont l’efficacité comme stratégie de long terme pour maintenir la rentabilité des stations de ski apparaît insuffisante face aux évolutions climatiques.
À lire aussi : Apocalypse snow : quand l’économie française du ski file tout schuss vers l’abîme
La thèse de Jonathan Cognard a reçu des financements de l'Agence de l'eau RMC et du LabEx ITTEM.
Lucas Berard-Chenu a reçu des financements de diverses organisations publiques dans le cadre de ses projets de recherche
02.01.2026 à 08:46
Pas de chauffage central mais des lits chauffés… Ce que la ville la plus froide du monde nous enseigne
Texte intégral (1592 mots)
Et si le confort thermique ne se résumait pas à chauffer plus, mais à chauffer mieux ? Des lits chauffants chinois aux kotatsu japonais, l’Asie a longtemps privilégié des solutions ciblées, sobres et durables face au froid.
Les matins d’hiver à Harbin, où l’air extérieur pouvait vous geler les cils, je me réveillais sur un lit de terre chaude. Harbin, où j’ai grandi, se situe dans le nord-est de la Chine. Les températures hivernales y descendent régulièrement jusqu’à −30 °C et, en janvier, même les journées les plus douces dépassent rarement −10 °C. Avec environ 6 millions d’habitants aujourd’hui, Harbin est de loin la plus grande ville du monde à connaître un froid aussi constant.
Rester au chaud sous de telles températures m'a occupé l'esprit toute ma vie. Bien avant la climatisation électrique et le chauffage urbain, les habitants de la région survivaient à des hivers rigoureux en utilisant des méthodes entièrement différentes des radiateurs et des chaudières à gaz qui dominent de nos jours les foyers européens.
Aujourd’hui, en tant que chercheur en architecture dans une université britannique, je suis frappé par tout ce que nous pourrions apprendre de ces systèmes traditionnels. Les factures d’énergie restent trop élevées et des millions de personnes peinent à chauffer leur logement, tandis que le changement climatique devrait rendre les hivers plus instables. Nous avons besoin de moyens efficaces et peu énergivores pour rester au chaud, sans dépendre du chauffage de l’ensemble d’un logement à l’aide de combustibles fossiles.
Certaines des réponses se trouvent peut-être dans les méthodes avec lesquelles j’ai grandi.
Un lit chaud fait de terre
Mes premiers souvenirs de l’hiver sont liés au fait de me réveiller sur un « kang » – une plateforme-lit chauffée faite de briques de terre, utilisée dans le nord de la Chine depuis au moins 2 000 ans. Le kang est moins un meuble qu’un élément du bâtiment lui-même : une dalle épaisse et surélevée, reliée au poêle familial situé dans la cuisine. Lorsque le poêle est allumé pour cuisiner, l’air chaud circule dans des conduits aménagés sous le kang, réchauffant l’ensemble de sa masse.
Pour un enfant, le kang avait quelque chose de magique : une surface chaude et rayonnante qui restait tiède toute la nuit. Mais à l’âge adulte – et aujourd’hui en tant que chercheur – je peux mesurer à quel point il s’agit d’une pièce d’ingénierie remarquablement efficace.
Contrairement au chauffage central, qui fonctionne en réchauffant l’air de chaque pièce, seul le kang (c’est-à-dire la surface du lit) est chauffé. La pièce elle-même peut être froide, mais les personnes se réchauffent en s’allongeant ou en s’asseyant sur la plateforme, sous d’épaisses couvertures. Une fois chauffée, sa masse de plusieurs centaines de kilogrammes de terre compactée restitue lentement la chaleur pendant de longues heures. Il n’y avait pas de radiateurs, pas besoin de pompes, et nous ne chauffions pas inutilement des pièces inoccupées. Comme une grande partie de la chaleur initiale était produite par des feux nécessaires de toute façon pour cuisiner, nous économisions du combustible.
L’entretien du kang était une affaire familiale. Mon père – professeur de littérature chinoise au collège, pas vraiment un ingénieur – est devenu un expert du kang. Empiler avec soin des couches de charbon autour du foyer afin de maintenir le feu toute la nuit relevait du travail de ma mère. Avec le recul, je mesure l’ampleur des compétences et du travail que cela exigeait, ainsi que la confiance que les familles accordaient à un système nécessitant une bonne ventilation pour éviter les risques d’intoxication au monoxyde de carbone.
Mais malgré tous ses inconvénients, le kang offrait quelque chose que les systèmes de chauffage modernes peinent encore à fournir : une chaleur durable avec très peu de combustible.
Des approches similaires en Asie de l’Est
Dans toute l’Asie de l’Est, les manières de se réchauffer par temps froid ont évolué autour de principes similaires : maintenir la chaleur près du corps et ne chauffer que les espaces qui comptent vraiment.
En Corée, l’ancien système ondol fait également circuler de l’air chaud sous des sols épais, transformant toute la surface du sol en plancher chauffant. Le Japon a développé le kotatsu, une table basse recouverte d’une lourde couverture, avec un petit dispositif chauffant placé en dessous pour garder les jambes au chaud. Ils peuvent être un peu coûteux, mais comptent parmi les objets les plus populaires dans les foyers japonais.
Les vêtements étaient eux aussi très importants. Chaque hiver, ma mère me confectionnait un tout nouveau manteau épais et matelassé, qu’elle garnissait de coton fraîchement cardé. C’est l’un de mes souvenirs les plus tendres.
L’Europe avait des idées similaires – puis les a oubliées
Des approches comparables se sont jadis développées en Europe. Les Romains de l’Antiquité, par exemple, chauffaient les bâtiments grâce à des hypocaustes, qui faisaient circuler l’air chaud sous les sols. Au Moyen Âge, les foyers suspendaient de lourdes tapisseries aux murs pour réduire les courants d’air, et de nombreuses cultures utilisaient des coussins moelleux, des tapis chauffés ou des espaces de couchage clos afin de conserver la chaleur.
La généralisation du chauffage central moderne au XXe siècle a remplacé ces pratiques par un modèle plus énergivore : chauffer des bâtiments entiers à une température uniforme, même lorsqu’une seule personne est présente au domicile. Tant que l’énergie était bon marché, ce modèle fonctionnait, malgré le fait que la plupart des logements européens (notamment en France, NDT) soient mal isolés au regard des standards internationaux.
Mais aujourd’hui, alors que l’énergie est redevenue chère, des dizaines de millions d’Européens ne parviennent pas à chauffer correctement leur logement. De nouvelles technologies comme les pompes à chaleur et les énergies renouvelables aideront – mais elles fonctionnent d’autant mieux que les bâtiments qu’elles chauffent sont déjà performants, ce qui permet de fixer des consignes de chauffage plus basses et des consignes de refroidissement plus élevées.
Les approches traditionnelles du chauffage domestique ont donc encore beaucoup à nous apprendre. Le kang et les systèmes similaires démontrent que le confort ne vient pas toujours d’une consommation accrue d’énergie, mais d’une conception plus intelligente de la chaleur.
Yangang Xing ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.