LePartisan.info À propos Podcasts Fil web Écologie Blogs REVUES Médias
Souscrire à ce flux
L’expertise universitaire, l’exigence journalistique

ACCÈS LIBRE UNE Politique International Environnement Technologies Culture

▸ les 25 dernières parutions

16.04.2025 à 17:13

L’Île-de-France pourrait-elle être autonome sur le plan alimentaire ?

Agnès Lelièvre, Maître de conférences en agronomie, AgroParisTech – Université Paris-Saclay

Christine Aubry, Fondatrice de l’équipe de recherche INRAE « Agricultures urbaines », UMR Sadapt, AgroParisTech – Université Paris-Saclay

Clotilde Saurine, Animatrice de réseau sur le sujet de l'alimentation, AgroParisTech – Université Paris-Saclay

Doudja Saïdi-Kabeche, Enseignante-Chercheuse en siences de Gestion, AgroParisTech – Université Paris-Saclay

Fanny Provent, Ingénieure agronome

Seuls 2 % des produits alimentaires consommés en Île-de-France sont locaux. Une réalité qui interpelle quand on sait que la région est par ailleurs une terre agricole qui exporte, par exemple, ses céréales.
Texte intégral (3464 mots)
Culture maraîchère en Île-de-France. Fourni par l'auteur

Seulement 2 % des produits alimentaires consommés en Île-de-France sont locaux. Une réalité qui interpelle quand on sait que la région est par ailleurs une terre agricole qui exporte par exemple ses céréales. Pourrait-on dès lors remédier à cette situation ?


L’Île-de-France, région la plus riche du pays, concentre 30 % du PIB et une forte proportion de diplômés, tout en jouissant d’une réputation internationale. Cependant, elle est presque totalement dépendante de l’extérieur pour son alimentation, avec seulement 2 % des produits alimentaires provenant de la région selon une étude de 2017 et 5 à 7 jours d’autonomie en cas de crise.

Ces chiffres posent à la fois des questions de sécurité, de souveraineté et d’autosuffisance, et interrogent l’ensemble du système alimentaire, de la production à la consommation.

Du champ jusqu’à l’assiette, comment peut-on l’expliquer et comment, surtout, pourrait-on rendre l’Île-de-France plus autonome sur le plan alimentaire ?

Production francilienne.
Production francilienne. Fourni par l'auteur

Une autonomie alimentaire francilienne très faible

Commençons par un paradoxe : en Île-de-France, la production de céréales est très excédentaire par rapport aux besoins régionaux (3,2 millions de tonnes de blé en 2019, selon FranceAgriMer, qui, transformées en farine, représentent plus du double de la consommation de farine des 12 millions de Franciliens. Pourtant, le bassin de consommation importe de la farine, car une forte proportion de ce blé est exportée (70-80 %). Une étude précise le détail des 1,6 million de tonnes de nourriture venant de province qui entrent en Île-de-France chaque année : principalement des fruits et légumes, de l’épicerie, des boissons sans alcool et des produits laitiers. Elle nous permet également d’apprendre que les produits animaux, eux, ne satisfont qu’à peine 2 % de la consommation et que la production de fruits et légumes, correspond à moins de 10 % de la consommation régionale.

Pourtant, la région était maraîchère au moins jusqu’au début du XXe siècle. En 1895, l’Île-de-France était autonome, à près de 95 %, en fruits et légumes et, en 1960, on comptait encore plus de 20 000 ha de légumes diversifiés dans la région (environ 2 000 ha aujourd’hui).

Sur la partie la plus urbanisée, seuls 0,6 % des aliments consommés sont produits aujourd’hui dans la Métropole du Grand Paris (MGP), qui inclut Paris et 130 communes environnantes, et au moins 30 % des aliments consommés à Paris proviennent de l’international. Ce constat une fois posé, est-il envisageable aujourd’hui d’améliorer l’autonomie alimentaire de la Région ?

Production francilienne.
Production francilienne. Fourni par l'auteur

Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


L’agriculture urbaine, une voie d’autonomisation ?

L’agriculture urbaine est parfois présentée comme un moyen de conquérir de nouveaux terrains productifs en ville pour produire localement, en particulier des fruits et légumes. Cependant, les travaux de l’agroécologue Baptiste Grard montrent qu’en mettant en production la totalité des 80 hectares de toits cultivables à Paris, on fournirait au maximum 10 % des fruits et légumes consommés par les Parisiens.

De plus, la portance de ces toits et d’autres contraintes peuvent limiter la surface réellement cultivable. Malgré un soutien fort de la Mairie, la surface en production intramuros n’est passée que de 11 ha en 2014 à 31 ha en 2020.

Pour rendre l’Île-de-France plus autonome sur le plan alimentaire, il faudrait donc encourager les collectivités à utiliser davantage d’aliments issus de l’agriculture périurbaine.

Culture maraichère en Île-de-France. Fourni par l'auteur

La restauration collective : une voie d’autonomisation alimentaire et d’évolution de l’agriculture locale ?

Celle-ci paraît particulièrement bien indiquée pour alimenter la restauration collective, notamment publique (écoles, crèches, collèges, lycées, hôpitaux publics, Ehpad publics, prisons), qui représente en Île-de-France près de 650 millions de repas annuels servis, dont plus de 50 % en secteur scolaire. Elle constitue donc une source majeure d’influence sur l’alimentation des habitants et peut devenir un levier pour l’évolution de l’agriculture de proximité vers des formes plus durables, encouragées en cela par la loi Égalim.

Le périurbain francilien, en Seine-et-Marne, Yvelines, Val-d’Oise et Essonne, participe de plus en plus à cette dynamique. On voit en effet croître le nombre d’exploitations diversifiant leurs productions vers des légumineuses et légumes de plein champ à destination de la restauration collective, notamment en production biologique, avec l’influence notable de la Coop bio d’Île-de-France,créée en 2014.

Il s’agit pour l’essentiel de céréaliers diversifiés ou de maraîchers d’assez grande taille (au moins une dizaine d’hectares) sur des espèces spécifiques (salades, carottes, pommes de terre…). Les plus petites exploitations maraîchères (moins de 5 ha), très diversifiées en légumes, dont beaucoup se sont installées ces dix dernières années avec un fort soutien des collectivités locales, sont moins orientées vers ce débouché, qui exige d’importants volumes à un prix relativement bas et induit beaucoup de contraintes de référencement pour les producteurs, d’où l’intérêt de formes mutualisées de commercialisation.

C’est ainsi que certaines collectivités préfèrent passer directement en régie agricole pour leur restauration collective à l’image de Mouans-Sartoux (Alpes-Maritimes) dans la Région Paca, ou de Moissy-Cramayel (Seine-et-Marne) ou Villejuif (Val-de-Marne) en Île-de-France. La régie agricole est une ferme municipale dont le foncier appartient à la Ville et dont le personnel est salarié municipal.

Ce rôle structurant de la restauration collective a permis, en 2023, de lancer l’association AgriParis Seine, élargissant la notion de « local » à 250 km autour de Paris et visant à structurer des filières d’agriculture durable par l’achat public, en parcourant la Seine, du Havre jusqu’au nord de l’Yonne, le fleuve servant de voie majeure d’approvisionnement à terme. Dans le même temps, le schéma directeur de la Région Île-de-France envisage d’autres logiques, avec un projet de ceinture maraîchère autour de Paris.

Des formes d’agricultures urbaines inclusives et utiles pour des publics précaires

Soutenant, à travers la restauration collective, l’agriculture francilienne, les collectivités espèrent aussi lutter avec elle contre le fléau de la précarité alimentaire, qui s’est accrue ces dernières années : l’Agence nouvelle des solidarités actives la chiffre aujourd’hui dans une fourchette de 12 à 20 % de la population, avec de fortes disparités intrarégionales sur le nombre d’habitants touchés et l’intensité de cette précarité, qui va de pair avec une forte prévalence des maladies de la nutrition (diabète, obésité). L’agriculture urbaine (intra et périurbaine) peut-elle jouer des rôles intéressants pour mieux alimenter des personnes en précarité ?

Les jardins collectifs (familiaux, partagés, au bas d’immeuble), plus de 1 300 en Île-de-France en 2019, y contribuent directement par une autoproduction alimentaire, variable mais qui peut être non négligeable selon la taille des jardins et l’implication des jardiniers : elle pouvait représenter, en 2019, en jardins familiaux, plus de 1 500 € d’économie par an sur les achats de fruits et légumes d’une famille, et probablement plus aujourd’hui étant donné l’inflation. Avec l’augmentation de la pauvreté et la demande accrue de jardins collectifs depuis la crise Covid, il serait nécessaire de mener une étude sur les rôles quantitatifs et économiques, dans les territoires franciliens, des diverses formes de jardinage collectif.

En périurbain, les jardins d’insertion, dont ceux du réseau Cocagne, revendiquent plus de 140 000 paniers solidaires par an au niveau national. En Essonne, les jardins du Limon fournissent, eux, 550 paniers solidaires par semaine.

Le réseau des Amap d’Île-de-France (elles sont 290 en 2023) propose aussi, depuis 2021, des paniers solidaires ou des livraisons de surplus à des épiceries ou restaurants solidaires. Forme de solidarité éthique de base, cette fourniture reste cependant très confidentielle en termes quantitatifs.

De plus, la production d’aliments n’est pas tout, il faut pouvoir et savoir cuisiner les produits, ce qui n’est pas toujours possible (par absence d’équipements) lorsqu’on vit en hôtel social, en hébergement d’urgence ou dans d’autres logements précaires. C’est pour faciliter l’intégration de ces produits frais dans l’alimentation de publics en difficulté que des structures associatives combinent jardinage et transformation alimentaire.

L’importance de la démocratie alimentaire

À l’instar de la dynamique observée partout en France, se mettent en place en Île-de-France, des initiatives pour favoriser l’accessibilité à des produits de qualité pour toutes, s’appuyant sur des principes de « démocratie alimentaire » : expérimentations de caisse alimentaire locale, transferts monétaires « fléchés » vers des produits durables (Vit’Alim par Action contre la faim et le Conseil départemental de Seine-Saint-Denis), comités locaux pour l’alimentation et la santé (PTCE Pays de France)…

C’est un enjeu sérieux que de structurer l’analyse des retours d’expériences à en tirer, car de cela dépend la capacité de diffuser des modèles alternatifs proposés pour transformer le système alimentaire de façon pérenne. Le projet Territoire zéro précarité alimentaire (TZPA) (terme proposé par le Labo de l’ESS), mené par le réseau Agricultures urbaines et précarité alimentaire de la chaire Agricultures urbaines (Aupa), vise précisément à évaluer les impacts de plusieurs de ces initiatives sur la « sécurité alimentaire durable » dans les territoires concernés.

Il reste capital de pouvoir mieux évaluer scientifiquement, du point de vue de la lutte contre la précarité alimentaire, ces diverses initiatives, des Amapm aux régies agricoles, ce à quoi travaille la chaire Agricultures urbaines (AgroParis Tech).

En Île-de-France, l’autonomie alimentaire reste faible en raison des orientations actuelles des systèmes de production et des marchés. Devenir plus autonome implique non seulement une production locale accrue, mais aussi la transformation et la distribution régionales des produits. La restauration collective et la lutte contre la précarité alimentaire sont deux leviers essentiels, souvent imbriqués ensemble : les collectivités signalent souvent que la restauration collective scolaire représente déjà une forme de lutte contre la précarité alimentaire des enfants, si toutefois les cantines scolaires sont bien accessibles à tous.

Ces deux sujets sont impactés par les politiques publiques et souvent limités par un manque de coordination et de moyens. Un meilleur soutien financier et une évaluation rigoureuse des initiatives locales pourraient inspirer des politiques publiques plus efficaces et durables. Là, la recherche en lien étroit avec les acteurs politiques et de terrain est fortement convoquée. Il va sans dire qu’elle aussi manque aujourd’hui de moyens pour cela.

The Conversation

Agnès Lelièvre a reçu des financements de l'Union Européenne à travers sa participation à des projets JPI Urban Europe, Horizon 2020 et Horizon Europe

Christine Aubry, Clotilde Saurine, Doudja Saïdi-Kabeche et Fanny Provent ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur poste universitaire.

15.04.2025 à 17:34

Fin de l’ARENH : comment l’électricité nucléaire française a basculé dans le marché

Thomas Reverdy, Professeur des Universités en sociologie, Grenoble INP - UGA

Cette particularité du marché français de l’électricité, introduite en 2010 suite à l’intégration de la France aux marchés européens de l’énergie, doit prendre fin courant 2025.
Texte intégral (2684 mots)

L’Accès régulé à l’électricité nucléaire historique (ARENH), particularité du marché français de l’électricité introduite en 2010 suite à l’intégration de la France aux marchés européens de l’énergie, doit prendre fin courant 2025. Retour sur l’histoire d’un dispositif controversé, mais trop souvent mal compris.


Le 31 décembre 2025, prendra fin une disposition spécifique au marché français de l’électricité, l’Accès régulé au nucléaire historique (ARENH). Cette disposition, mise en place en 2011, permettait aux fournisseurs concurrents de EDF d’accéder à un volume total d’électricité nucléaire de 100 TWh à un prix fixe de 42 euros par mégawatt-heure (MWh).

Régulièrement présentée par ses détracteurs soit comme une injonction autoritaire des autorités européennes, soit comme une spoliation d’EDF, les objectifs et les modalités de cette disposition sont souvent mal connus et incompris. Revenons sur l’histoire de ce dispositif.

Aux origines de l’ARENH

L’intégration de la France aux marchés de l’énergie européens après leur libéralisation a entraîné une hausse des prix à partir de 2004. Les clients industriels français se sont fortement mobilisés pour être protégés de cette hausse, suite à quoi l’État a mis en place un nouveau tarif réglementé pour les entreprises en 2006. La même logique a prévalu lors de l’ouverture des marchés pour les particuliers en 2007, l’État a décidé de maintenir un tarif réglementé calculé sur la base des coûts de production.

Or, la hausse des prix sur les marchés de gros a produit un effet de « ciseau tarifaire ». Il empêchait les fournisseurs alternatifs, qui achetaient l’électricité sur le marché de gros, de se développer. En effet, ces derniers n’avaient pas la capacité de rivaliser avec le tarif réglementé et les offres de EDF, fondés sur les coûts plus compétitifs du nucléaire historique.


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


Ainsi, la volonté politique de protéger les entreprises et les consommateurs par le tarif a alors entraîné un blocage de l’ouverture à la concurrence. L’ARENH a été créé dans ce contexte : il permettait de respecter l’engagement européen de développer la concurrence, tout en permettant de restituer aux consommateurs français l’avantage économique du nucléaire historique.

Un mécanisme utile, mais progressivement fragilisé

Le choix du mécanisme a été motivé par un souci de continuité avec les équilibres économiques qui existaient avant la libéralisation. Il a effectivement permis aux consommateurs français de bénéficier de l’avantage économique du nucléaire existant, tout en leur évitant d’être exposés aux variations du prix de marché de gros européen, quels que soient l’offre tarifaire et le fournisseur. La distribution du volume ARENH aux fournisseurs alternatifs est très encadrée en amont et en aval, pour éviter qu’ils tirent un bénéfice immédiat en revendant l’électricité sur le marché de gros. Elle ouvre à des règlements financiers en cas d’écart avec les besoins du portefeuille de clients.

Néanmoins, le mécanisme a rencontré plusieurs configurations inattendues qui l’ont fragilisé. En 2015, le prix du marché de gros européen, en baisse, est passé en dessous du prix fixé pour l’ARENH. Dans cette situation, l’ARENH a perdu de son intérêt pour les fournisseurs alternatifs.

Cette alternative a révélé le caractère asymétrique du dispositif : il ne garantit pas la couverture des coûts d’EDF en cas de baisse des prix de marché en dessous du tarif de l’ARENH. En novembre 2016, des fluctuations des prix des contrats à terme, ont permis aux fournisseurs alternatifs de réaliser des arbitrages financiers impliquant l’ARENH.

Cette période de prix bas sur les marchés de gros a aussi permis aux fournisseurs alternatifs de développer leurs parts de marché, qu’ils ont conservées quand les prix ont remonté à partir de 2018.

En 2019, le volume de 100 TWh prévu par la loi ne permettait pas de couvrir tous les besoins en nucléaire des fournisseurs alternatifs (130 TWh). Un écrêtement de l’ARENH a alors été mis en place. Ce rationnement a eu pour effet de renchérir les coûts d’approvisionnement des fournisseurs alternatifs, dans la mesure où une partie de l’électricité d’origine nucléaire de EDF devait être achetée au prix du marché de gros pour compléter le volume d’ARENH manquant.

Ces derniers ont dû ajuster leurs contrats de fourniture en conséquence. La Commission de régulation de l’énergie (CRE) a augmenté en 2019 les tarifs réglementés de l’électricité pour refléter ces nouveaux coûts d’approvisionnement, pour que le tarif réglementé reste « contestable » (qu’il puisse être concurrencé) par les fournisseurs alternatifs. Un des effets de l’écrêtement est de revaloriser l’énergie nucléaire, dont une partie est désormais vendue par EDF au niveau du prix de marché, supérieur au tarif de l’ARENH.

Un avantage pour EDF face à la concurrence

La loi énergie-climat de 2019 prévoyait une augmentation du volume d’ARENH à 150 MWh de façon à mettre fin à l’écrêtement. En parallèle, il était envisagé d’augmenter son prix de façon à suivre la hausse des coûts du parc nucléaire. Le projet HERCULE de restructuration de l’entreprise, initié pour améliorer la valorisation financière de l’entreprise, était aussi une opportunité pour repenser le mécanisme ARENH et le rendre symétrique, garantissant à EDF un niveau de revenu minimal en cas de baisse des prix.

Or le projet HERCULE a été abandonné face à la mobilisation syndicale car il portait atteinte à la cohérence de l’entreprise. Les modifications de l’ARENH ont été aussi abandonnées à cette occasion. Constatant que le prix de marché de gros suivait une tendance à la hausse, EDF avait plus à gagner à ce que l’ARENH ne soit pas modifié : elle pouvait gagner davantage grâce à l’écrêtement qu’avec une hypothétique réévaluation du prix de l’ARENH.

C’est donc avec un dispositif déséquilibré et asymétrique que le secteur électrique français a abordé la crise européenne de l’énergie en 2022. Du fait de la hausse des prix du gaz, une hausse des prix des contrats d’électricité à terme pour l’année 2022 a été observée dès le début de l’automne 2021.

Le gouvernement a alors décidé de mettre en place un bouclier tarifaire pour éviter que cette hausse n’affecte trop les consommateurs finaux – et éviter une crise politique dans un contexte préélectoral.

De la crise énergétique à l’« ARENH+ »

Pour réduire les surcoûts pour l’État et pour protéger les entreprises, il a aussi envisagé d’augmenter le volume d’ARENH pour répondre à une demande de 160 TWh. Réduire l’écrêtement de l’ARENH, permet de réduire l’achat d’électricité sur le marché de gros, ce qui réduit d’autant les factures de tous les clients, et donc le coût du bouclier tarifaire. Les négociations avec EDF ont retardé la décision.

Un « ARENH+ » a finalement été acté par le gouvernement en janvier 2022 pour la période de mars à décembre 2022. Au final, cette réduction d’écrêtement de l’ARENH a bien eu l’effet recherché par l’État, qui était de réduire le niveau des factures pour l’ensemble des consommateurs.

Néanmoins, compte tenu de son déploiement tardif, cette extension de l’ARENH à hauteur de 20 TWh supplémentaires a obligé EDF à racheter l’électricité nécessaire au prix de marché pour la revendre à un prix de 46 euros par MWh. Pour EDF, le coût direct était d’environ 4 milliards d’euros.

Un contexte critique pour le nucléaire d’EDF

Cette extension de l’ARENH est intervenue dans un contexte critique pour EDF. De nombreuses centrales nucléaires étaient indisponibles. La maintenance des centrales nucléaires a été retardée par la crise du Covid-19, la détection de problèmes inédits de corrosion sous contrainte ayant entraîné l’arrêt de nombreux réacteurs.

S’ajoute à cela la sécheresse des étés 2021 et 2022, qui a réduit les réserves d’eau dans les barrages et la production d’électricité d’origine hydroélectrique et nucléaire. Au cours de l’année 2022, EDF a dû importer de l’électricité aux pays européens voisins à des prix extrêmement élevés.

A l’automne 2022, le mécanisme de formation des prix sur le marché de gros européen s’est trouvé au cœur des débats en Europe et en France : il était question de limiter son influence sur la facture du consommateur. Paradoxalement, en France, le débat s’est alors focalisé sur l’ARENH. La commission d’enquête parlementaire « visant à établir les raisons de la perte de souveraineté et d’indépendance énergétique de la France » a alors été l’occasion, pour les anciens dirigeants d’EDF, de condamner l’ARENH, accusé d’avoir appauvri EDF et d’être responsable de la dépendance énergétique de la France.

L’extension de l’ARENH n’a pas été renouvelée pour 2023 et 2024, même si la demande d’ARENH est restée élevée, s’élevant alors à 148 TWh. De ce fait, les clients français ont acheté, directement ou indirectement, une large partie de l’électricité nucléaire de EDF au prix de marché de gros européen, exceptionnellement élevé. Ces deux années se sont donc avérées très profitables pour EDF, dont la disponibilité des centrales nucléaires s’est améliorée.

Un nouveau mécanisme qui expose davantage les acteurs aux aléas du prix de marché

Dans l’intervalle, le ministère de la transition a travaillé au remplacement de l’ARENH par un autre mécanisme symétrique. L’idée était de transposer au nucléaire historique les « contrats pour différence (CFD) symétriques », utilisés en Europe pour les énergies renouvelables.

Ce mécanisme devait permettre de garantir un complément de prix par rapport au marché de l’électricité, sécurisant ainsi la rémunération du producteur. Inversement, si le prix du marché augmente, l’État récupère l’écart, qu’il peut redistribuer aux consommateurs.

En parallèle, EDF a défendu un autre mécanisme, qui consistait à supprimer l’ARENH et à taxer les profits d’EDF quand ils dépassent un certain niveau. Bruno Le Maire a officialisé, en novembre 2023, l’arbitrage en faveur de ce second mécanisme, désormais validé dans le cadre de la Loi de Finance 2025.

L’électricité nucléaire sera donc vendue sur le marché et l’État pourra taxer EDF à hauteur de 50 % si les prix de marché dépassent un premier seuil calculé à partir des coûts complets de EDF – avec une marge non encore fixée – puis d’écrêter ses revenus en cas dépassement d’un second seuil. Les revenus issus de ce prélèvement devraient alors être redistribués de façon équitable entre les consommateurs.

Au-delà des incertitudes liées à la définition des seuils et des modalités de redistribution, le nouveau mécanisme valorise l’énergie nucléaire au prix de marché. EDF reste exposée au marché, mais conserve la possibilité de bénéficier des rentes générées par le nucléaire historique, pour financer ses investissements, en particulier dans le nucléaire futur. La préférence d’EDF pour ce second mécanisme tient aussi au fait qu’il permet d’accroître l’autonomie stratégique de l’entreprise tout en préservant sa cohésion organisationnelle.

Les clients industriels, les associations de consommateurs soulignent à l’inverse qu’il conforte l’entreprise dans sa position dominante et les prive d’une sécurité économique. Le mécanisme redistributif proposé risque d’introduire d’importantes inégalités dues à la diversité des formes d’approvisionnement. Ces consommateurs anticipent aussi des hausses des prix en janvier 2026, qui pourraient mettre en danger la dynamique d’électrification, clef de voûte de la décarbonation.

Ainsi, l’ARENH a joué un rôle essentiel dans la stabilité des prix de l’électricité pendant 15 ans, y compris pendant la crise énergétique, même si l’écrêtement en a limité les effets protecteurs. Sa complexité, ses fragilités techniques, et son statut ambivalent ont été autant de faiblesses mises en valeur dans le débat public pour affaiblir sa légitimité. L’abandon de l’ARENH a pour effet d’accroître la place du marché dans la formation du prix, et donc d’accroître les incertitudes économiques pour l’ensemble des acteurs.


L’auteur remercie Ilyas Hanine pour sa relecture.

The Conversation

Thomas Reverdy n’a pas reçu de financement de recherche en relation avec le thème de cet article. Par ailleurs, il a reçu des financements de l’État, de l’Ademe et de producteurs d’énergie pour diverses recherches sur les politiques énergétiques et le pilotage de projet.

14.04.2025 à 12:27

La face cachée du vrac

Fanny Reniou, Maître de conférences HDR, Université de Rennes 1 - Université de Rennes

Elisa Robert-Monnot, Maître de conférences HDR, CY Cergy Paris Université

Sarah Lasri, Maître de Conférences, Responsable du Master 2 Distribution et Relation Client, Université Paris Dauphine – PSL

La vente de produits sans emballage peut devenir antiécologique et générer du gaspillage. Sans étiquette, les dates de péremption des produits s’oublient sans compter que jamais autant de contenants n’ont été achetés.
Texte intégral (1987 mots)
Les consommateurs de vrac de plus de 50 ans et CSP+ constituent 70 % de la clientèle de ce mode d’achat. DCStudio/Shutterstock

De façon contre-intuitive, la vente de produits sans emballage peut devenir antiécologique et générer du gaspillage. Sans étiquette, les dates de péremption des produits prennent le risque d’être oubliées. Sans éducation culinaire, les consommateurs sont livrés à eux-mêmes pour cuisiner. Sans compter qu’avec la mode de l’emballage sur mesure, jamais autant de contenants n’ont été achetés. Une priorité : accompagner les consommateurs.


Le modèle de distribution en vrac fait parler de lui ces derniers temps avec l’entrée dans les supermarchés de marques très connues, comme la Vache qui rit. Cet exemple est l’illustration des multiples nouveautés que les acteurs du vrac cherchent à insérer dans cet univers pour lui donner de l’ampleur et le démocratiser. Le modèle du vrac, un moyen simple pour consommer durablement ?

Il est décrit comme une pratique de consommation avec un moindre impact sur l’environnement, car il s’agit d’une vente de produits sans emballage, sans plastique, sans déchets superflus, mais dans des contenants réutilisables. Dans ce mode de distribution, on assiste à la disparition de l’emballage prédéterminé par l’industriel.

Distributeurs et consommateurs doivent donc assumer eux-mêmes la tâche d’emballer le produit et assurer la continuité des multiples fonctions, logistiques et marketing, que l’emballage remplit habituellement. N’étant pas habitués à ce nouveau rôle, les acteurs du vrac peuvent faire des erreurs ou bien agir à l’opposé des bénéfices écologiques a priori attendus pour ce type de pratique.

Contrairement aux discours habituellement plutôt positifs sur le vrac, notre recherche met également en avant les effets pervers et néfastes du vrac. Quand les acteurs du vrac doivent se « débrouiller » pour assurer cette tâche nouvelle de l’emballage des produits, le vrac rime-t-il toujours avec l’écologie ?

Assurer l’emballage autrement

L’emballage joue un rôle clé. Il assure en effet de multiples fonctions, essentielles pour rendre possibles la distribution et la consommation des produits :

  • Des fonctions logistiques de préservation, de protection et de stockage du produit. L’emballage peut permettre de limiter les chocs et les pertes, notamment lors du transport.

  • Des fonctions marketing de reconnaissance de la catégorie de produit ou de la marque. Elles s’illustrent par un choix de couleur spécifique ou une forme particulière, pour créer de l’attractivité en rayon. L’emballage assure également, du point de vue marketing, une fonction de positionnement en véhiculant visuellement un niveau de gamme particulier, mais aussi d’information, l’emballage servant de support pour communiquer un certain nombre d’éléments : composition, date limite de consommation, etc.

  • Des fonctions environnementales, liées au fait de limiter la taille de l’emballage et privilégiant certains types de matériaux, en particulier, recyclés et recyclables.


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


Dans la vente en vrac, ce sont les consommateurs et les distributeurs qui doivent remplir, à leur manière, ces différentes fonctions. Ils peuvent donc y accorder plus ou moins d’importance, en en privilégiant certaines par rapport à d’autres. Dans la mesure où l’industriel ne propose plus d’emballage prédéterminé pour ses produits, consommateurs et distributeurs doivent s’approprier cette tâche de manière conjointe.

Assimilation ou accommodation

Pour étudier la manière dont les consommateurs et les distributeurs s’approprient les fonctions de l’emballage, alors même que celui-ci n’est plus fourni par les industriels, nous avons utilisé une diversité de données : 54 entretiens avec des responsables de magasin et de rayon vrac, et des consommateurs, 190 posts sur le réseau social Instagram et 428 photos prises au domicile des individus et en magasin.

Notre étude montre qu’il existe deux modes d’appropriation des fonctions de l’emballage :

  • par assimilation : quand les individus trouvent des moyens pour imiter les emballages typiques et leurs attributs ;

  • ou par accommodation : quand ils imaginent de nouveaux emballages et nouvelles manières de faire.

Femme remplissant son contenant de lessive
Le vrac peut conduire à des problèmes d’hygiène si les consommateurs réutilisent un emballage en en changeant l’usage. GaldricPS/Shutterstock

Certains consommateurs réutilisent les emballages industriels, tels que les boîtes d’œufs et les bidons de lessive, car ils ont fait leurs preuves en matière de praticité. D’un autre côté, les emballages deviennent le reflet de l’identité de leurs propriétaires. Certains sont bricolés, d’autres sont choisis avec soin, en privilégiant certains matériaux, comme le wax, par exemple, un tissu populaire en Afrique de l’Ouest, utilisé pour les sachets réutilisables.

Quand l’emballage disparaît, les informations utiles disparaissent

L’appropriation des fonctions de l’emballage n’est pas toujours chose facile. Il existe une « face cachée » du vrac, avec des effets néfastes sur la santé, l’environnement ou l’exclusion sociale. Le vrac peut conduire par exemple à des problèmes d’hygiène ou de mésinformation, si les consommateurs n’étiquettent pas correctement leurs bocaux ou réutilisent un emballage pour un autre usage. Par exemple, utiliser une bouteille de jus de fruits en verre pour stocker de la lessive liquide peut être dangereux si tous les membres du foyer ne sont pas au courant de ce qu’elle contient.

Le vrac peut également être excluant pour des personnes moins éduquées sur le plan culinaire (les consommateurs de vrac de plus de 50 ans et CSP + constituent 70 % de la clientèle de ce mode d’achat). Quand l’emballage disparaît, les informations utiles disparaissent. Certains consommateurs en ont réellement besoin pour reconnaître, stocker et savoir comment cuisiner le produit. Dans ce cas le produit peut finalement finir à la poubelle !

Nous montrons également toute l’ambivalence de la fonction environnementale du vrac – l’idée initiale de cette pratique étant de réduire la quantité de déchets d’emballage – puisqu’elle n’est pas toujours satisfaite. Les consommateurs sont nombreux à acheter beaucoup de contenants et tout ce qui va avec pour les customiser – étiquettes et stylos pour faire du lettering, etc.

La priorité de certains consommateurs n’est pas tant de réutiliser d’anciens emballages, mais plutôt d’en acheter de nouveaux… fabriqués à l’autre bout du monde ! Il en résulte donc un gaspillage massif, au total opposé des finalités initiales du vrac.

Des consommateurs pas suffisamment accompagnés

Après une période de forte croissance, le vrac a connu une période difficile lors de la pandémie de Covid-19, conduisant à la fermeture de nombreux magasins spécialisés, selon le premier baromètre du vrac et du réemploi. En grande distribution, certaines enseignes ont investi pour rendre le rayon vrac attractif. Mais faute d’accompagnement, les consommateurs ne sont pas parvenus à se l’approprier. Le rayon du vrac est devenu un rayon parmi d’autres.

Il semble que les choses s’améliorent et les innovations se multiplient. 58 % des adhérents du réseau Vrac et réemploi notent une hausse de la fréquentation journalière sur janvier-mai 2023 par rapport à 2022. Les distributeurs doivent s’adapter à l’évolution de la réglementation.

Cette dernière stipule qu’à l’horizon 2030, les magasins de plus de 400 m2 devront consacrer 20 % de leur surface de vente de produits de grande consommation à la vente en vrac. La vente en vrac a d’ailleurs fait son entrée officielle dans la réglementation française avec la Loi relative à la lutte contre le gaspillage et à l’économie circulaire, parue au JORF no 0035, le 11 février 2020.

Dans ce contexte, il est plus que nécessaire et urgent d’accompagner les acteurs du vrac pour qu’ils s’approprient correctement la pratique.

The Conversation

Fanny Reniou et Elisa Robert-Monnot ont reçu des financements de Biocoop, dans le cadre d'un partenariat recherche.

Elisa Robert-Monnot a reçu des financements de Biocoop dans le cadre d'une collaboration de recherche

Sarah Lasri ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

13.04.2025 à 13:05

La flexibilité électrique, ou comment décaler nos usages pour optimiser la charge du réseau

Etienne Latimier, Ingénieur énergies renouvelables électriques et réseaux F/H, Ademe (Agence de la transition écologique)

La hausse à venir de notre consommation électrique ainsi que le développement des énergies renouvelables impliquent d’optimiser davantage l’équilibre entre offre et demande.
Texte intégral (1407 mots)

La « flexibilité électrique », c’est-à-dire la capacité à ajuster production, distribution et consommation sur le réseau électrique pour répondre aux fluctuations de la demande, n’est pas un enjeu nouveau. Ce concept revêt une importance nouvelle face à l’impératif de décarbonation de l’économie. Cela permet par exemple d’éviter que la charge de tous les véhicules électriques au même moment de la journée ne mette en péril la stabilité du réseau.


Les débats sur l’énergie en France voient monter en puissance, depuis quelques mois, la notion de flexibilité électrique. De plus en plus d’entreprises françaises développent des outils dédiés à mieux piloter la demande en électricité.

Comprendre pourquoi cette notion, pourtant ancienne, prend aujourd’hui une ampleur nouvelle, implique d’observer les deux grandes tendances qui dessinent l’avenir du système énergétique français : la décarbonation et le déploiement des énergies renouvelables.

D’un côté, la France poursuit son effort de décarbonation de l’économie dans le but d’atteindre au plus vite ses objectifs de réduction des émissions de gaz à effet de serre. La Stratégie nationale bas carbone (SNBC) vise la neutralité carbone à l’horizon 2050. Cet enjeu requiert d’électrifier un maximum d’usages qui utilisaient des énergies thermiques. En premier lieu la mobilité, en encourageant le passage des véhicules thermiques aux électriques, mais aussi l’industrie, qui s’appuie encore beaucoup sur les fossiles à des fins de production de chaleur, et enfin le chauffage, pour lequel le gaz concerne encore 15 millions de foyers en France.

Malgré des mesures d’efficacité énergétique permises par la rénovation et des gains de rendement menés en parallèle, les nouveaux usages liés à la décarbonation commencent à engendrer une progression globale de la consommation électrique du pays.

De l’autre côté, pour répondre à ces besoins, la France incite au développement rapide des énergies renouvelables, avantageuses sur les plans économique et environnemental.

La Programmation pluriannuelle de l’énergie (PPE), actuellement en consultation, table sur une évolution de la part des énergies renouvelables dans le mix de production électrique française qui passerait de 25 % en 2022 à 45 % environ en 2050.

Piloter l’offre et la demande

Ces énergies se caractérisent par une production plus variable. En ce qui concerne le photovoltaïque et l’éolien, ils ne produisent d’électricité que lorsqu’il y a du soleil ou du vent. L’électricité étant difficile à stocker, la marge de manœuvre pour répondre à cette variabilité temporelle consiste à agir sur l’offre et la demande.

Jusqu’ici, c’est surtout par l’offre que le pilotage s’opérait, en s’appuyant le volume de production nucléaire et en réalisant simplement un petit ajustement à l’aide des tarifs heures pleines/heures creuses. Désormais, l’enjeu est de piloter l’offre différemment et d’actionner davantage le levier de la demande.

D’où l’utilité de la flexibilité électrique, par lequel le consommateur jouera un rôle plus important par ses pratiques de consommation.

Décaler nos usages

Comme évoqué précédemment, la seule alternative à la flexibilité électrique est le stockage de l’électricité. Or cette méthode est moins vertueuse. Elle présente un coût économique élevé même si le prix des batteries a diminué. En effet leur production engendre, par la pollution qu’elle génère, un coût environnemental peu cohérent avec la démarche de décarbonation menée en parallèle. Sans parler des risques à venir en matière d’approvisionnement, certains des métaux intégrés aux batteries étant considérés comme critiques.


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


Privilégier la flexibilité la majorité du temps – et garder la possibilité du stockage pour pallier les variations de production intersaisonnières – apparaît donc comme l’option la plus pertinente. L’idée est d’adapter la consommation à l’offre, en évitant de faire transiter l’électricité par des intermédiaires de stockage. Concrètement, cela consiste à viser, lors du suivi, un équilibre constant entre l’offre et la demande, en incitant les usagers à consommer davantage lorsque la production est importante. En particulier, dans le cas du solaire, en pleine journée.

En effet, la production solaire atteint aujourd’hui en France un niveau significatif en journée, même en hiver. Celle-ci est même supérieure à nos besoins au milieu de certaines journées d’été. Le surplus est, dans la mesure du possible, envoyé à l’étranger, mais cela ne suffit pas toujours pour l’utiliser dans sa totalité. Pour résoudre ce problème, la flexibilité électrique consiste à développer la logique des heures pleines heures creuses, en créant d’autres périodes tarifaires qui intègrent de nouvelles heures creuses en cœur de journée. C’est ce que la Commission de régulation de l’énergie commence à mettre en place.

Il s’agit par exemple d’inciter les consommateurs à décaler la recharge du million de véhicules électriques déjà en circulation en France – 18 millions attendus en 2035 – pendant les périodes de production solaire. Dans l’édition 2023 de son bilan prévisionnel, RTE estime que la consommation annuelle des véhicules électriques s’élèvera en 2035 à 35 TWH, contre 1,3 TWh en 2023. Il faudra donc éviter que toutes les voitures se retrouvent à charger en même temps au retour de la journée de travail.

Inciter le consommateur à décaler ses consommations

Encourager de tels comportements implique une incitation économique qui peut passer par des offres de fourniture électrique. Tout comme le tarif heures pleines/heures creuses qui existe déjà, mais dont les horaires vont être petit à petit modifiés.

D’autres offres plus dynamiques, proposant des plages horaires plus précises encore, différenciées au sein de la semaine, de la journée et de l’année, commencent aussi à émerger. L’offre EDF Tempo, par exemple, permet de payer plus cher son électricité pendant une période qui concerne les heures pleines de 20 journées rouges dans l’année, tandis que le reste du temps est plus avantageux financièrement.

La flexibilité électrique existe depuis les années 1980 mais elle peine encore à se développer. En effet, les citoyens sont davantage sensibles à la maîtrise de leur consommation. Les deux sont pourtant complémentaires : il s’agit non seulement de consommer moins mais aussi mieux. Pour cela, il est crucial de rendre ce type d’offres disponibles et surtout le plus lisibles possible pour les consommateurs en montrant leur facilité d’utilisation, même si certaines resteront orientées vers un public plus averti que d’autres.

Pour le consommateur cela implique de prendre certaines habitudes, mais ce décalage partiel de nos usages – lorsque c’est possible – ne concerne pas l’année entière. Surtout, il permet de contribuer à éviter le gaspillage d’électricité tout en réalisant des économies.

The Conversation

Etienne Latimier ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

10.04.2025 à 12:25

Ces citoyens qui mesurent la radioactivité de leur environnement

Christian Simon, Maitre de conférence, HDR, Sorbonne Université

Jean-Marc Bertho, Expert en radioprotection, ASNR

Le projet de sciences participatives OpenRadiation a permis le partage de plus de 850 000 mesures citoyennes de la radioactivité et se développe surtout à des fins pédagogiques.
Texte intégral (3596 mots)
Le détecteur de radioactivité Openradiation J.F. Bottolier-Depois/ASNR, Fourni par l'auteur

Après Tchernobyl et Fukushima, les mesures citoyennes de la radioactivité ont pris leur essor, pour permettre aux populations d’évaluer leurs propres risques, et pour éventuellement fournir des données en temps réel dans les situations d’accident nucléaire ou radiologique. En France, le projet de sciences participatives OpenRadiation a, lui, permis quelque 850 000 mesures citoyennes en huit ans d’existence, et se développe essentiellement à des fins pédagogiques.


Voilà maintenant huit ans que des personnes de tous âges et de toute profession ont commencé à mesurer eux-mêmes la radioactivité dans leur environnement. Ils utilisent pour cela un outil de sciences participatives, nommé OpenRadiation, utilisable par tout un chacun, sans compétences particulières. Mais pourquoi avoir lancé un tel projet ? Comment est construit le système OpenRadiation ? Quels sont les buts de ces mesures de radioactivité ? Retour sur un projet qui mêle transparence, pédagogie et éducation.

La radioactivité est présente partout dans notre environnement, qu’elle soit naturelle ou d’origine humaine. En France, la radioactivité dans l’environnement est très surveillée avec plus de 300 000 mesures par an dans tous les compartiments de l’environnement : eau air, sols, végétaux et animaux, réalisées par les exploitants d’installation nucléaires, par l’autorité de sûreté nucléaire et de radioprotection et par des associations. Cette surveillance est réalisée à l’aide de différents appareils, généralement complexes et coûteux, et donc peu accessibles aux citoyens. Bien que tous les résultats soient rendus accessibles à tout le monde, en particulier au travers du site du réseau national de mesures de la radioactivité), certaines personnes peuvent souhaiter réaliser des mesures par eux-mêmes.

Après Tchernobyl et Fukushima, l’essor des mesures citoyennes

Les premières actions de mesure citoyenne de la radioactivité ont été réalisées au milieu des années 90 dans le cadre des programmes de recherche européens développés en Biélorussie, à la suite de l’accident de Tchernobyl. L’objectif était alors de permettre aux habitants de s'approprier les enjeux de radioprotection, c’est-à-dire la compréhension et le choix des actions qui permettent à chacun de se protéger des effets de la radioactivité dans une situation post-accidentelle où la radioactivité est présente partout dans l’environnement.

La perte de confiance de la population japonaise dans le discours des autorités à la suite de l’accident de Fukushima en 2011 a également accéléré le développement de la mesure citoyenne de la radioactivité. De nombreuses associations locales ont développé, avec l’aide d’universitaires, des détecteurs de radioactivité permettant de réaliser des mesures et le partage des résultats via des sites Internet de cartographie, par exemple le projet Safecast.

Ces mesures de radioactivité dans l’environnement par les citoyens présentent deux avantages. D’une part, elles permettent à chacun d’évaluer ses propres risques et de ce fait retrouver une certaine confiance dans les conditions de vie quotidienne. D’autre part, elles peuvent fournir des données en temps réel dans les situations d’accident nucléaire ou radiologique.


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


Le Projet OpenRadiation

L’idée du projet OpenRadiation a vu le jour en France en 2013, soit deux ans après l’accident de Fukushima, en tenant compte du retour d’expérience de cet accident qui a démontré l’importance de la mesure citoyenne pour l’accompagnement de la population. Ce projet permet également d’accompagner la demande de personnes souhaitant s’investir dans la mesure de radioactivité ambiante, en particulier les habitants des environs des installations nucléaires.

Un consortium a été créé, afin de réunir les compétences nécessaires en mesure des rayonnements ionisants (l’institut de radioprotection et de sûreté nucléaire (IRSN)), en design et création d’objets connectés (Le Fablab de Sorbonne Universités), en éducation aux sciences (Planète Sciences) et aux risques (L’Institut de formation aux risques majeurs (l’IFFORME)). L’Association nationale des comités et commissions locales d’information (l’ANCCLI), qui regroupe les commissions locales d’information existant autour de toutes les installations nucléaires françaises, a ensuite rejoint le consortium en 2019.

Ce consortium a développé les trois composants du système OpenRadiation

  • Un détecteur de radioactivité. Il doit être compact, facilement utilisable, et donner des résultats de mesure fiables. La technologie retenue est celle d’un tube à gaz (un tube Geiger-Müller dont le principe a été inventé en 1913 et mis au point en 1928), robuste et fiable. Cependant, la technologie développée ne permet de mesurer que les rayonnements gamma et X. Le détecteur ne permet donc pas de mesurer directement des éléments radioactifs comme le radon ou l’uranium. Ces détecteurs sont disponibles à l’achat ou au prêt en nous contactant par mail à l’adresse openradiation@gmail.com.

  • Une application pour smartphone, qui va permettre de piloter le détecteur par liaison Bluetooth et de publier les résultats de mesure sur un site Internet. Cette application permet d’utiliser certaines fonctionnalités du téléphone, comme la localisation GPS, la date et l’heure, afin de compléter les métadonnées associées à chaque mesure sans pour autant complexifier le détecteur.

  • Un site Internet (openradiation.org) avec une carte interactive, qui va permettre la publication des résultats de mesure et les métadonnées associées. Le site Internet permet également les échanges entre contributeurs, le dépôt de commentaires sur les mesures, la publication d’informations (liste des détecteurs compatibles, mode d’emploi, méthodes de réalisation des mesures de radioactivité, mais aussi ce que les détecteurs ne peuvent pas mesurer) et le suivi de projets spécifiques.


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


Un projet en open source

Après une période de réflexion et de tests, le projet OpenRadiation a vu officiellement le jour en 2017. L’ensemble du système OpenRadiation est volontairement en open source (sous licence CC By 4.0) ce qui signifie que toute personne peut obtenir les codes sources des applications, du site et de la carte interactive et les utiliser pour ses propres besoins. Ainsi, certains contributeurs ont pu modifier l’application sur smartphone pour créer des balises fixes de mesure de la radioactivité avec un envoi automatique des résultats de mesure sur la carte OpenRadiation.

De même, l’ensemble des résultats de mesure est en open data, ce qui signifie que tout ou partie de la base de données peut être téléchargée et analysée par toute personne qui le souhaite. Ainsi, une étude a été menée en Biélorussie, dans un village à proximité de la zone interdite en utilisant OpenRadiation. Des détecteurs ont été confiés à un groupe de 17 lycéens afin qu’ils puissent mesurer la radioactivité dans leur environnement, avec une grande liberté d’action.

Ils ont ainsi réalisé plus de 650 mesures en un mois, essentiellement dans leur village de Komaryn et aux environs. Les résultats ont permis de montrer que les niveaux d’exposition aux rayonnements ionisants sont en moyenne comparables à ceux observés dans d’autres parties du monde, mais qu’il existe des « points chauds », c’est-à-dire des lieux où la radioactivité a tendance à se concentrer. Il s’agit en particulier des lieux où du bois a été brûlé, la cendre ayant la propriété de concentrer la radioactivité contenue dans le bois.

Des lycées biélorusses utilisant les outils développés par OpenRadiation
Des lycées biélorusses utilisant les outils développés par Openradiation. JM Bertho/ASNR, Fourni par l'auteur

Comment garantir la fiabilité des résultats ?

La question de la fiabilité des résultats de mesure publiés est souvent posée. La réponse à cette interrogation couvre deux aspects différents, la fiabilité technique du résultat de mesure d’une part et la publication de résultats plus élevés qu’attendus d’autre part.

La fiabilité technique des détecteurs a été testée en laboratoire en utilisant des sources radioactives de calibration. Des tests sur le terrain ont également permis de comparer les résultats du détecteur OpenRadiation avec ceux de détecteurs professionnels. Ce type de comparaison a été réalisée à plusieurs occasions et a montré que les résultats obtenus avec les détecteurs OpenRadiation sont satisfaisants, dans des conditions de mesure variées.

Ensuite, la publication sur le site OpenRadiation de résultats montrant une radioactivité élevée peut avoir différentes origines. Les cas les plus courants sont liés à un niveau de charge insuffisant de la batterie (ce qui peut produire des résultats incohérents), à la présence de radioactivité naturelle plus importante qu’attendue ou à des mesures au contact d’objets ou de matériaux radioactifs.

Ainsi, des personnes ont mesuré des objets radioactifs tels que des vieux réveils Bayer avec une peinture fluorescente au radium, des objets en verre contenant de l’ouraline, ou des minéraux naturellement fortement radioactifs. Il peut également s’agir de mesures à proximité d’un transport de matière radioactive ou encore de patients traités en médecine nucléaire.

Il est également possible de découvrir un véritable « point chaud », comme une résurgence de roche radioactive, la présence de sables radioactifs naturels ou encore l’utilisation de certains matériaux de construction contenant certaines roches particulièrement radioactives.

Dans l’environnement, les débits de dose mesurés sont connus pour varier de façon importante en fonction de la localisation et peuvent atteindre des valeurs très élevées. Sur la carte OpenRadiation, on peut observer ces différences. Ainsi, quelques mesures faites en Iran au bord de la mer Caspienne, dans le Kerala en Inde, ou encore en Bretagne sur la côte de granit rose sont significativement plus élevées que celles faites en région parisienne.

En altitude, l’exposition est plus importante car la diminution de l’épaisseur d’atmosphère réduit la protection contre le rayonnement cosmique.

La publication des résultats de mesure sur le site OpenRadiation nécessite donc d’être explicité. Le principe retenu tient en deux points :

Toute mesure envoyée sur le site est publiée en totale transparence sans étape de validation ou censure et sans possibilité de la retirer. Ce point est essentiel pour conserver la confiance des contributeurs, mais aussi pour détecter d’éventuelles situations où la radioactivité est particulièrement élevée, quelle qu’en soit la raison et permettre une éventuelle intervention pour sécuriser un site.

Exemple de mesure partagée sur le site openradiation.org. Capture d’écran du site www.openradiation.org en février 2025

Par conséquent, toute mesure dépassant un seuil d’alerte (correspondant à environ 4 fois la valeur du « bruit de fond radiologique » en France) fait l’objet d’une étude. À chaque fois qu’un résultat publié dépasse ce seuil, un contact est pris avec le contributeur, afin d’échanger avec lui sur les conditions de la mesure et trouver d’un commun accord une explication plausible. Un commentaire est alors déposé sur le site pour expliquer le résultat de la mesure. Environ 1,25 % des mesures publiées sur le site dépassent le seuil d’alerte. Dans la très grande majorité des cas, une explication est trouvée, moins de 0.02 % des mesures publiées sur le site OpenRadiation ne trouvent pas d’explication immédiate.

À l’exception de quelques sites, et en moyenne, les niveaux de radioactivité en France sont considérés comme bas, même et y compris à proximité des installations nucléaires. C’est la raison pour laquelle OpenRadiation reste avant tout un outil pédagogique pour comprendre ce qu’est la radioactivité. Il est actuellement utilisé dans une vingtaine de lycées et collèges, en lien avec les programmes scolaires. OpenRadiation est également adopté pour faire de la médiation scientifique et de l’éducation au risque nucléaire, par exemple à l’occasion de la fête de la science ou de la journée nationale de la résilience.

Démonstration de l’utilisation du kit Openradiation lors de la fête de la science à Gap en 2024
Démonstration de l’utilisation du kit Openradiation lors de la fête de la science à Gap en 2024. JM Bertho/ASNR, Fourni par l'auteur

Au 1er janvier 2025, OpenRadiation réunissait 327 contributeurs actifs et plus de 800 personnes qui nous suivent. La majorité des contributeurs se trouvent en France et en Europe, mais on en voit aussi dans de nombreux pays autour du monde (Japon, États-Unis, Afrique du sud). La carte et la base de données comportent, à la date de la publication de cet article, plus de 850 000 résultats de mesure sur les cinq continents, y compris en Antarctique, même si la majorité des mesures ont été réalisées en Europe. Les quelques études réalisées avec OpenRadiation ont montré la puissance de cet outil, tant pour la réassurance des personnes vivant dans des environnements contaminés que pour réaliser des études en surveillance de l’environnement, ou encore des recherches dans le domaine des sciences humaines et sociales, pour étudier leurs motivations ou la façon dont les contributeurs s’organisent pour réaliser leurs mesures.

OpenRadiation pourrait aussi trouver à l’avenir des applications nouvelles dans différentes situations. Par exemple, il est possible d’impliquer les citoyens dans la réalisation d’un « point zéro » de la qualité radiologique de l’environnement avant la construction d’une nouvelle installation nucléaire. De même, il peut être intéressant d’impliquer des citoyens pour l’étude des environs d’un site contaminé par d’anciennes activités nucléaires (ancien site minier par exemple), pour susciter un dialogue. Au-delà de la mise à disposition des détecteurs à des citoyens et des utilisations pédagogiques, l’objectif actuel d’OpenRadiation est de développer l’utilisation de cet outil au service des études et recherches de toute nature, dans une démarche de sciences participatives impliquant autant que possible les citoyens intéressés par la notion de radioactivité.


Evelyne Allain (Institut français des formateurs risques majeurs et protection de l’environnement), Ghislain Darley (Autorité de sûreté nucléaire et de radioprotection), Christine Lajouanine (Planète Sciences), Véronique Lejeune (Autorité de sûreté nucléaire et de radioprotection), Yves Lheureux (Association nationale des comités et commissions locales d’information), Renaud Martin (Autorité de sûreté nucléaire et de radioprotection), Marjolaine Mansion (Institut français des formateurs risques majeurs et protection de l’environnement), Alexia Maximin (Planète Sciences), François Trompier (Autorité de sûreté nucléaire et de radioprotection) ont participé à la rédaction de cet article.

The Conversation

Jean-Marc Bertho est membre de la commission internationale de protection radiologique (CIPR) et membre de la société française de Radioprotection (SFRP)

Christian Simon ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

10.04.2025 à 11:58

Comment limiter l’empreinte carbone des Coupes du monde de football ?

Frédéric Lassalle, Maître de Conférences en Sciences de gestion, IAE Dijon - Université de Bourgogne

Les compétitions internationales de football polluent surtout du fait du transport des équipes et des supporters. Les annonces de la Fifa pour 2026 et 2030 ne devraient pas arranger les choses.
Texte intégral (2283 mots)

Les compétitions internationales de football polluent, mais surtout du fait du transport des équipes et des supporters. La Fifa, qui a affirmé faire du développement durable une de ses priorités, a pourtant annoncé une démultiplication inédite du nombre d’équipes en compétition et de pays hôtes pour la Coupe du monde de 2026 puis celle de 2030. Au risque d’accroître encore l’empreinte carbone des transports liés au football.


Le 13 février 2025, le Shift Project présentait un rapport de 180 pages consacré à l’impact climatique du football, et en particulier de l’Union des associations européennes de football (UEFA) et de la Fédération internationale de football association (Fifa).

Parmi les nombreux chiffres avancés dans cette étude, on retrouve deux chiffres marquants : 6 % – soit la part des matchs internationaux sous la responsabilité de ces deux organisations, et 61 % – soit la part que ces matchs représentent en termes d’émissions carbone dans le football mondial.

En cause, le déplacement des équipes et surtout des spectateurs. Le rapport explique que, pour la France uniquement, la compétition de football émet 275 000 tonnes de CO2 par an, ce qui correspond à un an de chauffage au gaz pour 41 000 familles.

Comment se décompose l’empreinte carbone du football professionnel. The Shift Project, « Décarbonons le football »

Pourtant, la Fifa a fait du développement durable l’une de ses priorités pour les prochaines années. On pourrait ainsi s’attendre à ce que celle-ci cherche à limiter le nombre de matchs pour limiter les déplacements provoqués par ces manifestations. Mais il n’en est rien.

La Fifa continue de développer ses compétitions

Le nombre d’équipes en compétition pour la Coupe du monde de football n’a cessé de croître : 16 de 1934 à 1978, 24 de 1982 à 1994, 32 de 1998 à 2022.

Pour la Coupe du monde 2026, la Fifa a acté un passage à 48 équipes. Il est désormais possible d’organiser le tournoi tous les deux ans au lieu de quatre, et d’y impliquer plusieurs pays organisateurs – par exemple, le Canada, les États-Unis et les Mexique, pour 2026.

Pour la Coupe du monde 2030, la Fifa envisage ainsi une compétition à 64 équipes, ceci avec pas moins de six pays hôtes différents : l’Argentine, l’Espagne, le Paraguay, le Portugal, le Maroc et l’Uruguay.


Visuel d’illustration de la newsletter Ici la Terre représentant la planète Terre sur un fond bleu

Abonnez-vous dès aujourd’hui.

Pour suivre au plus près les questions environnementales, retrouvez chaque jeudi notre newsletter thématique « Ici la Terre ».


À noter également, l’arrivée de la nouvelle Coupe du monde des clubs à 32 équipes (en remplacement de l’ancienne formule qui comportait seulement sept équipes) aux États-Unis, en juin et juillet 2025. Les équipes qualifiées cette année ne sont pas forcément les championnes des grandes compétitions continentales.

En effet, le Real Madrid, vainqueur de la Ligue des champions – trophée le plus prestigieux d’Europe – sera accompagné de 11 autres équipes européennes, ainsi que de six équipes d’Amérique du Sud, quatre équipes africaines, quatre équipes asiatiques, quatre équipes nord-américaines et une équipe d’Océanie.

Pour aller encore plus loin dans la démesure de ses évènements, le président de la Fifa Gianni Infantino déclarait en mars 2025 vouloir animer la mi-temps de la finale du Mondial 2026 avec un show inspiré par le Super Bowl.

Une stratégie cohérente ?

L’organisation d’événements sportifs de cette échelle contredit l’enjeu à réduire nos émissions de gaz à effet de serre pour limiter le changement climatique. Le choix d’augmenter le nombre de participants – et ainsi le nombre de matchs à vendre aux partenaires commerciaux – semble être une vision uniquement financière. Une coupe du monde classique à 32 équipes et dans un seul pays émet déjà, selon les estimations de la Fifa elle-même, 3,6 millions de tonnes de CO2.

Mais ce choix est également critiquable d’un point de vue économique. Il est important de rappeler à la Fifa qu’en matière de stratégie des organisations, il existe généralement deux grandes stratégies possibles.

  • La première est la stratégie générique de domination globale par les coûts, où l’avantage concurrentiel obtenu passera par la recherche d’augmentation des volumes de production et, traditionnellement, par la mise en place d’économie d’échelles.

  • La seconde est celle de différenciation, où l’assemblage de facteurs clés de succès va permettre de se démarquer de ses concurrents.

Dans un monde où les ressources sont limitées et vont être de plus en plus difficiles d’accès, la logique d’augmentation des volumes semble être la moins intéressante à long terme. Au contraire, on peut rappeler à la Fifa l’intérêt des modèles de stratégie permettant d’évaluer les avantages concurrentiels d’une entreprise.

L’un de ces modèles, le VRIST, développé par Laurence Lehman-Ortega et ses collègues, se base sur les ressources et compétences de l’organisation qui permettent d’obtenir de la valeur.

Selon ce modèle, les organisations doivent évaluer leurs ressources et compétences au regard de cinq critères clés : la création de valeur : pour une organisation, organiser un événement sportif n’est intéressant que si cet événement intéresse suffisamment de personnes pour en tirer un revenu ; la rareté ; la protection contre l’imitation ; la protection contre la substitution et enfin la protection contre le transfert de la ressource ou de la compétence.

Pour faciliter cette protection, l’organisation peut jouer sur trois leviers :

  • La spécificité : il s’agit de développer pour un client un produit ou service spécifique ;

  • L’opacité des ressources, ou la non-transparence : cette technique permet de garder la recette, si l’on peut dire, secrète ;

  • La complémentarité des ressources : elle permet d’avoir la présence de liens informels entre les aptitudes et ressources qui les protègent. Par exemple, avoir deux wagons dans un train n’est intéressant que si nous n’avons un engin de traction capable de les déplacer. La complémentarité s’évaluera au regard non seulement du nombre de locomotives, mais également en fonction de leurs puissances et du nombre de wagons qu’elles peuvent tracter.

Ce que devrait faire la Fifa

La Fifa aurait ainsi tout intérêt à appliquer cette logique issue de la théorie des ressources en cherchant à rendre ses événements plus rares. Selon cette logique, se diriger vers une coupe du monde tous les deux ans, plutôt que tous les quatre ans, est un non sens.

Elle devrait plutôt chercher à rendre ses ressources et compétences inimitables, non substituables et non transférables, en s’appuyant sur la maîtrise historique, la spécificité de ses compétitions qui se voulaient exclusives en autorisant uniquement les meilleurs équipes du monde à y participer et la complémentarité d’une Coupe du monde des équipes nationales tous les quatre ans avec une Coupe du monde des clubs limitée aux sept champions continentaux tous les ans.

En augmentant le nombre de matchs et de compétitions, l’organisation internationale en charge du football ne protège pas ses ressources et compétences et ne tient pas compte du changement climatique. En fin de compte, le football semble s’exonérer de ses responsabilités environnementales au motif qu’il divertit.

Pour réduire l’impact environnemental des compétitions internationales de football, les auteurs du rapport du Shift Project suggèrent quelques pistes. Les deux principales sont la proximité – limiter les déplacements trop nombreux et trop fréquents en favorisant les spectateurs locaux – et la modération – limiter le nombre de matchs.

Pour le moment, la Fifa semble prendre le chemin opposé, alors que la voie à suivre serait un retour à une Coupe du monde avec moins d’équipes, où des qualifications régionales regagneraient en intérêt, notamment avec la disparition de compétitions comme la Ligue des nations en Europe, qui diluent l’intérêt pour l’épreuve reine.

La proximité des matchs permettrait de jouer sur les rivalités régionales et renforcer l’intérêt des spectateurs, comme lors des matchs Brésil-Argentine ou France-Allemagne.

En définitive, la Fifa devrait chercher à proposer des sommets mondiaux rares, générant une forte attente, plutôt que de proposer des matchs nombreux, mais ennuyeux. C’est un point sur lequel convergent à la fois le rapport du Shift Project et la théorie des ressources.

The Conversation

Frédéric Lassalle ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

10 / 25
  GÉNÉRALISTES
Ballast
Fakir
Interstices
Lava
La revue des médias
Le Grand Continent
Le Monde Diplo
Le Nouvel Obs
Lundi Matin
Mouais
Multitudes
Politis
Regards
Smolny
Socialter
The Conversation
UPMagazine
Usbek & Rica
Le Zéphyr
 
  CULTURE / IDÉES 1/2
Accattone
Contretemps
A Contretemps
Alter-éditions
CQFD
Comptoir (Le)
Déferlante (La)
Esprit
Frustration
 
  IDÉES 2/2
L'Intimiste
Jef Klak
Lignes de Crêtes
NonFiction
Nouveaux Cahiers du Socialisme
Période
Philo Mag
Terrestres
Vie des Idées
Villa Albertine
 
  THINK-TANKS
Fondation Copernic
Institut La Boétie
Institut Rousseau
 
  TECH
Dans les algorithmes
Framablog
Goodtech.info
Quadrature du Net
 
  INTERNATIONAL
Alencontre
Alterinfos
CETRI
ESSF
Inprecor
Journal des Alternatives
Guitinews
 
  MULTILINGUES
Kedistan
Quatrième Internationale
Viewpoint Magazine
+972 mag
 
  PODCASTS
Arrêt sur Images
Le Diplo
LSD
Thinkerview
 
   FIABILITÉ FAIBLE
Contre-Attaque
Issues
Korii
Positivr
Regain
Slate
Ulyces
🌓