ACCÈS LIBRE UNE Politique International Environnement Technologies Culture
13.04.2025 à 13:05
La flexibilité électrique, ou comment décaler nos usages pour optimiser la charge du réseau
Texte intégral (1409 mots)
La « flexibilité électrique », c’est-à-dire la capacité à ajuster production, distribution et consommation sur le réseau électrique pour répondre aux fluctuations de la demande, n’est pas un enjeu nouveau. Ce concept revêt une importance nouvelle face à l’impératif de décarbonation de l’économie. Cela permet par exemple d’éviter que la charge de tous les véhicules électriques au même moment de la journée ne mette en péril la stabilité du réseau.
Les débats sur l’énergie en France voient monter en puissance, depuis quelques mois, la notion de flexibilité électrique. De plus en plus d’entreprises françaises développent des outils dédiés à mieux piloter la demande en électricité.
Comprendre pourquoi cette notion, pourtant ancienne, prend aujourd’hui une ampleur nouvelle, implique d’observer les deux grandes tendances qui dessinent l’avenir du système énergétique français : la décarbonation et le déploiement des énergies renouvelables.
D’un côté, la France poursuit son effort de décarbonation de l’économie dans le but d’atteindre au plus vite ses objectifs de réduction des émissions de gaz à effet de serre. La Stratégie nationale bas carbone (SNBC) vise la neutralité carbone à l’horizon 2050. Cet enjeu requiert d’électrifier un maximum d’usages qui utilisaient des énergies thermiques. En premier lieu la mobilité, en encourageant le passage des véhicules thermiques aux électriques, mais aussi l’industrie, qui s’appuie encore beaucoup sur les fossiles à des fins de production de chaleur, et enfin le chauffage, pour lequel le gaz concerne encore 15 millions de foyers en France.
Malgré des mesures d’efficacité énergétique permises par la rénovation et des gains de rendement menés en parallèle, les nouveaux usages liés à la décarbonation commencent à engendrer une progression globale de la consommation électrique du pays.
De l’autre côté, pour répondre à ces besoins, la France incite au développement rapide des énergies renouvelables, avantageuses sur les plans économique et environnemental.
La Programmation pluriannuelle de l’énergie (PPE), actuellement en consultation, table sur une évolution de la part des énergies renouvelables dans le mix de production électrique française qui passerait de 25 % en 2022 à 45 % environ en 2050.
Piloter l’offre et la demande
Ces énergies se caractérisent par une production plus variable. En ce qui concerne le photovoltaïque et l’éolien, ils ne produisent d’électricité que lorsqu’il y a du soleil ou du vent. L’électricité étant difficile à stocker, la marge de manœuvre pour répondre à cette variabilité temporelle consiste à agir sur l’offre et la demande.
Jusqu’ici, c’est surtout par l’offre que le pilotage s’opérait, en s’appuyant le volume de production nucléaire et en réalisant simplement un petit ajustement à l’aide des tarifs heures pleines/heures creuses. Désormais, l’enjeu est de piloter l’offre différemment et d’actionner davantage le levier de la demande.
D’où l’utilité de la flexibilité électrique, par lequel le consommateur jouera un rôle plus important par ses pratiques de consommation.
Décaler nos usages
Comme évoqué précédemment, la seule alternative à la flexibilité électrique est le stockage de l’électricité. Or cette méthode est moins vertueuse. Elle présente un coût économique élevé même si le prix des batteries a diminué. En effet leur production engendre, par la pollution qu’elle génère, un coût environnemental peu cohérent avec la démarche de décarbonation menée en parallèle. Sans parler des risques à venir en matière d’approvisionnement, certains des métaux intégrés aux batteries étant considérés comme critiques.
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
Privilégier la flexibilité la majorité du temps – et garder la possibilité du stockage pour pallier les variations de production intersaisonnières – apparaît donc comme l’option la plus pertinente. L’idée est d’adapter la consommation à l’offre, en évitant de faire transiter l’électricité par des intermédiaires de stockage. Concrètement, cela consiste à viser, lors du suivi, un équilibre constant entre l’offre et la demande, en incitant les usagers à consommer davantage lorsque la production est importante. En particulier, dans le cas du solaire, en pleine journée.
En effet, la production solaire atteint aujourd’hui en France un niveau significatif en journée, même en hiver. Celle-ci est même supérieure à nos besoins au milieu de certaines journées d’été. Le surplus est, dans la mesure du possible, envoyé à l’étranger, mais cela ne suffit pas toujours pour l’utiliser dans sa totalité. Pour résoudre ce problème, la flexibilité électrique consiste à développer la logique des heures pleines heures creuses, en créant d’autres périodes tarifaires qui intègrent de nouvelles heures creuses en cœur de journée. C’est ce que la Commission de régulation de l’énergie commence à mettre en place.
Il s’agit par exemple d’inciter les consommateurs à décaler la recharge du million de véhicules électriques déjà en circulation en France – 18 millions attendus en 2035 – pendant les périodes de production solaire. Dans l’édition 2023 de son bilan prévisionnel, RTE estime que la consommation annuelle des véhicules électriques s’élèvera en 2035 à 35 TWH, contre 1,3 TWh en 2023. Il faudra donc éviter que toutes les voitures se retrouvent à charger en même temps au retour de la journée de travail.
Inciter le consommateur à décaler ses consommations
Encourager de tels comportements implique une incitation économique qui peut passer par des offres de fourniture électrique. Tout comme le tarif heures pleines/heures creuses qui existe déjà, mais dont les horaires vont être petit à petit modifiés.
D’autres offres plus dynamiques, proposant des plages horaires plus précises encore, différenciées au sein de la semaine, de la journée et de l’année, commencent aussi à émerger. L’offre EDF Tempo, par exemple, permet de payer plus cher son électricité pendant une période qui concerne les heures pleines de 20 journées rouges dans l’année, tandis que le reste du temps est plus avantageux financièrement.
La flexibilité électrique existe depuis les années 1980 mais elle peine encore à se développer. En effet, les citoyens sont davantage sensibles à la maîtrise de leur consommation. Les deux sont pourtant complémentaires : il s’agit non seulement de consommer moins mais aussi mieux. Pour cela, il est crucial de rendre ce type d’offres disponibles et surtout le plus lisibles possible pour les consommateurs en montrant leur facilité d’utilisation, même si certaines resteront orientées vers un public plus averti que d’autres.
Pour le consommateur cela implique de prendre certaines habitudes, mais ce décalage partiel de nos usages – lorsque c’est possible – ne concerne pas l’année entière. Surtout, il permet de contribuer à éviter le gaspillage d’électricité tout en réalisant des économies.

Etienne Latimier ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
10.04.2025 à 12:25
Ces citoyens qui mesurent la radioactivité de leur environnement
Texte intégral (3598 mots)
Après Tchernobyl et Fukushima, les mesures citoyennes de la radioactivité ont pris leur essor, pour permettre aux populations d’évaluer leurs propres risques, et pour éventuellement fournir des données en temps réel dans les situations d’accident nucléaire ou radiologique. En France, le projet de sciences participatives OpenRadiation a, lui, permis quelque 850 000 mesures citoyennes en huit ans d’existence, et se développe essentiellement à des fins pédagogiques.
Voilà maintenant huit ans que des personnes de tous âges et de toute profession ont commencé à mesurer eux-mêmes la radioactivité dans leur environnement. Ils utilisent pour cela un outil de sciences participatives, nommé OpenRadiation, utilisable par tout un chacun, sans compétences particulières. Mais pourquoi avoir lancé un tel projet ? Comment est construit le système OpenRadiation ? Quels sont les buts de ces mesures de radioactivité ? Retour sur un projet qui mêle transparence, pédagogie et éducation.
La radioactivité est présente partout dans notre environnement, qu’elle soit naturelle ou d’origine humaine. En France, la radioactivité dans l’environnement est très surveillée avec plus de 300 000 mesures par an dans tous les compartiments de l’environnement : eau air, sols, végétaux et animaux, réalisées par les exploitants d’installation nucléaires, par l’autorité de sûreté nucléaire et de radioprotection et par des associations. Cette surveillance est réalisée à l’aide de différents appareils, généralement complexes et coûteux, et donc peu accessibles aux citoyens. Bien que tous les résultats soient rendus accessibles à tout le monde, en particulier au travers du site du réseau national de mesures de la radioactivité), certaines personnes peuvent souhaiter réaliser des mesures par eux-mêmes.
Après Tchernobyl et Fukushima, l’essor des mesures citoyennes
Les premières actions de mesure citoyenne de la radioactivité ont été réalisées au milieu des années 90 dans le cadre des programmes de recherche européens développés en Biélorussie, à la suite de l’accident de Tchernobyl. L’objectif était alors de permettre aux habitants de s'approprier les enjeux de radioprotection, c’est-à-dire la compréhension et le choix des actions qui permettent à chacun de se protéger des effets de la radioactivité dans une situation post-accidentelle où la radioactivité est présente partout dans l’environnement.
La perte de confiance de la population japonaise dans le discours des autorités à la suite de l’accident de Fukushima en 2011 a également accéléré le développement de la mesure citoyenne de la radioactivité. De nombreuses associations locales ont développé, avec l’aide d’universitaires, des détecteurs de radioactivité permettant de réaliser des mesures et le partage des résultats via des sites Internet de cartographie, par exemple le projet Safecast.
Ces mesures de radioactivité dans l’environnement par les citoyens présentent deux avantages. D’une part, elles permettent à chacun d’évaluer ses propres risques et de ce fait retrouver une certaine confiance dans les conditions de vie quotidienne. D’autre part, elles peuvent fournir des données en temps réel dans les situations d’accident nucléaire ou radiologique.
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
Le Projet OpenRadiation
L’idée du projet OpenRadiation a vu le jour en France en 2013, soit deux ans après l’accident de Fukushima, en tenant compte du retour d’expérience de cet accident qui a démontré l’importance de la mesure citoyenne pour l’accompagnement de la population. Ce projet permet également d’accompagner la demande de personnes souhaitant s’investir dans la mesure de radioactivité ambiante, en particulier les habitants des environs des installations nucléaires.
Un consortium a été créé, afin de réunir les compétences nécessaires en mesure des rayonnements ionisants (l’institut de radioprotection et de sûreté nucléaire (IRSN)), en design et création d’objets connectés (Le Fablab de Sorbonne Universités), en éducation aux sciences (Planète Sciences) et aux risques (L’Institut de formation aux risques majeurs (l’IFFORME)). L’Association nationale des comités et commissions locales d’information (l’ANCCLI), qui regroupe les commissions locales d’information existant autour de toutes les installations nucléaires françaises, a ensuite rejoint le consortium en 2019.
Ce consortium a développé les trois composants du système OpenRadiation
Un détecteur de radioactivité. Il doit être compact, facilement utilisable, et donner des résultats de mesure fiables. La technologie retenue est celle d’un tube à gaz (un tube Geiger-Müller dont le principe a été inventé en 1913 et mis au point en 1928), robuste et fiable. Cependant, la technologie développée ne permet de mesurer que les rayonnements gamma et X. Le détecteur ne permet donc pas de mesurer directement des éléments radioactifs comme le radon ou l’uranium. Ces détecteurs sont disponibles à l’achat ou au prêt en nous contactant par mail à l’adresse openradiation@gmail.com.
Une application pour smartphone, qui va permettre de piloter le détecteur par liaison Bluetooth et de publier les résultats de mesure sur un site Internet. Cette application permet d’utiliser certaines fonctionnalités du téléphone, comme la localisation GPS, la date et l’heure, afin de compléter les métadonnées associées à chaque mesure sans pour autant complexifier le détecteur.
Un site Internet (openradiation.org) avec une carte interactive, qui va permettre la publication des résultats de mesure et les métadonnées associées. Le site Internet permet également les échanges entre contributeurs, le dépôt de commentaires sur les mesures, la publication d’informations (liste des détecteurs compatibles, mode d’emploi, méthodes de réalisation des mesures de radioactivité, mais aussi ce que les détecteurs ne peuvent pas mesurer) et le suivi de projets spécifiques.
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
Un projet en open source
Après une période de réflexion et de tests, le projet OpenRadiation a vu officiellement le jour en 2017. L’ensemble du système OpenRadiation est volontairement en open source (sous licence CC By 4.0) ce qui signifie que toute personne peut obtenir les codes sources des applications, du site et de la carte interactive et les utiliser pour ses propres besoins. Ainsi, certains contributeurs ont pu modifier l’application sur smartphone pour créer des balises fixes de mesure de la radioactivité avec un envoi automatique des résultats de mesure sur la carte OpenRadiation.
De même, l’ensemble des résultats de mesure est en open data, ce qui signifie que tout ou partie de la base de données peut être téléchargée et analysée par toute personne qui le souhaite. Ainsi, une étude a été menée en Biélorussie, dans un village à proximité de la zone interdite en utilisant OpenRadiation. Des détecteurs ont été confiés à un groupe de 17 lycéens afin qu’ils puissent mesurer la radioactivité dans leur environnement, avec une grande liberté d’action.
Ils ont ainsi réalisé plus de 650 mesures en un mois, essentiellement dans leur village de Komaryn et aux environs. Les résultats ont permis de montrer que les niveaux d’exposition aux rayonnements ionisants sont en moyenne comparables à ceux observés dans d’autres parties du monde, mais qu’il existe des « points chauds », c’est-à-dire des lieux où la radioactivité a tendance à se concentrer. Il s’agit en particulier des lieux où du bois a été brûlé, la cendre ayant la propriété de concentrer la radioactivité contenue dans le bois.
Comment garantir la fiabilité des résultats ?
La question de la fiabilité des résultats de mesure publiés est souvent posée. La réponse à cette interrogation couvre deux aspects différents, la fiabilité technique du résultat de mesure d’une part et la publication de résultats plus élevés qu’attendus d’autre part.
La fiabilité technique des détecteurs a été testée en laboratoire en utilisant des sources radioactives de calibration. Des tests sur le terrain ont également permis de comparer les résultats du détecteur OpenRadiation avec ceux de détecteurs professionnels. Ce type de comparaison a été réalisée à plusieurs occasions et a montré que les résultats obtenus avec les détecteurs OpenRadiation sont satisfaisants, dans des conditions de mesure variées.
Ensuite, la publication sur le site OpenRadiation de résultats montrant une radioactivité élevée peut avoir différentes origines. Les cas les plus courants sont liés à un niveau de charge insuffisant de la batterie (ce qui peut produire des résultats incohérents), à la présence de radioactivité naturelle plus importante qu’attendue ou à des mesures au contact d’objets ou de matériaux radioactifs.
Ainsi, des personnes ont mesuré des objets radioactifs tels que des vieux réveils Bayer avec une peinture fluorescente au radium, des objets en verre contenant de l’ouraline, ou des minéraux naturellement fortement radioactifs. Il peut également s’agir de mesures à proximité d’un transport de matière radioactive ou encore de patients traités en médecine nucléaire.
Il est également possible de découvrir un véritable « point chaud », comme une résurgence de roche radioactive, la présence de sables radioactifs naturels ou encore l’utilisation de certains matériaux de construction contenant certaines roches particulièrement radioactives.
Dans l’environnement, les débits de dose mesurés sont connus pour varier de façon importante en fonction de la localisation et peuvent atteindre des valeurs très élevées. Sur la carte OpenRadiation, on peut observer ces différences. Ainsi, quelques mesures faites en Iran au bord de la mer Caspienne, dans le Kerala en Inde, ou encore en Bretagne sur la côte de granit rose sont significativement plus élevées que celles faites en région parisienne.
En altitude, l’exposition est plus importante car la diminution de l’épaisseur d’atmosphère réduit la protection contre le rayonnement cosmique.
La publication des résultats de mesure sur le site OpenRadiation nécessite donc d’être explicité. Le principe retenu tient en deux points :
Toute mesure envoyée sur le site est publiée en totale transparence sans étape de validation ou censure et sans possibilité de la retirer. Ce point est essentiel pour conserver la confiance des contributeurs, mais aussi pour détecter d’éventuelles situations où la radioactivité est particulièrement élevée, quelle qu’en soit la raison et permettre une éventuelle intervention pour sécuriser un site.

Par conséquent, toute mesure dépassant un seuil d’alerte (correspondant à environ 4 fois la valeur du « bruit de fond radiologique » en France) fait l’objet d’une étude. À chaque fois qu’un résultat publié dépasse ce seuil, un contact est pris avec le contributeur, afin d’échanger avec lui sur les conditions de la mesure et trouver d’un commun accord une explication plausible. Un commentaire est alors déposé sur le site pour expliquer le résultat de la mesure. Environ 1,25 % des mesures publiées sur le site dépassent le seuil d’alerte. Dans la très grande majorité des cas, une explication est trouvée, moins de 0.02 % des mesures publiées sur le site OpenRadiation ne trouvent pas d’explication immédiate.
À l’exception de quelques sites, et en moyenne, les niveaux de radioactivité en France sont considérés comme bas, même et y compris à proximité des installations nucléaires. C’est la raison pour laquelle OpenRadiation reste avant tout un outil pédagogique pour comprendre ce qu’est la radioactivité. Il est actuellement utilisé dans une vingtaine de lycées et collèges, en lien avec les programmes scolaires. OpenRadiation est également adopté pour faire de la médiation scientifique et de l’éducation au risque nucléaire, par exemple à l’occasion de la fête de la science ou de la journée nationale de la résilience.

Au 1er janvier 2025, OpenRadiation réunissait 327 contributeurs actifs et plus de 800 personnes qui nous suivent. La majorité des contributeurs se trouvent en France et en Europe, mais on en voit aussi dans de nombreux pays autour du monde (Japon, États-Unis, Afrique du sud). La carte et la base de données comportent, à la date de la publication de cet article, plus de 850 000 résultats de mesure sur les cinq continents, y compris en Antarctique, même si la majorité des mesures ont été réalisées en Europe. Les quelques études réalisées avec OpenRadiation ont montré la puissance de cet outil, tant pour la réassurance des personnes vivant dans des environnements contaminés que pour réaliser des études en surveillance de l’environnement, ou encore des recherches dans le domaine des sciences humaines et sociales, pour étudier leurs motivations ou la façon dont les contributeurs s’organisent pour réaliser leurs mesures.
OpenRadiation pourrait aussi trouver à l’avenir des applications nouvelles dans différentes situations. Par exemple, il est possible d’impliquer les citoyens dans la réalisation d’un « point zéro » de la qualité radiologique de l’environnement avant la construction d’une nouvelle installation nucléaire. De même, il peut être intéressant d’impliquer des citoyens pour l’étude des environs d’un site contaminé par d’anciennes activités nucléaires (ancien site minier par exemple), pour susciter un dialogue. Au-delà de la mise à disposition des détecteurs à des citoyens et des utilisations pédagogiques, l’objectif actuel d’OpenRadiation est de développer l’utilisation de cet outil au service des études et recherches de toute nature, dans une démarche de sciences participatives impliquant autant que possible les citoyens intéressés par la notion de radioactivité.
Evelyne Allain (Institut français des formateurs risques majeurs et protection de l’environnement), Ghislain Darley (Autorité de sûreté nucléaire et de radioprotection), Christine Lajouanine (Planète Sciences), Véronique Lejeune (Autorité de sûreté nucléaire et de radioprotection), Yves Lheureux (Association nationale des comités et commissions locales d’information), Renaud Martin (Autorité de sûreté nucléaire et de radioprotection), Marjolaine Mansion (Institut français des formateurs risques majeurs et protection de l’environnement), Alexia Maximin (Planète Sciences), François Trompier (Autorité de sûreté nucléaire et de radioprotection) ont participé à la rédaction de cet article.

Jean-Marc Bertho est membre de la commission internationale de protection radiologique (CIPR) et membre de la société française de Radioprotection (SFRP)
Christian Simon ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
10.04.2025 à 11:58
Comment limiter l’empreinte carbone des Coupes du monde de football ?
Texte intégral (2285 mots)
Les compétitions internationales de football polluent, mais surtout du fait du transport des équipes et des supporters. La Fifa, qui a affirmé faire du développement durable une de ses priorités, a pourtant annoncé une démultiplication inédite du nombre d’équipes en compétition et de pays hôtes pour la Coupe du monde de 2026 puis celle de 2030. Au risque d’accroître encore l’empreinte carbone des transports liés au football.
Le 13 février 2025, le Shift Project présentait un rapport de 180 pages consacré à l’impact climatique du football, et en particulier de l’Union des associations européennes de football (UEFA) et de la Fédération internationale de football association (Fifa).
Parmi les nombreux chiffres avancés dans cette étude, on retrouve deux chiffres marquants : 6 % – soit la part des matchs internationaux sous la responsabilité de ces deux organisations, et 61 % – soit la part que ces matchs représentent en termes d’émissions carbone dans le football mondial.
En cause, le déplacement des équipes et surtout des spectateurs. Le rapport explique que, pour la France uniquement, la compétition de football émet 275 000 tonnes de CO2 par an, ce qui correspond à un an de chauffage au gaz pour 41 000 familles.

Pourtant, la Fifa a fait du développement durable l’une de ses priorités pour les prochaines années. On pourrait ainsi s’attendre à ce que celle-ci cherche à limiter le nombre de matchs pour limiter les déplacements provoqués par ces manifestations. Mais il n’en est rien.
La Fifa continue de développer ses compétitions
Le nombre d’équipes en compétition pour la Coupe du monde de football n’a cessé de croître : 16 de 1934 à 1978, 24 de 1982 à 1994, 32 de 1998 à 2022.
Pour la Coupe du monde 2026, la Fifa a acté un passage à 48 équipes. Il est désormais possible d’organiser le tournoi tous les deux ans au lieu de quatre, et d’y impliquer plusieurs pays organisateurs – par exemple, le Canada, les États-Unis et les Mexique, pour 2026.
Pour la Coupe du monde 2030, la Fifa envisage ainsi une compétition à 64 équipes, ceci avec pas moins de six pays hôtes différents : l’Argentine, l’Espagne, le Paraguay, le Portugal, le Maroc et l’Uruguay.

Pour suivre au plus près les questions environnementales, retrouvez chaque jeudi notre newsletter thématique « Ici la Terre ».
À noter également, l’arrivée de la nouvelle Coupe du monde des clubs à 32 équipes (en remplacement de l’ancienne formule qui comportait seulement sept équipes) aux États-Unis, en juin et juillet 2025. Les équipes qualifiées cette année ne sont pas forcément les championnes des grandes compétitions continentales.
En effet, le Real Madrid, vainqueur de la Ligue des champions – trophée le plus prestigieux d’Europe – sera accompagné de 11 autres équipes européennes, ainsi que de six équipes d’Amérique du Sud, quatre équipes africaines, quatre équipes asiatiques, quatre équipes nord-américaines et une équipe d’Océanie.
Pour aller encore plus loin dans la démesure de ses évènements, le président de la Fifa Gianni Infantino déclarait en mars 2025 vouloir animer la mi-temps de la finale du Mondial 2026 avec un show inspiré par le Super Bowl.
Une stratégie cohérente ?
L’organisation d’événements sportifs de cette échelle contredit l’enjeu à réduire nos émissions de gaz à effet de serre pour limiter le changement climatique. Le choix d’augmenter le nombre de participants – et ainsi le nombre de matchs à vendre aux partenaires commerciaux – semble être une vision uniquement financière. Une coupe du monde classique à 32 équipes et dans un seul pays émet déjà, selon les estimations de la Fifa elle-même, 3,6 millions de tonnes de CO2.
Mais ce choix est également critiquable d’un point de vue économique. Il est important de rappeler à la Fifa qu’en matière de stratégie des organisations, il existe généralement deux grandes stratégies possibles.
La première est la stratégie générique de domination globale par les coûts, où l’avantage concurrentiel obtenu passera par la recherche d’augmentation des volumes de production et, traditionnellement, par la mise en place d’économie d’échelles.
La seconde est celle de différenciation, où l’assemblage de facteurs clés de succès va permettre de se démarquer de ses concurrents.
Dans un monde où les ressources sont limitées et vont être de plus en plus difficiles d’accès, la logique d’augmentation des volumes semble être la moins intéressante à long terme. Au contraire, on peut rappeler à la Fifa l’intérêt des modèles de stratégie permettant d’évaluer les avantages concurrentiels d’une entreprise.
L’un de ces modèles, le VRIST, développé par Laurence Lehman-Ortega et ses collègues, se base sur les ressources et compétences de l’organisation qui permettent d’obtenir de la valeur.
Selon ce modèle, les organisations doivent évaluer leurs ressources et compétences au regard de cinq critères clés : la création de valeur : pour une organisation, organiser un événement sportif n’est intéressant que si cet événement intéresse suffisamment de personnes pour en tirer un revenu ; la rareté ; la protection contre l’imitation ; la protection contre la substitution et enfin la protection contre le transfert de la ressource ou de la compétence.
Pour faciliter cette protection, l’organisation peut jouer sur trois leviers :
La spécificité : il s’agit de développer pour un client un produit ou service spécifique ;
L’opacité des ressources, ou la non-transparence : cette technique permet de garder la recette, si l’on peut dire, secrète ;
La complémentarité des ressources : elle permet d’avoir la présence de liens informels entre les aptitudes et ressources qui les protègent. Par exemple, avoir deux wagons dans un train n’est intéressant que si nous n’avons un engin de traction capable de les déplacer. La complémentarité s’évaluera au regard non seulement du nombre de locomotives, mais également en fonction de leurs puissances et du nombre de wagons qu’elles peuvent tracter.
Ce que devrait faire la Fifa
La Fifa aurait ainsi tout intérêt à appliquer cette logique issue de la théorie des ressources en cherchant à rendre ses événements plus rares. Selon cette logique, se diriger vers une coupe du monde tous les deux ans, plutôt que tous les quatre ans, est un non sens.
Elle devrait plutôt chercher à rendre ses ressources et compétences inimitables, non substituables et non transférables, en s’appuyant sur la maîtrise historique, la spécificité de ses compétitions qui se voulaient exclusives en autorisant uniquement les meilleurs équipes du monde à y participer et la complémentarité d’une Coupe du monde des équipes nationales tous les quatre ans avec une Coupe du monde des clubs limitée aux sept champions continentaux tous les ans.
En augmentant le nombre de matchs et de compétitions, l’organisation internationale en charge du football ne protège pas ses ressources et compétences et ne tient pas compte du changement climatique. En fin de compte, le football semble s’exonérer de ses responsabilités environnementales au motif qu’il divertit.
Pour réduire l’impact environnemental des compétitions internationales de football, les auteurs du rapport du Shift Project suggèrent quelques pistes. Les deux principales sont la proximité – limiter les déplacements trop nombreux et trop fréquents en favorisant les spectateurs locaux – et la modération – limiter le nombre de matchs.
Pour le moment, la Fifa semble prendre le chemin opposé, alors que la voie à suivre serait un retour à une Coupe du monde avec moins d’équipes, où des qualifications régionales regagneraient en intérêt, notamment avec la disparition de compétitions comme la Ligue des nations en Europe, qui diluent l’intérêt pour l’épreuve reine.
La proximité des matchs permettrait de jouer sur les rivalités régionales et renforcer l’intérêt des spectateurs, comme lors des matchs Brésil-Argentine ou France-Allemagne.
En définitive, la Fifa devrait chercher à proposer des sommets mondiaux rares, générant une forte attente, plutôt que de proposer des matchs nombreux, mais ennuyeux. C’est un point sur lequel convergent à la fois le rapport du Shift Project et la théorie des ressources.

Frédéric Lassalle ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
10.04.2025 à 11:58
Le défi du recyclage des plastiques des équipements sportifs
Texte intégral (2351 mots)

Skis, raquettes, ballons, planches de surf… Tous nos équipements sportifs sont de vrais casse-tête à recycler. Pour minimiser leur impact et faciliter leur fin de vie, il devient donc nécessaire de repenser leur conception.
C’est un constat qui s’impose dès qu’on met un pied dans un magasin d’équipements sportifs. Le plastique y est devenu omniprésent et a fini par remplacer les matériaux comme le bois dans presque tous les sports : skis et vélos en fibres de carbone, kayaks en polyéthylène pour les loisirs et en fibres de verre pour les compétitions… Malgré leurs qualités indéniables en termes de performance, ces matériaux deviennent problématiques, en fin de vie de ces produits, pour la gestion des déchets et la pollution qu’ils génèrent.
Cette réalité interpelle alors même que, dans la foulée des Jeux olympiques Paris de 2024, les JO d’hiver de 2030 se dérouleront dans les Alpes françaises. Leur organisation est déjà lancée avec l’objectif de jeux responsables et soutenables pour nos montagnes. En parallèle, le comité d’organisation des Jeux de Paris 2024 a, lui, publié en décembre dernier son rapport de soutenabilité présentant les initiatives engagées pendant ces jeux (emballages, installations, logements, transports…). Il montre qu’il est possible de prendre en compte la question environnementale lors d’un grand événement.
Mais qu’en est-il exactement pour les équipements sportifs utilisés au quotidien ?
Une nouvelle filière REP dédiée aux articles de sport et de loisirs
Si vous avez chez vous un ballon, une raquette de ping-pong ou bien un tapis de yoga, sachez que cette question vous concerne désormais directement depuis l’instauration d’un principe de responsabilité élargie du producteur (REP) pour les articles de sport et de loisirs (ASL), entré en vigueur en 2022.
Une REP est un dispositif qui rend responsable les entreprises du cycle de vie de leurs produits, de la conception jusqu’à la fin de vie. La première REP a été instaurée en 1993 pour les emballages ménagers. La REP ASL est, quant à elle, le premier dispositif à l’échelle mondiale qui se penche sur les équipements sportifs.
Elle concerne tous les équipements utilisés dans le cadre d’une pratique sportive ou d’un loisir de plein air ; incluant les accessoires et les consommables (chambre à air, leurre de pêche, cordage de raquette de tennis…). Globalement, tout produit qui ne peut être utilisé que pour la pratique d’un sport entre dans le périmètre de cette REP. Ainsi, des baskets qui peuvent être portées quotidiennement entrent dans le périmètre de la REP textiles chaussures et linges de maison (REP TLC), instaurée en 2007, tandis que des chaussons d’escalade entrent dans la REP ASL.
Cette réglementation est du ressort des fabricants et distributeurs, mais elle vous concerne également, car les vendeurs et producteurs doivent désormais payer une écocontribution qui se répercute sur le prix final (de quelques centimes à quelques euros) que le consommateur paye.
Cette écocontribution permet de financer la collecte, le tri et les opérations de broyage et de nettoyage de la matière, en vue du recyclage et de l’élimination, ainsi que la réutilisation en seconde main des produits en fin de vie. Mais dans la réalité, il ne suffit pas de payer ce traitement de fin de vie pour qu’il soit réalisé. Car la tâche est complexe et qu’elle implique de nombreux acteurs.

Pour suivre au plus près les questions environnementales, retrouvez chaque jeudi notre newsletter thématique « Ici la Terre ».
Les spécificités du plastique dans les articles de sport et de loisirs
D’ici à 2027, la moitié (en masse) des articles de sport et de loisirs devront être recyclés. Pour les vélos, cet objectif est encore plus grand puisqu’il est de 62 %. Les plastiques sont à traiter en priorité, car ils représentent un tiers des matériaux constituant les ASL. En effet, la recherche de performance dans le milieu du sport et des loisirs implique une grande diversité et complexité de matières pour ce gisement. Les produits eux-mêmes sont composés de différents plastiques :
mélangés (dans les formulations), comme pour les kayaks ;
multicouches (superposés et/ou collés), comme pour les skis ;
assemblés (clipsés, vissés, etc.), comme pour les casques de vélo ;
composites (fibre de verre ou de carbone), comme pour les planches de surf ;
mousses, comme le rembourrage des crash pads d’escalade ;
élastomères, comme les balles de tennis ;
plastiques souples, comme les ballons de foot…

Cette diversité de matériaux au sein même de la fraction plastique engendre des difficultés pour le tri et, donc, pour le recyclage. Les technologies et les circuits logistiques diffèrent selon les produits, les matériaux et les composants.
La mise en circularité du plastique depuis la fin d’utilisation jusqu’à sa réutilisation dans un nouveau produit est singulière et propre à chaque matière. La complexité des produits a aussi des conséquences sur la rentabilité du recyclage, ce qui peut freiner les investissements.
Les pistes et champs d’action en matière de recyclage
Mettre en place une nouvelle filière dédiée à ce type de produits implique également de connaître le flux de déchets, sa disponibilité pour le recyclage, la caractérisation des matières au sein des produits et nécessite une demande suffisante pour justifier des investissements.
Pour être le plus efficace possible, il faudra donc que ces investissements s’appuient sur d’autres éléments en amont. Tout d’abord, l’écoconception pour prolonger la durée de vie des produits et pour faciliter le désassemblage. Ce dernier point constitue un axe clé de la circularité des équipements sportifs. En effet, la majeure partie des équipements sportifs sont complexes à désassembler manuellement, et cela peut même être dangereux pour les agents qui en sont chargés et qui peuvent se blesser ou se couper.
Plus le produit est performant, plus il est complexe à démonter. Les rollers sont, par exemple, composés de plastiques durs et d’inserts métalliques qui n’ont pas été conçus pour être démonter. Pour résoudre cela, le désassemblage robotisé peut être une voie à expérimenter.
L’écoconception facilite également le tri et les opérations de recyclage, par exemple en réduisant le nombre de matières utilisées (casques de ski uniquement en polypropylène), en privilégiant des matières pour lesquelles les technologies de recyclage sont matures (kayaks en polyéthylène). Les matières biosourcées constituent une voie alternative, mais leur recyclage reste limité ou en phase de développement. Ces matières peuvent donc être un frein au traitement de fin de vie actuelles et ont parfois des impacts plus élevés sur l’environnement au moment de leur production.
Agir chacun à son échelle (utilisateur, club, fédération, producteur…)
Chacun peut enfin contribuer à l’efficacité de la nouvelle filière en déposant ses articles en fin de vie dans les lieux réservés à la collecte : déchetteries, clubs sportifs, distributeurs, recycleries (certaines sont spécialisées dans la récupération d’équipements sportifs) et lieux de l’économie sociale et solidaire. Déposer son article usagé est la première étape pour réussir la mise en circularité des ASL.
Les clubs sportifs, par le biais des fédérations nationales, peuvent également organiser des collectes permanentes ou ponctuelles d’équipements usagés sur les lieux de pratique et faciliter à plus grande échelle la récupération des matériaux, nécessaire à la performance de la filière. Les distributeurs spécialisés peuvent eux aussi développer l’offre des bacs de collecte.
C’est par ces gestes que commence la mise en circularité des ASL. Enfin, les sportifs et les utilisateurs (clubs, kinésithérapeutes…) d’équipements peuvent privilégier le réemploi et la réparation.
Les producteurs doivent, quant à eux, travailler sur l’écoconception, en discussion avec les acteurs de gestion des déchets ainsi qu’avec les recycleurs pour que le recyclage soit le plus efficace possible. Les équipementiers de sports d’hiver ont déjà fait des efforts dans ce sens pour certains modèles de skis et de casques de ski, mais cela reste encore insuffisant.

Madeline Laire-Levrier a reçu des financements de l'ADEME et ECOLOGIC France.
Carola Guyot Phung a bénéficié de financements d'entreprises privées de la filière forêt-bois et d'ECOLOGIC France
Carole Charbuillet a bénéficié de financements publics de l'ADEME et l'ANR dans le cadre de ses travaux de recherche mais également d'Ecologic et ecosystem (chaire Mines Urbaines).
Nicolas Perry ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
09.04.2025 à 15:04
L’incendie du centre de tri à Paris, symbole de l’envers des déchets ?
Texte intégral (1764 mots)
Les départs de feu dans les centres de tri sont malheureusement très fréquents et souvent causés par des erreurs humaines qui peuvent intervenir à différents stades de la gestion du tri, une activité qui rassemble de nombreux acteurs, ayant des objectifs parfois contradictoires.
Lundi 7 avril au soir, le centre de tri des déchets du XVIIe arrondissement de Paris s’est embrasé, provoquant la stupeur des riverains. Le feu, maîtrisé durant la nuit grâce à l’intervention de 180 pompiers, n’a fait aucun blessé parmi les 31 salariés présents, l’alarme incendie s’étant déclenchée immédiatement.
Si aucune toxicité n’a pour l’heure été détectée dans le panache de fumée émanant du site, l’incident a eu des conséquences pour les habitants : une portion du périphérique a dû être fermée à la circulation et un confinement a été décrété pour les zones à proximité. Le bâtiment, géré par le Syctom (le syndicat des déchets d’Île-de-France), s’est finalement effondré dans la matinée du mardi 8 avril.
Mais comment un feu aussi impressionnant a-t-il pu se déclarer et durer toute une nuit en plein Paris ? Si les autorités n’ont pas encore explicité toute la chaîne causale entraînant l’incendie, elles ont cependant mentionné, lors notamment de la prise de parole du préfet de police de Paris Laurent Nuñez, la présence de bouteilles de gaz dans le centre de tri et l’explosion de certaines, ce qui a pu complexifier la gestion du feu par les pompiers, tout comme la présence de nombreuses matières combustibles tel que du papier et du carton dans ce centre de gestion de tri.
Une chose demeure elle certaine, un départ de feu dans un centre de tri n’est malheureusement pas une anomalie. De fait, si cet incendie, de par son ampleur et peut-être aussi les images virales des panaches de fumées devant la tour Eiffel, a rapidement suscité beaucoup d’émois et d’attention, à l’échelle de la France, ce genre d’événement est bien plus fréquent qu’on ne le pense.
Depuis 2010, 444 incendies
La base de données Analyse, recherche et information sur les accidents (Aria), produite par le Bureau d’analyse des risques et pollutions industriels (Barpi) nous éclaire à ce sujet.
Depuis 2010, 444 incendies ont été recensés en France sur des installations de traitement et d’élimination des déchets non dangereux (centres de tri, plateformes de compostage, centres d’enfouissement…).
À ces incendies s’ajoutent parfois des explosions, des rejets de matières dangereuses et des pollutions des espaces environnants et de l’air. L’origine humaine est souvent retenue comme la cause de ces catastrophes. Même si elles n’entraînent pas toujours des blessés, elles soulignent la fragilité structurelle de nombreuses infrastructures du secteur des déchets ménagers.
Au-delà de cet événement ponctuel, l’incendie de Paris soulève donc peut-être un problème plus profond. En effet, notre système de gestion des déchets implique une multiplicité d’acteurs (ménages, industriels, services publics…) et repose sur une organisation complexe où chaque maillon peut devenir une source d’erreur, conduisant potentiellement à la catastrophe.
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
Un métier dangereux et méconnu
De fait, pénétrer dans un centre de gestion de tri, comme il m’a été donné de le faire dans le cadre de mes recherches doctorales, c’est se confronter immédiatement aux risques quotidiens associés aux métiers de tri des déchets dans les centres.
Si l’on trouve dans ces centres des outils toujours plus perfectionnés, notamment pour réaliser le premier tri entrant, l’œil et la main humaine restent malgré tout toujours indispensables pour corriger les erreurs de la machine.
Ces métiers, bien qu’essentiels au fonctionnement des services publics des déchets, sont pourtant peu connus, malgré leur pénibilité et leurs risques associés. Les ouvriers, dont le métier consiste à retirer les déchets non admis des flux défilant sur des tapis roulants, sont exposés à des cadences élevées, des heures de travail étendues et des niveaux de bruits importants.
Ils sont aussi confrontés à de nombreux risques : des blessures dues à la répétition et la rapidité des gestes, mais aussi des coupures à cause d’objets parfois tranchants, voire des piqûres, car des seringues sont régulièrement présentes dans les intrants.
Des erreurs de tri persistantes
La majorité du travail des ouvriers de ces centres consiste ainsi à compenser les erreurs de tri réalisées par les ménages. Ce sont souvent des éléments qui relèvent d’autres filières de recyclage que celle des emballages ménagers et sont normalement collectés différemment : de la matière organique comme des branchages ou des restes alimentaires, des piles, des ampoules ou des objets électriques et électroniques, ou encore des déchets d’hygiène comme des mouchoirs et des lingettes.
Ces erreurs, qui devraient théoriquement entraîner des refus de collecte, ne sont pas toujours identifiées par les éboueurs lors de leurs tournées.
Derrière cette réalité, on trouve également les erreurs de citoyens, qui, dans leur majorité, font pourtant part de leur volonté de bien faire lorsqu’ils trient leurs déchets.
Mais cette intention de bien faire est mise à l’épreuve par plusieurs obstacles : le manque de clarté des pictogrammes sur les emballages, une connaissance nécessaire des matières à recycler, des règles mouvantes et une complexité technique croissante.
Ainsi, l’extension récente des consignes de tri, depuis le 1er janvier 2023, visant à simplifier le geste en permettant de jeter tous les types de plastiques dans la poubelle jaune, a paradoxalement alimenté la confusion. Certains usagers expliquent qu’ils hésitent désormais à recycler certains déchets, comme les emballages en plastique fin, par crainte de « contaminer » leur bac de recyclage, compromettant ainsi l’ensemble de la chaîne du recyclage.
Malgré ces précautions, les erreurs de tri persistent. À titre d’exemple, le Syndicat mixte intercommunal de collecte et de traitement des ordures ménagères (Smictom) des Pays de Vilaine comptait 32 % de déchets non recyclables dans les poubelles jaunes collectées sur son territoire en 2023. Après 20 000 vérifications de bacs jaunes effectuées en une année afin de mettre en place une communication adaptée à destination de la population, ce taux n’a chuté que de cinq points en 2024, signe que la sensibilisation seule ne suffit pas à réorienter durablement les pratiques des usagers.
Les défis de notre système complexe de gestion des déchets
Notre système de gestion des déchets comporte donc un paradoxe. D’un côté, les ménages ont depuis longtemps adopté le geste de tri au quotidien et s’efforcent de le réaliser de manière optimale, malgré des informations parfois peu claires et un besoin constant d’expertise sur les matières concernées. De l’autre, il n’est pas possible d’attendre un tri parfait et les centres de tri se retrouvent dans l’obligation de compenser les erreurs.
À cela s’ajoute une complexité supplémentaire qui réside dans les intérêts divergents des acteurs de la gestion des déchets en France.
Les producteurs et les grandes surfaces cherchent à mettre des quantités toujours plus importantes de produits sur le marché, afin de maximiser leurs profits, ce qui génère toujours plus de déchets à trier pour les consommateurs.
Les services publics chargés de la gestion des déchets sont aussi confrontés à une hausse constante des ordures à traiter, ce qui entre en tension avec la protection de l’environnement et de la santé des travailleurs. Enfin, les filières industrielles du recyclage, communément nommées REP, souhaitent pour leur part accueillir toujours plus de flux et de matières, dans une logique de rentabilité et de réponse à des objectifs croissants et des tensions logistiques complexes.
Dans un tel contexte, attendre une organisation fluide et parfaitement maîtrisée de la gestion des déchets relève de l’utopie. Chacun des maillons de la chaîne poursuit des objectifs parfois contradictoires, entre recherche de la rentabilité, contraintes opérationnelles, protection des humains et de l’environnement et attentes des citoyens. Si des initiatives émergent (simplification du tri, contrôle des infrastructures, sensibilisation des citoyens, innovations technologiques, etc.), elles peinent à harmoniser l’ensemble du système.
Dès lors, le risque d’incidents ne peut être totalement éliminé. L’incendie du centre parisien n’est donc pas une exception, mais bien le témoin d’un système qui, malgré les efforts, reste structurellement vulnérable. Loin de pouvoir atteindre le risque zéro, la gestion des déchets oscille en permanence entre prévention, adaptation et situation de crise.

Maxence Mautray a reçu, de 2020 à 2024, des financements de la part du ministère de l'Enseignement supérieur et de la Recherche et du SMICVAL Libournais Haute Gironde dans le cadre d'une recherche doctorale.