ACCÈS LIBRE UNE Politique International Environnement Technologies Culture
27.03.2025 à 11:48
Comment nommer les nuages ? Une histoire entre science et art
Texte intégral (5085 mots)

Lointains, mouvants, impalpables… La nature même des nuages fait de ces amas de gouttelettes d’eau en suspension dans l’atmosphère un objet d’étude complexe à appréhender pour les peintres comme pour les scientifiques. À l'occasion de la Journée internationale des nuages, le 29 mars, retour sur ces nuages qui n'en finissent pas de fasciner.
Les parois des abris sous roche et des grottes du Paléolithique ne représentent jamais de nuages. Il est pourtant évident que l’observation des états du ciel et donc des nuages fut vitale pour les premiers hominidés. Mais comment dessiner, nommer et décrire des objets si mouvants ? Retour sur une quête qui passionna scientifiques et artistes du monde entier.
Pour évoquer les nuages, de nombreuses cultures mentionnent leurs couleurs et le risque de détérioration du temps, en opposant par exemple ceux qui sont hauts et très blancs et ceux, à l’inverse, que l’on observe bas et très noirs. C’est le cas par exemple à Madagascar avec une distinction faite entre les nuages clairs de la saison sèche et ceux de la mousson, de couleur bleu foncé à noir à leur base, et très épais.
Au Japon, des atlas XVIIIᵉ siècle les associent eux à des constellations, tandis qu’à la même époque les maîtres de l’estampe, comme Hokusai, les représentent généreusement.
Quand il s’agit de les nommer, toutes les typologies recensées les comparent à des objets familiers (diablotins, pis de vache, mouton, oiseau, chou, pomme, fleur…). Les artistes ne sont pas en reste de cette diversité pour figurer les nuages.

Entre la terre et les cieux
Beaucoup ont tenté de traduire sur la toile ou le papier cette réalité céleste fugace, observable en un lieu donné et à un moment donné. Les ciels typés accompagnent ainsi les arrière-plans des enluminures médiévales. Mais il ne s’agit pas là d’une recherche systématique de compréhension, d’inventaire des nuages.
Durant tout le Moyen Âge les nuages dans la peinture, souvent murale, permettent surtout de faire un lien entre les mondes divin et matériel, le céleste et le terrestre. Les peintres hollandais s’affranchissent ensuite du religieux pour montrer des ciels remplis de nuages réalistes, balayant souvent d’ouest en est les Pays-Bas.
« Le même mais plus sombre »
En 1785, le peintre paysagiste britannique Alexander Cozens publie une Nouvelle Méthode pour assister l’invention dans le dessin de compositions originales de paysages (A New Method of Assisting the Invention in Drawing Original Compositions of Landscape). Sa méthode du blot drawing (« dessin par tâches », en français), destinée aux peintres, utilise les taches d’encre comme point de départ d’une composition paysagère.
Vingt gravures de ciels accompagnent ce traité. Composées par paire, elles sont pour la plupart intitulées La même chose que la précédente, mais en plus sombre (The Same as the Last but Darker), signe que la dénomination des nuages n’est pas alors la question.

De fait, en Europe, le premier projet encyclopédique de répertoire de nuages n’apparaît qu’au XIIIe siècle avec le livre XI du Livre des propriétés des choses, du moine franciscain Barthélemy l’Anglais qui se contente d’évoquer leur diversité de formes et de couleurs, sans leur apposer de noms spécifiques. Pour lui, le nuage se forme
« car la chaleur du ciel attire très subtilement vers elle les exhalaisons de l’eau et de la terre ; elle en sépare les parties les plus légères, assemble le reliquat et les convertit en nuages ».

Pour suivre au plus près les questions environnementales, retrouvez chaque jeudi notre newsletter thématique « Ici la Terre ».
Cirrus 1-Diablotins 0
Des propositions de classification des « états du ciel » sont ensuite proposées par l’érudit Robert Hooke, à la Société royale de Londres pour l’amélioration des connaissances naturelles (communément appelée la Royal Society) ou bien par la Société météorologique palatine (1780). Il faut ensuite attendre 1802 pour que deux classifications de nuages soient élaborées par des hommes de sciences. Le premier est le naturaliste français Jean-Baptiste de Lamarck qui s’efforce de mettre au point, de 1802 à 1818, une classification en français. Il proposera in fine au moins trois typologies de nuages, aux résonances plus poétiques que scientifiques : nuages en lambeaux, attroupés, boursouflés, en balayures, diablotins…
Vint ensuite le Britannique Luke Howard. Ce jeune quaker, pharmacien et météorologue amateur, publie en 1803 On the Modifications of Clouds que la postérité retiendra. À la manière du botaniste suédois Carl von Linné quelques décennies plus tôt, Howard distingue et nomme en latin les différentes formations nuageuses : cirrus (« boucle de cheveux », en latin), nimbus (« nuage orageux »), cumulus (« amas ») et stratus (« étendu »).
Mais Howard prend malgré tout quelques libertés vis-à-vis de la méthode de son prédécesseur. D’abord, parce que Linné avait identifié trois grands groupes d’objets d’étude (baptisés « règnes ») – le minéral, le végétal et l’animal – et que, pour évoquer les nuages, il faut donc sortir de ces délimitations.
Ensuite, Howard s’affranchit aussi des subdivisions de Linné qui répartit, au sein de ses différents règnes, les objets d’études en classes, espèces et genres. Pour les nuages, Howard distingue des « modifications », au sens de formations nuageuses. Il dénombre ainsi :
trois « modifications » simples (cirrus, cumulus, stratus) ;
deux intermédiaires, combinaison de deux formations simples (cirro-cumulus, cirro-stratus) et deux composées (le cumulo-stratus, ou cirro-stratus fondu avec un cumulus, et le cumulo-cirro-stratus, ou nimbus, c’est-à-dire le nuage le plus dense, le nuage de pluie.
Dessiner pour démontrer
Pour accompagner cette dénomination, Howard va proposer des dessins, comme les naturalistes le faisaient par exemple pour les plantes. La première édition de On the Modifications of Clouds, parue en 1803, comporte ainsi trois planches.

La nouvelle édition de 1865, publiée sous le titre Essay on the Modifications of Clouds, est, pour sa part, illustrée de gravures représentant des compositions paysagères de nuages étagés d’après ses esquisses de ciel surmontant une partie terrestre dessinée par le peintre Edward Kennion.

Grâce à Goethe, qui s’intéressa très tôt à la météorologie et notamment aux nuages, Howard fut vite reconnu par les artistes européens. À la fin de son Essai de théorie météorologique (1825), il saluera en Howard « l’homme qui sut distinguer les nuages ». Si Howard ne parvint pas à convaincre Caspar David Friedrich, le peintre du célèbre Voyageur au-dessus de la mer de nuages (1818), de peindre des nuages « d’après Howard » (« Ce serait, lui rétorque Friedrich, la mort du paysage en peinture »), les peintres de l’époque romantique ne peuvent en tout cas plus ignorer que la perception des nuages est désormais informée mais peut-être aussi limitée, selon certains, par la classification de Howard.
Topographie de nuages britanniques et brésiliens
Celui qui s’en accommoda le mieux fut John Constable. Au début de la décennie 1820, et durant deux années, il scrute depuis son quartier de Hampstead les ciels londoniens et produit une série d’études à l’huile à travers lesquelles il cherche à retranscrire la variation des conditions météorologiques à différents moments de la journée.
L’artiste complète souvent ses Cloud Studies, exécutées sur papier d’après la nomenclature de Howard, avec des mentions de la date, de l’heure, de la direction du vent.

L’exactitude météorologique de ces précisions a pu être vérifiée. L’impression de mouvement est donnée par les formes des nuages. La technique, inédite pour l’époque, consiste en de larges brossages sur des sous-couches colorées.
Bien loin de là, au Brésil, à la latitude du tropique du Capricorne, un autre peintre, Hercule Florence, a, de son côté, entrepris d’immortaliser les ciels de Campinas, à 90 kilomètres au nord de Sao Paulo, de 1832 à 1837. Il partage avec Constable un souci d’authenticité. Puisque « […] les ciels de la zone torride sont différents des ciels des contrées tempérées », il publie un Atlas pittoresque des ciels à l’usage des jeunes paysagistes. Ce catalogue comprend vingt-deux aquarelles numérotées, datées et décrites minutieusement, sans référence à la nomenclature latine des nuages, inconnue d’Hercule Florence.

Il s’adresse en priorité aux peintres afin de les aider à représenter dans leurs tableaux des arrière-plans vraisemblables et fidèles à la saison et à l’heure.
Vers un Atlas international des nuages
Dans les sphères scientifiques, cependant, la classification de Howard reste, pendant plusieurs décennies, peu et mal utilisée. Un météorologiste de Cuba André Poey pose même la question de l’universalité des types de nuage et de la subjectivité du dessin. Pour évaluer cela, le congrès météorologique international de 1879 décide alors d’envoyer le météorologiste et photographe britannique Ralph Abercromby faire deux tours du monde.
Il publiera au retour Sur l’identité des formes de nuages tout autour du monde. Son travail débouchera également sur une classification internationale des nuages, largement inspirée de Howard, mais complétée d’une nomenclature fondée sur dix principaux types de nuages.

Cette typologie sera consacrée par l’édition, en 1891, des Instructions météorologiques, d’Alfred Angot, suivies, en 1896, par l’Atlas international des nuages, établi par les météorologues Hugo Hildebrand Hildebransson, Albert Riggenbach et Léon Teisserenc de Bort pour fixer les catégories de nuages « universels ». Selon les auteurs, les dessins sont trop schématiques et les peintures peu fidèles. Les photographies donnent des résultats plus réalistes. L’Atlas est donc illustré par 16 photographies prises par Ralph Abercromby.
De l’ordinaire à l’extraordinaire des ciels
Mais les peintres ne cessent pas pour autant de s’intéresser aux nuages.
De 1912 à 1951, par exemple, le peintre français André des Gachons, qui a installé une station météorologique dans son jardin de la Chaussée-sur-Marne (Marne) et qui devient bénévole des services météorologiques, peint d’une à trois aquarelles de ciel chaque jour. Neuf mille six cents œuvres sont ainsi répertoriées dans des cahiers. Les aquarelles s’intègrent à une planche sur laquelle figurent aussi les relevés de caractères de l’air.
L’originalité de ce travail réside dans la répétition sur une longue durée et la mise en mémoire de ciels très ordinaires. On n’y trouve que quelques ciels avec des nuages extraordinaires (explosions de munitions, tirs de DCA, etc.) observés pendant la Première Guerre mondiale.

Aujourd’hui, nombre d’artistes continuent de se saisir de cet objet évanescent. Polymorphe, le nuage l’est aussi dans les messages qu’il peut porter, incarnant le rêve et la liberté pour Sylvain Soussan dans son musée des nuages, le mouvement et l’inconstance pour François Réau, l’incertitude pour Benoît Pinero) marchant dans le brouillard dans la vallée de la Loire ou même l’apocalypse à travers l’illustration choisie par la BNF pour l’exposition sur ce thème.

Quant à l’Atlas international des nuages, il se dote régulièrement de nouveaux nuages, comme le cataractgenitus qui se forme au-dessus des chutes d’eau. De quoi, de nouveau, inspirer les peintres et former de nouveaux traits d’union entre art et science.

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.
26.03.2025 à 16:30
Poids lourds et pollution : comment accélérer l’électrification ?
Texte intégral (2531 mots)

Les poids lourds représentent 27 % des émissions de CO2 liées au transport. Leur électrification apparaît ainsi indispensable pour réduire leurs émissions de gaz à effet de serre, mais celle-ci peine à se déployer pour l’instant, notamment du fait de son coût élevé. Différents leviers sont actionnés pour accélérer cette transition.
Les poids lourds représentent, en France, 27 % des émissions de CO₂ liées aux transports, alors même qu’ils ne constituent que 1,3 % du parc automobile du pays. Le parc des camions compte environ 600 000 véhicules quand la France recense 39 millions de voitures. Un constat qui s’explique à la fois par leur très forte consommation de carburant et par le fait qu’ils roulent sur de très longues distances.
L’enjeu de diminuer leur impact environnemental apparaît donc majeur. Pour cela, plusieurs options existent aujourd’hui :
la plus plébiscitée actuellement est de se tourner vers le biocarburant B100, produit à partir de colza. Il s’agit de l’unique biocarburant éligible, à ce stade, à la vignette Crit’Air 1, qui sera peut-être un jour la seule permettant d’accéder à certaines zones à faibles émissions (ZFE). Il a l’avantage d’être facile à adopter : il suffit de le substituer au diesel dans son réservoir et de s’assurer que son véhicule est bien compatible.
La deuxième option vers laquelle se tournent nombre d’acteurs du transport routier est le gaz naturel véhicule, en privilégiant autant que possible son alternative renouvelable avec le biogaz naturel véhicule. Là aussi, éligible à la vignette Crit’Air 1, sa mise en œuvre est plus complexe, avec l’achat d’un camion dédié et la nécessité de se situer à proximité d’une station de gaz naturel pour véhicules (GNV).
La dernière option est l’achat d’un poids lourd électrique, qui demeure très minoritaire. Sur les quelque 50 000 camions vendus en France en 2024, seuls 670 étaient électriques, soit 1,4 % du marché – contre 33 % des bus et 16,9 % des voitures.
Cette solution constitue pourtant le choix le plus vertueux sur le plan environnemental, mais certains freins restent à lever pour faciliter son déploiement.
À lire aussi : Quelle technologie de batterie pour les voitures électriques ? Un dilemme de souveraineté industrielle pour l’Europe
Électrifier, l’option privilégiée par la France
Le premier intérêt du poids lourd électrique est son absence d’émissions de particules fines et d’oxyde d’azote. Les émissions de CO2 ne sont pas nulles – il faut prendre en compte celles liées à la production de l’électricité utilisée –, mais elles sont malgré tout 75 % plus faibles que celles d’un camion diesel.
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
Il est ainsi particulièrement pertinent pour les centres-villes, où circulent tous les petits poids lourds de 19 tonnes qui réalisent les livraisons du dernier kilomètre.
Le marché des batteries étant déjà tiré par les constructeurs de véhicules particuliers, la présence de très gros constructeurs devrait permettre d’importantes économies d’échelle qui, indirectement, vont aider à faire baisser le prix des camions.
La filière possède en outre un excellent rendement « du puits à la roue » (c’est-à-dire, prenant en compte tout le cycle de vie de l’énergie utilisée), bien meilleur que ceux des filières diesel ou hydrogène par exemple. La France étant dotée d’une énergie électrique majoritairement décarbonée, elle aurait tort de s’en priver, d’autant que son réseau électrique est également très développé et très performant, maillage qui facilitera le déploiement de stations de charge sur l’ensemble du territoire.
C’est donc depuis quelques mois cette option qui mobilise en France la plus forte volonté politique, en accord aussi avec les différents acteurs français de l’industrie automobile qui privilégient la filière électrique à l’hydrogène. La plupart des constructeurs de camions envisagent d’ailleurs de vendre au moins 50 % de véhicules électriques à partir de 2030, sachant que l’Europe leur impose par ailleurs des quotas relativement stricts de réduction de leurs émissions de CO2.
Cette transformation pose toutefois de nombreux défis.
Pousser le développement de la filière
Le premier défi est de parvenir à structurer la filière en incitant ses acteurs à investir massivement dans le développement des poids lourds électriques.
Cela passe aujourd’hui principalement par la réglementation. Des règles drastiques ont ainsi été imposées au cours des dernières années aux constructeurs par l’UE, qui sont désormais tenus de diminuer de 45 % leurs émissions moyennes de CO2 en 2030, de 65 % d’ici à 2035 et de 90 % à horizon 2040.
À cette réglementation s’ajoutent les « normes euro » qui encadrent les émissions de polluants. La prochaine, Euro 7, sera introduite en 2028. Là aussi, l’absence d’émissions de particules et d’oxydes d’azote par le poids lourd électrique joue en sa faveur. Respecter ces seuils les forcera à redoubler d’ingéniosité pour accélérer leur production de poids lourds électriques.
Le défi est également technique : sur les camions électriques, le poids important des batteries augmente la charge à l’essieu, qui peut excéder la charge maximale réglementaire admissible et risque de mettre à mal l’architecture du véhicule. Une contrainte qui doit être prise en compte par le constructeur – en ajoutant par exemple un essieu supplémentaire – et qui rehausse mécaniquement le prix final.
Déployer des infrastructures de recharge
L’autre pan de la transition des poids lourds vers l’électrique est le déploiement indispensable d’infrastructures de recharge. Si les petits camions (parfois équipés de chargeurs embarqués) et les bus peuvent se recharger au dépôt, les gros qui réalisent de longues distances sur plusieurs jours doivent pouvoir trouver, au fil de leurs trajets, des stations de recharge.
Or, aujourd’hui, la France ne compte qu’une trentaine de stations poids lourds, chacune étant dotée de trois ou quatre bornes de recharge. Ce chiffre devrait atteindre 80 à 90 stations d’ici la fin de l’année. Par ailleurs le règlement européen AFIR impose aux pays de l’UE d’implanter des bornes d’au moins 350 kilowatts (kW) pour les poids lourds sur les principaux axes routiers, avec deux paliers de déploiement prévus à horizon 2025 puis 2030.
Selon un rapport de mars 2024, commandé sur le sujet par des entreprises privées, dont Enedis, TotalEnergies et Vinci Autoroutes, ce besoin devrait grimper d’ici à 2035 à 12 200 bornes réparties sur 519 aires de services et de repos. On estime à 630 millions le coûts des investissements alors nécessaires pour répondre à ces besoins.
À noter que certaines de ces stations pourront dépasser très prochainement le seuil de 1 MW de puissance, contre 350 à 400 kW aujourd’hui. Un camion électrique pourra ainsi se recharger intégralement en trente minutes, pendant la pause du chauffeur, contre plus d’une heure aujourd’hui. Une réponse à la question de l’autonomie des véhicules, souvent pointée comme un frein à leur adoption.
Le rapport est en outre rassurant sur les éventuels risques de tension que ce déploiement pourrait faire émerger sur le réseau électrique. Il pointe une très forte complémentarité entre poids lourds électriques et véhicules légers électriques, les premiers se rechargeant plutôt en journée et en semaine, quand les seconds sont rechargés plutôt la nuit et les week-ends.
Une nouvelle problématique surgit toutefois quant aux bornes de recharge : le foncier à mobiliser. De plus en plus puissantes, elles prennent aussi de plus en plus de place : une station de type MCS (Megawatt Charging System) prend à elle seule la place d’un tracteur routier (véhicule motorisé qui tracte la semi-remorque des poids lourds) avec sa remorque !
Lever les obstacles économiques
Aujourd’hui, le principal obstacle à la bascule des poids lourds vers l’électrique est économique. Le coût très élevé des poids lourds électriques, en particulier, constitue le frein majeur à leur appropriation. À l’achat, un tel véhicule présente aujourd’hui trois fois le coût d’un poids lourd thermique.
Ce prix, même s’il devrait diminuer avec le temps, est tel que les économies réalisées à l’utilisation – par l’alimentation en électricité plutôt qu’en gasoil – ne suffisent pas à compenser son surcoût pour l’instant.
Si l’on souhaite amorcer dès à présent la transition, l’aide publique sera donc indispensable. Dans ce cadre, l’Agence de la transition écologique (Ademe) a lancé, en 2024, l’appel à projets e-Trans, qui vient financer des véhicules lourds électriques. Doté d’une enveloppe totale de 110 millions d’euros, le budget de cet AAP est réparti en trois lots distincts : 95 millions d’euros pour les poids lourds 100 % électriques à batterie, 10 millions d’euros pour les autobus et navettes urbaines 100 % électriques à batterie et 5 millions d’euros pour les autocars 100 % électriques à batterie.
Depuis, un deuxième système a été créé par le gouvernement qui repose sur des fiches CEE (Certificat économie d’énergie). Ces aides financées par les pénalités payées par des entreprises polluantes octroient des bonus de 35 à 53 000 euros sur tous les achats de poids lourds électriques engagés avant 2030.
Enfin, le programme public Advenir vise à subventionner des infrastructures de charge.
Innover avec les autoroutes électrifiées et le rétrofit
Par ailleurs, deux systèmes innovants en matière d’électrification méritent que l’on s’y attarde : les autoroutes électrifiées et le rétrofit. Chacun présente des atouts pour atténuer le frein économique, diminuer l’impact environnemental de ces véhicules ou les besoins en bornes de recharge.
En premier lieu, les autoroutes électrifiées : équipées de rails au sol, de caténaires ou de systèmes à induction, elles permettraient aux poids lourds – et peut-être, à plus long terme, aux voitures – de se recharger en roulant. Son principal atout est d’alléger les camions, en les dotant de batteries plus petites, donc de réduire le besoin en bornes de recharge et de diminuer la pression sur les métaux critiques : lithium, cobalt, nickel ou graphite… dont l’usage va entrer en compétition avec d’autres secteurs.
Une des limites de ce système est qu’il doit idéalement être transfrontalier. Un camion transitant de l’Allemagne à la France devra pouvoir bénéficier d’une continuité de service. Or ces deux pays envisagent à ce stade deux méthodes différentes : le rail pour la France, la caténaire pour l’Allemagne. Des efforts de coordination apparaissent indispensables.
L’autre problème relève de la temporalité. Le système ne sera sans doute mature qu’en 2030. D’ici là, la filière de poids lourds électriques classiques et les infrastructures de recharge ont le temps de se développer… La solution sera-t-elle toujours pertinente ? La viabilité économique du système pose aussi question : le système sera-t-il suffisamment utilisé ? Au risque, sinon, que l’opérateur ne puisse se rémunérer.
Le rétrofit, enfin, qui consiste à convertir un véhicule thermique de plus de cinq ans en véhicule électrique en remplaçant le moteur, est un autre système à creuser. La méthode émerge pour l’instant sur les autocars, pour lesquels l’équation économique est plus favorable. Mais le marché du camion commence à s’y intéresser. Beaucoup moins chère qu’un camion neuf, plus vertueuse d’un point de vue environnemental, cette solution apparaît plus viable à court terme que les autoroutes électrifiées.
Investir de façon cohérente
Des freins, évoqués au fil de l’article, restent à lever pour qu’une bascule définitive s’opère dans le secteur des poids lourds vers l’électrique.
Toutefois, les injonctions réglementaires envers la filière, les investissements dans les infrastructures de recharge et l’accompagnement public d’incitation à l’achat de poids lourds électriques devraient accélérer le processus.
Aujourd’hui, l’État s’engage dans cette direction, mais il doit veiller à ne pas diluer ses efforts. D’autres investissements ont lieu dans des filières comme le gaz ou l’hydrogène : si des complémentarités peuvent exister avec la filière des poids lourds électriques, il faut toutefois veiller à ce qu’ils ne viennent pas phagocyter les efforts alloués à ces derniers.

Denis Benita ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
25.03.2025 à 16:47
Nos allergies au pollen sont-elles liées au sexe des arbres ?
Texte intégral (3990 mots)
Une théorie abondamment diffusée en ligne accuse les arbres mâles d’être responsables des allergies au pollen de plus en plus fréquentes en ville. L’occasion de revenir sur le monde fascinant de la sexualité des arbres.
Le printemps arrive, et avec lui, le moment fatidique de la reproduction sexuée des plantes. Mais comment cela se passe-t-il ? Comme souvent le vivant est aussi divers qu’étonnant, et son observation a parfois pu donner lieu à des interrogations sur de possibles guerres de sexe, voire à des accusations de « sexisme botanique ». Qu’en est-il réellement ?
Monoïque ou dioïques ?
Chez la plupart des espèces d’arbres que vous connaissez, chaque individu possède à la fois des organes reproducteurs mâles et femelles. On dit qu’ils sont bisexués.
Au sein de ces bisexués, on trouve deux grandes catégories.
Chez l’ensemble des conifères (les pins, sapins, cèdres…) et chez beaucoup d’essences forestières, on trouve sur un même arbre, des fleurs (ou cônes chez les conifères) mâles et des fleurs (ou cônes) femelles. On parle alors d’espèces monoïques.
Visuellement, ces fleurs ou cônes mâles et femelles sont différentes. Chez le chêne ou le noisetier, par exemple, les fleurs mâles sont regroupées sur des sortes d’épis que l’on nomme chatons, alors que les fleurs femelles sont minuscules, semblables à de petits bourgeons d’où émergent les stigmates qui vont capter les grains de pollen.

Chez les pins, les cônes mâles jaune vif constitués de nombreuses étamines sont plus petits que les cônes femelles qui se transformeront en « pommes de pin » après fécondation.

Mais parfois, aussi, les deux sexes se retrouvent dans une même fleur. On parle alors d’arbres à fleurs hermaphrodites. C’est moins courant pour les arbres de nos forêts (même si l’on peut voir de telles fleurs sur le tilleul ou sur les sorbiers), mais c’est la règle chez les fruitiers (pommiers, cerisiers, cognassiers…) et chez beaucoup d’arbres d’agrément (magnolias, marronniers).
Chez d’autres arbres, la situation est encore différente. On trouve certains individus qui ne portent que des organes mâles produisant du pollen et d’autres individus qui ne portent eux que des organes femelles, produisant des ovules, puis qui produiront des fruits. Il y a donc des arbres mâles et des arbres femelles. On dit que ces espèces sont dioïques.
Si une telle répartition sexuelle, avec des individus mâles et des individus femelles est la règle chez les humains et chez nombre d’animaux, il est plutôt rare dans le règne végétal. Seuls 6 % des 300 000 espèces de plantes recensées présentent cette particularité. On peut citer le Ginkgo biloba, l’if (Taxus baccata), le genévrier thurifère (Juniperus thurifera), les peupliers (Populus sp) ou encore le palmier-dattier (Phoenix dactylifera). Pour cette dernière espèce, comme pour une espèce herbacée, le compagnon blanc (Silene latifolia), on a même pu identifier la présence de chromosomes sexuels XY pour les mâles et XX pour les femelles.
Cette répartition des organes sexués est donc peu courante, mais elle présente cependant un avantage majeur. Celui d’éviter toute consanguinité. Le pollen produit par un arbre mâle devra, transporté par le vent ou par des animaux, trouver un arbre femelle pour se reproduire. Et cet arbre femelle sera génétiquement différent du mâle. D’où un brassage génétique important en perspective.
Les espèces bisexuées, qui portent donc sur le même arbre des organes sexués des deux sexes, quant à elles, ont dû développer d’autres stratégies pour limiter cette consanguinité, tel le décalage temporel dans l’épanouissement des organes mâles et femelles. Ainsi, les étamines n’arrivant pas à maturité en même temps que le pistil de la même fleur, le pollen de cette fleur devra aller féconder des fleurs d’autres individus au pistil mature et génétiquement différents.
Mais la répartition des sexes est loin d’être toujours aussi tranchée et fixée. Dans des populations de frêne commun (Fraxinus excelsior), on peut ainsi rencontrer des arbres mâles, femelles ou bien bisexués.
Le mystère des vieux genévriers
Plus étrange encore, les extraordinaires vieux genévriers (Juniperus phoenicea) des gorges de l’Ardèche ou du Verdon sont réputés bisexués, mais ont en réalité une sexualité hésitante. Ils peuvent de fait changer de sexe ; bisexués une année, mâles ou femelles une autre. Cela correspond-il à une adaptation aux conditions environnementales particulièrement difficiles de ces falaises verticales, au sol quasi inexistant, permettant à ces arbres d’atteindre des âges qui peuvent dépasser un millier d’années ? L’écologue Jean-Paul Mandin, grand spécialiste de ces étonnants arbres de falaise a pu montrer que, dans leur grande majorité, les individus bisexuels passent ensuite par un état mâle, c’est-à-dire par une année où ils n’expriment pas leur sexe femelle.
Il émet l’hypothèse que tout se passe comme si un individu qui a fait des fleurs femelles et donc qui a ensuite investi beaucoup d’énergie dans le développement des fruits, se « reposait » l’année suivante en étant nettement plus mâle ou en ne fleurissant pas du tout.
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
Le sex-ratio : mâles ou femelles à égalité ?
Si l’on se concentre maintenant sur les espèces chez qui l’on trouve systématiquement des arbres mâles et des arbres femelles, de nombreuses questions adviennnent. D’abord, y-a-t-il autant d’individus mâles que d’individus femelles ? Cette question, essentielle d’un point de vue écologique est celle du sex-ratio. Si cette proportion est déséquilibrée, avec par exemple, plus de femelles que de mâles, quelle en est la signification ? ; les arbres femelles sont-ils plus résistants que les mâles ? Quelles conséquences y-a-t-il à terme sur la dynamique de cette population ?
Pour beaucoup d’espèces, il a été suggéré que les femelles seraient moins nombreuses, car moins compétitives. Elles investissent de fait plus de ressources que les mâles, car elles produisent des ovules qui donnent ensuite des fruits, souvent de grande taille, quand les mâles produisent eux du pollen, certes en grande quantité mais plus petit. Cet investissement des femelles pourrait donc se faire au détriment de leur croissance ou de la défense contre les prédateurs, ce qui les rendrait plus vulnérables que les mâles, limiterait leur longévité et entraînerait à terme un sex-ratio en faveur de ces derniers.
Mais ce n’est pas une règle générale.
Un sex-ratio où prédomine les femelles a par exemple été retrouvé au niveau des populations de genévrier thurifère des Atlas marocains qui ont bénéficié d’une analyse très précise afin de mieux comprendre la dynamique de ces populations menacées par la hache du berger, la dent du bétail et le changement climatique.
Les genévriers thurifères mâles produisent du pollen en très grande quantité car sa pollinisation se fait par le vent. Ce pollen produit est donc majoritairement exporté et représente une perte brute pour l’arbre. Les genévriers mâles investissent ainsi beaucoup dans la reproduction et pourraient alors être moins compétitifs que les femelles.
Mais de leur côté, la production de cônes femelles, qu’on appelle des galbules, peut également être considérable (jusqu’à 4 kg de galbules par an). Cependant, contrairement au pollen, ces galbules restent sur place, tombant sous la couronne des arbres, et enrichissent ainsi le sol en nutriments quand ils se décomposent. Un phénomène tout au bénéfice de l’arbre qui voit que son investissement important dans la production de cônes femelles est alors compensé par l’amélioration du sol où croissent ses racines.
À lire aussi : L’avantage d’avoir des petites feuilles pour certains arbres
Cet investissement différent dans la reproduction au détriment de la croissance n’est sans doute pas le seul facteur permettant d’expliquer ce sex-ratio des populations de genévrier. À l’heure actuelle cependant, il n’existe pas d’autres éléments montrant qu’un sexe soit, par exemple, plus sollicité qu’un autre par le troupeau ou les habitants des villages environnants.
Car le sex-ratio peut aussi être lié directement à l’action humaine. C’est le cas des palmeraies marocaines. Dans les palmeraies « naturelles », il peut y avoir autant de mâles que de femelles. Par contre, dans les vergers à l’exploitation raisonnée, les palmiers femelles ont été privilégiés par rapport aux mâles qui ne doivent pas représenter plus de 4 % des arbres, car seuls les palmiers femelles produisent des dattes. On fait alors appel à une pollinisation artificielle traditionnelle ou semi-mécanisée.
Les arbres mâles, responsables d’allergies ?
Récemment, c’est le sex-ratio des arbres en ville qui a été l’objet de nombreuses interrogations.
Beaucoup d’allergies étant dues aux grains de pollens produits uniquement par l’appareil reproducteur mâle des fleurs, une polémique s’est développée tentant d’accuser les paysagistes urbains et leur « sexisme botanique » qui serait responsable de l’augmentation des allergies.
Abondemment partagées sur TikTok, à partir de 2021, cette théorie défend l’idée que l’on s’est mis à ne planter que des arbres mâles, producteurs de pollens allergènes dans les villes pour éviter les désagréments que peuvent causer leurs homologues femelles qui, en produisant des fruits et des graines, peuvent générer des détritus, des trottoirs glissants, obstruer les égouts…
Cependant, en remontant le fil de cette idée devenue virale sur les réseaux sociaux, on se rend compte que cette théorie est tirée d’un ouvrage mentionnant cette réalité pour une seule espèce dioïque : les peupliers deltoïdes dont seuls les mâles sont plantés dans certaines villes des États-Unis.
Or, les principaux responsables des allergies respiratoires demeurent eux des arbres bisexués (cyprès, noisetier, bouleau, aulne, platane, chêne, frêne, tilleul, etc.), et le peuplier qui a généré cette folle théorie en ligne, quant à lui, n’est pas tellement présent dans nos villes. Ne jetons donc pas la pierre aux arbres mâles. La science considère évidemment que l’on ne peut établir de hiérarchie entre arbres mâles et femelles au sein d’une espèce dioïque, les deux étant indispensables à la pérennité de l’espèce. D’ailleurs, nous l’avons vu, chacun des sexes doit déployer des efforts importants afin de produire soit du pollen, soit des fruits et des graines.
Enfin, les allergies peuvent aussi être des allergies de contact ou en relation avec le fruit ou la graine ingérée… et là, peu importe le sexe de l’arbre sachant que si l’on parle d’allergies liées au fruit, c’est l’arbre femelle qui sera responsable si l’espèce est dioïque.
Ne nous trompons donc pas d’ennemi. L’accroissement des allergies au pollen en ville est en réalité dû au changement climatique, qui entraîne une production de pollen plus tôt en saison et en plus grande quantité, et aux pollutions atmosphériques qui contribuent à l’intensification des symptômes d’allergie.

Thierry Gauquelin ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
25.03.2025 à 16:40
La transition numérique dans l’enseignement supérieur et dans la recherche est-elle compatible avec l’écologie ?
Texte intégral (2093 mots)

L’empreinte carbone de la transition numérique risque-t-elle d’exploser à l’aune de l’essor des intelligences artificielles génératives ? Cette question concerne aussi le secteur de l’enseignement supérieur et de la recherche.
En matière de transition numérique, les secteurs de l’enseignement supérieur et de la recherche (ESR) sont loin d’être à la traîne. En effet, la recherche repose déjà massivement sur des infrastructures de calcul et de stockage, sur des réseaux de communication permettant une collaboration internationale efficace, et les enseignements utilisent tous les jours des plates-formes pédagogiques numériques. Mais cette numérisation massive est-elle compatible avec la transition écologique ?
Dans l’ESR comme ailleurs, le numérique a des impacts environnementaux positifs et négatifs. Au même titre que les autres universités, l’Université de Lille est impliquée dans cette transition. Celle-ci est mise en perspective avec l’irruption de l’intelligence artificielle (IA) générative à l’occasion de la semaine des transitions organisée par l’Université de Lille. L’occasion de faire le point sur les liens entre transition numérique et écologique.
La transition numérique, un enjeu pour l’ESR
La transition écologique et la transition numérique ont un point commun : elles décrivent toutes les deux la transformation d’un système pour passer d’un état stable à un autre.
Si on regarde l’enseignement supérieur, la transition numérique est déjà très largement entamée. Les systèmes d’information des établissements d’enseignement supérieur gèrent déjà à l’aide d’outils informatiques la plupart de leurs grandes fonctions : scolarité, gestion des ressources (humaines, financières, immobilières), recherche…
Par ailleurs, les étudiants et les personnels bénéficient d’une large gamme d’outils de communication et de travail collaboratif. Le recours aux plates-formes numériques pour l’enseignement s’est généralisé (plateformes pédagogiques, classes virtuelles, etc.). Tout ceci est bien documenté dans la collection numérique éditée par l’Agence de mutualisation des universités et des établissements (Amue).
Le numérique a eu, depuis la fin des années 1980, un effet transformateur majeur sur les établissements d’enseignement supérieur, bien avant d’autres pans de la société. C’est aussi cela qui leur a permis de traverser la crise du Covid-19 sans cesser de former les étudiants et de produire des connaissances.
Nous sommes ainsi arrivés à un niveau de maturité numérique où les établissements construisent leurs propres schémas directeurs du numérique pour planifier l’évolution de leurs systèmes d’information en fonction de l’évolution des besoins et des technologies.
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
Il reste toutefois beaucoup à faire : les établissements doivent s’adapter aux innovations numériques et, notamment, à la déferlante des intelligences artificielles génératives.
Les impacts environnementaux du numérique
Les impacts environnementaux du numérique commencent à être bien documentés. L’Ademe, entre autres, a produit plusieurs documents faisant le bilan des connaissances sur ce sujet.
Elle estime que le numérique (data centres, réseaux et terminaux) représente en France :
une empreinte carbone de 29,5 millions de tonnes équivalent CO2, soit 4,4 % de l’empreinte carbone nationale, soit l’équivalent des émissions dues aux poids lourds,
une consommation électrique de 51,5 térawatts-heures, soit 11 % de la consommation électrique totale,
Sans mesures correctrices dans les années à venir, son impact devrait croître de manière difficile à suivre.
Ces impacts sont probablement sous-évalués, car ces évaluations datent d’avant la révolution de l’intelligence artificielle (IA) générative et ne prennent pas en compte les impacts hors du territoire français des usages numériques (en particulier ceux faisant appel à des traitements effectués dans des data centres situés à l’étranger).
La fabrication des matériels informatiques en constitue la part principale. Celle-ci constitue 80 % de l’empreinte carbone du numérique, tout en entraînant des pollutions des eaux et des sols du fait de l’extraction des matières premières.
L’ONU, dans son rapport sur l’économie numérique en 2024, insiste également sur la consommation d’eau du numérique, à la fois pour la fabrication du matériel que pour son utilisation. Les plus gros data centres utilisent des systèmes de refroidissement à eau liquide qui posent des conflits d’usage. Les investissements massifs en cours dans l’IA générative pourraient encore aggraver le problème.
À lire aussi : Impact environnemental du numérique : l’inquiétant boom à venir
# Une préoccupation grandissante au sein de l’ESR
Comment relever ces nouveaux défis, et à quel prix ? Cette transition vers l’IA générative est-elle encore soutenable au plan écologique ? Faut-il miser sur celle-ci ou la ralentir ? Tout dépend, en définitive, de ce que l’on souhaite en faire.
Vaut-il mieux utiliser l’IA pour chercher de nouveaux forages pétroliers ou pour améliorer les prévisions sur l’évolution du climat ? Dans ce contexte, l’enjeu de sobriété et d’écoresponsabilité numérique peut aussi s’appliquer à l’enseignement supérieur et à la recherche (ESR).
La communauté de l’ESR s’interroge sur ces questions, comme en témoignent plusieurs initiatives, par exemple les journées GreenDays, qui rassemblent chaque année depuis douze ans les chercheurs de diverses disciplines intéressés au numérique écoresponsable.
Du point de vue des infrastructures, l’ESR a déjà effectué une large part de sa mue numérique, à la fois pour les systèmes d’information et pour le soutien à la recherche avec des supercalculateurs – comme ceux qui sont proposés par Genci ou au sein du mésocentre de calcul scientifique de l’Université de Lille.

La démarche de mutualisation des moyens de calcul de l’Université de Lille, engagée dès 2011, permet de regrouper les financements sur projets pour construire une infrastructure efficace et partagée au bénéfice de tous les chercheurs du site. Son hébergement dans le data center de l’université assure une meilleure efficacité énergétique du refroidissement de cette infrastructure que si elle était dispersée dans de multiples petites salles. De plus, cette mutualisation permet d’éviter les périodes de faible utilisation des machines, en plus d’en réduire le nombre.
Plusieurs démarches sont engagées dans l’enseignement supérieur et la recherche au niveau national pour maîtriser l’impact de ces infrastructures numériques :
un marché public national d’achat de matériel informatique qui inclut des contraintes environnementales,
une mutualisation des hébergements informatiques dans des data centres régionaux avec un plan de fermeture des petits sites, moins efficaces au plan énergétique,
et le développement de communs numériques dans une démarche d’écoconception, coordonnée au niveau national par le Coreale.
Ces enjeux concernent aussi les formations portées par les établissements d’enseignement supérieur. Ces établissements incluent de plus en plus systématiquement des modules de cours sur les impacts du numérique dans ses formations en informatique. À l’Université de Lille par exemple, on trouve une fresque du numérique en licence et des unités d’enseignement dédiées en master ainsi qu’en formation d’ingénieurs. Le groupe de travail EcoInfo a d’ailleurs produit un référentiel de connaissances pour un numérique éco-responsable qui aide à construire ces modules de formation.
La formation à la « transition écologique pour un développement soutenable » est en outre préconisée pour tous les étudiants de premier cycle à partir de 2025.
Enfin, pour le grand public et les autres organisations, l’Ademe, le CNRS et Inria portent le projet AltImpact, qui vise à sensibiliser aux enjeux du numérique écoresponsable et liste de nombreuses bonnes pratiques actionnables à la maison, au travail ou dans une organisation.
Cet article est publié dans le cadre de la Semaine des transitions, organisée par l’Université de Lille du 24 au 29 mars 2025.

Pierre Boulet est membre du GDRS EcoInfo et de l'association VP-Num des vices-présidents en charge du numérique dans les établissements d'enseignement supérieur. Il a reçu des financements de l'ANR, de la Métropole Européenne de Lille, de la Région Hauts-de-France et de la Commission Européenne pour ses travaux de recherche.
24.03.2025 à 16:22
Un data center près de chez soi, bonne ou mauvaise nouvelle ?
Texte intégral (2174 mots)
Les annonces se multiplient en France et à l’étranger sur la construction de centres de données gigantesques, dédiés à répondre aux besoins en puissance de calcul de plus en plus colossaux requis par l’intelligence artificielle (IA). En France, il apparaît urgent de planifier et de réguler ce déploiement sur le territoire, qui n’est pas sans risque de créer des conflits dans l’allocation des ressources en électricité.
À l’occasion du sommet sur l’intelligence artificielle qui s’est tenu les 10 et 11 février 2024, le gouvernement a annoncé 109 milliards d’euros d’investissements privés. Parmi ces financements, une partie sera consacrée à la construction de deux centres de données d’une puissance de 1 GW chacun. Le gouvernement a également publié à cette occasion une carte recensant dans 9 régions françaises 35 zones prêtes pour l’implantation de centres de données pour l’intelligence artificielle (IA). Cinq de ces zones dépassent les 50 hectares : deux en Île-de-France, une dans le Grand Est, une dans les Hauts-de-France et une en PACA.
Déjà clés de voûte du numérique, les centres de données sont appelés à jouer un rôle croissant avec la montée en puissance de l’IA générative : les besoins en puissance de calcul de cette dernière étant colossaux, elle exige des supercalculateurs capables de répondre aux milliards de requêtes des utilisateurs de ChatGPT et autres modèles d’IA générative. Ils sont hébergés au sein de centres de données conçus pour être en mesure de répondre à ces besoins.
Cela fait déjà plusieurs années que la France est concernée par la déferlante des data centers – elle en compterait environ 300 de grande taille, selon RTE. S’ils se sont d’abord concentrés, dans l’Hexagone, à Paris et en Île-de-France, la saturation foncière et électrique de la région francilienne pousse désormais les acteurs du secteur à se déployer dans le reste du pays, Marseille en tête, grâce à aux 18 câbles sous-marins dont elle est le point d’arrivée.
Or, l’installation de ces infrastructures se heurte de plus en plus à des résistances locales. Dans ce contexte, il apparaît indispensable de se pencher sur les enjeux qui entourent les implantations de centres de données, comme le détaillait un avis d’expert publié par l’Agence de la transition écologique (Ademe) en octobre 2024.
La localisation des datas centers, une équation complexe
Disponibilité électrique, consommation énergétique, consommation d’eau, artificialisation des sols et intégration dans le tissu socioéconomique local sont quelques-uns des paramètres à considérer pour juger de la pertinence ou non d’implanter un centre de données sur un territoire.
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
Précisons par ailleurs que l’on distingue deux formats de data centers, aujourd’hui appelés à cohabiter en France :
les grands, dits data centers « hyperscale », qui s’implantent en périphérie des villes,
et les data centers « edge », plus petits et insérés au tissu urbain.
Les deux présentent des besoins en énergie importants, exigent une connexion Internet, une disponibilité du réseau électrique et un lieu sûr et stable pour disposer de leurs données. La façon de les intégrer localement et les conditions de leur acceptabilité se posent néanmoins différemment.
Penchons-nous sur les principaux risques qui entourent l’implantation de ces infrastructures, les façons de minimiser leurs effets néfastes et la nécessité de planifier leur développement pour maximiser leurs effets bénéfiques.
Les data centers, des ogres énergétiques
Le premier sujet qui vient à l’esprit lorsqu’on aborde cette question est la consommation électrique massive des centres de données. Cette dernière est principalement due aux serveurs qui traitent les données et dans une moindre mesure au refroidissement de ces serveurs pour assurer leur fonctionnement optimal.
L’exemple du campus centre de données Data4, à Nozar (Essonne), offre un ordre d’idées. Baptisé le PAR1, il regroupe 23 centres de données, s’étend sur 110 hectares et est doté d’une puissance de 250 MW. Cela se traduit par une consommation de 1,3 térawatt-heure (TWh) par an, ce qui correspond à… la consommation annuelle d’énergie de plus de 270 000 ménages, soit le nombre de ménages de villes comme Toulouse ou Lyon !
Sur la plateforme Operat gérée par l’Ademe, qui recense les déclarations de consommation électrique du tertiaire, les data centers arrivent en tête en termes de densité de consommation.
Alors qu’ils ne représentent que 0,1 % de la surface déclarée, ils sont pourtant à l’origine de 2,2 % des consommations et sont la catégorie la plus énergivore. Au mètre carré, ils consomment ainsi 2 000 à 3 000 kWh par m2 et par an (contre 100 à 200 pour un bâtiment classique). Selon RTE, la consommation électrique des centres de données en France devrait tripler d’ici à 2035. Et l’Ademe estime qu’ils représenteront 8 % de la consommation électrique française à horizon 2050, contre 2 % aujourd’hui, selon RTE.
Des risques de tension sur le réseau
Ces besoins impliquent, pour chaque implantation, une disponibilité du réseau électrique suffisante, autrement dit des « tuyaux » dimensionnés pour satisfaire une demande importante. Au risque, sinon, de voir surgir des conflits d’usage, comme cela a pu être le cas à Londres où la présence de centres de données a entravé la création de quartiers résidentiels.
Se pose ici une première question dans le choix d’allocation de la ressource électrique, qui est déterminée par RTE en France. À Marseille, les data centers auraient ainsi empêché l’électrification des navires à quai.
Pour l’instant, les problématiques portent moins sur le volume d’électricité produite – la France en exporte – que sur ses réseaux de distribution. Nous sommes, en la matière, dotés d’une planification nationale qui permet d’encadrer l’électricité sacralisée pour les data centers et de décider quelle puissance sera allouée dans les prochaines années à ces usages.
Certaines mesures peuvent toutefois contribuer à contenir – ou du moins, à répondre – aux besoins énergétiques supplémentaires qu’engendre la multiplication des centres de données.
Des possibilités de gains énergétiques
D’une part, des gains d’efficacité énergétique de plus de 50 % sont atteignables dans les data centers, selon l’Ademe, en agissant sur les bâtiments, les serveurs, le refroidissement et les alimentations de secours. Différents indicateurs existent pour évaluer ces performances : le PUE (Power Usage Effectiveness), en particulier, établit le ratio entre l’énergie totale consommée par le centre de données et l’énergie consommée pour sa partie informatique. En moyenne, le PUE des nouvelles grosses installations tend vers 1,2, là où les structures existantes présentent un PUE de 1,5 en moyenne.
Parmi les leviers qui permettent de baisser la consommation électrique consacrée au refroidissement, et donc le PUE :
L’utilisation du refroidissement adiabatique, qui utilise la vaporisation de l’eau pour refroidir, se fait au détriment de la consommation d’eau et doit être proscrit.
Le refroidissement liquide, qui consiste à faire circuler de l’eau autour des serveurs et de leurs composants, est à privilégier, notamment pour les nouveaux serveurs à puissance élevée.
Le free cooling indirect, qui revient à refroidir indirectement les serveurs avec l’air extérieur, est le plus vertueux, d’autant que les serveurs acceptent aujourd’hui des températures de fonctionnement plus élevées.
Il faut par ailleurs s’assurer que l’implantation du centre de données permette la valorisation de la chaleur fatale produite par ses serveurs. Dans les cas des data centers « edge », elle peut se faire directement sur le bâtiment voisin ; pour les data centers « hyperscale », situés en périphérie de ville, un couplage avec un réseau de chaleur urbain pourra être privilégié
Dans les deux cas, cette intégration doit être anticipée au moment du choix du lieu d’implantation.
Un risque de tension foncière
Outre l’électricité, l’arrivée d’un centre de données implique de mettre la main sur une autre ressource précieuse : le foncier, dont l’accès est déjà très tendu en France. Le campus de data centers PAR01 de DATA4 comprend ainsi 24 data centers sur une surface de 110 hectares. À Marseille, l’emprise foncière de certains acteurs de centres de données suscite des tensions localement.
En ce qui concerne les data centers hyperscale, voués à être installés plutôt en périphérie des villes, il s’agit de s’assurer qu’ils n’entrent pas en concurrence avec d’autres projets de développement local et qu’ils ne mettent pas en péril les objectifs de la loi zéro artificialisation nette.
Sur le sujet, l’Ademe préconise de privilégier leur implantation sur des friches, de préférence industrielles. Là aussi toutefois, des conflits d’usages pourraient émerger, la réhabilitation des friches étant de plus en plus plébiscitée pour des projets de développement urbain, de parcs, de tiers lieux ou encore de logements.
Un choix de société
Bien choisir la localisation d’un data center tout en en maximisant ses bénéfices est donc une gageure. Les conditions à réunir sont multiples : l’accès au foncier, l’optimisation de la performance énergétique avec la possibilité de valoriser la chaleur fatale, l’accès à une électricité suffisante et propre ainsi qu’à la fibre, et l’inscription du projet en cohérence avec les schémas de développement urbain locaux.
L’adhésion locale dépendra également de la capacité de ces infrastructures à générer une activité économique locale : la création d’emplois directement liés à la construction et à la maintenance, mais aussi le développement d’un écosystème économique en lien avec le numérique et l’IA. Il s’agirait ainsi, par l’anticipation et par la régulation, de maximiser les externalités positives pour tempérer les désagréments.
Mais ne nous fourvoyons pas : tous ces efforts ne doivent pas nous exempter d’une réflexion globale sur la finalité de cette déferlante des centres de données.
Certes, rapatrier nos données numériques constitue un réel enjeu de souveraineté. Mais certains usages numériques décuplés par l’IA générative méritent que l’on s’interroge sur leur pertinence avant de s’y jeter à corps perdu. Au risque, sinon, de perdre la maîtrise de l’allocation de nos ressources énergétiques et foncières.

Bruno Lafitte ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.