20.11.2025 à 11:22
L’IA générative est-elle soutenable ? Le vrai coût écologique d’un prompt
Texte intégral (2749 mots)
Circulez, il n’y a rien à voir ? Les estimations du bilan environnemental de l’intelligence artificielle générative, comme celles réalisées à l’été 2025 par Google sur son IA Gemini, semblent rassurantes : seulement 0,003 g de CO2 et cinq gouttes d’eau par « prompt ». Des résultats qui dépendent en réalité beaucoup des choix méthodologiques réalisés, alors que de telles études sont le plus souvent menées en interne et manquent de transparence. Le problème est que ces chiffres font de plus en plus souvent figure d’argument marketing pour inciter à l’utilisation de l’IA générative, tout en ignorant le risque bien réel d’effet rebond lié à l’explosion des usages.
Depuis la sortie de ChatGPT fin 2022, les IA génératives ont le vent en poupe. En juillet 2025, OpenAI annonçait que ChatGPT recevait 18 milliards de « prompts » (instructions écrites par les utilisateurs) par semaine, pour 700 millions d’utilisateurs – soit 10 % de la population mondiale.
Aujourd’hui, la ruée vers ces outils est mondiale : tous les acteurs de la Big Tech développent désormais leurs propres modèles d’IA générative, principalement aux États-Unis et en Chine. En Europe, le Français Mistral, qui produit l’assistant Le Chat, a récemment battu les records avec une capitalisation proche de 12 milliards d’euros. Chacun de ces modèles s’inscrit dans un environnement géopolitique donné, avec des choix technologiques parfois différents. Mais tous ont une empreinte écologique considérable qui continue d’augmenter de façon exponentielle, portée par la démultiplication des usages. Certains experts, dont ceux du think tank spécialisé The Shift Project, sonnent l’alerte : cette croissance n’est pas soutenable.
À lire aussi : L’IA peut-elle vraiment être frugale ?
Or, tous les acteurs du domaine – y compris les consommateurs – sont aujourd’hui bien conscients que du coût environnemental qui accompagne les usages liés au numérique, mais pas forcément des chiffres que cela représente.
Poussés par de multiples raisons (obligations réglementaires, marketing, parfois par conscience environnementale), plusieurs des grands acteurs de la tech ont récemment réalisé l’analyse de cycle de vie (ACV, méthodologie permettant d’évaluer l’impact environnemental global d’un produit ou service) de leurs modèles.
Fin août 2025, Google a publié la sienne pour quantifier les impacts de son modèle Gemini. Que valent ces estimations, et peut-on s’y fier ?
Une empreinte carbone étonnement basse
Un modèle d’IA générative, pour fonctionner, doit d’abord être « entraîné » à partir d’une grande quantité d’exemples écrits. Pour mesurer l’électricité consommée par un « prompt », Google s’est donc concentré sur la phase d’utilisation – et non pas d’entraînement – de son IA Gemini. Selon ses propres calculs, Google annonce donc qu’un prompt ne consommerait que 0,24 wattheure (Wh) en moyenne – c’est très faible : environ une minute de consommation d’une ampoule électrique standard de 15 watts.
Comment les auteurs sont-ils arrivés à ce chiffre, significativement plus faible que dans les autres études déjà réalisées à ce sujet, comme celle menée par Mistral IA en juillet 2025 ?
La première raison tient à ce que Google mesure réellement. On apprend par exemple dans le rapport que l’électricité consommée par un prompt est utilisée pour 58 % par des processeurs spécialisés pour l’IA (l’unité de traitement graphique, ou GPU, et le circuit intégré spécifique Tensor Processing Unit, ou TPU), 25 % par des processeurs classiques et à hauteur d’environ 10 % par les processeurs en veille, et les 7 % restants pour le refroidissement des serveurs et le stockage de données.
Autrement dit, Google ne tient ici compte que de l’électricité consommée par ses propres data centers, et pas de celle consommée par les terminaux et les routeurs des utilisateurs.
Par ailleurs, aucune information n’est donnée sur le nombre d’utilisateurs ou le nombre de requêtes prises en compte dans l’étude, ce qui questionne sa crédibilité. Dans ces conditions, impossible de savoir comment le comportement des utilisateurs peut affecter l’impact environnemental du modèle.
À lire aussi : Impact environnemental du numérique : l’inquiétant boom à venir
Google a racheté en 2024 l’équivalent de la production d’électricité annuelle de l’Irlande
La seconde raison tient à la façon de convertir l’énergie électrique consommée en équivalent CO2. Elle dépend du mix électrique de l’endroit où l’électricité est consommée, tant du côté des data centers que des terminaux des utilisateurs. Ici, on l’a vu, Google ne s’intéresse qu’à ses propres data centers.
Depuis longtemps, Google a misé sur l’optimisation énergétique, en se tournant vers des sources décarbonées ou renouvelables pour ses centres de données répartis partout dans le monde. Selon son dernier rapport environnemental, l’effort semble porter ses fruits, avec une diminution de 12 % des émissions en un an, alors que la demande a augmenté de 27 % sur la même période. Les besoins sont colossaux : en 2024, Google a consommé, pour ses infrastructures de calcul, 32 térawattsheures (TWh), soit l’équivalent de la production d’électricité annuelle de l’Irlande.
À lire aussi : Un data center près de chez soi, bonne ou mauvaise nouvelle ?
De fait, l’entreprise a signé 60 contrats exclusifs de fourniture en électricité à long terme en 2024, pour un total de 170 depuis 2010. Compte tenu de l’ampleur des opérations de Google, le fait d’avoir des contrats d’électricité exclusifs à long terme compromet la décarbonation dans d’autres secteurs. Par exemple, l’électricité à faibles émissions qui alimente les prompts pourrait être utilisée pour le chauffage, secteur qui dépend encore fortement des combustibles fossiles.
Dans certains cas, ces contrats impliquent la construction de nouvelles infrastructures de production d’énergie. Or, même pour la production d’énergie renouvelable décarbonée, leur bilan environnemental n’est pas entièrement neutre : par exemple, l’impact associé à la fabrication de panneaux photovoltaïques est compris entre 14 gCO2eq et 73 gCO2eq/kWh, ce que Google ne prend pas en compte dans ses calculs.
Enfin, de nombreux services de Google font appel à de la « colocation » de serveurs dans des data centers qui ne sont pas nécessairement décarbonés, ce qui n’est pas non plus pris en compte dans l’étude.
Autrement dit, les choix méthodologiques réalisés pour l’étude ont contribué à minimiser l’ampleur des chiffres.
Cinq gouttes d’eau par prompt, mais 12 000 piscines olympiques au total
La consommation d’eau douce est de plus en plus fréquemment prise en compte dans les rapports environnementaux liés au numérique. Et pour cause : il s’agit d’une ressource précieuse, constitutive d’une limite planétaire récemment franchie.
L’étude de Google estime que sa consommation d’eau pour Gemini est de 0,26 ml – soit cinq gouttes d’eau – par prompt. Un chiffre qui semble dérisoire, ramené à l’échelle d’un prompt, mais les petits ruisseaux font les grandes rivières : il faut le mettre en perspective avec l’explosion des usages de l’IA.
Globalement, Google a consommé environ 8 100 millions de gallons (environ 30 millions de mètres cubes, l’équivalent de quelque 12 000 piscines olympiques) en 2024, avec une augmentation de 28 % par rapport à 2023.
Mais là aussi, le diable est dans les détails : le rapport de Google ne comptabilise que l'eau consommée pour refroidir les serveurs (selon un principe très similaire à la façon dont nous nous rafraîchissons lorsque la sueur s’évapore de notre corps). Le rapport exclut de fait la consommation d’eau liée à la production d’électricité et à la fabrication des serveurs et autres composants informatiques, qui sont pourtant prises en compte pour le calcul de son empreinte carbone, comme on l’a vu plus haut. En conséquence, les indicateurs d’impact environnemental (carbone, eau…) n’ont pas tous le même périmètre, ce qui complique leur interprétation.
À lire aussi : Les métaux de nos objets connectés, face cachée de l’impact environnemental du numérique
Des études encore trop opaques
Comme la plupart des études sur le sujet, celle de Google a été menée en interne. Si on comprend l’enjeu de secret industriel, un tel manque de transparence et d’expertise indépendante pose la question de sa légitimité et surtout de sa crédibilité. On peut néanmoins chercher des points de comparaisons avec d’autres IA, par exemple à travers les éléments présentés par Mistral IA en juillet 2025 sur les impacts environnementaux associés au cycle de vie de son modèle Mistral Large 2, une première.
Cette étude a été menée en collaboration avec un acteur français reconnu de l’analyse du cycle de vie (ACV), Carbone4, avec le soutien de l’Agence de l'environnement et de la maîtrise de l’énergie (Ademe), ce qui est un élément de fiabilité. Les résultats sont les suivants.
Pendant les dix-huit mois de durée de vie totale du modèle, environ 20 000 tonnes équivalent CO2 ont été émises, 281 000 m3 d’eau consommée et 660 kg équivalent antimoine (indicateur qui prend en compte l’épuisement des matières premières minérales métalliques).
Mistral attire l’attention sur le fait que l’utilisation du modèle (inférence) a des effets qu’ils jugent « marginaux », si on considère un prompt moyen utilisant 400 « tokens » (unités de traitement corrélées à la taille du texte en sortie) : ce prompt correspond à l’émission de 1,14 g équivalent CO2, de 50 ml d’eau et 0,5 mg équivalent antimoine. Des chiffres plus élevés que ceux avancés par Google, obtenus, comme on l’a vu, grâce à une méthodologie avantageuse. De plus, Google s’est basé dans son étude sur un prompt « médian » sans donner davantage de détails statistiques, qui seraient pourtant bienvenus.
En réalité, l’une des principales motivations, que cela soit celles de Google ou de Mistral, derrière ce type d’étude reste d’ordre marketing : il s’agit de rassurer sur l’impact environnemental (ce qu’on pourrait qualifier de « greenwashing ») de l’IA pour pousser à la consommation. Ne parler que de l’impact venant des prompts des utilisateurs fait également perdre de vue la vision globale des coûts (par exemple, ceux liés à l’entraînement des modèles).
À lire aussi : Comment rendre l’électronique plus soutenable ?
Reconnaissons que le principe d’effectuer des études d’impacts est positif. Mais l’opacité de ces études, même lorsqu’elles ont le mérite d’exister, doit être interrogée. Car, à ce jour, Mistral pas plus que Google n’ont pas dévoilé tous les détails des méthodologies utilisées, les études ayant été menées en interne. Or, il faudrait pouvoir disposer d’un référentiel commun qui permettrait de clarifier ce qui doit être pris en compte dans l’analyse complète du cycle de vie (ACV) d’un modèle d’IA. Ceci permettrait de réellement comparer les résultats d’un modèle à l’autre et de limiter les effets marketing.
Une des limites tient probablement à la complexité des IA génératives. Quelle part de l’empreinte environnementale peut-on rattacher à l’utilisation du smartphone ou de l’ordinateur pour le prompt ? Les modèles permettant le fine-tuning pour s’adapter à l’utilisateur consomment-ils plus ?
La plupart des études sur l’empreinte environnementale des IA génératives les considèrent comme des systèmes fermés, ce qui empêche d’aborder la question pourtant cruciale des effets rebonds induits par ces nouvelles technologies. Cela empêche de voir l’augmentation vertigineuse de nos usages de l’IA, en résumant le problème au coût environnemental d’un seul prompt.
Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.
20.11.2025 à 11:22
Pourquoi la transformation numérique n’est pas une voie royale vers la neutralité carbone
Texte intégral (2280 mots)
Souvent présenté comme un levier indispensable pour décarboner nos économies, le numérique est loin d’être une solution miracle. Derrière ses promesses techniques et économiques se cachent des coûts environnementaux et humains croissants. La planète ne bénéficiera pas nécessairement d’une numérisation massive qui risque, au contraire, d’aggraver notre dépendance en termes de ressources et d’énergie.
Au cours des dernières années, la transformation numérique a souvent été présentée comme nécessaire pour atteindre la neutralité carbone. Le Forum économique mondial de Davos, par exemple, estimait que le secteur des technologies numériques constitue le levier d’influence « le plus puissant pour accélérer l’action pour limiter la hausse des températures mondiales à moins de 2 °C ».
Lors de la COP29, fin 2024, la déclaration sur l’action numérique verte (Green Digital Action) affirmait « le rôle vital des technologies numériques dans l’action climatique », tout l’enjeu étant d’en tirer parti pour atténuer le changement climatique. Mais dans le même temps, cette même déclaration « prenait note avec inquiétude des effets néfastes pour le climat dus aux […] technologies numériques et aux outils, dispositifs et infrastructures connexes ». Au final, le numérique est-il plutôt porteur de promesses ou de menaces pour l’atteinte des objectifs de neutralité carbone ? La déclaration ne le dit pas.
Dans une étude récente, nous avançons que le problème au cœur de l’idée d’un secteur numérique allié du climat repose sur plusieurs hypothèses clés, discutables à bien des égards.
Certes, il existe déjà – et existera à l’avenir – de nombreux exemples qui montrent que la numérisation peut soutenir la cause de la neutralité carbone. Par exemple, lorsqu’il s’agit de solutions qui permettent des gains d’efficacité énergétique, le pilotage de la production décentralisée d’électricité renouvelable, ou encore lorsqu’elles accélèrent les processus de recherche et développement (R&D).
À lire aussi : Impact environnemental du numérique : l’inquiétant boom à venir
Mais l’argument selon lequel la numérisation de l’économie permettra d’atteindre la neutralité carbone repose sur quatre hypothèses implicites, selon lesquelles elle entraînerait nécessairement :
- davantage de dématérialisation,
- des gains d’efficacité énergétique,
- une réduction des coûts de main-d’œuvre,
- enfin, des décisions économiques plus respectueuses de l’environnement de la part des acteurs économiques.
Or nous montrons qu’aucune de ces hypothèses n’est réaliste.
Ne pas confondre numérisation et dématérialisation
Le lien entre numérisation et dématérialisation, souvent présenté comme allant de soi, doit être interrogé. En effet, la numérisation s’accompagne d’une dépendance aux infrastructures informatiques aux capteurs électroniques utilisés pour convertir et traiter toujours plus d’information sous forme numérique.
Cela implique de construire de nouvelles infrastructures et de nouveaux appareils informatiques. Ces derniers ont une matérialité : leur fabrication implique d’utiliser des ressources minérales limitées, en particulier des métaux rares. Ce problème est encore amplifié par la dépréciation et l’obsolescence plus rapide des appareils informatiques.
Certes, on pourrait dire que ces frais sont compensés par les avantages supplémentaires générés par les services numériques. Cependant, ces avantages ont eux-mêmes un coût pour l’environnement.
À lire aussi : Pourquoi l’IA générative consomme-t-elle tant d’énergie ?
Cela tient d’abord à leur consommation d’énergie. Par exemple, une seule requête ChatGPT consomme entre 50 et 90 fois plus d’énergie qu’une recherche Google classique. Le fonctionnement des systèmes d’intelligence artificielle (IA) nécessite aussi de grandes quantités d’eau pour le refroidissement des infrastructures informatiques, certains modèles consommant, à large échelle, des millions de litres pendant leurs phases d’entraînement et d’utilisation. Enfin, l’essor des IA génératives pourrait faire croître la demande en cuivre d’un million de tonnes d’ici 2030.
Selon un rapport du ministère de la transition écologique, le secteur du numérique représentait 2,5 % de l’empreinte carbone annuelle de la France et 10 % de sa consommation électrique en 2020. Sans intervention, les émissions de gaz à effet de serre du secteur pourraient croître de plus de 45 % d’ici à 2030. Selon un rapport des Nations unies, en 2022, les data centers du monde entier ont consommé 460 térawattheures d’électricité, soit l’équivalent de la consommation d’électricité annuelle de la France. Il est attendu que cette consommation sera multipliée quasiment par deux en 2026 pour atteindre 1 000 térawattheures.
Les risques d’effet rebond
La promesse de gains d’efficacité énergétique dans le numérique doit également être interrogée, car ces technologies produisent des effets rebond. Les gains d’efficacité font baisser les prix, ce qui augmente la demande, augmentant la consommation d’énergie et la quantité de déchets électroniques produits. La conséquence : une pression accrue sur les limites planétaires.
Ces effets rebond peuvent être directs ou indirects. Un exemple d’effet rebond direct tient à la facilité d’usage des services numériques : en témoigne par exemple l’augmentation constante du nombre de messages en ligne, de visioconférences, de photos et de vidéos stockées sur nos téléphones et/ou dans le cloud, etc.
On peut illustrer l’idée d’effet rebond indirect ainsi : lorsque l’argent, économisé par une entreprise grâce à la réduction des déplacements professionnels (grâce aux réunions virtuelles ou au télétravail), versé sous forme d’augmentations au salarié, lui sert à acheter un billet d’avion pour partir en vacances.
Prenons enfin l’exemple des cryptomonnaies, souvent défendues pour leurs avantages en termes de décentralisation financière. Celle-ci s’accompagne d’un coût énergétique élevé : leur consommation d’électricité a dépassé celle de l’Argentine et devrait continuer à augmenter à mesure que la finance décentralisée se développe.
Moins de main-d’œuvre mais davantage d’impacts environnementaux
Le numérique est souvent vu par les décideurs comme une façon de réduire les coûts de main-d’œuvre, et cela dans la plupart des secteurs. La main-d’œuvre a un coût économique, mais elle est également la plus durable de tous les intrants :il s’agit d’une ressource abondante et renouvelable dont l’utilisation n’affecte pas directement les limites de la planète.
La numérisation du travail, si elle permet de réaliser des économies en remplaçant une partie de la main-d’œuvre humaine (et durable) par des machines gourmandes en énergie et en ressources, se fait donc au détriment de l’environnement et amoindrit la durabilité des activités économiques – et non l’inverse.
Même en considérant qu’une partie de la main-d’œuvre déplacée pourrait être absorbée par de nouveaux business models, ces derniers ne seront pas forcément plus durables que les business models d’aujourd’hui. De plus, cela ne ferait que renforcer les tendances actuelles en matière d’inégalités, qui ont des effets délétères sur la durabilité. Une neutralité carbone qui serait atteinte au prix d’un appauvrissement massif de la population et au mépris des objectifs de développement durable des Nations unies paraît inacceptable.
Enfin, l’argument selon lequel le numérique permettrait aux entreprises de prendre des décisions plus soutenables n’est pas fondé. Ces décisions sont prises en tenant d’abord compte de la maximisation des profits, des opportunités de croissance et de l’amélioration de son efficacité en interne, conformément aux structures de gouvernance en place. Les décisions en matière de numérique n’échappent pas à cette règle.
Tant que la maximisation de la valeur pour les actionnaires restera le principe directeur de la gouvernance d’entreprise, il n’y a aucune raison de s’attendre à ce que la numérisation impulsée par les entreprises privilégie le développement d’une économie neutre en carbone plutôt que les préoccupations de rentabilité. Au contraire, les technologies de l’information semblent avoir jusque-là surtout renforcé les tendances actuelles.
Se méfier du solutionnisme technologique
Les arguments qui précèdent montre que la numérisation en soi ne soutient pas toujours la neutralité carbone. Comme toutes les innovations majeures, elle permet d’élargir l’éventail des possibles au plan économique. Cela signifie qu’il existe des opportunités significatives d’investissements durables et transformateurs.
Mais il convient de se méfier des solutions purement technologiques aux problèmes de durabilité, même si elles sont réconfortantes car elles n’impliquent aucun changement réel du statu quo. Ce faux sentiment de sécurité est pourtant précisément ce qui nous a conduits collectivement à épuiser les limites planétaires.
Le numérique peut soutenir la transition verte, mais, pour que ses opportunités puissent être exploitées, un véritable changement dans les processus décisionnels doit s’opérer. Pour l’heure, les États et quelques entreprises restent les seuls niveaux auxquels ces décisions sont prises. En d’autres termes, nous avons besoin d’un déclic collectif pour mieux appréhender les liens entre technologie, énergie et société, sans quoi atteindre la neutralité carbone grâce au numérique ne restera qu’un vœu pieux.
Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.
19.11.2025 à 16:24
Les marques et savoir-faire culturels français : des atouts convoités à l’étranger
Texte intégral (3004 mots)
Le patrimoine culturel, les musées et monuments jouent un rôle prépondérant dans les motivations des touristes qui visitent la France. Mais ce patrimoine est aussi, dans sa dimension immatérielle, un vecteur d’expertise valorisée au-delà de nos frontières.
Première destination touristique mondiale, la France a attiré 100 millions de visiteurs internationaux en 2024.
L’intérêt porté aux musées et monuments, dans leur composante matérielle – en tant que lieux qui se visitent – se mesure aussi dans leur composante immatérielle. L’apport du patrimoine culturel à l’économie se traduit par l’accueil de touristes se rendant en France, mais aussi à travers l’exportation des institutions culturelles hors des frontières françaises.
C’est précisément en raison de son patrimoine culturel que la France est arrivée en tête du classement annuel Soft Power 30 en 2017 et en 2019.
De nombreux rapports publics ont investi cette question, percevant les musées ou monuments comme détenteurs d’actifs immatériels susceptibles d’être valorisés à l’international.
Le tournant de l’économie de l’immatériel
Dès 2006, les auteurs du rapport remis à Bercy sur l’économie de l’immatériel écrivaient : « Aujourd’hui, la véritable richesse n’est pas concrète, elle est abstraite. » Au capital matériel a succédé le capital immatériel, le capital des talents, de la connaissance et du savoir. Ce rapport invitait les acteurs français à miser davantage sur leur capital intangible, gisement devenu stratégique pour rester compétitif. Identifiant trois atouts immatériels culturels – le nom des établissements culturels, leur image et leur expertise –, Maurice Lévy et Jean-Pierre Jouyet recommandaient d’engager une transition vers leur valorisation.
Un rapport spécifique a ainsi été commandé en 2014 par le ministère de la culture au haut fonctionnaire Jean Musitelli, « La valorisation de l’expertise patrimoniale à l’international ». En 2019, la Cour des comptes se penchait sur la valorisation internationale de l’ingénierie et des marques culturelles.
Plus récemment, en 2023, le Sénat a publié un rapport d’information réalisé par les parlementaires Else Joseph et Catherine Morin-Desailly sur l’expertise patrimoniale internationale française, faisant état d’un savoir-faire complet, ancien et reconnu, la qualité scientifique de l’expertise française étant établie « sur l’ensemble du champ patrimonial ».
L’expertise culturelle française : un vivier de métiers hautement qualifiés
La notion d’expertise renvoie à des connaissances ou compétences qui ne sont juridiquement pas protégées par brevet et qui permettent la création de produits ou services. L’expertise peut faire l’objet d’une transmission dans le cadre d’une transaction, son transfert se matérialisant par des missions de conseil ou de formation.
Les musées regorgent d’une variété de métiers et savoir-faire liés aux activités exercées par les professionnels y travaillant. Véritable « conservatoire de talents », ils détiennent une expertise technique particulièrement qualifiée et recherchée.
Constitué en interne en 2014, le département Louvre conseil a la charge de valoriser l’expertise des équipes du musée. Cette expertise porte sur les collections, les publics mais aussi sur le management. La brochure présentant l’ingénierie patrimoniale du Centre Pompidou énumère la liste des prestations possibles dans la création et la gestion d’espaces culturels : conseil en muséographie, en médiation… mais aussi accompagnement sur le plan administratif.
Les savoir-faire patrimoniaux français ont bénéficié d’une large couverture médiatique lors du chantier de restauration de Notre-Dame. Les sénatrices à l’origine du rapport précité jugeaient judicieux de profiter de la grande visibilité du chantier – servant ainsi de vitrine des métiers d’art français – pour « valoriser l’ensemble des savoir-faire qui ont collaboré à cette entreprise (archéologues, artisans d’art, architectes, maîtres d’ouvrage, restaurateurs, facteurs d’instruments…) ».
Une expertise recherchée en majorité par les pays émergents
Les pays émergents sont les principaux demandeurs de cette expertise, le patrimoine étant perçu comme un levier d’attractivité et suscitant ainsi un intérêt croissant. Faute de compétences suffisantes pour construire, agencer et gérer des musées, ils font appel à des institutions disposant de cette expérience. Les pays du Moyen-Orient, d’Asie et d’Afrique constituent « les marchés les plus prometteurs » sur ce plan.
Le rapport du Sénat considère que la France possède de sérieux atouts pour prendre part à ce marché :
« Il est clair que la réputation de ses savoir-faire et la renommée de certains de ses établissements au niveau mondial, qu’il s’agisse du Louvre, du château de Versailles ou du Mont Saint-Michel, contribuent à asseoir sa position sur le plan international. »
Une combinaison gagnante : l’apport de marque et d’ingénierie
Les grands accords internationaux s’accompagnent fréquemment d’un élément complémentaire à l’expertise : la marque des institutions culturelles.
Le Louvre Abou Dhabi incarne cette pluralité. Signé en 2007 entre la France et les Émirats arabes unis, l’accord prévoyait la création d’un musée constitué avec l’expertise des équipes muséales françaises et portant le nom du Louvre. Plusieurs volets composent cet accord : l’accompagnement en ingénierie, le prêt d’œuvres des collections françaises (plusieurs musées étant parties prenantes) ainsi que le prêt du nom du Louvre à travers un contrat de licence de marque.
Il en va de même dans l’expérience du Centre Pompidou, qui valorise tant ses savoir-faire que sa marque, celle-ci étant apposée sur le devant des nouveaux musées, dont les façades s’ornent ainsi du sceau de l’institution française. Présent sur tous les continents, il a collaboré en Europe avec la ville de Malaga (Espagne) et la Fondation bruxelloise Kanal. En Asie, il s’est associé avec la société d’aménagement West Bund pour accompagner la création d’un musée à Shanghai (Chine). Son action se mesure aussi en Amérique du Sud (Brésil) et dans les pays du Golfe (Arabie saoudite).
On notera cependant que la valorisation de la marque, a fortiori dans un contexte international, n’a de sens que pour des institutions notoires. Si l’expertise des musées français peut relever tant d’institutions nationales que de structures territoriales, le rayonnement de la marque semble limité aux grands musées, qualifiés par certains auteurs, dont l’économiste Bruno S. Frey, de « superstar » en raison de leur statut et de leur aura.
Une économie fondée sur l’excellence française ?
L’affirmation constante de la nécessité de valoriser l’expertise et les marques culturelles peut être vue comme l’application de la théorie de l’avantage comparatif développée par l’économiste britannique David Ricardo au XIXe siècle. Selon cette théorie, « chaque nation a intérêt à se spécialiser dans la production où elle possède l’avantage le plus élevé comparativement aux autres ». Aussi s’agit-il de « concentrer ses efforts à l’export sur des secteurs où le pays possède de réels avantages comparatifs ».
Il convient toutefois de nuancer ce postulat, car si la France possède assurément des marques fortes et une expertise patrimoniale reconnue, elle n’est pas la seule à en disposer ni à les proposer sur la scène internationale, ce marché étant concurrentiel et, au demeurant, occupé par d’autres États « également bien positionnés », notamment le Royaume-Uni, l’Allemagne ou l’Italie.
Les marques muséales américaines s’exportent également. D’aucuns auront en tête l’exemple très connu du Guggenheim, à l’origine même du concept de « marque muséale », au sens de « brand » et de « trademark », c’est-à-dire un outil de développement économique et d’expansion internationale. Le Guggenheim de Bilbao (Espagne) en témoigne : la fondation new-yorkaise a cédé le droit d’usage de son nom et perçu, en échange, 20 millions de dollars (17,2 millions d'euros) de royalties pour l’usage de sa marque.
Le Museum of Modern Art de New York (MoMA) valorise aussi son nom et son expertise. Il a, par exemple, exporté son concept de boutique de design hors des frontières américaines, avec l’implantation de deux MoMA Design Stores au Japon, à Tokyo et à Kyoto.
Des outils de diversification des ressources propres
On rappellera qu’historiquement, les musées apportaient leur savoir-faire dans une logique, non pas de valorisation mais de solidarité avec d’autres pays. C’est le cas des chantiers de fouilles archéologiques relevant avant tout d’une logique de coopération. La valorisation économique des savoir-faire est un phénomène nouveau, dont l’émergence s’explique par une demande croissante d’ingénierie culturelle émanant de certains pays mais aussi par le contexte budgétaire.
Ce désir de valorisation ne saurait être appréhendé indépendamment du contexte économique contemporain. Il s’agit également de favoriser le développement de ressources propres, venant abonder les budgets, de plus en plus tendus, des institutions culturelles. Les subsides publics n’étant pas mirifiques, les musées doivent répondre à l’impérieuse nécessité de diversifier leurs sources de financement.
Le Centre Pompidou perçoit entre 14 millions et 16 millions d’euros par an au titre de ses partenariats internationaux. S’agissant de l’exemple emblématique du Louvre Abou Dhabi, le montant total de l’accord s’élève à 1 milliard d’euros, la valorisation de la marque « Louvre » représentant 400 millions d’euros.
Ces redevances de licence de marque et d’ingénierie culturelle viennent compléter les ressources propres des établissements, rejoignant ainsi d’autres recettes, parmi lesquelles le mécénat, la location d’espaces, la vente de produits en boutique…
Des partenariats adaptés au contexte local
Face au constat d’un intérêt marqué de la part de pays émergents auprès de musées européens et états-uniens pour construire une offre culturelle, se pose la question de la construction de cette offre et de la confrontation de regards différents.
Ainsi que le relève la juriste Marie Maunand :
« Le développement des échanges internationaux dans le domaine patrimonial induit une dynamique de transfert d’expertise des pays du Nord – pays développés à économie de marché – vers des pays dits du Sud – qui sont soit émergents soit moins avancés – qui pourrait contribuer à la diffusion d’un modèle culturel unique. »
La diversité doit être au cœur de ces accords afin d’éviter toute forme de standardisation. Une approche pragmatique adaptée au contexte local, propre à celui qui est demandeur de l’expertise, s’avère primordiale.
Un transfert de savoir-faire suppose une transmission d’informations ou de compétences. En dépit de la nature commerciale de ces partenariats, il ne saurait s’agir d’un discours simplement descendant de la part de l’expert ou du « sachant » vers son partenaire, mais bien d’un échange favorisant la rencontre de points de vue variés. Dans ce sens, Émilie Girard, présidente d’ICOM France observe un « changement de paradigme et de posture dans le mode de construction d’une expertise plus tournée vers le dialogue ».
Mentionnant la mise en œuvre du partenariat avec les Émiriens, Laurence des Cars, présidente-directrice générale du Louvre, évoque la question de la médiation et de l’explication des œuvres, et, dans le cadre de cet échange entre la France et les Émirats arabes unis, de « l’altérité culturelle » et des manières permettant aux différents publics de partager des œuvres d’art en l’absence de références culturelles ou religieuses communes.
En 2015, le rapport livré par Jean Musitelli cité par Marie Maunand relevait :
« La valorisation dans le contexte de la mondialisation doit […] concourir à la diversification des expressions culturelles […] en se montrant attentif aux attentes et aux besoins des partenaires et en ajustant l’offre aux réalités et traditions locales, [avec] […] des alternatives au modèle standard tel qu’il est véhiculé par la globalisation. »
C’est aussi un rôle que souhaitent allouer à l’expertise française les autrices du rapport de la mission sénatoriale d’information.
Si sa valorisation procède pour partie d’une démarche économique, elle est aussi le reflet d’enjeux diplomatiques, dont l’objectif est de renforcer le rayonnement et l’influence de la France sur la scène internationale. Else Joseph, sénatrice des Ardennes, notait ainsi :
« Ces dernières années, combien l’influence de la France est, si ce n’est en recul, du moins de plus en plus contestée et fragilisée. C’est particulièrement vrai dans les instances internationales en matière culturelle, à l’instar de l’Unesco, où les pays occidentaux se voient régulièrement reprocher une attitude néocoloniale. »
En vue d’y apporter une réponse, la parlementaire suggérait de « tirer parti de la solide expertise de la France dans le domaine patrimonial pour maintenir notre capacité d’influence ».
En ce sens, l’expertise et les marques culturelles sont assurément une incarnation du soft power de la France, qu’il importe autant de valoriser que de préserver.
Cécile Anger a soutenu sa thèse de doctorat en 2024 à l'Université Paris 1 Panthéon-Sorbonne. Elle est depuis jeune docteure associée à l'Ecole de Droit de la Sorbonne. Son domaine de recherche porte sur les marques culturelles ainsi que la protection et la valorisation de l'image des œuvres d'art, musées et monuments. Elle a commencé sa carrière au musée de Cluny, puis occupé le poste de Cheffe du service marque et mécénat au Domaine national de Chambord avant de rejoindre l'équipe de l'Établissement public du Mont Saint-Michel.