ACCÈS LIBRE UNE Politique International Environnement Technologies Culture
05.07.2025 à 14:21
Les droits de douane seront-ils appliqués par Donald Trump le 9 juillet prochain ?
Texte intégral (2124 mots)
Le 9 juillet, Donald Trump doit décider si les droits de douane annoncés le « Jour de Libération », le 2 avril 2025, puis mis en pause une semaine plus tard, seront finalement appliqués ou pas. L’occasion de faire un bilan de l’évolution du protectionnisme américaine depuis le retour au pouvoir de Donald Trump. Pour quelle taxe finale : 5 % ? 16 % ? 25 % ?
Depuis janvier 2025, l’administration Trump a remis au cœur de sa stratégie commerciale un instrument que l’on croyait délaissé : le droit de douane. En quelques mois, l’ensemble des partenaires commerciaux des États-Unis en a fait les frais. Une série de mesures, sans précédent depuis plusieurs décennies, les a frappés. Pour l’administration Trump, cette politique tarifaire vise à rééquilibrer des balances bilatérales déficitaires. Concrètement, augmenter le coût des produits étrangers pour protéger l’économie locale et générer des revenus.
Mais comment fonctionne un droit de douane ?
Pour calculer un droit de douane moyen, à partir des informations disponibles au niveau des produits appelés « lignes tarifaires », trois méthodes principales existent. La moyenne simple consiste à attribuer le même poids à chaque droit de douane. La moyenne pondérée repose sur les flux commerciaux entre deux pays, où les produits fortement importés comptent davantage dans l’indicateur global. Enfin, la méthode retenue pour la base de données tarifaires du CEPII, MAcMap-HS6, dite « des groupes de référence ». Elle s’appuie sur des profils d’importation reconstitués à partir d’échantillons de pays comparables. Ces calculs montrent à quel point les choix techniques d’agrégation des droits de douane influencent la perception des politiques commerciales.
« Jour de Libération »
En matière de politiques commerciales, l’année 2025 a été, jusqu’à présent, marquée par quatre temps forts.
Le premier s’est situé entre le 20 janvier et le 1er avril. Dès janvier, des hausses massives des droits sur des produits stratégiques comme l’acier, l’aluminium et les véhicules sont annoncées, effaçant les préférences antérieures et s’appliquant uniformément à tous les fournisseurs étrangers. L’accord commercial avec le Mexique et le Canada (ACEUM) intégrait désormais des droits de 25 % pour les produits importés aux États-Unis qui ne respectent pas les règles de l’accord. Les produits chinois sont taxés de deux augmentations successives pour aboutir à une hausse de 20 points de pourcentage (pp) – pp indique la variation d’un pourcentage.
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
Le deuxième temps fort survient le 2 avril, « Jour de Libération », inaugurant un nouvel âge d’or de l’Amérique. Washington instaure des droits de douane qualifiés de « réciproques ». Ils ne sont pourtant pas fondés sur les mesures de protection tarifaires observées à l’étranger, mais sur les déséquilibres des balances commerciales bilatérales avec les États-Unis. Des surtaxes sont imposées allant de 10 points de pourcentage (taux de base) à des taux bien supérieurs pour une liste de 57 pays : 34 pp pour la Chine, 20 pp pour l’Union européenne, etc. Certaines matières premières stratégiques, épargnées pour des raisons d’approvisionnement.
Confrontation directe avec la Chine
Le troisième acte a été celui de la confrontation directe avec la Chine. Chacun des deux géants inflige à l’autre des surtaxes massives : de 125 points de pourcentage lors du point de tension culminant entre les deux puissances. Ce jeu d’escalade s’enraye à partir de la mi-mai, dernier temps fort de cette séquence. Washington commence à alléger partiellement les sanctions, sans pour autant revenir à la situation d’avant-crise.
À lire aussi : Depuis 2018, la guerre commerciale sans merci des États-Unis et de la Chine
Sur le marché américain, l’augmentation des droits de douane sur les produits chinois est revenue de 125 pp à 10 pp, comme pour les autres pays depuis le 9 avril. En Chine, les produits états-uniens ne se voient plus appliquer qu’une surtaxe de 10 pp. Ces mesures ont profondément modifié le niveau moyen de protection des États-Unis.
Mais pourquoi, en la matière, différents chiffres circulent-ils ?
Trois méthodes de calcul
Pour calculer un droit de douane moyen, à partir des informations disponibles au niveau des produits appelés « lignes tarifaires », trois méthodes principales existent.
La moyenne simple consiste à attribuer le même poids à chaque droit de douane, quel que soit son importance économique. Facile à utiliser et en conséquence assez répandue, cette méthode donne cependant une vision biaisée des niveaux initiaux et des changements récents. Elle tire artificiellement la moyenne vers le bas, masquant l’ampleur des hausses ciblant des secteurs stratégiques.
Pour réduire ce biais, certains analystes privilégient la moyenne pondérée (plus de poids aux produits importés) par les flux commerciaux observés entre deux pays. Cette approche reflète mieux l’impact réel des droits sur les échanges. Les produits fortement importés comptent davantage dans l’indicateur global. Cette méthode souffre d’un défaut majeur que les économistes qualifient d’endogénéité : un droit de douane élevé diminue, ou même annule, les importations du produit ainsi taxé. En théorie, si un produit est taxé à 200 %, mais n’est pas importé, son droit de douane disparaît lors du calcul de la moyenne, car il est multiplié par 0. Ce qui minore le droit de douane moyen obtenu.
Enfin, la méthode retenue pour la base de données tarifaires du CEPII, MAcMap-HS6, dite « des groupes de référence », apporte une solution pragmatique au problème de l’endogénéité. Plutôt que d’utiliser les flux bilatéraux effectivement observés, dont on vient de voir qu’ils risquent fort de biaiser la moyenne, elle s’appuie sur des profils d’importation reconstitués à partir d’échantillons de pays comparables. Chaque pays importateur appartient à un groupe de référence constitué de pays similaires. Ce procédé fournit un indicateur plus stable, apte à la comparaison internationale.
Évolution des droits de douane
Les écarts entre ces méthodes sont loin d’être marginaux. Début 2025, les États-Unis affichaient un niveau moyen de droit de douane de 5 % selon la méthode de MAcMap-HS6. 4,3 % en moyenne pondérée par le commerce observé. Avec près de 60 % de droits de douane nuls, la moyenne simple est beaucoup plus faible : seulement 2,6 %.

Entre le 20 janvier 2025 (journée d’investiture) et le « Jour de Libération », la moyenne simple, consistant à attribuer le même poids à chaque droit de douane, augmente de seulement 1,8 point de pourcentage (pp). Avec la méthode MAcMap-HS6 des groupes de référence, le droit de douane moyen états-unien progresse de 6,9 pp, pour s’établir à 11,9 %. Encore davantage, 9,3 pp, en moyenne pondérée par le commerce bilatéral, pour atteindre 13,6 %. En effet, les hausses de droits de douane portent principalement sur des produits ou des partenaires commerciaux majeurs pour les États-Unis. Leur poids significatif dans les importations américaines (ou dans celles du groupe de référence) accroît leur impact dans le calcul de la moyenne pondérée par le commerce bilatéral.
Les chiffres du « Jour de Libération » sont plus homogènes. Les droits augmentent pour tous les pays, mais les moyennes pondérées montrent un virage protectionniste plus marqué. La période entre le « Jour de Libération » et la phase de pause et d’escalade avec la Chine se traduit par une baisse significative de la moyenne simple à 4,2 pp ; ce que le terme « pause » peut laisser entendre. Mais en prenant en compte la structure du commerce bilatéral états-unienne (en moyenne pondérée), cette protection augmente de +1 pp ; les droits de douane sur la Chine ayant considérablement augmenté et ce pays représentant une part significative des importations états-uniennes ! En 2024, les importations états-uniennes depuis la Chine ont atteint une valeur dépassant les 400 milliards de dollars.
Entre 16 % et 25 %
Actuellement, les moyennes pondérées sont très élevées, entre 16,1 %, et 16,7 %. Les 12,3 % de la moyenne simple sous-estiment l’ampleur du choc tarifaire que subissent les partenaires commerciaux des États-Unis, en particulier dans les secteurs spécifiquement visés – acier, l’aluminium et véhicule. Le 9 juillet, la protection états-unienne sera au minimum de 16,1 %. Elle pourrait revenir au pic du « Jour de Libération » qui se situe, en prenant en compte la structure des importations des États-Unis ou celle de son groupe de référence autour de 25 %.
Cette séquence souligne à quel point les choix techniques d’agrégation des droits de douane influencent la perception des politiques commerciales. Une lecture superficielle pourrait aboutir à une sous-estimation de la hausse de la protection. Une analyse rigoureuse, tenant compte des biais d’endogénéité, révèle au contraire l’ampleur du tournant protectionniste américain, notamment sur des secteurs – acier, aluminium, automobiles – et des pays spécifiques – Chine, Canada, Mexique. Ainsi, ces choix méthodologiques ne sont pas neutres : ils conditionnent les diagnostics économiques, mais aussi les scénarios de modélisation dans les exercices prospectifs d’équilibre général.

Houssein Guimbard ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
04.07.2025 à 18:27
Pourquoi dit-on autant « du coup » ? Le langage d’une époque heurtée
Texte intégral (1715 mots)

On l’entend partout. « Du coup » ponctue les conversations, s’invite dans les salles de classe, les plateaux de télévision, les pauses café. Tic de langage pour les uns, symptôme d’époque pour d’autres, cette locution adverbiale s’est imposée comme un élément récurrent du français oral contemporain. Peut-on voir dans cette prolifération un simple effet de mode, ou faut-il y lire le reflet d’une société heurtée, en quête de cohérence dans un monde désordonné ?
L’expression « du coup » connaît depuis deux décennies une explosion d’usage documentée par les linguistes. Lotfi Abouda est l’un d’entre eux. En 2022, il a publié une étude basée sur l’exploration d’un corpus oral d’environ 1,3 million de mots. Il constate une transformation quantitative spectaculaire : alors que seulement 5 occurrences du connecteur « du coup » apparaissent entre 1968 et 1971, on en dénombre 141 dans les données collectées depuis 2010.
Cette spécificité hexagonale est si marquée que d’autres communautés francophones l’utilisent comme détecteur d’origine géographique : au Québec, elle permet d’identifier immédiatement un locuteur français (tout comme l’expression « une fois » trahit instantanément un Belge). Par ailleurs, dans un corpus de 120 heures d’enregistrements analysé, sur 614 occurrences identifiées, 67 % sont produites par des locuteurs appartenant à la tranche d’âge 15-25 ans. Le phénomène semble donc générationnel.
Mécanismes et fonctions du tic langagier
En linguistique, le terme « tic de langage » est considéré comme péjoratif par les spécialistes qui préfèrent parler de « marqueurs de discours ». Julie Neveux, maîtresse de conférences à la Sorbonne, explique que ces expressions fonctionnent comme des « mots béquilles » qui « remplissent un vide » et sur lesquels « on s’appuie quand on cherche quelque chose à dire ». L’expression « du coup » connaît un processus de « pragmaticalisation » : d’expression consécutive, elle devient marqueur méta-discursif, servant à relier des segments de discours de façon plus ou moins motivée. Dans 82 % des cas, elle apparaît en position frontale dans l’énoncé, agissant davantage comme amorce de parole que comme véritable lien logique.
Le linguiste Roman Jakobson a théorisé cette fonction sous le terme de « fonction phatique » : ces mots ne servent pas à communiquer un message informatif, mais à maintenir le contact entre locuteur et destinataire, comme le « allô » au téléphone. « Du coup » remplit cette fonction de maintien du lien conversationnel, permettant de structurer la pensée, d’attirer l’attention et de meubler les silences potentiellement embarrassants.
Utiliser les marqueurs de son époque
Le sociologue Erving Goffman a développé une analyse des interactions comme « cérémonies en miniature ». Dans son concept de face-work (travail de figuration), il montre comment nos relations intersubjectives constituent un processus d’élaboration conjoint de la face, cette « valeur sociale positive qu’une personne revendique effectivement ».
L’expression « du coup » s’inscrit dans ce que Goffman appelle « l’idiome rituel » : ce vocabulaire du comportement qui transmet une image de soi conforme aux attentes sociales. En utilisant les marqueurs de son époque, le locuteur signale son appartenance au groupe social et évite les « fausses notes » qui pourraient compromettre l’interaction. « Du coup » permet de sauver la face, d’éviter le silence, de montrer qu’on maîtrise les codes implicites du dialogue. Il est un marqueur de coprésence, de continuité de l’échange.
Les « tics de langage » fonctionnent d’ailleurs souvent comme des marqueurs d’appartenance à un groupe sociologique ou générationnel. La génération qui emploie massivement « du coup » souligne inconsciemment son inscription dans l’époque contemporaine.
Le marqueur d’une époque heurtée
L’expression « du coup » trouve racine dans un mot prolixe en français : « coup ». Coup de foudre, coup dur, coup de théâtre, coup bas, tout à coup, coup de stress, coup de fatigue, coup de blues… Le lexème convoque systématiquement l’idée de choc, de rupture, d’événement imprévu. Cette prolifération du champ sémantique du « coup » dans la langue française contemporaine mérite analyse sociologique.
Le « coup » évoque la brutalité, la soudaineté, l’impact inattendu. Dans une société où l’accélération du temps social et la « modernité liquide » créent un sentiment d’instabilité permanente, cette sémantique du choc pourrait refléter l’expérience subjective d’une génération « heurtée » par les événements. « Du coup » résonne avec l’état d’un monde contemporain marqué par l’imprévisibilité, la discontinuité, la multiplication des « coups » de la vie, du sort, des événements.
Incertitude contemporaine et fragmentation du sens
La génération qui emploie massivement « du coup » est celle de l’incertitude : précarité professionnelle, flexibilité imposée, carrières en zigzag, information en flux continu, bouleversements technologiques continus. Les travaux sociologiques convergent pour décrire un individu contemporain « pluriel », « livré à ses expériences », évoluant dans un « monde de risques » où les repères traditionnels s’effritent.
Cette insécurité existentielle se traduirait-elle par ce que les linguistes appellent une « insécurité linguistique » ? Les formes de disfluence verbale (telles que “euh”, “hum”, ou “du coup”) ne sont pas de simples « parasites » : elles reflètent une tension émotionnelle ou une hésitation du locuteur, souvent nourries par une incertitude face aux normes ou à la maîtrise du discours, a fortiori dans un monde incertain. Dans ce contexte, « du coup » fonctionnerait comme une stratégie discursive de gestion de l’imprévisible, donnant une illusion de continuité et de conséquence, même quand le lien logique fait défaut (dans 45 % des usages).
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
Du non-sens au sens adaptatif
« Du coup » peut être analysé comme une expression au sens flottant, contextuel, presque vide, mais ce « vide » est fonctionnel : il remplit, structure, rassure. Il devient l’indice d’une volonté de relier ce qui a été déconnecté, de remettre du liant dans un discours fragmenté par l’expérience contemporaine de la discontinuité. L’expression est à la fois le signe d’une perte de sens consécutif rigoureux et d’une créativité linguistique adaptative face aux mutations sociales.
« Du coup » pourrait ainsi cristalliser une angoisse civilisationnelle particulière, liée aux transformations sociales, économiques et technologiques que traverse la société française depuis les années 1990. En ponctuant le discours de cette expression, le locuteur contemporain simule la maîtrise des enchaînements logiques dans un monde qui lui échappe largement. L’expression devient progressivement « moins connecteur qu’actualisateur déictique », permettant à l’énoncé de « s’enraciner dans le contexte énonciatif occurrent ».
« Du coup » est bien plus qu’un tic de langage. Il est le miroir d’une époque déstructurée, d’une génération en quête de liens et de sens. Il semble dire le besoin de ré-agencer le monde, fût-ce à coups de remplissage verbal. Le langage, encore une fois, absorbe les tensions de son temps.
Une conclusion, du coup ?
« Du coup » pourrait ainsi être interprété comme l’expression linguistique d’une résistance inconsciente à l’effritement du sens : face à l’incompréhensibilité relative de notre condition contemporaine, nous persistons à maintenir l’apparence d’une maîtrise discursive. Cette stratégie énonciative révèle paradoxalement notre humanité : continuer à parler, c’est affirmer notre capacité à tisser du lien social malgré l’incertitude, à maintenir l’échange même quand la logique nous échappe. En ce sens, « du coup » constitue moins un appauvrissement qu’un symptôme de notre créativité adaptative face aux mutations de la modernité.

Emmanuel Carré ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
03.07.2025 à 17:02
IA : bombe énergétique ou levier écologique ?
Texte intégral (2053 mots)
Menace ou opportunité, telle est la question concernant l’impact de l’intelligence artificielle sur l’environnement. Si cette technologie est terriblement énergivore, elle offre aussi des outils pour mieux utiliser et optimiser la consommation des ressources naturelles. Laquelle de ces deux forces l’emportera ? La stratégie adoptée par les grands ensembles continentaux (États-Unis, Chine et Union européenne) dépend en partie de la réponse apportée à la question. Qui a fait le bon choix ?
Cet article est publié dans le cadre du partenariat les Rencontres économiques d’Aix–The Conversation. L’édition 2025 de cet événement a pour thème « Affronter le choc des réalités ».
L’intelligence artificielle pousse encore d’un cran le dilemme classique des technologies de l’information : alors que s’annonce une explosion de la demande électrique liée à cette famille de technologies, l’IA s’affirme dans le même temps comme une « boîte à outils » pour la lutte contre le changement climatique. La voie est étroite entre la tentation de vouer l’IA aux gémonies (au regard de son empreinte en énergie, eau, matières premières, espaces…) et l’espérance d’un technosolutionnisme en considérant la multiplicité de ses usages climatiques. Tentons d’esquisser un chemin entre ces deux écueils.
Selon l’Agence internationale de l’énergie (AIE), la demande d’électricité des centres de données devrait plus que doubler d’ici à 2030 pour tendre vers les 1000 térawattheures (TWh), l’équivalent de la consommation totale du Japon. Le FMI présente des projections encore plus alarmistes, considérant que les besoins en électricité induits par les usages de l’IA pourraient pousser ces consommations jusqu’à 1500 TWh, surpassant toutes autres sources de demande émergentes (véhicules électriques compris) et avoisinant la demande électrique de l’Inde.
Plus de charbon : un retour vers le futur énérgétique
Cette poussée pourrait ajouter 1,7 Gt aux émissions mondiales de gaz à effet de serre (GES) entre 2025 et 2030. Anticipant cette pression, le président des États-Unis,Donald Trump a signé en avril 2025 une série de quatre décrets destinés à doper les usages du charbon, justifiant cette décision par la nécessité de répondre à l’essor de l’IA (dans le contexte d’un « état d’urgence énergétique », déclaré dès janvier). Alors que les États-Unis avaient franchi pour la première fois en mars 2025 le seuil symbolique de moins de 50 % d’électricité fossile, l’IA risque d’inverser cette tendance.
En outre, si l’adaptation des moyens de production (notamment renouvelables) et des infrastructures de transport et de distribution devait ne pas suivre au bon rythme, une hausse des prix de l’électricité en résulterait mécaniquement, frappant ménages et entreprises. Aux États-Unis, cette hausse pourrait atteindre 10 % en 2030.
Certes, l’émergence de modèles d’IA plus sobres, tels que DeepSeek, fait planer un voile d’incertitude sur ces scénarios prospectifs, car les améliorations algorithmiques tendent à réduire les besoins en calcul et la demande en électricité. Mais, cette incertitude risque aussi de retarder des investissements cruciaux en électricité décarbonée, et de concourir à exploiter les centrales thermiques et à pousser les prix à la hausse.
À lire aussi : Après le sommet sur l’IA, Emmanuel Macron peut-il faire émerger une troisième voie européenne ?
Une profusion d’expérimentations orientées vers l’action climatique
En contrepoint, un rapide inventaire permet de dévoiler un foisonnement d’applications susceptibles de contribuer à l’action climatique ou de mieux anticiper les dérèglements à venir.
L’IA améliore tout d’abord les prévisions météorologiques et climatiques. Le Centre européen de prévision estime que la précision de ses modèles IA dépasse celle des modèles classiques de 20 %. Météo-France a développé un modèle à échelle régionale, utile également pour simuler les climats futurs. GraphCast de Google DeepMind surpasse les systèmes officiels de 20 à 25 % pour la prévision de trajectoires cycloniques, tandis qu’Aurora, soutenu par Microsoft, améliore le suivi des phénomènes extrêmes.
Dans le secteur de l’énergie, l’IA transforme la gestion des systèmes complexes. L’optimisation des réseaux électriques permet une prévision de la demande et de l’offre énergétiques plus précise, réduit les pertes et détecte les pannes. En Allemagne, des projets pilotes ont démontré que l’IA pouvait diminuer les congestions réseau de 40 %, évitant des investissements en infrastructure. Ce potentiel vaut aussi pour les systèmes de transport, avec une optimisation de la circulation en se basant sur les données issues de capteurs, caméras et systèmes GPS. Les Advanced Traffic Management Systems (ATMS) régulent ainsi les feux de signalisation pour fluidifier le trafic tout en diminuant les émissions de CO2 associées aux arrêts et redémarrages fréquents.
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
Stratégies de fertilisation adaptées
L’IA en agriculture de précision améliore l’utilisation des ressources en analysant les données de sol, météorologiques et de culture pour recommander des stratégies de fertilisation ciblées. L’analyse des niveaux d’humidité et de la disponibilité des nutriments permet de recommander des stratégies de fertilisation adaptées. Des prévisions météorologiques affinées guident les programmes d’irrigation et de plantation, surveillant également la santé des cultures via l’imagerie satellitaire et des capteurs pour prévenir les maladies ou carences nutritionnelles.
Dans la gestion de l’eau, les algorithmes d’IA analysent les données historiques, intègrent les informations météorologiques en temps réel et les conditions opérationnelles pour optimiser les performances des pompes, vannes et autres équipements critiques. En ajustant dynamiquement les débits, dosages chimiques et cycles de filtration, l’IA minimise la consommation d’énergie, tout en respectant les normes de qualité.
Action en faveur de la biodiversité
L’IA joue aussi un rôle croissant dans la conservation de la biodiversité. Les modèles d’apprentissage automatique entraînés sur l’imagerie satellite et l’ADN environnemental peuvent répertorier la répartition des espèces avec une précision inégalée. Le projet Allen Coral Atlas cartographie ainsi les récifs coralliens et détecte leur blanchissement, augmentant l’efficacité des mesures de conservation. En foresterie, OCELL développe des jumeaux numériques pour améliorer la gestion forestière. Dans la conservation marine, l’IA a permis de réduire significativement le risque de collisions entre navires et baleines, une cause majeure de mortalité des cétacés.
Pour éviter un effet catalogue, on mentionnera simplement les perspectives en économie circulaire, à la fois pour améliorer le tri des déchets et pour développer des produits plus faciles à réparer, recycler et réutiliser.
IA frugale : des perspectives au-delà de l’oxymore ?
Face à cette dualité, des efforts sont déployés pour esquisser le contour d’une IA frugale, soit une approche systémique combinant efficacité matérielle, optimisation algorithmique et questionnement des usages. Les trois principes de l’IA frugale (démontrer la nécessité du recours à l’IA, adopter de bonnes pratiques environnementales et questionner les usages dans les limites planétaires) constituent un cadre pour guider l’action.
La stratégie nationale française, dans sa troisième phase lancée en 2025, érige l’IA frugale en boussole. Cette approche vise à minimiser les besoins en ressources matérielles et énergétiques tout en garantissant la performance des systèmes d’IA. Le référentiel général pour l’IA frugale (AFNOR Spec 2314), élaboré par Ecolab avec plus d’une centaine d’experts, propose des méthodologies concrètes pour mesurer et réduire l’impact environnemental des projets.
Souverain et durable
L’Union européenne déploie un plan d’action pour devenir “le continent de l’IA”. Cette approche européenne privilégie une régulation fondée sur les risques, classant les systèmes d’IA selon leur niveau de dangerosité. Les futures giga-usines d’IA visent à développer une [infrastructure souveraine],tout en intégrant des critères de durabilité.
De son côté, la Chine coordonne le développement des centres de données avec ses infrastructures d’énergies renouvelables. Le plan d’action publié en juin 2025 par l’Administration nationale de l’énergie prévoit d’implanter les centres de données dans des régions riches en ressources renouvelables comme le Qinghai, le Xinjiang et le Heilongjiang. Cette stratégie s’appuie sur la capacité chinoise à déployer rapidement de nouvelles capacités électriques : en 2024, la Chine a ajouté 429 GW de nouvelles capacités de production, soit plus de 15 fois celles des États-Unis sur la période.
Une déréglementation totale
Ce qui, à l’évidence, ne constitue pas une préoccupation pour les États-Unis qui ont adopté une approche résolument pro-innovation débridée sous l’administration Trump II. Cette dernière a d’ores et déjà abrogé le décret de Joe Biden sur la sécurité de l’IA, qui imposait aux entreprises de communiquer leurs données lorsque leurs programmes présentaient des “risques sérieux”.
Cette décision s’inscrit dans une logique de déréglementation totale et « un développement de l’IA fondé sur la liberté d’expression et l’épanouissement humain ». Aux antipodes, dans ce domaine également, de l’approche de l’UE avec son IA Act.
Cet article est publié dans le cadre d’un partenariat de The Conversation avec les Rencontres économiques organisées par le Cercle des économistes, qui se tiennent du 3 au 5 juillet, à Aix-en-Provence.

Patrice Geoffron est membre fondateur de l'Alliance pour la Décarbonation de la Route
03.07.2025 à 16:37
Un tableau à 43 millions d’euros pour le Musée d’Orsay : LVMH champion du mécénat et de l’optimisation fiscale ?
Texte intégral (2253 mots)
Le groupe LVMH a participé à l’acquisition par le musée d’Orsay du tableau la Partie de bateau de Gustave Caillebotte. Loin d’être anodine, cette démarche pose la question de l’influence potentielle du mécène sur le musée. Une problématique d’autant plus brûlante que cet argent provient en fait à 90 % des poches du contribuable…
En janvier 2023, le musée d’Orsay a acquis la Partie de bateau, un tableau de Gustave Caillebotte (1848-1894) datant de 1877, reconnu comme une pièce majeure de l’impressionnisme pour son traitement audacieux et dynamique, combiné à l’insouciance de son sujet.
« La Partie » a longtemps été perçue comme mineure dans l’histoire de la peinture, à l’instar du reste de l’œuvre de Caillebotte. L’artiste était passé de mode avant son décès, notamment en raison des sujets traités, tels que le travail manuel ou le monde de l’oisiveté.

Ses toiles intéressent désormais musées et collectionneurs fortunés. Très fortunés même, avec des prix qui affolent les institutions. En 2021 le Getty Museum à Los Angeles a acheté le Jeune homme à sa fenêtre pour 53 millions de dollars, pulvérisant le précédent record du peintre établi à 22 millions de dollars pour le Chemin montant lors d’une vente aux enchères chez Christie’s en 2019.
Le tarif de la Partie de bateau est plus raisonnable : 43 millions d’euros. À sa mise en vente, le ministère de la Culture prend la décision de le classer comme trésor national, reconnaissant son caractère exceptionnel. Mais il ne débloque pas un budget à même de pouvoir l’acheter. Il lui interdit cependant de quitter le territoire pendant 30 mois. Ce classement démarre un compte à rebours pour garder la toile en France.
Évidemment, le prix dépasse le budget d’acquisition du Musée d’Orsay. Et pas qu’un peu, puisque ce dernier tourne autour de 3 millions d’euros par an. Pour ne pas voir le chef-d’œuvre s’échapper à nouveau dans une collection privée, comme il le fut depuis le décès de la dernière descendante du peintre, un appel à mécénat est lancé avec une belle carotte : un abattement fiscal de 90 % de son coût.
Le groupe Louis-Vuitton Moët-Hennessy (LVMH) – dont Bernard Arnault est l’actionnaire principal – est déjà mécène du musée d’Orsay, et répond rapidement à l’appel. Fidèle à son habitude, cette acquisition ne se fait pas dans la discrétion, le groupe produit un communiqué de presse au ton inspiré que reprend en partie une dépêche AFP. C’est cette dernière que l’on retrouve dans la presse, avec une absence totale de mention envers le cadeau fait par l’État à LVMH.
Qu’un groupe privé utilise l’achat d’un tableau issu d’une collection publique à des fins de communication interroge en soi. Mais le problème est ailleurs : c’est en réalité le contribuable qui paie l'opération de communication de LVMH (à hauteur de 90 %, en raison des avantages fiscaux accordés au mécénat). Pour l'entreprise, le coût est minime et l'opération assoit son image de « bienfaiteur culturel », tout en ouvrant potentiellement la porte à une influence diffuse du groupe privé au sein du musée - un don génère souvent une dette implicite.
La Fondation Louis Vuitton, « cadeau à la France » ?
L’achat du tableau de Caillebote est le type d’initiative qui est dans les habitudes du groupe LVMH. S’agit-il de dons désintéressés ? Il est possible de s’interroger, du fait du montant de la déduction fiscale et de la régularité avec laquelle surviennent des affaires concernant le faible taux d’imposition de Bernard Arnault (14 %) ; tout en étant assez peu reprises dans la presse. Certains mettent en doute la générosité du mécénat menée par le mastodonte aux 80 milliards d’euros de chiffre d’affaires, pratique décrite comme l’une des nombreuses stratégies d’optimisation fiscale agressive du groupe.
Ainsi, en 2014, lors de la construction de la Fondation Louis Vuitton, grâce à la loi Aillagon de 2003 relative au mécénat, LVMH avait pu éviter 60 % du coût de sa construction en l’évacuant de ses impôts, soit 518 millions d’euros de ristourne. Cette année-là, le coût de la Fondation, « cadeau à la France », selon Bernard Arnault, coûta à lui seul 8 % de la totalité de la niche fiscale, le plus important montant de toutes les niches fiscales réunies, obligeant pour la première fois l’Assemblée nationale à imposer des limites à cette loi.
Si en 2019, suite à l’incendie de Notre-Dame de Paris, LVMH a déclaré ne pas faire fonctionner ce mécanisme, ce n’est pas par bonté d’âme. Simplement, les plafonds de la firme étaient largement atteints.
Par ailleurs, ce don est le fruit d’une course à l’échalote avec l’éternel rival, Kering, deuxième groupe mondial dans le secteur du luxe, fondé par François Pinault, qui l’a devancé dans la course au prestige de la restauration de la cathédrale.
Pris à son propre piège, LVMH n’a pu que doubler la mise, sans oublier de communiquer abondamment sur l’opération. Il s’est attiré nombre de critiques qui sont allées jusqu’à faire sortir Bernard Arnault de son habituelle réserve : pendant une réunion devant les actionnaires, celui-ci s’est « défendu » en expliquant, face caméra, que dans certains pays, on serait félicité et non critiqué pour un tel acte de générosité.
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
Le tableau en tournée dans les musées de France
Pour fêter son arrivée dans les collections publiques, telle une star du rock, la Partie de bateau est partie en tournée. Il est exposé tour à tour dans divers musées (une pratique peu commune) afin de le présenter au plus de public possible : d’abord le Musée des Beaux-arts de Lyon, puis celui de Marseille et enfin celui de Nantes. Une étrange idée, dont les donneurs d’ordre sont inconnus, apparaît pour marquer le coup : faire transiter le tableau de ville en ville, d’étape en étape, par bateau, lui faire parcourir les canaux et les fleuves du pays. Après tout, voilà une balade en bateau, quoi de mieux que de la balader en bateau ?
Cela ne se fait jamais. Pour de simples questions de temps, de coûts et de sécurité, les tableaux transitent toujours dans leurs caisses, accompagnés de leurs convoyeurs, par camion et avion afin de ne pas passer trop de temps dans les transports, situation à risque. L’idée de faire traverser plusieurs fois le pays à une toile exceptionnelle chèrement payée, par un moyen de transport lent (il aurait fallu plusieurs semaines) et possiblement submersible, pose la question du capital risque vis-à-vis de la métaphore plate : balade en bateau/se déplace en bateau.
Encore plus curieux, ladite caisse devait, dans le cadre de cette tournée, revêtir un motif particulier - un détail qui éclaire les logiques à l’œuvre dans les coulisses du mécénat.
À partir d’une certaine valeur d’assurance, une œuvre d’art se stocke et se déplace dans une caisse en bois qui la protège. Étanches, isolées, vernies : il en existe pour tous les usages, sur mesures ou en location. En général, assez peu de fantaisies sur leurs apparences, bien au contraire : elles se doivent de rester discrètes, voire anonymes. Certains musées, de ceux qui prêtent beaucoup d’œuvres, font peindre ces caisses de nuances spécifiques, afin de les repérer dans les réserves surchargées.
Toile de maître dans malle de luxe
Pour la balade en bateau que devait effectuer la Partie de bateau, la caisse se devait d’être spécifique pour protéger cette star des cimaises dans sa dangereuse tournée aquatique. Louis Vuitton aurait proposé de faire voyager la toile dans une de ces célèbres malles hors de prix, s’assurant au passage une publicité prestigieuse, en plus de l’opération de communication lourde déjà permise par l’acquisition de l’œuvre.
Si cette fois, les conservateurs du musée ont joué la vitesse et fait partir le tableau en caisse, ce n’était pas là un coup d’essai. En 2018, la laitière de Johannes Vermeer est partie du Rijksmuseum pour rejoindre le Ueno Royal Museum de Tokyo dans une malle siglée.
La malle de tous les superlatifs se devait de transporter dans son périple une œuvre qui n’appartient pas au malletier, mais nous aurions presque pu l’oublier. Ce n’est sans doute pas une coïncidence de la part du groupe de luxe, qui ne se prive jamais de mélanger la réclame au mécénat, brouillant volontairement les frontières en frôlant les limites de la loi, mais pas celles du ridicule.

Tanguy Gatay ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
03.07.2025 à 16:36
Tour de France 2025 : quand le peloton traverse les mystères géologiques de la Flandre
Texte intégral (3024 mots)

Au-delà du sport, le Tour de France donne aussi l’occasion de (re)découvrir nos paysages et parfois leurs bizarreries géologiques. Le Tour de France 2025 s’ouvre ainsi dans les Hauts de France. Ses coureurs traverseront notamment, au cours de ces premiers jours, la plaine flamande. C’est la partie française du « pays bas » qui borde la mer du nord du Boulonnais à la Frise. Et est depuis des millions d’années sujette aux submersions marines.
À l’est des Hauts de France, la Flandre française est limitée par les contreforts du Massif ardennais ; au sud, par les collines qui, du Cambrésis au Boulonnais, appartiennent à un bombement qui se poursuit en Angleterre. Jalonnant cette structure, un relief modeste de moins de 300 mètres de haut, dont fait partie le Blanc-Nez, a été entaillé par le trop-plein du lac qui occupait la mer du Nord pendant les périodes de grande extension glaciaire : cette entaille a formé la vallée étroite qu’est le détroit du Pas-de-Calais.
Au Nord, la Flandre intérieure (le houtland) est constituée de collines molles, formées d’alternances de sables et d’argiles, accumulées dans un bassin marin calme il y a 55 à 35 millions d’années environ. La ligne de rivage était d’abord adossée sur les collines du Boulonnais-Artois, et s’en est progressivement éloignée en migrant vers le nord, effet lointain de la formation des Alpes.
Depuis quelques millions d’années, la Flandre française est épisodiquement submergée par la mer du fait des interactions entre tectonique des plaques et climat. Le changement climatique d’origine anthropique vient renforcer le phénomène.
Un paysage issu de la dernière glaciation
Dans le passé, des torrents dévalaient les collines méridionales de la Flandre française, à l’image des oueds sahariens autour de certains massifs montagneux. De nombreuses nappes de cailloutis (reg) se sont ainsi disséminées sur toute la Flandre. Une période climatique particulière, très chaude, a figé certains de ces dépôts au niveau du rivage de l’époque, en les cimentant par des oxydes ferrugineux. Ces cailloutis transformés en cuirasses ont protégé de l’érosion ultérieure les sables qu’ils recouvraient, formant l’alignement des monts de Flandres qui a étonné géologues et curieux : le Mont Cassel (176 m) est l’un de ces témoins.
Au cours du Quaternaire (depuis 2,6 millions d’années), les glaciations ont fait varier le niveau marin de plus de 100 m, asséchant plus ou moins la Manche et la mer du Nord lors de chaque pic glaciaire. Archéologues, paléontologues et géologues ont su reconstituer à partir des terrasses fluviatiles de la Somme, 10 cycles glaciaires de 100 000 ans chacun environ. Les travaux du canal Seine-Nord-Europe vont aussi contribuer à préciser ces reconstitutions.
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
Le paysage actuel de la plaine maritime flamande résulte du façonnement produit depuis la fin de la dernière glaciation, c’est-à-dire environ 20 000 ans. Les archéologues néerlandais, belges et français qui coordonnent leurs recherches démontrent que la montée naturelle du niveau marin s’estompe, mais que le phénomène est désormais engendré sous l’effet prépondérant du réchauffement d’origine anthropique.
Des digues à partir du XIᵉ siècle
La dernière invasion marine a été bien documentée par les géologues : à partir de la fin du IIIe siècle et jusqu’au IXe siècle, ils ont mis en évidence l’enfouissement par une tourbe puis par des dépôts marins de traces d’activités agricoles et commerciales (salines entre autres). En réponse, montrent les archéologues de l’Inrap, les humains ont construit durant les 11e et XIIe siècles des digues pour se protéger de la submersion marine occasionnelle, et ont aménagé des espaces de collecte d’eaux pluviales pour se ménager une ressource en eau douce.

Jusque-là en effet, chaque propriétaire défendant son champ ne pouvait le faire qu’en renvoyant l’eau en excès chez ses voisins. Cette situation, qui engendrait des conflits, a mené dès le XIIe siècle Philippe d’Alsace, comte de Flandre, à tenter de mettre en place un système de gestion commun, ordonné et contrôlé. Mais il faut attendre le XVIIe siècle pour qu’un ingénieur hollandais, Cobergher, acquière la lagune résiduelle (Les Moëres) pour y construire un dispositif mécanique dont le principe est encore actuel. Seules la forme d’énergie et la commande des manœuvres, autorégulée aujourd’hui, ont depuis changé.
Aujourd’hui, la poldérisation – l’assèchement de marais littoraux pour en faire des terres cultivables – est de plus en plus gênée par la montée du niveau marin, par le développement de l’urbanisme et de l’industrialisation. La période de pluies soutenues, génératrices d’inondations au cours de l’hiver 2023-2024 a mis en évidence une autre limite : le processus de poldérisation a été élaboré pour drainer des terres agricoles ; à cette occasion, il a aussi été utilisé comme ouvrage d’assainissement à portée régionale pour drainer la totalité de la plaine maritime. Or ce système n’a jamais été dimensionné pour un tel objectif !
Un système de gestion désormais dépassé
Le principe de gestion est connu sous le nom de wateringues. Chaque propriétaire d’un lopin de terre est chargé de le cultiver et de l’entretenir : il rejette les eaux en excès (pluviales et ruissellements, donc douces), dans un drain (watergang) qui entoure sa parcelle et paye une redevance pour qu’elles soient collectées par un canal plus important (ringslot) qui les conduit vers des canaux classiques, gérés, eux, par Voies Navigables de France.




Le principal problème est qu’aujourd’hui, à marée haute, l’écoulement de l’eau à la mer ne peut plus se faire naturellement par gravité, à cause de la montée du niveau marin. L’eau est donc momentanément stockée derrière des écluses, soit en attendant la marée basse, soit pour être reprise par des pompes qui la rejetteront au-dessus de ces écluses. L’épisode d’inondations de l’hiver 2023-2024 a démontré qu’on ne détourne pas impunément un aménagement si l’on n’a pas compris le système fonctionnel du territoire.
Dans ce contexte, il s’agit de repenser dans sa totalité l’aménagement de ce territoire, porteur d’enjeux très lourds, économiques, sociaux, environnementaux. La dépression des Moëres, en particulier, est aujourd’hui officiellement située sous le niveau de la mer : elle devrait donc être (progressivement) libérée de tout habitat et peu à peu transformée en bassin de collecte des eaux pluviales et de ruissellement. Diverses formes de valorisation économique sont à étudier. Seul problème : les négociateurs du Traité d’Utrecht (1713) ont fait passer la frontière au milieu de cette dépression… ce qui implique de traiter ce problème dans un cadre européen.

Francis Meilliez est Professeur honoraire de Géologie et directeur de la Société Géologique du Nord.
Patrick de Wever ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.