21.01.2026 à 16:15
Nicolas Minvielle, Spécialiste du design et de l'innovation, Audencia
Marie Roussie, Docteur en science de gestion, spécialisée en prospective, Université Paris Dauphine – PSL

Alors que le contexte géopolitique change en profondeur, de nouvelles entreprises émergent dans le monde de la défense. Après des décennies dominées par la puissance d’entreprises industrielles à l’ancienne, les start-up du logiciel deviennent des actrices clés. Retour sur une mutation en cours et décryptage des nouveaux enjeux qu’elle pose.
Dans le contexte de la guerre en Ukraine où l’« autonomie stratégique » devient un problème concret apparaît, à côté du traditionnel « complexe militaro-industriel »), un nouveau modèle que l’on pourrait décrire comme étant un complexe technocapitaliste. Un écosystème où start-up, fonds de capital-risque, fonds souverains, initiatives européennes et philanthropes techno-nationalistes investissent massivement dans la défense et la sécurité.
Non pas pour remplacer d’un coup la base industrielle et technologique de défense (BITD) – et ce malgré les annonces tonitruantes de certains de ces acteurs –, mais pour en modifier progressivement l’architecture, les acteurs et les temporalités.
Le modèle qui domine encore aujourd’hui a pris forme dans les années 1990, avec la grande consolidation de l’industrie américaine de défense sous l’administration Clinton. Durant cette période, la base industrielle de défense américaine a connu une consolidation d’une ampleur inédite. Surnommé le last supper, ce moment d’accélération des fusions a donné naissance aux cinq géants qui dominent encore largement la défense américaine – Lockheed Martin, Boeing, Northrop Grumman, Raytheon et General Dynamics. Quelques grands maîtres d’œuvre – ces fameux Big Five – se partagent ainsi depuis l’essentiel des grands programmes : avions de combat, frégates, satellites, systèmes de commandement intégrés.
À lire aussi : Réarmement : l’indispensable coopétition entre petites, moyennes et grandes entreprises de la défense
Leur logique est celle de la commande publique lourde : des besoins définis par l’État, des appels d’offres longs, des cycles de développement qui se comptent en décennies, une forte intégration verticale, une relation quasi organique avec les ministères de la Défense. Ce modèle assure une certaine visibilité budgétaire et une capacité à gérer des systèmes d’une complexité extrême. Il produit aussi une grande inertie tant sur le plan technologique que procédural.
Depuis une dizaine d’années, ce paysage est bousculé par des acteurs qui viennent, pour l’essentiel, du monde du logiciel : Anduril, Palantir, Helsing, Shield AI, et en France des entreprises comme Command AI. Leur point de départ n’est pas une plateforme matérielle (un avion, un navire, un char), mais le logiciel : fusion de données, IA, capteurs distribués, systèmes autonomes, couches de command & control.
Leurs méthodes de travail et de production, héritées de la tech consistent en itérations rapides, tests fréquents, déploiements progressifs, adaptation au retour du terrain plutôt qu’exécution d’un cahier des charges figé. Aux États-Unis, des dispositifs comme les Other Transaction Authority (OTA) ont été créés pour faciliter cette collaboration avec des acteurs non traditionnels, ce qui permet d’en contourner certaines lourdeurs réglementaires.
Au sein de ces organisations, on sait prototyper plus vite, expérimenter plus tôt, et ce qu’elles que soient leurs origines géographiques. Mais le cœur du problème reste entier : beaucoup de ces start-up valident un démonstrateur… puis butent sur la « vallée de la mort » entre prototypes financés en mode agile et programmes pérennes inscrits en loi de finances. L’appareil budgétaire, taillé pour les grands industriels historiques, peine à absorber des solutions issues de ce nouveau monde.
En Europe, on tente d’importer cet esprit à travers des marchés d’innovation, des programmes d’expérimentation accélérée, des dispositifs dual-use. Mais la culture d’acquisition reste largement calibrée pour les grands programmes industriels, plutôt que pour des produits logiciels qui changent de version plusieurs fois par an.
Parallèlement à cette rupture technologique, c’est la structure du financement de la défense qui se transforme. La sécurité n’est plus seulement affaire de budgets ministériels ; elle devient aussi un segment identifié du capital-risque. Aux côtés des commandes publiques et des investissements des grands groupes se constitue un nouvel écosystème d’investisseurs composé :
des fonds privés spécialisés dans la défense, la sécurité et les technologies dites « civilisationnelles » (IA, autonomie, cyber, spatial, résilience d’infrastructures) ;
des fonds souverains et publics qui cherchent à orienter l’innovation vers des priorités de souveraineté ;
des dispositifs européens (fonds de fonds, véhicules dédiés) qui tentent de structurer un marché encore fragmenté ;
des philanthropes techno-nationalistes qui investissent par conviction politique ou civilisationnelle autant que pour le rendement (Peter Thiel par exemple).
Tous partagent la conviction que certaines technologies – IA militaire, lutte anti-drones, robotique autonome, surveillance avancée, sécurité spatiale – vont devenir structurantes, et que la valeur se créera très en amont, bien avant les grands contrats publics. Le schéma de l’industriel finançant la R&D sur fonds propres pour vendre ensuite un produit à marge encadrée recule. Le risque est socialisé dans le capital : les VC, les fonds souverains, les programmes européens prennent le risque initial, en misant sur l’hypothèse qu’un jour, une partie de la commande publique basculera vers ces nouvelles solutions.
Ce mouvement ne remplace pas le financement traditionnel par les États ; il l’encercle, le complète et le pousse à se réorganiser. Ministères de la Défense, Union européenne, Otan tentent désormais de co-concevoir des instruments (fonds, equity facilities, fonds d’innovation) pour ne pas laisser au seul capital privé le soin de définir, par ses paris, l’architecture future de la BITD.
On l’aura compris, dans ce nouvel environnement, deux grandes logiques industrielles cohabitent. Du côté des industriels historiques, la chaîne de valeur part de l’expression de besoin : l’État formalise une exigence (un avion de combat, un système de défense antiaérienne, une frégate de nouvelle génération), lance un appel d’offres, sélectionne un industriel, et s’engage sur des décennies. La robustesse, la certification, l’intégration dans des architectures complexes sont centrales. Les marges sont encadrées, le risque est partagé, mais le tempo reste celui du temps long.
Les start-up de défense, à l’inverse, développent des produits avant que le besoin ne soit formalisé. Elles financent le développement puis se tournent vers les États en disant, en substance : « voilà ce que nous savons déjà faire, regardez si vous pouvez vous en passer ».
Cette asymétrie se voit dans la façon dont on conçoit les systèmes. Là où les grands industriels ont longtemps construit d’abord la plateforme matérielle, puis ajouté des couches logicielles au fil du temps, les nouveaux entrants adoptent une logique software first.
Le cas d’Anduril est emblématique. Au cœur de sa stratégie se trouve un système d’exploitation tactique, conçu pour connecter capteurs, drones, effecteurs et flux de données. À partir de cette brique logicielle, l’entreprise déploie ensuite ses propres drones, capteurs, systèmes d’armes, en gardant la maîtrise de l’architecture logicielle qui fait la jonction. Le tout étant principalement focalisé sur La clientèle militaire.
Cette inversion du rapport de force – la valeur se loge dans le logiciel, la plateforme matérielle devient, jusqu’à un certain point, substituable – rend très concrète la question de la souveraineté : qui contrôle la brique logicielle qui orchestre l’ensemble ? Qui décide du rythme des mises à jour ? Où se situent les dépendances critiques ?
Elle rebat aussi les cartes du Hi–Low mix : comment articuler des systèmes lourds, rares et coûteux (avion de combat, frégate) avec des objets plus simples, distribués, produits en masse (drones, capteurs, effecteurs low cost). Les nouveaux acteurs occupent volontiers ce bas et ce milieu du spectre, la « masse agile » ; les industriels historiques doivent, eux, apprendre à descendre vers des produits plus modulaires, plus rapides, tout en continuant à garantir l’excellence sur les systèmes de très haute complexité.
La rencontre entre capital-risque et défense met aussi au jour une tension structurante : celle des horizons temporels. Le Venture Capital (VC, ou capital-risque) raisonne en cycles de cinq à sept ans, avec l’idée que l’entreprise doit, soit atteindre une taille critique, soit être rachetée, soit entrer en bourse. Les ministères de la défense, eux, raisonnent sur vingt ou trente ans, voire davantage.
Ce décalage pose des questions très concrètes. Que se passe-t-il si un acteur clé de l’IA tactique ou du contre-drone, devenu indispensable sur le terrain, se retrouve fragilisé par la conjoncture financière, ou racheté par un acteur étranger ? Comment garantir la continuité d’une capacité opérationnelle dont la brique critique est portée par une entreprise structurée selon les logiques de la tech ?
À l’inverse, la défense ne peut plus ignorer le rythme d’innovation propre au logiciel. Attendre dix ans pour figer une architecture revient souvent à se condamner à déployer des systèmes déjà dépassés. D’où la montée en puissance de trois idées structurantes :
Le dual-use : privilégier les technologies qui ont, par construction, des débouchés civils et militaires (cyber, spatial, IA, robotique, résilience d’infrastructures). Cela élargit la base industrielle, répartit le risque et évite de concentrer des capacités critiques sur des marchés de niche.
Le « software-defined, hardware-enabled » : concevoir des systèmes où le cœur de valeur est dans l’algorithme (détection, fusion de capteurs, décision), et où le matériel – drone, capteur, effecteur – peut évoluer plus librement.
La modularisation et les architectures ouvertes : prévoir dès la conception des points d’insertion réguliers pour de nouvelles briques logicielles, de nouveaux capteurs, sans devoir réinventer tout le système.
Ces leviers ne font pas disparaître la tension entre temps court financier et temps long doctrinal, mais ils la rendent plus gérable. L’État peut, en théorie, remplacer une brique sans casser l’ensemble. Et le capital peut se concentrer sur des modules identifiables plutôt que sur des mégaprogrammes monolithiques.
On décrit parfois la situation actuelle comme la rencontre d’un « zoo » – celui des grands programmes, très régulés, très documentés, pensés pour durer – et d’une « jungle » peuplée d’insurgés technologiques, financés par les VC, en constante exploration.
Les nouveaux acteurs occupent des niches, souvent à la périphérie des grands programmes, mais avec un fort potentiel de diffusion. Pour l’instant, une grande partie d’entre eux reste dépendante de tremplins publics (contrats d’étude, expérimentations, appels à projets). Le marché réel, celui des grands volumes, demeure largement capté par les industriels historiques.
Dans le même temps, et le point est clé, les investisseurs privés se concentrent progressivement sur des profils plus mûrs : des entreprises qui ont déjà fait la preuve de leur solidité technique, de leur capacité à dialoguer avec les armées, de leur compréhension des contraintes réglementaires. On s’éloigne du fantasme de la start-up de défense sortie de nulle part pour se rapprocher d’acteurs hybrides, où se mêlent les cultures tech, industrielle et stratégique. Dit autrement, malgré le marketing ambiant, les investisseurs préfèrent accélérer des sociétés ayant une forme de maturité plutôt qu’une forme de risque extrême à tout va.
Pour l’Europe, l’enjeu n’est pas de choisir entre la jungle et le zoo, ni de rêver à une table rase. Il est d’apprendre à articuler ces deux univers :
en assumant plus clairement une politique industrielle de défense, qui fixe des priorités et des lignes rouges ;
en construisant des passerelles institutionnelles et financières entre fonds souverains, VC et industriels historiques ;
en pensant la souveraineté non seulement en termes de plates-formes matérielles, mais aussi en termes d’architectures logicielles, de données, de standards.
Le « complexe technocapitaliste » ne supprime pas le complexe militaro-industriel. Il le met à l’épreuve, l’oblige à se transformer et offre, si l’on sait le canaliser, de nouveaux leviers pour renforcer une souveraineté européenne qui ne peut plus se contenter de dépendre des choix technologiques et politiques des autres.
Nicolas Minvielle est membre du comité d’orientation de La Fabrique de la Cité, et du collectif Making Tomorrow
Marie Roussie travaille au sein de Alt-a et est membre du Collectif Making Tomorrow.
21.01.2026 à 16:15
Gregory Frame, Teaching Associate in Media and Cultural Studies, University of Nottingham
Explorant les failles et la défaite de la gauche américaine, les films Une bataille après l’autre, de Paul Thomas Anderson, et The Mastermind, de Kelly Reichardt, sont sortis en 2025, tandis que Donald Trump faisait un retour en force. Chacun à leur manière, ils invitent les membres et les partisans du parti démocrate comme les activistes de la gauche radicale à faire leur introspection.
La victoire de Donald Trump en novembre 2024 a provoqué une profonde remise en question dans les forces de gauche de la politique états-unienne. Après avoir échoué, les dirigeants du Parti démocrate ont passé l’essentiel de l’année 2025 à panser leurs plaies, tandis que Trump lançait ce que ses opposants considèrent comme une attaque frontale contre la démocratie américaine.
La nouvelle année a commencé par de nouveaux scandales, tant sur le plan intérieur qu’extérieur, l’administration Trump agissant avec une impunité de plus en plus effrayante.
À lire aussi : Le raid de Donald Trump sur le Venezuela laisse présager un nouveau partage du monde entre les grandes puissances
Combinée à la poursuite de la montée du populisme de droite et de l’autoritarisme dans le monde entier, la version « 2.0 » de Trump est vécue comme une crise existentielle pour la gauche.
Le pays a déjà connu une telle situation. Les mouvements de protestation de gauche des années 1960 aux États-Unis ont contribué à d’importants changements législatifs – en particulier dans le domaine des droits civiques –, mais ils ont souvent été caricaturés comme étant « antipatriotiques », notamment s’agissant de la guerre du Vietnam. Le sentiment que le pays se désagrégeait sous l’action de jeunes radicaux violents a conduit la « majorité silencieuse » conservatrice à offrir la victoire électorale à Richard Nixon en 1968.
Depuis lors, la gauche institutionnelle étasunienne s’est détournée de l’idéalisme des années 1960 et a plutôt proposé des changements progressifs et limités. Mais cette stratégie ne s’est sans doute pas révélée très efficace au cours du dernier demi-siècle.
Dans le contexte d’une nouvelle défaite et d’un énième cycle d’introspection, il semble donc approprié que deux films portant sur les échecs de la politique révolutionnaire de gauche des années 1960 et 1970 émergent presque simultanément avec le retour en force de Trump.
Bien que très différents par leur style et leur ton, Une bataille après l’autre (2025), de Paul Thomas Anderson, et The Mastermind (2025), de Kelly Reichardt, critiquent ce qu’ils présentent comme l’insuffisance stratégique et l’autosatisfaction de l’activisme de gauche, tout en explorant son coût personnel.
Une bataille après l’autre met en scène l’ancien révolutionnaire Pat Calhoun, alias Bob, (Leonardo DiCaprio) qui tente de sauver sa fille Willa (Chase Infiniti) des griffes d’un colonel suprémaciste blanc, qui a tout d’un psychopathe, Lockjaw (Sean Penn). Bien que Bob ait autrefois résisté aux politiques d’immigration cruelles et racistes du gouvernement fédéral à travers une série de raids audacieux contre des centres de détention, la paternité et une consommation excessive de cannabis ont émoussé son ardeur révolutionnaire.
Au lieu de cela, Bob est désormais un bouffon quelque peu incompétent. Le film exploite à des fins comiques ses tentatives chaotiques pour communiquer avec la « French 75 », l’armée révolutionnaire dont il faisait autrefois partie, inspirée de groupes révolutionnaires réels des années 1960 et 1970, comme les Weathermen.
Déambulant en peignoir, il a oublié tous les codes et les conventions nécessaires pour évoluer dans cet univers. Des mots de passe aux pronoms, Bob est en décalage avec son époque.
Cependant, le film se permet aussi de se moquer du moralisme de la gauche. Alors que Bob devient de plus en plus agressif faute d’obtenir des informations sur un point de rendez-vous crucial, le radical à qui il parle au téléphone l’informe que le langage qu’il emploie nuit à son bien-être. Si Bob manque de compétences pour soutenir la révolution, ceux qui la dirigent sont trop fragiles pour en mener une à bien.
À l’inverse, The Mastermind suit J. B. Mooney (Josh O’Connor) dans ses tentatives d’échapper aux autorités après avoir orchestré le vol de quatre œuvres d’art dans un musée de banlieue. Mari, père et fils d’un juge, Mooney est privilégié, sans direction, désorganisé, égoïste et, semble-t-il, indifférent à l’impact de la guerre du Vietnam alors que le conflit fait rage autour de lui.
Sa désorganisation est évidente dès le moment où il réalise que l’école de ses enfants est fermée pour une journée de formation des enseignants, le jour du casse. Son privilège apparaît clairement lorsqu’il lui suffit de mentionner le nom de son père lors de son premier interrogatoire par la police pour qu’on le laisse tranquille.
Même ses tentatives de convaincre sa femme, Terri (Alana Haim), qu’il a agi pour elle et pour leurs enfants sont maladroites, puisqu’il finit par admettre qu’il l’a aussi fait pour lui-même.
Alors qu’il est en fuite, Mooney semble ignorer ce qui se passe réellement autour de lui, des jeunes hommes noirs qui discutent de leur déploiement imminent au Vietnam, aux bulletins d’information relatant la réalité de la guerre. Sans rien dévoiler, Mooney ne peut finalement échapper aux conséquences de la guerre du Vietnam sur la société américaine.
Des moments révélateurs dans les deux films suggèrent également l’engagement vacillant envers la révolution de la part de ses anciens adeptes. Dans The Mastermind, Mooney se cache chez Fred (John Magaro) et Maude (Gaby Hoffmann), un couple avec lequel il a fréquenté l’école d’art. Malgré son passé militant, Maude refuse de l’héberger plus d’une nuit par crainte d’attirer l’attention des autorités. Dans Une bataille après l’autre, la volonté de Bob de prendre des risques pour sa sécurité et sa liberté diminue lorsqu’il devient parent et il est, de manière assez problématique, prompt à juger la mère de Willa, Perfidia (Teyana Taylor), qui continue à agir à ses risques et périls.
Les deux films rappellent inévitablement les œuvres tout aussi politiques produites par le cinéma états-unien à la fin des années 1960 et au début des années 1970, telles que Cinq pièces faciles (1970), Macadam à deux voies (1971) et Chinatown (1974). Au cœur du contrecoup nixonien face au radicalisme des années 1960, ces films adoptent un ton de résignation défaitiste, mettant en scène des protagonistes sans direction et des fins malheureuses.
La conclusion de The Mastermind ressemble à celle de ces films des années 1970. Le film s’achève sur des policiers présents lors d’une manifestation contre la guerre du Vietnam, se félicitant mutuellement après avoir arrêté un nouveau groupe de manifestants et de les avoir envoyés en prison.
Bien qu’Une bataille après l’autre soit beaucoup plus pétillant dans son style, la politique révolutionnaire de gauche y apparaît aussi comme une impasse. Des victoires à plus petite échelle restent possibles : Sergio (Benicio del Toro) continue de se battre pour les immigrés sans papiers, et Willa s’enfuit pour rejoindre une manifestation Black Lives Matter à la fin du film.
Mais en regardant ces deux films depuis la perspective d’une nouvelle année où l’administration Trump menace de provoquer de nouveaux bouleversements violents, tant au plan national qu’international, je repense à la lamentation mélancolique de Captain America (Peter Fonda) vers la fin du classique de la contre-culture Easy Rider (1969) :
« On a tout gâché. »
Gregory Frame ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
21.01.2026 à 14:48
Grégoire Rota-Graziosi, Professeur CERDI-UCA-CNRS-IRD, Université Clermont Auvergne (UCA)

Le 12 septembre 2025, le Conseil constitutionnel français approuve une taxe sur les services numériques (TSN). Il assume l’existence d’un régime fiscal distinct applicable aux grandes plateformes numériques, sans rupture d’égalité devant l’impôt. Une révolution copernicienne ? Oui, car l’impôt n’est plus fondé sur la localisation des entreprises, mais sur celle de ses utilisateurs. En l’occurrence, en France et non aux États-Unis.
Un clic à Paris. Une réservation à Milan. Une vidéo à Londres. Trois gestes anodins, trois fractions de seconde offertes aux plateformes. Pour les marchés financiers, ces actes valent des milliards. Pour les administrations fiscales, ils ne valaient presque rien, les entreprises concernées évitant l’imposition de leurs bénéfices respectifs par des pratiques d’optimisation fiscale.
Pour y remédier, les autorités françaises ont introduit une taxe sur les services numériques (TSN) en 2019 comme une mesure transitoire pour appréhender les bénéfices réalisés en France par les entreprises multinationales dites du « numérique ». Elle rapporterait environ 700 millions d’euros en 2024.
Cette taxe initialement de 3 % s’applique sur le chiffre d’affaires des plateformes de services numériques – intermédiation, publicité ciblée, vente de données, etc.
Comment fonctionne concrètement cette taxe Gafam ? Quelles implications sur notre économie ? Pourquoi
Le 12 septembre 2025, le Conseil constitutionnel admet qu’une activité purement numérique – l’interaction entre une plateforme et ses utilisateurs situés en France – relève du champ de l’impôt. L’absence d’un établissement stable – usine, bureau ou filiale – ne fait plus obstacle à l’imposition des revenus issus d’utilisateurs localisés en France. Cette décision consacre une évolution majeure : une activité immatérielle est localisée par ses utilisateurs justifiant son imposition par la juridiction (pays) de ces derniers.
En reconnaissant ce principe, le Conseil donne un socle constitutionnel à la taxe sur les services numériques (TSN) française et, au-delà, à une fiscalité de l’usage. La présence économique ne se mesure plus en mètres carrés, en nombre de salariés, en valeur des immobilisations corporelles mais en interactions, en données et en attention des utilisateurs.
Cette décision considère l’activité numérique des utilisateurs comme une base fiscale autonome. Elle constitue une rupture discrète, mais historique, dans un débat planétaire portant sur la source de valeur à l’ère numérique.
Le retrait des États-Unis en janvier 2025 du Global Tax Deal a ravivé la pertinence de solutions unilatérales.
Le 2 décembre 2019, les États-Unis avaient rapidement réagi à l’adoption par la France, en juillet de la même année, de la loi créant la taxe sur les services numériques, en menaçant de rétorsion tarifaire non seulement la France, mais aussi d’autres pays ayant adopté une taxe similaire, comme le Royaume-Uni, l’Espagne, l’Autriche et l’Italie.
L’Organisation de coopération et de développement économiques (OCDE) est alors chargée de trouver une solution multilatérale dans le cadre des règles globales anti-érosion de la base imposable. La solution proposée repose sur deux piliers :
La (ré)allocation d’une partie des profits résiduels des grandes multinationales, en particulier numériques, vers les juridictions de marché indépendamment de la présence physique ;
L’instauration d’un impôt minimum mondial sur les sociétés, afin de limiter la concurrence fiscale et l’érosion des bases. L’administration de Donald Trump a rejeté en janvier 2025 cette solution et leurs engagements antérieurs dans l’accord de l’OCDE datant de 2021.
Dans ce contexte, la décision du Conseil constitutionnel rapproche la France de la position des Nations unies, sans rompre avec celle de l’OCDE. Dès 2021, l’article 12B du Modèle de Convention fiscale de l’ONU autorise les États à imposer les revenus tirés des « services automatisés fournis à distance », comme le cloud, le streaming, les logiciels, la publicité en ligne, les moteurs de recherche ou les plateformes. Cette approche protège davantage les intérêts des pays du Sud, davantage de consommateurs de services numériques que les « producteurs » de ceux-ci ou les hébergeurs des sièges des entreprises multinationales du numérique.
La définition de l’assiette taxable des services numériques est sensiblement plus large dans l’approche des Nations unies que dans les législations fiscales européennes.
L’intérêt de cette définition étendue est d’anticiper les évolutions industrielles actuelles et futures comme la « servicisation numérique ». Cette dernière désigne le passage de la vente de produits physiques à celle de services numériques. Par exemple, la valeur d’un équipement industriel ne repose pas tant sur celle de l’équipement physique que sur les services numériques dédiés à la performance de l’équipement.
La « servicisation numérique » transfère la création de valeur et de profits d’actifs physiques vers des actifs intangibles, comme des droits de propriété intellectuelle ou des services numériques. Le transfert des bénéfices vers des centres étrangers de services numériques localisés dans des pays à faible fiscalité participe à l’érosion des bénéfices imposables.
La taxe sur les services numériques (TSN) devient un moyen de limiter le risque de transfert de profits qui concerne la plupart des secteurs économiques.
Par sa forme, la taxe sur les services numériques est simple. Elle repose sur le chiffre d’affaires réalisé dans le pays où habite l’utilisateur. Cette forme évite la renégociation des conventions fiscales bilatérales.
Elle reste critiquée par les partisans de la théorie de la taxation optimale. Pourquoi ? Parce qu’elle réduit l’efficience de la production en taxant chaque transaction, en ignorant les marges bénéficiaires qui varient d’une entreprise à l’autre.
Par exemple, une taxe de 3 % sur le chiffre d’affaires d’une entreprise ayant une marge de 30 % correspond à une taxe de 10 % sur ses bénéfices. La même taxe appliquée à une entreprise moins profitable, ayant une marge de 5 % par exemple, supporterait alors une taxe de 60 % sur ses bénéfices.
Son alternative est la présence économique significative (PES) introduite en Inde en 2018, puis au Nigeria notamment.
Ce régime taxe le profit supposé réalisé dans le pays. Si cette forme de taxation respecte davantage l’orthodoxie fiscale en taxant les bénéfices, elle est plus complexe à mettre en œuvre. Elle nécessite d’estimer non seulement le chiffre d’affaires réalisé dans le pays, mais également les coûts associés à l’activité dans le pays concerné.
L’article 12B du Modèle de Convention fiscale de l’ONU laisse le choix aux pays de taxer le chiffre d’affaires ou le profit.
La décision du Conseil constitutionnel a confirmé la compétence fiscale de l’État à taxer la valeur créée par un utilisateur français de services numériques d’entreprises étrangères. Cette décision ne règle pas toutes les difficultés, et de nouveaux défis et oppositions existent concernant la définition ou l’estimation de la valeur taxable.
Elle est pourtant une première étape vers un système fiscal à l’ère du numérique.
Cet article a été co-rédigé avec Abdel-Malek Riad, chercheur associé au CERDI–CNRS et président-directeur général d’AMR IM.
Grégoire Rota-Graziosi est membre de la FERDI. Il est expert en politique fiscales et assure des missions auprès d'institutions nationales, régionales ou internationales.
21.01.2026 à 11:36
Baptiste Chide, Chargé de Recherche CNRS à l'IRAP (Université de Toulouse, CNES), Observatoire Midi-Pyrénées
Franck Montmessin, Directeur de recherche CNRS au Laboratoire Atmosphères, Milieux, Observations Spatiales (LATMOS), Université de Versailles Saint-Quentin-en-Yvelines (UVSQ) – Université Paris-Saclay
Pour la première fois, un microphone placé sur le rover Perseverance de la Nasa a permis de découvrir l’existence de petites décharges électriques dans les tourbillons et les tempêtes martiennes de poussière. Longtemps théorisés, ces petits éclairs sur Mars deviennent une réalité grâce à des enregistrements acoustiques et électromagnétiques inédits que nous venons de publier dans la revue Nature. Cette découverte, aux conséquences multiples sur nos connaissances de la chimie et de la physique ainsi que sur le climat de la planète rouge, révèle de nouveaux défis pour les futures missions robotiques et habitées.
Un souffle de vent martien, et soudain, un claquement sec : les dust devils, ces tourbillons de poussière qui parcourent la planète rouge, viennent de nous livrer un secret bien gardé : ils sont traversés de petits arcs électriques ! Ils ont été vus, ou plutôt entendus, de manière totalement fortuite, grâce au microphone de l’instrument SuperCam sur le rover Perseverance qui sillonne Mars depuis 2020.
Ce microphone est notre oreille à la surface de Mars. Il alimente depuis 2021 une « playlist » de plus de trente heures composée de brefs extraits quotidiens du paysage sonore martien : le microphone est allumé environ trois minutes tous les deux jours, pour des raisons de partage du temps du rover avec les autres instruments.
Parmi ses morceaux les plus écoutés ? Le ronflement basse fréquence du souffle du vent, le crépitement aigu des grains de sable et les grincements mécaniques des articulations du robot. Mais le dernier titre de cette compilation d’un autre monde est une pépite : un dust devil capté en direct alors qu’il passait au-dessus de notre microphone. Qu’un dust devil passe au-dessus de Perseverance, ce n’est pas forcément exceptionnel – ils sont très actifs dans le cratère de Jezero où est posé Perseverance. Mais, qu’il survole le rover à l’instant même où le microphone est allumé, cela relève du jackpot scientifique.
Au cœur de cet enregistrement se cachait un signal fort que nous avons peiné à interpréter. Notre première hypothèse fut celle d’un gros grain de sable ayant impacté la zone proche de la membrane du microphone. Quelques années plus tard, alors que nous assistions à une conférence sur l’électricité atmosphérique, nous avons eu une illumination : s’il y avait des décharges sur Mars, la façon la plus directe de les détecter serait de les écouter parce qu’aucun autre instrument à bord de Perseverance ne permet d’étudier les champs électriques.
Évidemment, l’enregistrement le plus favorable pour vérifier cette hypothèse était précisément celui-ci. Réexaminé à la lumière de cette interprétation, il correspondait bien au signal acoustique d’une décharge électrique. Ce n’était pas tout !
Cette onde de choc était précédée d’un signal étrange qui ne ressemblait pas à quelque chose de naturel mais qui provenait en réalité de l’interférence électromagnétique de la décharge avec l’électronique du microphone. Nous savions que celle-ci était sensible aux ondes parasites, mais nous avons tourné ce petit défaut à notre avantage. Grâce à la combinaison de ces deux signaux, tout était devenu clair : nous avions détecté pour la première fois des arcs électriques sur Mars. Pour en être absolument convaincus, nous avons reproduit ce phénomène en laboratoire à l’aide de la réplique de l’instrument SuperCam et d’une machine de Wimshurst, une expérience historiquement utilisée pour générer des arcs électriques. Les deux signaux – acoustique et électromagnétique – obtenus étaient rigoureusement identiques à ceux enregistrés sur Mars.
En soi, l’existence de ces décharges martiennes n’est pas si surprenante que cela : sur Terre, l’électrification des particules de poussière est bien connue, notamment dans les régions désertiques, mais elle aboutit rarement à des décharges électriques. Sur Mars, en revanche, l’atmosphère ténue de CO₂ rend ce phénomène beaucoup plus probable, la quantité de charges nécessaire à la formation d’étincelles étant beaucoup plus faible que sur Terre. Cela s’explique par le frottement de minuscules grains de poussière entre eux, qui se chargent en électrons puis libèrent leurs charges sous forme d’arcs électriques longs de quelques centimètres, accompagnés d’ondes de choc audibles. Le vrai changement de paradigme de cette découverte, c’est la fréquence et l’énergie de ces décharges : à peine perceptibles, comparables à une décharge d’électricité lorsqu’on touche une raquette à moustiques, ces étincelles martiennes sont fréquentes, en raison de l’omniprésence de la poussière sur Mars.
Ce qui est fascinant, c’est que cette découverte intervient après des décennies de spéculations sur l’activité électrique martienne, touchant une arborescence de phénomènes encore peu ou mal expliqués. Par exemple, l’activité électrique de la poussière a longtemps été suspectée de fournir un moyen très efficace pour soulever la poussière du sol martien. Les champs électriques derrière les arcs électriques entendus sur Mars sont a priori suffisamment forts pour faire léviter la poussière.
En absorbant et en réfléchissant la lumière solaire, la poussière martienne contrôle la température de l’air et intensifie la circulation atmosphérique (les vents). Et parce que les vents contrôlent en retour le soulèvement de la poussière, la boucle de rétroactions poussière-vent-poussière est à l’origine des tempêtes globales qui recouvrent intégralement la planète de poussière tous les 5 ou 6 ans. Vu l’importance de la poussière dans le climat martien, et alors que les meilleurs modèles ne savent pas encore prédire correctement son soulèvement, les forces électrostatiques ne pourront plus être ignorées dans le cycle global de la poussière sur Mars.
L’autre sujet qui attire les regards des scientifiques concerne le très controversé méthane martien. La communauté débat depuis plus de vingt ans à son sujet en raison de ses implications potentielles, à savoir une activité géophysique ou biologique éventuelle sur Mars, deux hypothèses fascinantes.
Au-delà du caractère énigmatique de ses détections sporadiques, sa disparition – des centaines de fois plus rapide que ce que prédisent les modèles de chimie atmosphérique les plus sophistiqués – a longtemps laissé les experts circonspects. L’un des mécanismes de destruction du méthane les plus prometteurs, proposé il y a une vingtaine d’années, fait précisément intervenir l’action de champs électriques intenses sur la chimie atmosphérique. En accélérant ions et électrons, ces champs permettent de casser les molécules de méthane, mais surtout celles de la vapeur d’eau, produisant ainsi de puissantes espèces réactives capables de détruire le méthane bien plus efficacement encore.
Qui plus est, la présence d’arcs électriques à l’échelle planétaire pourrait s’avérer déterminante dans la préservation de la matière organique. Des expériences de laboratoire ont montré la destruction brutale de biomarqueurs causée par le recyclage d’espèces chlorées induite par l’activité électrostatique de la poussière.
On le voit, la portée de ces nouveaux sons martiens dépasse largement le seul cadre de la communication grand public. Ils redessinent plusieurs pans de notre compréhension de Mars et ouvrent un nouveau champ d’investigations, qui nécessitera un nombre accru d’observations.
Peut-être lors de futures missions ? L’Agence spatiale européenne (ESA) avait déjà tenté l’expérience – sans succès – avec l’atterrisseur Schiaparelli, qui devait réaliser les premières mesures des champs électriques martiens avant de s’écraser à la surface de la planète. L’exploration future, humaine ou non, se devra de mieux caractériser ces champs pour mieux cerner leurs implications. D’ici là, Perseverance restera l’unique témoin in situ de ce phénomène qui est sans doute loin de nous avoir tout révélé.
Franck Montmessin a reçu des financements de l'ANR et du CNES.
Baptiste Chide ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
21.01.2026 à 11:36
Nicolas Mathevon, Professeur (Neurosciences & bioacoustique - Université de Saint-Etienne, Ecole Pratique des Hautes Etudes - PSL & Institut universitaire de France), Université Jean Monnet, Saint-Étienne

On l’imagine chasseur solitaire et discret, constamment à l’affût d’une proie. Pourtant, l’armure d’écailles du crocodile dissimule une vie sociale complexe. Tendez l’oreille : le seigneur des fleuves a beaucoup à dire.
Lorsque l’on se représente un crocodile, on pense à un prédateur silencieux, un tronc d’arbre flottant au milieu du fleuve, attendant patiemment qu’une proie s’approche pour faire brusquement claquer ses mâchoires. Cette image, bien que partiellement vraie – il est sagement déconseillé de nager au milieu de crocodiles –, occulte une réalité biologique fascinante : les crocodiliens (crocodiles, alligators, caïmans et gavials) sont les reptiles les plus vocaux et les plus sociaux de la planète.
Ces animaux possèdent un système de communication acoustique sophistiqué et une ouïe d’une finesse redoutable, peut-être hérités de leurs ancêtres communs avec les oiseaux et les dinosaures. Depuis près de trois décennies, notre équipe de recherche en bioacoustique s’attelle à décoder ce qu’ils disent et à comprendre comment ils perçoivent leur environnement sonore. Voici ce que nos études révèlent du monde sonore des crocodiliens.
L’histoire acoustique d’un crocodile commence avant sa naissance. Contrairement à la majorité des reptiles qui pondent leurs œufs et les abandonnent, les mères ou les pères crocodiliens montent la garde près du nid. Mais comment savoir quand les petits sont prêts à sortir, enfouis sous des dizaines de centimètres de sable ou de végétation ? Nos recherches ont démontré que les embryons de crocodiles ne sont pas passifs. Lorsqu’ils sont prêts à sortir de l’œuf, après trois mois d’incubation, ils commencent à émettre des vocalisations particulières, appelées cris d’éclosion.
Ces sons, audibles à travers la coquille et à l’extérieur du nid, remplissent une double fonction. D’une part, ils s’adressent à la fratrie. Lors d’expériences consistant à émettre des sons depuis un haut-parleur près d’œufs de crocodiles du Nil prêts à éclore, nous avons observé que l’audition de ces cris incite les autres embryons à vocaliser à leur tour et à briser leur coquille. Ce mécanisme permet de synchroniser l’éclosion : toute la nichée va sortir ensemble. Pour des proies aussi vulnérables que des nouveau-nés de quelques dizaines de grammes, c’est une belle stratégie de survie face aux prédateurs.
D’autre part, ces cris sont un signal impérieux pour la mère ou le père. Une femelle crocodile qui monte la garde depuis trois mois réagit immédiatement à l’audition de ces cris d’éclosion : elle se met à creuser le nid avec ses pattes. Sans ce comportement parental en réponse à leur signal sonore, les petits resteraient prisonniers sous terre.
Cependant, la mère ne réagit pas au premier petit bruit venu. Nos expériences sur le crocodile du Nil ont montré que la femelle réagit à des cris isolés par des mouvements de tête, enfouissant son museau dans le sol comme pour en sentir les vibrations, mais elle ne commence à creuser activement que si les cris forment une séquence continue et rythmée. Ceci évite à la femelle d’ouvrir le nid trop tôt pour un seul petit précocement bavard, ce qui mettrait en danger le reste de la couvée.
Une fois sortis de l’œuf et délicatement transportés à l’eau dans la gueule de leurs parents, les jeunes crocodiliens restent groupés en crèches sous la protection de l’adulte pendant des semaines, voire des mois. Durant cette période, la communication acoustique entre parent et jeunes est vitale.
Le répertoire vocal des juvéniles est structuré autour de deux types de signaux principaux : les cris de contact et les cris de détresse. Le cri de contact est utilisé pour maintenir la cohésion du groupe de jeunes. C’est un son d’intensité assez faible et dont la fréquence varie peu. Le cri de détresse, lui, est émis lorsqu’un jeune est saisi par un prédateur. Il est plus fort et sa fréquence est plus modulée. Il présente souvent une structure acoustique plus chaotique, ce qui le rend un peu rugueux à l’oreille.
La mère sait faire la différence : un cri de contact suscite une simple attention, tandis qu’un cri de détresse déclenche une réaction agressive de défense immédiate. Mais un parent reconnaît-il la voix de ses petits ? Visiblement pas : nos analyses acoustiques des crocodiles du Nil indiquent qu’il n’y a pas de signature vocale chez les nouveau-nés qui permettrait aux parents de les identifier individuellement. En revanche, nous avons découvert que plus le crocodile est petit, plus le cri est aigu. Lors d’expériences réalisées dans la nature, les mères crocodiles du Nil ont réagi plus intensément aux cris les plus aigus. C’est logique : les plus petits sont les plus vulnérables aux prédateurs et nécessitent une protection accrue.
Le crocodile est un animal amphibie, vivant à l’interface entre l’air et l’eau, mondes aux propriétés acoustiques radicalement différentes. Mais son audition est d’abord aérienne. Lorsque le crocodile flotte, immobile, ce qui est sa position favorite pour attendre une proie, ses oreilles se trouvent juste au-dessus de la ligne de flottaison. Si l’animal plonge, une paupière vient protéger l’oreille, et l’on ne sait pas encore si les crocodiles entendent bien sous l’eau.
Comment un animal dont la tête est à moitié immergée fait-il pour localiser une proie, un petit ou un rival ? Chez l’humain ou d’autres mammifères et oiseaux, la localisation repose sur deux indices principaux : le son arrive plus vite à l’oreille tournée vers la source et est également plus fort, puisque la tête fait écran. Dans des expériences, nous avons entraîné des crocodiles à se diriger vers des haut-parleurs pour obtenir une récompense, et les résultats montrent qu’ils utilisent également ces deux sources d’information. Pour les sons graves, ils se fient surtout au temps ; pour les aigus, ils utilisent plutôt la différence d’intensité.
Les crocodiliens vivent souvent dans des environnements bruyants. Pour survivre, ils doivent être capables d’isoler un signal pertinent du bruit de fond, mais aussi d’identifier ce qu’ils entendent. Un bruit dans les roseaux est-il une proie ou un congénère ? Au laboratoire, nous avons découvert quel paramètre acoustique ils utilisent pour faire cette distinction. Ce n’est pas la hauteur du son ni son rythme mais l’enveloppe spectrale, c’est-à-dire le timbre du son. C’est exactement le même paramètre que nous, humains, utilisons pour distinguer les voyelles (« a » ou « o ») ou pour reconnaître la voix de quelqu’un au téléphone. Et la catégorisation des sons opérée par les crocodiles n’est pas totalement figée, elle peut être affinée par l’apprentissage, preuve d’une vraie plasticité cognitive.
En particulier, les crocodiles savent reconnaître et sont particulièrement appâtés par les signaux de détresse d’autres animaux. Quand on diffuse des enregistrements de pleurs de bébés humains, bonobos ou chimpanzés à des crocodiles du Nil, les résultats sont frappants : les crocodiles sont très fortement attirés par ces pleurs. Mais pas n’importe comment.
Les humains jugent la détresse d’un bébé principalement à la hauteur de son cri (plus c’est aigu, plus on pense que le bébé exprime de la douleur). Les crocodiles, eux, se basent sur un critère acoustique plus fiable : le chaos, qui se traduit par la rugosité de la voix qui survient lorsque les cordes vocales sont poussées à leurs limites physiques sous l’effet du stress ou de la douleur.
Les crocodiles se sont donc révélés meilleurs que les humains pour évaluer le niveau de détresse des bébés, en particulier des bonobos. Là où nous surestimons la détresse des bonobos à cause de leurs cris suraigus, les crocodiles ne réagissent intensément qu’aux pleurs contenant beaucoup de chaos acoustique, signe d’une véritable urgence, et donc d’une proie vulnérable.
Si les jeunes crocodiliens sont particulièrement bavards, les adultes ne sont pas en reste. Les mères, et les pères pour les espèces où ils s’occupent de leur progéniture, émettent des grognements qui attirent les jeunes. Femelles et mâles adultes rugissent lors des parades nuptiales et pour défendre leur territoire. Lorsqu’ils se sentent menacés, les adultes peuvent souffler de manière bruyante, ce qui passe l’envie de les approcher. On observe cependant de grandes différences dans l’usage des signaux sonores entre les groupes de crocodiliens : si les alligators et les caïmans sont particulièrement vocaux, les autres crocodiles deviennent plus silencieux à l’âge adulte.
Imaginez un jeune crocodile affamé qui entend un congénère l’appeler, mais qui sent en même temps une odeur de viande. Que fait-il ? Nous avons testé ce conflit sensoriel. Les résultats montrent que l’état de satiété modifie la réponse comportementale. Un crocodile rassasié est très attentif aux sons sociaux : il se dirige vers les cris de contact de ses congénères. Un crocodile affamé privilégie la recherche d’une source de nourriture. Cela suggère une modulation de l’attention : la priorité de l’animal peut basculer selon les besoins physiologiques.
Loin de l’image du monstre primitif, le crocodile est un animal doté d’une vie sensorielle et cognitive riche. Il naît dans un monde sonore, synchronisant son éclosion avec ses frères et sœurs. Il communique avec l’adulte qui s’occupe de lui pour obtenir protection. Il analyse son environnement sonore avec des outils sophistiqués (localisation binaurale, démasquage spatial) dignes des oiseaux ou des mammifères. Il catégorise les sons sur la base de leur timbre pour distinguer les congénères des en-cas. Et il est même capable d’évaluer le niveau de détresse dans la voix d’autres espèces.
Ces études sur les crocodiles ont impliqué de nombreux collaborateurs et collaboratrices, dont Thierry Aubin (CNRS), Nicolas Grimault (CNRS), Nicolas Boyer (Université de Saint-Étienne), Amélie Vergne, Léo Papet, Julie Thévenet et Naïs Caron-Delsbosc. Je remercie les parcs zoologiques La Ferme aux crocodiles (Pierrelatte, France) et Crocoparc (Agadir, Maroc) pour leur soutien.
Nicolas Mathevon ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
21.01.2026 à 11:36
Manuel Bellanger, Chercheur en économie, Ifremer

Le mot « géo-ingénierie » recouvre un grand nombre de techniques, du « parasol spatial », qui limite l’arrivée de lumière du soleil dans l’atmosphère, à l’ensemencement de l’océan pour lui faire absorber encore plus de carbone qu’il ne le fait naturellement.
Manuel Bellanger étudie à l’Ifremer le développement des techniques de géo-ingénierie marine avec son regard d’économiste. Cet interview, réalisée par Elsa Couderc, cheffe de rubrique Sciences et Technologies, constitue le second volet de « regards croisés » sur la géo-ingénierie climatique. Dans le premier, nous explorons avec Laurent Bopp, climatologue et académicien, les nouveaux risques climatiques que ces techniques pourraient faire émerger.
The Conversation : La géo-ingénierie marine est mal connue en France, pourtant elle se développe à l’étranger. Qui développe ces projets ?
Manuel Bellanger : En ce qui concerne l’océan, le spectre des acteurs et des techniques de géo-ingénierie est très varié.
Les initiatives les plus prudentes sont en général pilotées par des instituts de recherche, par exemple aux États-Unis ou en Allemagne. Leur finalité est plutôt de comprendre si ces interventions sont techniquement possibles : peut-on développer des méthodes pour capturer du CO₂ atmosphérique par l’océan, mesurer la quantité de carbone stockée durablement, vérifier les affirmations des différents acteurs, étudier les impacts écologiques, tenter de définir des bonnes pratiques et des protocoles ? Ces projets de recherche sont typiquement financés par des fonds publics, souvent sans objectif de rentabilité immédiate.
Il existe aussi des collaborations entre institutions académiques et partenaires privés et, enfin, à l’autre bout du spectre, un certain nombre de start-up qui font la promotion du déploiement rapide et massif de ces techniques.
Peut-on espérer gagner de l’argent grâce à la géo-ingénierie marine ?
M. B. : Le modèle économique de ces start-up repose sur la vente de crédits carbone qu’elles espèrent pouvoir mettre sur les marchés volontaires du carbone – c’est-à-dire qu’elles cherchent à vendre des certificats à des acteurs privés qui veulent compenser leurs émissions.
Pour cela, la séquestration doit être certifiée par des standards ou des autorités. Sachant qu’il y a aussi des initiatives privées qui développent des certifications… aujourd’hui, c’est un peu la jungle, les marchés volontaires du carbone. Et l’achat de ces crédits certifiés reste sur la base du volontariat, puisqu’il n’y a généralement pas d’obligation réglementaire pour les entreprises de compenser leurs émissions.
Pouvez-vous nous donner des exemples de telles start-up et l’état de leurs travaux ?
M. B. : Running Tide, aux États-Unis, a tenté de développer des crédits carbone issus de la culture d’algues sur des bouées biodégradables qui devaient couler sous leur propre poids dans les profondeurs abyssales. Mais ils ne sont pas parvenus à produire des quantités significatives d’algues. L’entreprise a finalement eu recours au déversement de milliers de tonnes de copeaux de bois dans les eaux islandaises pour essayer d’honorer les crédits carbone qu’ils avaient vendus. Mais les experts et observateurs ont critiqué le manque de preuves scientifiques montrant que cette approche permettait réellement de séquestrer du CO₂ et l’absence d’évaluation des impacts sur les écosystèmes marins. L’entreprise finalement a cessé ses activités en 2024 pour des raisons économiques.
Une start-up canadienne, Planetary Technology, développe une approche d’augmentation de l’alcalinité océanique visant à accroître l’absorption du CO₂ atmosphérique et son stockage à long terme sous forme dissoute dans l’océan. Pour cela, ils ajoutent à l’eau de mer du minerai alcalin, de l’hydroxyde de magnésium. Ils ont annoncé avoir vendu des crédits carbone, notamment à Shopify et British Airways.
Une autre société, californienne cette fois, Ebb Carbon, cherche également à augmenter l’alcalinité océanique, mais par électrochimie : ils traitent de l’eau de mer pour la séparer en flux alcalins et acides, puis renvoient la solution alcaline dans l’océan. Cette société a annoncé avoir signé un contrat avec Microsoft pour retirer des centaines de milliers de tonnes de CO₂ sur plusieurs années.
L’écosystème commercial fleurit déjà en Amérique du Nord, même si on n’en entend pas forcément parler ici.
Il y a aussi une sorte de fonds, appelé Frontier Climate, qui engage des contrats anticipés pour des tonnes de CO₂ qui seront retirées de l’atmosphère dans le futur : ils achètent par avance des crédits carbone à des sociétés qui sont en phase de développement et qui ne sont pas encore réellement en train de capturer et de séquestrer du carbone. Derrière ce fonds-là, il y a des géants de la tech, comme Google ou Facebook, parmi les membres fondateurs. On peut supposer que c’est une manière pour ces entreprises, qui ont une consommation énergétique assez importante, de s’acheter une vertu climatique. Donc, eux, ils ont déjà annoncé avoir acheté pour 1,75 million de dollars (plus de 1,5 million d’euros) de crédits carbone à des entreprises d’alcalinisation de l’océan.
Et pourtant, vous disiez tout à l’heure qu’on n’est pas encore sûrs de savoir mesurer scientifiquement si l’océan a bien absorbé ces tonnes de carbone.
M. B. : Effectivement, les bases scientifiques de ces techniques-là ne sont vraiment pas solides aujourd’hui. On ne sait pas encore quelles quantités de CO₂ elles vont permettre de capturer et de séquestrer et on ne sait pas non plus quels vont être les impacts sur l’environnement.
À lire aussi : Géo-ingénierie climatique : de quoi parle-t-on ? Pour quelle efficacité et quels nouveaux risques ?
Et côté scientifique, il n’y a donc pour l’instant pas de consensus sur la capacité des techniques de géo-ingénierie marine à retirer suffisamment de carbone de l’atmosphère pour réellement freiner le changement climatique ?
M. B. : Il y a même pratiquement un consensus scientifique pour dire que, aujourd’hui, on ne peut pas présenter les techniques de géo-ingénierie marine comme des solutions. En fait, tant qu’on n’a pas drastiquement réduit les émissions de gaz à effet de serre, beaucoup considèrent qu’il est complètement futile de vouloir commencer à déployer ces techniques-là.
En effet, aujourd’hui, les ordres de grandeur évoqués (le nombre de tonnes que les entreprises annoncent séquestrer) n’ont rien à voir avec les ordres de grandeur qui permettraient de changer quoi que ce soit au climat. Par exemple, pour la culture de macroalgues, certaines modélisations estiment qu’il faudrait recouvrir 20 % de la surface totale des océans avec des fermes de macroalgues – ce qui est déjà presque absurde en soi – pour capturer (si ça marche) 0,6 gigatonne de CO₂ par an… à comparer aux 40 gigatonnes que l’humanité émet aujourd’hui chaque année. Si ces techniques pouvaient jouer un rôle dans le futur pour compenser les émissions que le Giec désigne comme « résiduelles » et « difficiles à éviter » (de l’ordre de 7 à 9 gigatonnes de CO₂ par an à l’horizon 2050) et atteindre des objectifs de neutralité carbone, les déployer aujourd’hui ne pourrait en aucun cas remplacer des réductions d’émissions rapides et massives.
Alors, qui pousse ces développements technologiques ?
M. B. : Un certain nombre d’initiatives semblent être poussées par ceux qui ont un intérêt au statu quo, peut-être même par certains qui n’auraient pas de réelle volonté de déployer la géo-ingénierie, mais qui ont un intérêt à faire diversion pour retarder l’action qui viserait à diminuer les émissions aujourd’hui.
On pense plutôt aux acteurs des énergies fossiles qu’aux géants de la tech, dans ce cas ?
M. B. : Les acteurs des énergies fossiles ont effectivement cet intérêt à retarder l’action climatique, mais ils sont de fait moins visibles aujourd’hui dans le financement direct des techniques de géo-ingénierie – il semble qu’ils soient plus dans le lobbying et dans les discours qui vont légitimer ce genre de techniques.
De fait, investir dans la géo-ingénierie ne fait-il pas courir le risque de détourner l’attention des citoyens et des gouvernements de l’urgence de réduire nos émissions de gaz à effet de serre ?
M. B. : C’est un risque clairement identifié dans la littérature scientifique, parfois sous le nom d’« aléa moral climatique », parfois d’« effet de dissuasion ». Derrière, il y a l’idée que la promesse de solutions technologiques futures, comme la géo-ingénierie marine, pourrait affaiblir la volonté politique ou sociétale de réduire les émissions dès maintenant. Donc le risque d’être moins exigeants envers nos décideurs politiques pour qu’ils tiennent les engagements climatiques et, in fine, que le décalage entre les objectifs et l’action climatique réelle soit toujours plus grand.
Par ailleurs, on a des ressources financières, ressources en main-d’œuvre, en expertise, qui sont somme toute limitées. Tout ce qui est investi dans la recherche et le développement ou pour l’expérimentation de ces technologies de géo-ingénierie peut se faire au détriment des ressources allouées pour les mesures d’atténuation connues et démontrées : l’efficacité énergétique, les énergies renouvelables, la sobriété. On sait que ces solutions fonctionnent : ce sont elles qu’il faudrait mettre en œuvre le plus rapidement.
La priorité absolue – on n’arrête pas de le répéter –, c’est la diminution rapide des émissions de gaz à effet de serre. Donc la position de la plupart des scientifiques, c’est que ces techniques de géo-ingénierie marine devraient être explorées d’un point de vue de la recherche, par exemple pour évaluer leur efficacité et leurs effets environnementaux, économiques et sociaux, de manière à éclairer les choix politiques et sociétaux à venir. Mais, encore une fois, aujourd’hui la géo-ingénierie marine ne peut pas être présentée comme une solution à court terme.
C’est pour cela que la communauté scientifique appelle à une gouvernance internationale de la géo-ingénierie, avant un déploiement massif de ces techniques. Quelles instances internationales seraient à même de mener une gouvernance sur le sujet ?
M. B. : Il faut en effet que les États s’impliquent fortement dans la gouvernance de la géo-ingénierie, et il faut des traités internationaux. Pour l’instant, c’est assez fragmenté entre différents instruments juridiques, mais il y a ce qu’on appelle le protocole de Londres, adopté en 1996, pour éviter la pollution en mer par dumping (le fait de pouvoir décharger des choses en mer). Ce protocole permet déjà en partie de réguler les usages de géo-ingénierie marine.
Par exemple, la fertilisation des océans par ajout de fer visant à stimuler le phytoplancton qui capture le CO₂ par photosynthèse. Cette technique rentre dans le cadre existant du protocole de Londres, qui interdit la fertilisation de l’océan à des fins commerciales et impose un cadre strict pour la recherche scientifique depuis plus d’une quinzaine d’années. Le protocole pourrait être adapté ou amendé pour réguler d’autres techniques de géo-ingénierie marine, ce qui est plus facile que de créer un nouveau traité international.
Les COP sur le climat sont aussi importantes pour deux raisons : elles rassemblent plus de nations que le protocole de Londres, et elles sont le cadre privilégié pour discuter des marchés carbone et donc pour éviter la prolifération d’initiatives commerciales non contrôlées, pour limiter les risques environnementaux et les dérives du type crédits carbone douteux.
Il y a des précédents avec ce qu’il s’est passé sur les crédits carbone forestiers : une enquête publiée par le Guardian en 2022 a montré que plus de 90 % des projets certifiés par Verra – le principal standard mondial – n’ont pas empêché la déforestation ou ont largement surévalué leurs bénéfices climatiques. Sans encadrement, la géo-ingénierie marine pourrait tout à fait suivre le même chemin.
Enfin, il y a bien sûr des enjeux d’équité, si ceux qui mettent en œuvre une action ne sont pas ceux qui risquent de subir les impacts ! Là aussi, il y a des précédents observés sur des projets forestiers certifiés pour générer des crédits carbone, où les bénéfices économiques sont captés par les investisseurs tandis que les communautés locales subissent des restrictions d’accès aux ressources forestières ou sont exposées à des changements dans leur mode de vie.
Concrètement, quels sont les risques pour les populations qui vivent à proximité de l’océan ou s’en servent de ressource nourricière, par exemple ?
M. B. : Ça dépend vraiment de la technique de géo-ingénierie utilisée et de l’endroit où ça va être déployé. Par exemple, si on imagine un déploiement massif de cultures d’algues, ça pourrait modifier les écosystèmes côtiers, et par ailleurs générer une concurrence pour l’espace avec la pêche ou l’aquaculture traditionnelle.
Sur les littoraux, où les activités maritimes sont souvent très denses, il y a déjà des conflits d’usage, que l’on observe par exemple dans les tensions autour des installations de parcs éoliens en mer.
Propos recueillis par Elsa Couderc.
Manuel Bellanger a reçu des financements dans le cadre du programme ANR n° 21-POCE-0001 PPR Océan & Climat.