20.11.2024 à 17:11
Jean-Marie Cardebat, Professeur d'économie à l'Université de Bordeaux et Prof. affilié à l'INSEEC Grande Ecole, INSEEC Grande École
Donald Trump l’a promis à ses électeurs : les droits de douane vont augmenter pour tous les produits. Quel impact cela pourrait-il avoir sur la filière vinicole française ? Tout dépendra du montant finalement retenu de la taxe. Plus fondamentalement, les entreprises du secteur doivent prendre acte de la démondialisation en cours et revoir la carte mondiale de leurs clients.
Lors de sa campagne aux élections présidentielles américaines, Donald Trump a affiché une féroce volonté protectionniste. Ce n’est plus seulement la Chine qui est dans son collimateur, mais le monde entier. Pour les échanges commerciaux, Trump 2 sera vraisemblablement pire que Trump 1. Dès lors, que doit craindre la viticulture française dans ce contexte ?
Encore traumatisée par la taxe Trump de 25 % d’octobre 2019 à mars 2021, la filière française anticipe de nouvelles difficultés pour exporter ses vins vers les États-Unis. La comparaison entre la précédente taxe Trump et ce qui est annoncé par le futur président américain laisse cependant un peu d’espoir. Deux éléments risquent de changer la donne : le montant de la nouvelle taxe et son périmètre, à savoir les pays qui seront touchés par cette taxe.
Il existe un certain flou sur le montant des droits de douane qui seront imposés aux vins importés aux États-Unis. Le chiffre le plus courant annoncé par Trump se situe entre 10 et 20 % pour tous les produits non chinois (60 % pour les produits chinois). 10 % ou 20 % ce n’est pas bien entendu la même histoire. On peut espérer cependant que le montant finalement retenu soit plutôt autour de 10 %.
À lire aussi : Les États-Unis ne croient plus en la mondialisation, et leur économie se porte bien malgré tout
Sinon l’effet inflationniste sur l’économie américaine serait trop important. Les économistes ont du mal à imaginer comment les consommateurs américains pourraient accepter un choc de 20 % de hausse des prix des produits importés. Surtout après la période inflationniste qu’ils viennent de subir. Des droits de douane trop élevés seraient donc très impopulaires, même si Trump fait le pari d’augmenter le revenu des ménages américains via des baisses de prélèvements et d’impôts financés par ces droits de douane afin de maintenir le pouvoir d’achat de ses concitoyens.
Le périmètre de la taxe Trump de 2019 était limité à trois pays : la France, l’Espagne et l’Allemagne, soit les trois pays du consortium Airbus. La mise en place de la taxe s’inscrivait dans le cadre d’un litige entre les États-Unis et l’UE sur la question aéronautique. Les droits de douane prévus lors de cette seconde mandature vont toucher tous les pays, ce qui constitue un changement profond.
Car si les vins français ont tant souffert en 2019, avec 40 % de ventes perdues et un manque à gagner estimé à 600 millions d’euros, c’est aussi qu’il y a eu d’importants effets de report des consommateurs américains vers d’autres vins importés. En particulier vers les vins rouges italiens, déjà leaders aux États-Unis. Pour le dire autrement, les Italiens ont été les grands gagnants de la taxe Trump. Pour les vins blancs, ce sont les Néo-Zélandais qui ont profité de la taxe. Cette fois, tout le monde devrait être touché. Les gagnants ne pourront être que les vins américains, qui, par définition, seront les seuls à ne pas être taxés.
Quel serait l’effet d’une taxe de 10 % touchant tous les vins importés aux États-Unis ? L’expérience montre qu’une partie de ces 10 % sera absorbée par la chaîne d’intermédiaires allant du producteur au consommateur, chacun acceptant une baisse marginale de son prix. Chacun (importateurs, grossistes, détaillants) souhaitant conserver sa part de marché, on peut imaginer que la hausse finale de prix sera inexistante ou extrêmement limitée. C’est ce qu’on appelle un comportement de marge, classique en cas de variation des taux de change ou de droits de douane. Une taxe de 10 % ne fait donc pas craindre d’effondrement de marché pour les vins français sur le marché des États-Unis. L’effet volume serait très contenu, mais la marge légèrement rognée.
L’équation se compliquerait cependant avec une taxe qui serait fixée à 20 %. Trop importante pour que des comportements de marge gomment l’effet de la fiscalité sur le prix final au consommateur. Dans ce cas, une hausse des prix finaux, dont l’ampleur dépendra du taux d’absorption par la chaîne d’intermédiaires, est inévitable. Les grands gagnants seront les producteurs américains vers lesquels se tourneront les consommateurs locaux.
Pour les vins français, l’effet dépendra de la sensibilité des consommateurs américains aux prix. Les vins les plus chers, qui sont aussi les plus demandés et les plus « uniques », sont toujours moins sensibles aux variations de prix. En revanche, les vins d’entrée et de milieu de gamme, qui sont le plus soumis à la concurrence, verront leur demande diminuer sensiblement.
Donald Trump étant lui-même producteur de vin, en concurrence avec les vins européens, une taxe supérieure à 10 % pour le vin n’est pas à exclure. Ce n’est pas le scénario privilégié pour autant. La politique économique américaine semble en fait surtout orientée vers l’industrie. L’idée des droits de douane s’inscrit dans la continuité de celle de l’Inflation Reduction Act (IRA), initiée par le démocrate Joe Biden. Ces politiques ont pour objectif de créer une incitation économique forte à l’installation de l’industrie mondiale sur le sol américain. Le vin devrait donc passer sous les radars.
Néanmoins, malgré des effets attendus limités pour la filière vin française, cette nouvelle annonce protectionniste contribue au sentiment latent de démondialisation. Le marché russe s’est fermé avec la guerre en Ukraine. Le marché chinois impose des taxes aux brandys européens (essentiellement le Cognac à l’export) de 35 %.
L’accès aux grands marchés semble donc très précaire et on ne voit pas d’amélioration à court terme. Au-delà de Trump, il est grand temps d’acter cette démondialisation. De comprendre que les flux d’exports doivent significativement se réorienter vers des pays où la fiscalité serait plus propice aux échanges. De nombreux pays en Asie, en Afrique, en Amérique latine constituent des réservoirs potentiels de consommateurs. Les Européens sont à reconquérir également, mais avec des vins différents. Le marketing doit donc s’adapter à cette nouvelle donne internationale.
Jean-Marie Cardebat est Président de la European Association of Wine Economists
20.11.2024 à 17:11
Mathieu Marly, Responsable éditorial de l'Encyclopédie d'histoire numérique de l'Europe (Sorbonne Université - Éducation nationale), agrégé, docteur en histoire contemporaine et chercheur associé au laboratoire SIRICE, Sorbonne Université
Gaël Lejeune, Enseignant-chercheur, Sorbonne Université
À l’heure où l’intelligence artificielle accélère la propagation de fausses images et de photos sorties de leur contexte, apprendre aux élèves à sourcer leurs informations est plus important que jamais. Et les cours d’histoire se doivent d’intégrer aujourd’hui une formation à l’histoire numérique que peuvent faciliter des outils comme le projet VIRAPIC qui aide à repérer des photos virales.
Chaque jour, des images en lien avec des évènements historiques sont mises en ligne sans être référencées – avec leur auteur, leur date, leur localisation, leur lieu de conservation – et encore moins contextualisées par un commentaire historique. C’est le cas, par exemple, de cette photographie, la plus souvent publiée pour représenter les exactions des « mains coupées » dans le Congo de Léopold II, au tournant du XIXe au XXe siècle. En 2024, on la retrouve sur des milliers de pages web sans que l’auteur de cette photographie soit toujours mentionné et sans faire l’objet d’un commentaire historique approprié.
Cette photographie semble illustrer de manière saisissante les exactions commises par les compagnies de caoutchouc au Congo. Mais que peut-on voir de cette photographie sans connaître son histoire ? Le spectateur est ici contraint d’interpréter le message photographique au filtre de ses propres représentations, saisi par le contraste entre les victimes et les Européens habillés de blanc jusqu’au casque colonial, lesquels semblent justifier les châtiments corporels par leur pose hiératique.
En réalité, cette photographie a été prise en 1904 par une missionnaire protestante, Alice Seeley Harris, pour dénoncer ces violences et les deux hommes sur la photographie participent à cet acte de résistance photographique qui contribuera à mobiliser l’opinion publique européenne contre les crimes commis dans l’État indépendant du Congo. L’identité et les intentions du photographe ne sont pas ici un détail : ils rendent compte d’une réalité historique plus complexe, celle d’une « polyphonie morale » des sociétés européennes à la fin du XIXe siècle, divisées sur le bien-fondé et les dérives de la colonisation.
Des exemples comme celui-ci, il en existe des milliers sur le web, les publications et partages d’images générant un brouillard de photographies décontextualisées, rendues virales par les algorithmes des moteurs de recherche et des réseaux sociaux numériques.
Prenons l’exemple de ce tweet d’Eric Ciotti posté le 16 juillet 2024 en commémoration de la rafle du Vel d’Hiv :
La photographie postée n’a pas grand-chose à voir avec les rafles des 16 et 17 juillet 1942 : il s’agit en réalité d’un cliché montrant des Français soupçonnés de collaboration enfermés au Vel d’Hiv après le Libération. Ce compte Twitter n’est pas le seul à reproduire cette erreur ; il faut noter que les algorithmes de Google images ont longtemps placé cette photographie dans les premiers résultats de recherche à la suite des mots clefs « Rafle du Vel d’Hiv ».
La rectification de cette erreur est-elle seulement l’affaire des historiens préoccupés par l’identification des sources ? En réalité, cette erreur participe à la méconnaissance historique de la rafle du Vel d’Hiv. Comme le montre l’historien Laurent Joly, il existe une seule photographie de la rafle, prise le 16 juillet 1942 à des fins de propagande et pourtant jamais publiée dans la presse. Ce détail n’est pas anodin, il révèle que les autorités allemandes ont interdit la publication des photographies de la rafle, alertées par la désapprobation de la population parisienne.
Ces quelques exemples doivent nous alerter sur l’usage illustratif de la photographie encore trop présent dans l’édition scolaire. Faute de place, les manuels se contentent, le plus souvent, d’une simple légende sans commentaire pour éclairer ou confirmer le cours de l’enseignant.
L’usage des photographies par les historiens a pourtant évolué ces dernières années, considérant désormais celle-ci comme de véritables archives auxquelles doivent s’appliquer les règles élémentaires de la critique des sources. Un tel usage gagnerait certainement à être généralisé dans l’enseignement de l’histoire pour sensibiliser les élèves à la critique documentaire – le plus souvent résumée par la méthode SANDI (Source, Auteur, Nature, Date, Intention). Car, si cette méthode est parfois jugée artificielle par les élèves, elle trouve une justification, pour ainsi dire immédiate, dans la critique de l’archive photographique.
À lire aussi : Quelle éducation aux images à l’heure des réseaux sociaux ?
En effet, le regard porté par les élèves sur l’image photographique change radicalement une fois connue son histoire.
Cette approche documentaire est d’autant plus nécessaire que les élèves et les étudiants s’informent aujourd’hui de plus en plus sur les réseaux sociaux, des réseaux où les photographies sont relayées par des armées de comptes sans scrupules méthodologiques et parfois orientées par des lectures complotistes du passé.
Il faut encore ajouter une autre donnée pour comprendre l’enjeu pédagogique qui attend les enseignants d’histoire dans les années à venir : d’ici 2026, selon un rapport d’Europol, la majorité du contenu disponible sur le web sera généré par l’IA. Cela impliquera probablement la publication de fausses photographies de plus en plus crédibles et sophistiquées, lesquelles tiendront lieu de preuve à des fictions déguisées en histoire.
La prolifération des IA génératives, l’accélération des échanges de photographies inventées, détournées ou décontextualisées constituent un véritable défi pédagogique. Comment enseigner l’histoire aux élèves sans leur transmettre les outils pour affronter la désinformation historique en ligne ? Comment expliquer aux élèves l’environnement numérique dans lequel ils sont immergés (IA, algorithmes, vitalités des images) sans proposer un cours d’histoire qui soit aussi un cours d’histoire numérique ?
Pour répondre à ces défis, l’Encyclopédie d’histoire numérique de l’Europe (EHNE-Sorbonne Université) et les équipes d’informaticiens du CERES-Sorbonne Université élaborent un nouvel outil qui vise autant un public d’enseignants que d’éditeurs et les journalistes : le projet VIRAPIC, une plate-forme numérique dont l’objectif est de repérer les photographies virales (reproduites en ligne à une très grande échelle et/ou sur un laps de temps réduit) lorsque celles-ci sont inventées, détournées ou décontextualisées des évènements historiques qu’elles prétendent illustrer.
L’objectif est double. Il s’agit d’injecter du contenu historique autour des photographies virales (source, légende, commentaire historiques) et d’analyser les viralités numériques des photographiques (Qui les publie ? Sur quels supports ? Avec quelle temporalité ?). Le projet VIRAPIC aborde surtout le problème de la désinformation historique par une approche pragmatique : lutter contre la viralité de la désinformation par le référencement du travail historien sur les moteurs de recherche.
L’originalité de cet outil tient en effet à la possibilité d’agir directement sur les pratiques des internautes grâce au référencement de l’Encyclopédie EHNE dont les pages web apparaissent dans les premiers résultats des moteurs de recherche. Ainsi, les internautes recherchant des photographies pour illustrer les évènements historiques verront apparaître les pages web EHNE/VIRAPIC dans les premiers résultats de recherche comme Google Images.
En constituant une base de référencement des photographies virales, détournées, décontextualisées ou inventées autour d’évènement historiques, le projet VIRAPIC permettra d’accéder rapidement à un contenu historique solide et critique sur les images que les élèves, enseignants ou éditeurs souhaitent publier en ligne ou utiliser en cours.
Science et Société se nourrissent mutuellement et gagnent à converser. La recherche peut s’appuyer sur la participation des citoyens, améliorer leur quotidien ou bien encore éclairer la décision publique. C’est ce que montrent les articles publiés dans notre série « Science et société, un nouveau dialogue », publiée avec le soutien du ministère de l’Enseignement supérieur et de la Recherche.
Mathieu Marly a reçu des financements du CNRS
Gaël Lejeune a reçu des financements de BPI France.
20.11.2024 à 17:11
Adrien Mével, Docteur en science politique, Université de Rennes 1 - Université de Rennes
Amorcé par le précédent gouvernement, le Beauvau des polices municipales reprend le 21 novembre et devrait rendre ses conclusions en mars prochain. L’enjeu est de baliser la future « loi-cadre » que le ministre délégué chargé de la Sécurité du quotidien, Nicolas Daragon, appelle de ses vœux. Ce dernier souhaite renforcer les prérogatives de la police municipale.
Aujourd’hui s’ouvre une nouvelle séquence du Beauvau des polices municipales, un espace de discussion associant ministres, représentants de syndicats de la fonction publique territoriale, associations d’élus locaux, parlementaires et membres de l’institution judiciaire. L’objectif explicite est de trouver des moyens d’augmenter le pouvoir des polices municipales : le ministre délégué à la Sécurité du quotidien, Nicolas Daragon a déclaré que si la police municipale est « bel et bien la troisième force de sécurité du pays, (elle est bridée) dans sa capacité à intervenir ». L’extension de ses pouvoirs s’inscrirait en particulier dans le cadre de la répression du trafic de stupéfiants.
Les policiers municipaux sont placés sous l’autorité du maire, et n’ont pas de pouvoir d’enquête. Contrairement aux policiers nationaux, ils ne peuvent par exemple pas réaliser de contrôle d’identité ou de fouille de personnes ou de véhicules. Depuis la loi de 1999 qui a fixé le cadre légal de la profession, les pouvoirs des agents sont restés globalement inchangés.
Plusieurs tentatives de renforcement des pouvoirs des policiers municipaux ont déjà eu lieu : en 2011, la loi d’orientation et de programmation pour la performance de la sécurité intérieure II et plus récemment, en 2020, la proposition de loi « sécurité globale », qui listait une série de délits pour lesquels les policiers municipaux auraient été autorisés à agir de manière autonome. Ces dispositions ont été censurées par le Conseil constitutionnel qui a jugé qu’elles contrevenaient au principe de placement de la police judiciaire sous le contrôle de l’autorité judiciaire. D’où la recherche par le pouvoir central d’une nouvelle solution, le placement temporaire et optionnel des policiers municipaux sous l’autorité du procureur de la République.
Nicolas Daragon a insisté sur le caractère facultatif de cette délégation, échouant toutefois à désamorcer l’expression de réticences de la part d’élus locaux. Bien que la prise de plainte par les policiers municipaux – une possibilité que redoutent les maires et les agents car elle entraînerait un important transfert de charge administrative de la police nationale vers les polices municipales – n’est pas sur la table aux dires du ministre, il est à prévoir que les maires n’accueilleront pas tous favorablement une mesure qui se traduirait par une diminution de leur mainmise sur la police municipale. Même s’il a été présenté comme procédant du libre choix des communes, ce placement pourrait vite devenir un objet de négociation dans l’établissement des conventions de coordination entre villes et services étatiques.
Le ministre a annoncé trois mesures phares pour les polices municipales : le droit de consulter des fichiers (comme le fichier des personnes recherchées, le système des immatriculations de véhicule ou le fichier national des permis de conduire), d’effectuer des contrôles d’identité, et la possibilité d’infliger des amendes forfaitaires délictuelles (AFD) pour le délit de détention de stupéfiants.
Concernant l’AFD, il ne s’agit pas du premier essai de ce type, l'article premier de loi dite « sécurité globale » visait à donner ce pouvoir aux agents de police municipale, et a fait partie des éléments censurés par le Conseil constitutionnel.
À lire aussi : Comment le fichage policier est-il contrôlé ?
Si la solution qu’explore le gouvernement permettait de passer cette fois l’épreuve du contrôle de constitutionnalité, les policiers municipaux pourraient alors verbaliser le délit de détention de stupéfiants dans certains cas. Cependant, les études sur ce dispositif mettent surtout en lumière des effets socio-économiques négatifs sur les populations visées (avec une multiverbalisation qui peut générer de très importantes dettes au Trésor public), et peut créer chez les personnes mises à l’amende un sentiment d’un arbitraire policier de fait affranchi du contrôle judiciaire. La Défenseure des droits a d’ailleurs préconisé l’abandon de ce dispositif, arguant entre autres des problèmes en matière d’accès aux juges par les personnes sanctionnées et de respect des droits de la défense.
Pour ce qui est de l’accès aux fichiers administratifs, le gouvernement souhaite que les agents puissent les consulter sans avoir besoin de solliciter la police nationale. L’objectif est de leur permettre d’accéder rapidement à des informations sur les individus qu’ils contrôlent. Si cet enjeu est devenu aussi important, c’est en partie car les usages de ces bases de données par les policiers nationaux se sont multipliés. Les policiers municipaux, eux, n’ont qu’un accès indirect et limité à ces informations.
Nicolas Daragon souhaite que les policiers municipaux puissent effectuer des contrôles d’identité. Cet outil est massivement utilisé par les policiers nationaux tandis que les agents de police municipale ne peuvent, en droit, réaliser que des relevés d’identité. Ils peuvent demander la présentation de documents d’identité lorsqu’il s’agit de verbaliser une infraction mais ne peuvent pas obliger les personnes contrôlées à justifier leur identité. Dans les faits pourtant, les pratiques des policiers municipaux peuvent s’avérer assez proches de celles des agents de police nationale.
J’ai pu constater au cours de mes enquêtes de terrain que les policiers municipaux utilisent des infractions prétextes (avoir traversé en dehors du passage clouté par exemple) pour obtenir les papiers d’identité d’individus. Ils peuvent aussi jouer sur l’ambiguïté entre des injonctions légales et des demandes cherchant à obtenir le consentement des individus ciblés. Par exemple, demander : « est-ce que vous pouvez ouvrir votre sac s’il vous plaît ? », sachant qu’ils n’ont pas le pouvoir de l’imposer mais comptant sur le consentement et l’ignorance de la loi des personnes contrôlées.
Si elles devaient être adoptées, les mesures envisagées renforceraient clairement le pouvoir des policiers municipaux. Elles interrogent néanmoins le rôle des polices municipales, et présentent des risques de dégradation des rapports de ces agents à la population en les dotant d’outils générateurs de conflits.
Mais dans les faits, cette réforme ne signerait pas une évolution notable des missions de police municipale vers la répression de la délinquance, elle ne ferait qu’accompagner un processus déjà bien engagé.
En s’appuyant sur l’article 73 du Code de procédure pénale, les policiers municipaux sont déjà en mesure d’interpeller dans le cadre du flagrant délit. J’ai pu observer que le recours à cet article ne se fait pas seulement lorsque des policiers municipaux tombent « par hasard » sur un délit en train de se commettre. La possibilité d’interpeller ouvre en fait la possibilité d’une recherche active du flagrant délit, c’est-à-dire d’orientation des patrouilles et des modes de présence dans l’espace public pour maximiser les chances d’assister à un délit, avec une focalisation croissante des agents sur la vente de stupéfiants.
Bien que diversement investie en fonction des villes, des unités et des profils d’agents, la répression de la détention et de la vente de stupéfiants est déjà prise en charge par les policiers municipaux. Tout indique qu’elle le sera de plus en plus, avec ou sans extension des compétences judiciaires, sans que cette politique n’ait produit d’effets positifs clairs.
sec
Adrien Mével ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
20.11.2024 à 17:10
Marco Delbo, Directeur de recherche à l’Observatoire de la Côte d’Azur, Université Côte d’Azur
La formation des planètes est une question fondamentale en astronomie et en science planétaire. Comprendre comment elles se forment et évoluent est crucial pour déchiffrer le système solaire et au-delà. Malgré les avancées de la science, nous sommes encore loin de comprendre tous les détails de la formation planétaire.
Il est bien connu par la théorie et les observations astronomiques que les planètes se forment dans des disques de gaz et de poussière autour d’étoiles très jeunes. Il est donc logique que les planètes de notre système solaire se soient également formées dans le disque protoplanétaire de notre soleil. Cela s’est produit il y a 4,5 milliards d’années.
Cependant la phase la plus obscure de la formation planétaire est peut-être la façon dont la poussière s’accumule dans un disque protoplanétaire pour donner naissance aux planétésimaux, les objets constitutifs des planètes.
Les modèles classiques reposaient sur une coagulation collisionnelle progressive, un processus où de petits grains de poussière s’agglomèrent petit à petit pour former des particules de plus en plus grosses par des collisions, allant de quelques micromètres jusqu’à la taille des planètes. Cependant, des tests en laboratoire ont montré que ces modèles ne fonctionnent pas, car ils rencontrent un certain nombre d’obstacles, par exemple, les grains de poussière ne peuvent pas croître par collisions successives d’une taille submillimétrique à une taille kilométrique.
De nouveaux modèles suggèrent que les planétésimaux se forment à partir des nuages de poussière qui atteignent des densités suffisamment élevées pour se soutenir sur eux-mêmes par la gravité. C’est ce qu’on appelle la Streaming Instability, une théorie qui a pris de l’ampleur dans la communauté de planétologues. Différentes études ont montré que cette théorie reproduit bien la distribution des tailles des grands astéroïdes et des objets transneptuniens.
Pourtant, il n’était pas clair jusqu’où s’étendait la distribution des tailles prédite par cette théorie, c’est-à-dire si elle produisait beaucoup de petits planétésimaux ou s’il existait une taille minimale pour ces derniers.
D’autre part, différentes études trouvent une taille typique d’environ 100 km de diamètre pour les planétésimaux, suggérant ainsi que les petits agrégats de particules ne donnent pas nécessairement naissance à de petits planétésimaux. En effet, il semble que les petits agrégats se dispersent en raison de la turbulence du gaz dans le disque protoplanétaire avant d’avoir la possibilité de former des planétésimaux. Ces derniers se sont-ils formés, donc, à grande ou à petite échelle ? Une réponse définitive n’était pas encore établie.
Origins, un projet de recherche que je dirige et financé par l’Agence Nationale de la Recherche (ANR), a apporté une contribution originale dans ce domaine en utilisant une méthodologie novatrice. Celle-ci repose sur l’analyse d’observations et de données astronomiques pour identifier les planétésimaux encore survivants parmi la population des astéroïdes, afin de mesurer leur distribution de taille.
Ces planétésimaux sont localisés dans la partie interne de la ceinture d’astéroïdes, entre 2,1 et 2,5 unités astronomiques, cette dernière étant la distance moyenne Soleil-Terre. Cela a permis de fournir des contraintes observationnelles strictes aux modèles de formation des planétésimaux.
L’idée fondatrice de notre projet repose sur le concept selon lequel les astéroïdes représentent bien les vestiges de l’ère de formation des planètes, mais que tous les astéroïdes que l’on observe aujourd’hui ne sont pas des survivants de cette époque primordiale. Il est connu que de nombreux astéroïdes sont des fragments issus de collisions entre des corps parentaux plus volumineux. Ces collisions ont eu lieu tout au long de l’histoire de notre système solaire. L’âge de ces fragments d’astéroïdes correspond au temps écoulé depuis l’événement de collision qui les a produits jusqu’à aujourd’hui. Bien que ces fragments conservent encore la composition originale de leurs géniteurs, leurs dimensions et formes ne fournissent aucune information sur les processus d’accrétion ayant conduit à l’accrétion des planétésimaux, et par conséquent, des planètes. Les méthodes développées dans le cadre de notre projet ont efficacement distingué les astéroïdes originaux, ayant été accumulés en tant que planétésimaux dans le disque protoplanétaire, des familles des fragments résultant de collisions. Par la suite, elles ont également permis d’étudier les événements dynamiques qui ont contribué à sculpter la structure actuelle du système solaire.
Notre équipe a développé et utilisé une méthode pour découvrir, localiser et mesurer l’âge des familles des fragments de collisions les plus anciennes : chaque membre d’une famille de fragments s’éloigne du centre de la famille en raison d’une force thermique non gravitationnelle connue sous le nom d’effet Yarkovsky.
Cette dérive se produit de manière dépendante de la taille du membre de la famille, les petits astéroïdes dérivant plus rapidement et plus loin que les plus grands. La méthode novatrice de notre projet consistait à rechercher des corrélations entre la taille et la distance dans la population d’astéroïdes. Cela a permis de révéler les formes des familles de fragments les plus anciennes.
Grâce à cette technique, quatre familles importantes et très anciennes d’astéroïdes ont été découvertes par les chercheurs de notre projet. Ce sont parmi les familles d’astéroïdes les plus répandues. Leur extension est d’environ une moitié d’unité astronomique et ils sont localisés dans la partie plus interne de la ceinture d’astéroïdes et ont des âges entre 3 et 4,5 milliards d’années.
Cependant, une nouvelle méthode d’identification des familles d’astéroïdes nécessite encore des vérifications. L’une de ces vérifications consiste à déterminer la direction de rotation de chaque membre des familles.
Pour ce faire, les chercheurs ont lancé une campagne internationale d’observations appelée « Ancient asteroids », impliquant des astronomes professionnels et amateurs. Ils ont obtenu des observations photométriques des astéroïdes afin de mesurer leur variation de luminosité en fonction de leur rotation (courbe de lumière). Grâce à des méthodes d’inversion de courbe de lumière, l’équipe de notre projet a pu déterminer l’orientation tridimensionnelle des astéroïdes dans l’espace et extraire la direction de rotation. Cela a révélé que les astéroïdes rétrogrades se trouvent généralement plus près du Soleil que le centre des familles, tandis que les astéroïdes progrades se trouvent au-delà du centre des familles, conformément aux attentes théoriques. Ces recherches ont permis de confirmer l’appartenance de plusieurs astéroïdes aux familles très anciennes identifiées par notre équipe.
Une question scientifique majeure qui s’est posée après l’identification des astéroïdes les plus primordiaux était de savoir quelle était leur composition. Pour répondre à cette question, les scientifiques de l’ANR Origins sont retournés à leurs télescopes pour étudier spectroscopiquement ces corps. Leur investigation spectroscopique des planétésimaux de la ceinture principale interne a confirmé que les corps riches en silicates dominaient cette région. Cependant, presque tous les types spectraux d’astéroïdes sont présents, à l’exception notable des astéroïdes riches en olivine. Leur absence parmi les planétésimaux pourrait être due à la rareté de ces types parmi les grands astéroïdes.
Mais pourquoi les astéroïdes riches en olivine sont aussi rares ? On s’attend à ce que les astéroïdes les plus anciens soient riches en olivine en raison du processus de différenciation. Ce processus entraîne l’organisation d’un corps en couches de densités et de compositions différentes, en raison de la chaleur générée par la désintégration d’éléments radioactifs.
Les chercheurs ont découvert, pour la première fois, une famille de fragments d’astéroïdes riche en olivine, probablement formée par la fragmentation d’un corps parent partiellement différencié. Cette famille pourrait également provenir de la fragmentation d’un corps riche en olivine, peut-être issu du manteau d’un planétésimal différencié qui aurait pu se briser dans une région différente du système solaire, et l’un de ses fragments aurait pu être implanté dynamiquement dans la ceinture principale.
En effet, l’idée que des astéroïdes pourraient avoir été implantés dans la ceinture principale par des processus dynamiques a été largement étudiée ces dernières décennies. L’un de ces processus dynamiques pourrait être l’instabilité orbitale des planètes géantes. Cela suggère que Jupiter, Saturne, Uranus et Neptune se sont formés sur des orbites rapprochées avant de migrer vers leurs positions actuelles. Cette migration aurait pu déclencher des interactions gravitationnelles avec les planétésimaux, les déplaçant dans le système solaire primitif. Déterminer l’époque de cette instabilité est une question majeure car elle est cruciale pour comprendre son impact sur la déstabilisation des populations de petits corps, la perturbation des orbites des planètes telluriques, et éventuellement son rôle dans leur évolution.
Marco Delbo ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
20.11.2024 à 17:10
Djedjiga Kachenoura, Coordinatrice du projet de recherche sur la finance et le climat, Agence française de développement (AFD)
Tandis que les États s’engagent sur des réductions d’émissions de gaz à effet de serre dans le cadre des négociations climatiques internationales, certains domaines d’activité, comme la climatisation ou l’intelligence artificielle (IA), voient leur consommation d’électricité bondir. Comment répercuter les engagements nationaux au niveau des entreprises : selon quelles règles et quelles priorités ? Faudrait-il favoriser les considérations éthiques ou stratégiques ?
Alors que la COP29 sur le climat se déroule ce mois de novembre 2024 à Bakou, en Azerbaïdjan, l’avenir des énergies fossiles se trouve sous le feu des projecteurs.
L’électrification et la décarbonisation de nos économies (l’électricité étant, à condition d’être produite à partir de renouvelables, la plus « propre » des énergies) étaient justement à l’honneur du rapport annuel dévoilé par l’Agence internationale de l’énergie (AIE) en octobre dernier.
Cette édition du rapport, une référence internationale pour décrypter les tendances énergétiques mondiales, les prévisions de consommation et les meilleurs scénarios pour atteindre les objectifs climatiques, aurait pu s’intituler :
« bienvenue dans l’ère contrariée de l’électrique ».
D’ici 2035, la demande mondiale d’électricité devrait augmenter à un rythme annuel équivalent à la consommation électrique d’un pays comme le Japon (1 000 térawattheures). Cette hausse est portée par l’électrification des usages, mais également la demande croissante de climatisation et de dessalement d’eau de mer, en réponse au réchauffement climatique. Et dans une moindre mesure, par l’essor des data centers, en lien avec la croissance des usages liés à l’intelligence artificiel (IA).
De quoi interroger la hiérarchie de ces usages et de leurs finalités : le Financial Times soulignait que l’augmentation du recours à la climatisation constituait l’un des impacts à venir les plus « imprévisible » pour les systèmes électriques mondiaux.
Si l’on replace cela dans le contexte plus général des efforts de la diplomatie climatique pour limiter le réchauffement à 1,5 °C ou 2 °C, ce boom annoncé de l’électrique interpelle. En effet, il interroge la distribution internationale et sectorielle du budget carbone, cette quantité de CO2 que nous pouvons encore émettre sans que le réchauffement ne dépasse la limite souhaitée. Pour réfléchir à cette question, l’AFD a récemment publié une proposition de cadrage comptable et écologique des crédits carbone.
À lire aussi : Combien de tonnes d’émissions de CO₂ pouvons-nous encore nous permettre ?
Comme le rapportait un article publié par le Washington Post en octobre 2024, des centrales à charbon subsistent aux États-Unis dans certaines régions pour répondre aux besoins énergétiques des data centers, ces infrastructures indispensables à l’IA.
En parallèle, les acteurs de l’IA et leurs fournisseurs de solutions de data centers cherchent à répondre à cette demande d’électricité tout en réduisant leur empreinte carbone. Ceci alimente la demande sur les marchés volontaires de la compensation carbone, et plus largement de solutions de décarbonisation, comme celles de capture du CO2 et même le renouveau de l’énergie nucléaire aux États-Unis.
Le cas de l’IA est emblématique car il cristallise des tensions qui peuvent aussi s’appliquer à d’autres secteurs d’activités :
Jusqu’à quel point un acteur ou un secteur économique peut-il augmenter ses émissions de gaz à effet de serre (GES) ? Peut-on définir une « légitimité à émettre » ?
Ces acteurs doivent-ils contribuer au développement et à la préservation des puits de carbone naturels (forêts, océans, sols…) et si oui, comment ?
Faudrait-il des règles ou des grands principes pour allouer au mieux entre les acteurs privés le budget carbone restant et l’accès aux crédits carbone ?
Ou encore, faudrait-il, au minimum, expliciter les règles du jeu pour gagner en transparence ?
Ces questions soulèvent des enjeux techniques, comptables, mais surtout politiques et éthiques.
Une éthique centrée sur l’individu prioriserait les usages de l’électricité pour la climatisation, facteur de confort individuel,
les États qui hébergent des acteurs majeurs de l’IA auraient, de leur côté, tendance à favoriser cet usage en raison de son importance stratégique,
D’autres pays, en revanche, pourraient refuser de limiter l’élevage, secteur très émissif, invoquant des raisons culturelles. Par exemple en Argentine, où la pratique des asados (barbecues) est profondément enracinée dans l’identité nationale.
Répondre aux questions qui précèdent n’est pas trivial : cela impliquerait d’avoir un cadre commun et partagé sur la scène internationale. Celui-ci pourrait s’inspirer de concepts financiers, comme les notions de dette et de remboursement de la dette.
Pour rappel, les États signataires de l’accord de Paris s’engagent déjà sur des réductions d’émissions à travers les contributions déterminées au niveau national (CDN). Mais rien n’est prévu pour répartir les budgets carbone au sein d’un même pays, où les actions de décarbonisation sont, in fine, déléguées aux acteurs.
La notion de budget carbone a été conceptualisé par le GIEC dans son sixième rapport d’évaluation du climat.
Pour limiter le réchauffement à 1,5 °C avec 50 % de probabilité et la neutralité carbone à l’horizon 2050, le budget carbone restant s’élève à 275 milliards de tonnes (Gt) de CO₂ – soit environ 7 ans d’émissions au rythme actuel.
Pour atteindre l’objectif de 2 °C, ce budget grimpe à 625 Gt CO2, ce qui correspond à 15 ans d’émissions au rythme actuel.
Où en sommes-nous ? Les émissions mondiales de gaz à effet de serre s’élèvent actuellement à 40 Gt équivalent CO2 par an, et proviennent approximativement à 90 % des combustibles fossiles (36 Gt) et à 10 % des changements d’usage des sols (4 Gt).
Depuis 1750, l’humanité a émis environ 2 800 Gt équivalent CO2. Heureusement, les écosystèmes terrestres et océaniques ont pu jouer leur rôle de puits de carbone, en divisant par deux la vitesse à laquelle les concentrations atmosphériques de CO2 ont augmenté.
À titre d’exemple, entre 2013 et 2022, les systèmes océaniques ont capté 26 % et les terrestres 31 % des émissions. Cependant, leur efficacité diminue avec la hausse des températures, comme le soulignait le dernier rapport du Global Carbon Budget.
Pourrait-on imaginer, pour mieux distribuer le budget carbone, un système de « débiteurs » du CO2 émis avec une obligation de remboursement ? L’enjeu semble surtout être de fixer les priorités. Un peu comme lors d’un exercice budgétaire, ou tout resserrement budgétaire doit conduire à un meilleur optimum social et/ou économique, et où les arbitrages réalisés doivent être explicités.
À l’échelle globale, aucun cadre universel ne permet actuellement de mesurer précisément la contribution des entreprises aux objectifs des CDN des États ou à la gestion du budget carbone mondial : encore faudrait-il savoir selon quels critères le faire, et sur la base de quelle comptabilité.
Le concept d’« alignement » tente d’y remédier : il qualifie les efforts de décarbonisation des entreprises et autres organisations par rapport à une trajectoire idéalisée de leur secteur de référence compatible avec un scénario net zéro.
Certaines de ces méthodes, comme celle développée par l’emblématique SBTi (Science Based target Initiative), allouent des budgets carbone d’abord par secteur, puis par entreprise.
Ce processus est controversé car il repose sur des scénarios sectoriels. Ces derniers sont donc bâtis sur des compromis politiques, ainsi que sur des hypothèses en matière de développement technologique et d’évolution de la demande.
Ce système favorise souvent les gros émetteurs actuels, selon le principe du « grandfathering », qui attribue les budgets carbone au prorata des émissions actuelles. Il échappe ainsi à toute délibération politique, créant ainsi une répartition implicite du budget carbone pour les entreprises, sans prendre en compte les trajectoires des CDN déclarées par les pays dans lesquels opèrent les acteurs concernés.
En France, la Stratégie nationale bas carbone (SNBC) prévoit de répartir le budget carbone national de la France en plusieurs budgets sectoriels. Cette répartition sectorielle, définie par la loi de transition énergétique pour la croissance verte, est le fruit d’un processus politique.
Concrètement, cette loi
« donne des orientations pour mettre en œuvre, dans tous les secteurs d’activité, la transition vers une économie bas carbone, circulaire et durable. Elle définit une trajectoire de réduction des émissions de gaz à effet de serre jusqu’à 2050 et fixe des objectifs à court-moyen termes : les budgets carbone ».
Les entreprises ne sont toutefois pas tenues de respecter ces budgets carbone sectoriels : la démarche est sur une base volontaire.
À lire aussi : Histoire des crédits carbone : vie et mort d'une fausse bonne idée ?
Faudrait-il aller plus loin et « désagréger » au niveau des entreprises le budget carbone dévolu à un secteur ? Dans un monde idéal avec un prix du carbone approprié, la décarbonisation s’opèrerait naturellement selon un critère optimal coûts-bénéfices. Comme ce n’est pas le cas, il faut descendre au niveau de l’entreprise pour comprendre comment se répartissent les efforts de décarbonisation.
L’entreprise semble être le lieu le plus approprié pour cela : elle a une existence juridique, des comptes financiers, des comptes carbone, et peut être tenue responsable. Elle est le lieu où convergent les investisseurs, les politiques publiques et la société civile.
Dans tous les cas, les méthodes de répartition des budgets au niveau individuel devraient distinguer et expliciter les différents enjeux d’ordre scientifique, technique, économique et politique qui les constituent et les soumettre à des délibérations élargies.
À lire aussi : Le grand flou de la comptabilisation des quotas carbone dans les entreprises
Le dépassement du budget carbone devrait engendrer la reconnaissance d’une dette climatique qu’il serait obligatoire de rembourser. Ce n’est pas le cas à l’heure actuelle.
Les crédits carbone liés aux puits de carbone (par exemple reforestation ou capture du CO2), qui relèvent principalement des marchés volontaires, ne sont en aucun cas liés à une dette climatique. En effet, aucune comptabilité ne reconnaît formellement le budget carbone, et du coup, ne peut enregistrer son dépassement. Bien que la méthode SBTi mentionnée précédemment tente d’introduire des règles, elle ne s’inscrit pas dans une logique de dette climatique.
Le GIEC a malgré tout formulé des recommandations, notamment le fait de réserver les puits de carbone aux secteurs difficiles à décarboniser (comme l’industrie lourde, l’aviation) ou aux émissions résiduelles, sans qu’il existe de consensus clair sur la définition de ces dernières. Le GIEC propose ainsi une tentative de hiérarchisation partielle (merit order) d’accès aux puits de carbone.
Il faut aussi rappeler que si la maintenance des puits de carbone existants est négligée, la création de nouveaux puits deviendra plus difficile, augmentant ainsi la nécessité de réduire ou d’éviter les émissions pour rester dans les limites du budget carbone global.
À ce jour, aucun cadre ne garantit donc la cohérence entre les systèmes de redevabilité ou de comptabilité carbone entre l’échelle de l’entreprise et celle d’un État. Cette absence de coordination empêche d’aligner efficacement les actions des entreprises avec le budget carbone national, et pose un risque clair de voir naître des politiques climatiques biaisées, des subventions captées par les mauvais acteurs voire des réglementations trop sévères pour d’autres.
Djedjiga Kachenoura ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
20.11.2024 à 17:10
Benjamin Blandin, Doctorant en relations internationales, Institut catholique de Paris (ICP)
Voilà plus de cent ans que l’Australie accorde une grande importance à ses capacités sous-marines. En signant en 2021 l’accord AUKUS, elle s’est lancée dans un projet colossal, dont la mise en œuvre rencontre dernièrement de nombreuses difficultés.
En septembre 2021, l’accord AUKUS est annoncé au grand jour. Ce partenariat stratégique entre l’Australie, le Royaume-Uni et les États-Unis (d’où l’acronyme choisi pour le désigner) porte sur l’acquisition par Canberra d’une dizaine de sous-marins à propulsion nucléaire de fabrication américano-britannique – au grand dam de la France.
L’histoire de la force sous-marine australienne n’a été que rarement mentionnée dans cette affaire, alors qu’elle constitue un facteur clé pour comprendre les tenants et les aboutissants de ce partenariat tripartite.
À lire aussi : L’« Indo-Pacifique », au-delà du slogan
L’Australie, en dépit d’une base militaro-industrielle assez limitée, d’un éloignement géographique relatif vis-à-vis de ses alliés occidentaux et d’un territoire faiblement peuplé – trois éléments n’en faisant pas un acteur naturel dans le domaine complexe et coûteux des sous-marins –, dispose de plus d’un siècle d’expérience en la matière.
En 1914, durant la Première Guerre mondiale, qui sévit aussi en Océanie, le pays reçoit sa première capacité sous-marine avec la livraison par le Royaume-Uni de deux sous-marins de type « E-class ».
L’un d’eux disparaît, la même année, lors de la campagne contre la base allemande de Rabaul (aujourd’hui en Papouasie-Nouvelle-Guinée). Le second est rapatrié en Europe et utilisé durant la campagne de Gallipoli.
Une deuxième tentative est initiée en 1919, avec la livraison de six sous-marins britanniques « J-class », mais ces derniers, en mauvais état, passent la plupart du temps en réparation et sont décommissionnés en 1922 après avoir été très peu utilisés. S’ensuit une troisième tentative en 1927 avec trois sous-marins britanniques « O-class », qui ne sont livrés qu’en 1930 et rapatriés en 1931, à nouveau en raison de nombreuses difficultés techniques.
Durant la Seconde Guerre mondiale, l’Australie est dépourvue de force sous-marine, à l’exception d’un submersible néerlandais, le K.IX rebaptisé K9, qui permet de former des hommes à la lutte anti-sous-marine. Cependant, de nombreux marins australiens servent dans la Royal Navy et les ports australiens de Brisbane et de Fremantle voient passer 122 sous-marins américains, 31 britanniques et 11 néerlandais. Entre 1949 et 1969, le Royaume-Uni maintient en Australie une flottille comprenant seulement deux à trois submersibles.
La première force sous-marine australienne véritable remonte donc à l’acquisition de six sous-marins de la classe Oberon, mis en service entre 1967 et 1978. Ces appareils nécessitaient cependant une maintenance très coûteuse (75 % du prix d’achat tous les cinq ans) et près de 85 % des pièces détachées et de soutien ont été fournis par des industriels extérieurs, entravant l’autonomie stratégique du pays.
En 1990, débute la construction des six sous-marins de la classe Collins – premiers sous-marins conçus et fabriqués en Australie dans le chantier naval ASC d’Adélaïde. Exploités entre 1996 et 2003, ces submersibles sont une version améliorée et plus longue du mini sous-marin suédois Västergötland.
Cette initiative était ambitieuse, le pays ne disposant pas à l’époque d’un complexe militaro-industriel naval à proprement parler, et son expérience se limitant à la production de navires de taille moyenne et à l’entretien de la classe Oberon. Canberra, via ce projet, souhaite alors gagner en indépendance dans le domaine des systèmes d’armes complexes. Le pays doit importer de nombreux composants et faire appel à l’expertise étrangère, mais la conception de la classe Collins présente l’avantage d’adapter les ambitions du gouvernement aux capacités industrielles nationales.
Toutefois, cette expérience rencontre de nombreux problèmes techniques, de la phase de conception jusqu’à la phase d’exploitation et de maintenance. À tel point que moins de 25 ans après la mise en service du premier sous-marin, l’entièreté de la flotte a été jugée inapte, alors que sa durée de vie initiale était fixée à 30 ans. Les autorités australiennes pensaient que ces sous-marins ne pourraient être entretenus que pour une dernière période de sept ans avant l’accord AUKUS. Mais la nécessité de les maintenir en mer jusqu’au début des années 2040, en raison de la difficile mise en œuvre du pacte, exigera une modernisation approfondie et un entretien toujours plus coûteux et complexe.
En 2016, pourtant, Canberra avait signé avec le groupe français Naval Group un contrat qui prévoyait la livraison par la France de huit sous-marins Barracuda « Attack-class » (chiffre plus tard réévalué à douze). La livraison de ces sous-marins diesel, adaptés aux besoins stratégiques de l’Australie et à son opposition de longue date à la technologie nucléaire, était prévue pour le début des années 2030.
Étant donné que la conception, la production et la maintenance des sous-marins de la classe Collins constituaient la seule expérience australienne antérieure, ce contrat offrait à Canberra l’occasion d’accroître son expérience, son expertise et sa capacité industrielle et lui octroyait de surcroît un plus large niveau d’autonomie stratégique. Mais le contrat a été annulé en septembre 2021, entraînant une compensation de 555 millions d’euros versée à Paris et la perte de 3,4 milliards de dollars australiens (2 milliards d’euros) d’investissement initial, après sept années de coopération technique, technologique et industrielle entre les deux nations.
À lire aussi : Sous-marins australiens : le modèle français d’exportation d’armes en question
L’Australie a-t-elle fait le bon choix en se détournant de Paris au profit des sous-marins nucléaires promis par Londres et Washington ? Plusieurs éléments permettent d’en douter.
En ce qui concerne l’exploitation de la propulsion nucléaire des sous-marins, l’Australie ne dispose d’aucune installation ni expertise, technicien, ingénieur ou scientifique spécialisés. De plus, sa Constitution interdit la production, l’enrichissement, le stockage, l’usage et le transit d’uranium et/ou de plutonium enrichi.
La construction à Adélaïde des futurs sous-marins prévus dans le cadre du pacte AUKUS doit débuter à partir des années 2040, soit près de 40 ans après la dernière production d’un sous-marin sur le sol australien. Une situation susceptible de générer une perte de compétences significative, des retards et des coûts supplémentaires. Seule la dernière modernisation prévue pour la classe Collins pourra contribuer à un transfert de savoir-faire pour la construction des nouveaux sous-marins.
En outre, le coût financier se révèle exorbitant. Entre 2020 et 2050, le montant devrait s’élever entre 268 et 368 milliards de dollars australiens (164 à 225 milliards d’euros) pour la livraison de trois à cinq sous-marins américains de classe Virginia et environ huit sous-marins SSN-AUKUS. Les douze sous-marins de Naval Group avaient été négociés pour 56 milliards d’euros (100 milliards de dollars australiens) et leur coût aurait probablement été de 150 milliards de dollars australiens s’ils avaient été conçus avec un système de propulsion nucléaire.
De plus, la classe de sous-marins du pacte AUKUS nécessite l’amélioration et l’agrandissement des capacités du chantier naval de Perth, pour un coût estimé à 4,3 milliards de dollars. 1,5 milliard devront aussi être investis dans la base navale de Henderson.
Ajoutons que l’accord AUKUS devrait être conclu entre 2023 et les années 2050. Pour les États-Unis, cette période de 35 ans représente l’équivalent de neuf mandats présidentiels américains qui risquent d’entraîner des changements de politique intérieure et extérieure susceptibles d’entraver la mise en œuvre du pacte, à l’égard duquel le président nouvellement réélu Donald Trump s’est d’ailleurs montré critique.
Sans oublier que l’élaboration d’une politique cohérente avec quatre modèles différents (Collins, Astute, Virginia et AUKUS) est un défi supplémentaire pour Canberra. Comment former et transférer les équipages et les officiers d’une classe à l’autre ? Pour rappel, l’« AUKUS improved visit and onboarding program » prévu à cet effet devait débuter en 2023. Mais le positionnement permanent des sous-marins ne sera pas donné avant 2027, les sous-marins SSN-AUKUS ne doivent être livrés qu’au début des années 2040 et la livraison de la classe Virginia prévue en 2030 a été retardée.
La production des sous-marins Virginia par Washington est effectivement loin d’être terminée. La capacité de production est ralentie et la rivalité grandissante avec la Chine pourrait motiver les États-Unis à exploiter plus longtemps leur plus récent modèle de sous-marin avant de le livrer à l’Australie.
Dès lors, quel intérêt l’Australie trouve-t-elle dans ce partenariat ? Difficile de répondre à cette question, sachant que le pacte AUKUS inflige à Canberra une perte de temps et d’argent considérable, suscite une détérioration de ses relations avec la France et l’Asean, une tension accrue avec la Chine et peu voire aucune autonomie stratégique à l’horizon.
Ainsi, la volonté du gouvernement australien de faire de l’alliance AUKUS l’alpha et l’oméga de sa stratégie de défense et de considérer ce contrat comme « trop gros pour échouer » (« too big to fail ») est pour le moins imprudente. Cet apparent excès de confiance ne correspond pas aux réalités que souligne le Congressional Research Service, un think tank du Congrès américain, dans un rapport portant sur le pacte et mis à jour en octobre 2024. Ce dernier alerte sur la quasi-impossibilité pour Washington de livrer les sous-marins prévus et conseille aux autorités australiennes de réorienter leurs investissements militaires dans la défense aérienne, les drones et les capacités de frappe de précision à longue portée.
Benjamin Blandin ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.