09.03.2026 à 17:07
Véronique Collange, Maître de conférences HDR Sciences de gestion, Université Bourgogne Europe
Bio, commerce équitable, origine locale… ces petits logos se multiplient sur les emballages. Mais ont-ils réellement un impact sur nos décisions d’achat, ou ne sont-ils qu’un vernis marketing de plus ?
Dans les rayons de supermarchés, les labels « responsables » sont désormais omniprésents : agriculture biologique, commerce équitable, production locale, respect de l’environnement… Les marques les affichent pour répondre à des attentes sociétales de plus en plus fortes. Elles parient sur le fait que l’image de responsabilité sociale associée à ces logos sera transférée à leurs produits et incitera les consommateurs à les acheter. Mais cette stratégie est coûteuse et risquée : certifications, contrôles, cahiers des charges stricts. Sans oublier la méfiance croissante des consommateurs à l’égard du « greenwashing ». Dès lors, une question s’impose : ces logos éthiques modifient-ils vraiment le comportement des consommateurs ? Et si oui, comment ?
À lire aussi : Après le « greenwashing », le « greenhushing » ?
La recherche en marketing s’est intéressée depuis longtemps à la responsabilité sociale des entreprises (RSE), des marques ou des enseignes. En revanche, elle s’est peu penchée sur la responsabilité sociale du produit (RSP). Pourtant, c’est bien le produit qui constitue le point de contact concret entre le consommateur et l’entreprise.
Nos travaux, menés avec des chercheurs de l’Université Bourgogne Europe et de l’Université d’Orléans, montrent qu’il existe une perception spécifique de la responsabilité sociale du produit, distincte de la responsabilité sociale de l’entreprise ou de la marque. Selon la perception des consommateurs que nous avons interrogés, cette responsabilité repose sur trois dimensions :
environnementale : faible impact écologique, respect des ressources naturelles,
socio-éthique : respect des droits des travailleurs, conditions de production décentes,
socio-économique : contribution à l’économie locale et à l’emploi.
Autrement dit, un produit n’est pas seulement jugé sur sa dimension fonctionnelle, mais aussi sur ce qu’il apporte à la société. Et la RSP capte cette dimension.
À partir d’une expérimentation menée auprès de 484 consommateurs français, nous avons testé l’effet de différents logos, signalant une forme de responsabilité sociale du produit (Agriculture Biologique, Max Havelaar, Origine France Garantie), apposés sur des tablettes de chocolat noir de grandes marques nationales ou de distributeurs.
Le premier résultat de notre étude est très clair : la présence d’un logo éthique augmente significativement l’intention d’achat du produit qui le porte. Mais cet effet n’est ni direct ni « automatique ». Il opère indirectement, en renforçant la perception de responsabilité sociale du produit. Le logo agit donc comme un catalyseur de sens, transférant au produit qui le porte l’image de responsabilité sociale dont le logo est originellement porteur.
Par ailleurs, tous les consommateurs ne réagissent pas de la même façon. En effet, le deuxième résultat de notre étude montre que, plus l’individu se perçoit comme « moral », c’est-à-dire comme une personne « juste », « honnête » ou « bienveillante », plus l’impact de la RSP sur l’intention d’achat est important. Les consommateurs sensibles aux enjeux éthiques sont donc particulièrement réceptifs aux logos responsables, tandis que d’autres y restent relativement indifférents.
Notre étude montre aussi que l’efficacité du logo éthique dépend d’autres facteurs. Le premier est la force du logo : plus le label est connu des consommateurs et jugé crédible, fiable, plus la responsabilité sociale du produit est élevée. En d’autres termes, tous les logos ne se valent pas.
Le deuxième facteur est la force de la marque. Si elle bénéficie d’une bonne image et d’une forte notoriété, elle tire davantage profit de son association avec un logo éthique qu’une marque plus « faible ». Ainsi, meilleure est la perception de la marque, meilleure sera la perception du logo que porte son produit, et donc son impact positif. Ce raisonnement repose sur un biais cognitif bien connu : l’effet de halo.
Enfin, le troisième facteur, et de loin le plus décisif, sont les intentions attribuées à la marque. Lorsque les consommateurs perçoivent sa démarche comme sincère et altruiste, l’effet du logo éthique est très positif. Par ailleurs, un résultat assez surprenant, mais qui illustre bien la maturité et l’expertise des consommateurs contemporains est que l’attribution de motivations stratégiques (faire du profit, améliorer son image) ne nuit pas. Les consommateurs ne sanctionnent pas le fait que l’entreprise poursuive aussi son propre intérêt dans une démarche qui a également des motivations altruistes.
Un autre fait surprenant est qu’il n’est pas nécessaire que le consommateur trouve un lien logique (un « fit ») entre la marque et le logo. La marque est donc libre de choisir le logo éthique qui lui convient le plus, sans se soucier d’une éventuelle cohérence d’image.
Ces résultats invitent à dépasser une vision purement cosmétique de la responsabilité sociale. Pour qu’un logo éthique soit vraiment efficace, la crédibilité du logo, l’image de la marque qui le porte, et surtout la sincérité attribuée à la démarche sont déterminantes. De plus, ils montrent que la responsabilité sociale est aujourd’hui évaluée au niveau du produit, là où se prennent les décisions d’achat.
Dans un contexte de défiance croissante, la performance commerciale passe de plus en plus par la capacité des marques à démontrer une contribution réelle et crédible au bien commun par l’intermédiaire concret de leurs produits.
La consommation responsable n’est donc pas seulement une affaire de discours d’entreprise. Elle se joue, très concrètement, dans la conception même des produits.
Véronique Collange ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
09.03.2026 à 17:07
Nir Eisikovits, Professor of Philosophy and Director, Applied Ethics Center, UMass Boston
Jacob Burley, Junior Research Fellow, Applied Ethics Center, UMass Boston
L’intelligence artificielle promet de « libérer du temps » et d’optimiser l’apprentissage. Mais en déléguant aux machines les tâches qui formaient étudiants et jeunes chercheurs, les universités risquent d’éroder les conditions mêmes de l’expertise.
Dans le débat public sur l’intelligence artificielle (IA) à l’université, une inquiétude revient en boucle : la tricherie. Les étudiants vont-ils confier leurs dissertations à des chatbots ? Les enseignants sauront-ils les démasquer ? Faut-il interdire ces outils sur les campus, ou au contraire les intégrer aux pratiques pédagogiques ?
Ces questions sont légitimes. Mais à force de réduire le sujet à la fraude académique, on passe à côté de l’essentiel : une transformation beaucoup plus profonde est déjà à l’œuvre, qui dépasse largement les seuls comportements des étudiants – et même le cadre de la salle de classe.
Les universités déploient désormais l’IA dans de nombreux aspects de leur fonctionnement. Certaines applications restent largement invisibles : des systèmes qui aident à répartir les ressources, à repérer les étudiants « à risque », à optimiser les emplois du temps ou à automatiser des décisions administratives routinières.
D’autres usages sont, eux, beaucoup plus visibles. Les étudiants s’appuient sur des outils d’IA pour résumer des cours et réviser. Les enseignants les utilisent pour élaborer des sujets d’évaluation, préparer des syllabus. Les chercheurs s’en servent pour écrire du code, passer en revue la littérature scientifique ou condenser en quelques minutes des tâches fastidieuses qui prenaient auparavant des heures.
On peut bien sûr utiliser l’IA pour tricher ou se soustraire à un devoir. Mais la multiplication de ses usages dans l’enseignement supérieur – et les bouleversements qu’ils annoncent – posent une question bien plus fondamentale : à mesure que les machines deviennent capables d’assumer une part croissante du travail de recherche et d’apprentissage, que devient l’université ? À quoi sert-elle encore ?
Depuis huit ans, nous étudions les implications morales d’un recours massif à l’IA dans le cadre d’un projet de recherche conjoint entre le Applied Ethics Center at UMass Boston et l’Institute for Ethics and Emerging Technologies. Dans un livre blanc récent, nous soutenons qu’à mesure que les systèmes d’IA gagnent en autonomie, les enjeux éthiques de leur utilisation dans l’enseignement supérieur s’intensifient – tout comme les conséquences potentielles qui en découlent.
À mesure que ces technologies deviennent plus performantes dans la production de travaux intellectuels – concevoir des cours, rédiger des articles, proposer des protocoles expérimentaux ou résumer des textes complexes – elles ne se contentent pas d’accroître la productivité des universités. Elles risquent aussi de vider de sa substance l’écosystème d’apprentissage et de mentorat sur lequel ces institutions sont fondées – et dont elles dépendent pour exister.
On peut distinguer trois types de systèmes d’IA et leurs effets respectifs sur la vie universitaire.
Des logiciels alimentés par l’IA sont déjà utilisés dans l’enseignement supérieur pour l’examen des candidatures, les achats, l’accompagnement pédagogique des étudiants ou encore l’évaluation des risques institutionnels.
On parle ici de systèmes « non autonomes » : ils automatisent certaines tâches, mais un humain reste « dans la boucle » et les utilise comme de simples outils.
Ces technologies peuvent faire peser un risque sur la vie privée et la sécurité des données des étudiants. Elles peuvent aussi être biaisées. Et elles manquent souvent de transparence, ce qui rend difficile l’identification de l’origine de ces problèmes. Qui a accès aux données ? Comment sont calculés les « indices prédictifs de décrochage ou d’échec » ? Comment éviter que ces systèmes ne reproduisent des inégalités ou ne traitent certains étudiants comme de simples cas problématiques à gérer ?
Ces questions sont sérieuses. Mais, au moins dans le champ de l’informatique, elles ne sont pas fondamentalement nouvelles. Les universités disposent en général de services de conformité, de comités d’éthique de la recherche et de mécanismes de gouvernance pensés pour anticiper ou limiter ces risques – même si, dans les faits, ils n’atteignent pas toujours pleinement ces objectifs.
Les systèmes hybrides regroupent toute une gamme d’outils, parmi lesquels des bots conversationnels assistés par l’IA, des dispositifs de feedback personnalisé ou encore des aides automatisées à l’écriture. Ils reposent souvent sur des technologies d’IA générative, notamment sur de grands modèles de langage, les LLM. Si les utilisateurs humains fixent les objectifs généraux, les étapes intermédiaires que le système mobilise pour les atteindre ne sont, elles, généralement pas spécifiées.
Ces systèmes hybrides façonnent de plus en plus le travail académique au quotidien. Les étudiants les utilisent comme compagnons d’écriture, tuteurs, partenaires de réflexion ou outils d’explication à la demande. Les enseignants s’en servent pour élaborer des grilles d’évaluation, préparer des cours ou concevoir des plans de syllabus. Les chercheurs les mobilisent pour résumer des articles, commenter des versions préliminaires, imaginer des protocoles expérimentaux ou générer du code.
C’est ici que le débat sur la « tricherie » trouve véritablement sa place. Alors qu’étudiants et enseignants s’appuient de plus en plus sur ces outils pour se faire aider, il est légitime de s’interroger sur les formes d’apprentissage qui risquent de se perdre en chemin. Mais les systèmes hybrides soulèvent aussi des questions éthiques plus complexes.
L’une d’elles concerne la transparence. Les chatbots d’IA proposent des interfaces en langage naturel qui rendent difficile de savoir si l’on échange avec un humain ou avec un agent automatisé. Cette ambiguïté peut être déstabilisante et source de distraction. Un étudiant qui révise pour un examen doit pouvoir savoir s’il s’adresse à son chargé de travaux dirigés ou à un robot. De même, un étudiant qui lit les commentaires sur son mémoire doit pouvoir identifier clairement s’ils proviennent de son enseignant.
Tout manque de transparence dans ces situations risque d’aliéner les personnes concernées et de déplacer l’attention des interactions académiques : au lieu de se concentrer sur l’apprentissage, on se focalise sur les outils ou la technologie qui le médiatisent. Des chercheurs de l’Université de Pittsburgh ont montré que ces dynamiques suscitent chez les étudiants des sentiments d’incertitude, d’anxiété et de méfiance. Des effets loin d’être anodins.
Une deuxième question éthique touche à la responsabilité et au crédit intellectuel. Si un enseignant utilise l’IA pour rédiger un sujet et qu’un étudiant s’appuie lui aussi sur l’IA pour produire sa réponse, qui évalue qui – et qu’est-ce qui est réellement évalué ? Si les retours sont en partie générés par une machine, qui est responsable lorsqu’ils induisent en erreur, découragent ou intègrent des présupposés invisibles ? Et lorsque l’IA contribue de manière substantielle à une synthèse de recherche ou à la rédaction d’un article, les universités devront établir des normes plus claires en matière d’autorat et de responsabilité – pas seulement pour les étudiants, mais aussi pour les enseignants-chercheurs.
Enfin se pose la question cruciale de la « décharge cognitive ». L’IA peut réduire les tâches fastidieuses, et cela n’a rien de problématique en soi. Mais elle peut aussi détourner les utilisateurs des étapes de l’apprentissage qui construisent réellement les compétences : formuler des idées, traverser des moments de confusion, retravailler un brouillon maladroit, apprendre à repérer ses propres erreurs.
Les transformations les plus profondes pourraient venir de systèmes qui ressemblent moins à des assistants qu’à de véritables agents. Si les technologies pleinement autonomes relèvent encore en partie de l’aspiration, l’idée d’un « chercheur en boîte » – un système d’IA agentique capable de mener des études de manière indépendante – devient de plus en plus crédible.
Ces outils dits agentiques sont présentés comme susceptibles de « libérer du temps » pour des activités mobilisant davantage des capacités humaines, comme l’empathie ou la résolution de problèmes. Dans l’enseignement, cela pourrait signifier que les enseignants continuent d’assurer les cours au sens formel, mais que la majeure partie du travail pédagogique quotidien soit déléguée à des systèmes optimisés pour l’efficacité et le passage à l’échelle. En recherche, l’avenir semble appartenir aux systèmes capables d’automatiser toujours davantage le cycle scientifique. Dans certains domaines, cela prend déjà la forme de laboratoires robotisés fonctionnant en continu, capables d’automatiser une grande partie des expérimentations et même de sélectionner de nouveaux tests à partir des résultats précédents.
À première vue, cela peut sembler être un gain intéressant de productivité. Mais les universités ne sont pas des usines à produire de l’information : ce sont des communautés de pratique. Elles reposent sur un vivier de doctorants et de jeunes chercheurs qui apprennent à enseigner et à faire de la recherche en participant eux-mêmes à ces activités. Si des agents autonomes absorbent une part croissante des tâches « routinières » qui constituaient historiquement des portes d’entrée dans la carrière académique, l’université pourra continuer à produire des cours et des publications – tout en fragilisant silencieusement les structures d’apprentissage qui permettent, dans la durée, de former l’expertise.
La même dynamique touche les étudiants de premier cycle, sous une forme différente. Lorsque des systèmes d’IA peuvent fournir à la demande des explications, des brouillons, des solutions ou des plans de révision, la tentation est grande de déléguer les aspects les plus exigeants de l’apprentissage. Pour l’industrie qui promeut l’IA dans les universités, ce type d’effort peut apparaître comme « inefficace » – et l’on pourrait penser que les étudiants gagneraient à laisser la machine s’en charger. Mais c’est précisément dans cette confrontation à la difficulté que se construit une compréhension durable. La psychologie cognitive a montré que les étudiants progressent intellectuellement en rédigeant, en révisant, en échouant, en recommençant, en affrontant la confusion et en retravaillant des arguments faibles. C’est cela, apprendre à apprendre.
Pris ensemble, ces évolutions suggèrent que le principal risque lié à l’automatisation dans l’enseignement supérieur ne réside pas seulement dans le remplacement de certaines tâches par des machines, mais dans l’érosion plus profonde de l’écosystème de pratiques qui, depuis longtemps, soutient l’enseignement, la recherche et l’apprentissage.
À quoi servent les universités dans un monde où le travail intellectuel est de plus en plus automatisé ?
Une première réponse consiste à voir l’université avant tout comme une machine à produire des diplômes et des connaissances. Dans cette logique, la question centrale devient celle des résultats : les étudiants obtiennent-ils leurs diplômes ? Des articles sont-ils produits ? Fait-on des découvertes ? Si des systèmes autonomes peuvent générer ces résultats plus efficacement, alors l’institution a toutes les raisons de les adopter.
Mais une autre réponse considère l’université comme bien davantage qu’une simple machine à produire des résultats. Elle reconnaît que la valeur de l’enseignement supérieur réside en partie dans l’écosystème lui-même : le continuum d’opportunités grâce auquel les novices deviennent experts, les structures de mentorat au sein desquelles se forment le jugement et le sens des responsabilités, et une conception pédagogique qui valorise l’effort et la confrontation à la difficulté plutôt que leur élimination au nom de l’efficacité.
Dans cette perspective, l’enjeu n’est pas seulement de savoir si des connaissances et des diplômes sont produits, mais comment ils le sont – et quels types de personnes, de compétences et de communautés se construisent au passage. L’université y apparaît comme un écosystème dont la mission est, ni plus ni moins, de former durablement l’expertise et le discernement humains.
Dans un monde où le travail intellectuel est lui-même de plus en plus automatisé, les universités doivent, selon nous, s’interroger sur ce qu’elles doivent à leurs étudiants, à leurs jeunes chercheurs et à la société qu’elles servent. Les réponses à ces questions détermineront non seulement la manière dont l’IA sera intégrée, mais aussi ce que deviendra l’université contemporaine.
Le Applied Ethics Center de l’UMass Boston reçoit des financements de l’Institute for Ethics and Emerging Technologies. Nir Eisikovits est conseiller en éthique des données auprès de MindGuard, une start-up spécialisée dans l’intégration de l’intelligence artificielle dans les flux de travail des entreprises.
Jacob Burley a reçu des financements du Applied Ethics Center de l'UMass Boston.
09.03.2026 à 17:06
Michael Nafi, Enseignant-chercheur, philosophie, droit, science politique, Université Paris Cité
Le déclenchement de la guerre en Iran par Donald Trump sans que le Congrès en ait été informé au préalable suscite de nombreux remous aux États-Unis. Une semaine plus tôt, la Cour suprême venait de réaffirmer la séparation des pouvoirs entre le Congrès et l’exécutif. L’examen de son arrêt sur les droits de douane montre comment cette frontière constitutionnelle peut être activée devant les tribunaux – car le bras de fer n’est pas terminé, loin de là.
L’arrêt de la Cour suprême sur les droits de douane publié le 20 février dernier a été essentiellement interprété sous des angles politiques. Beaucoup y ont vu un revers pour le président Trump, négligeant parfois le fait que ce dernier a immédiatement annoncé de nouvelles mesures douanières. Ces lectures passent à côté de la portée juridique de l’arrêt, bien plus profonde qu’il n’y paraît.
Le président pouvait-il imposer des droits de douane en invoquant l’International Emergency Economic Powers Act (IEEPA, loi sur les pouvoirs économiques en situation d’urgence internationale, 1977) ? La Cour a estimé que ce texte ne lui confère pas ce pouvoir.
L’opinion majoritaire ne s’est pas contentée d’écarter une lecture trop large de l’IEEPA. Elle a déployé un raisonnement dont il convient de bien comprendre la mécanique précise.
Dans un article publié avant le prononcé de l’arrêt de la Cour suprême (20 février 2026), j’indiquais, sur la base des échanges en audience (5 novembre 2025), que la doctrine des « questions majeures » (major questions doctrine, MQD) serait au cœur de l’affaire. En revanche, je n’avais pas anticipé qu’elle serait mobilisée de manière aussi structurante.
Le texte de l’IEEPA ne contient pas l’expression « droits de douane », mais, contrairement à ce qui a pu être affirmé, cela ne suffisait pas. La Cour devait expliquer précisément pourquoi le texte n’évoquait pas implicitement les droits de douane.
C’est là qu’intervient la MQD, qui vise à encadrer le contrôle de l’interprétation de textes législatifs. Elle ne constitue pas un bloc uniforme. Elle se décline en conceptions différentes autour d’un socle commun. Lorsqu’un pouvoir aux conséquences économiques ou politiques majeures est revendiqué par l’exécutif en vertu d’une loi, l’idée centrale consiste à exiger une habilitation claire du législateur dans le texte de cette loi. Autrement dit, dans de telles situations, l’attribution du pouvoir en cause doit être explicite.
La MQD ne surgit pas de nulle part. On en trouve les prémisses dans MCI Telecommunications Corp. vs AT&T (1994) et surtout dans FDA vs Brown & Williamson Tobacco Corp. (2000). Elle a été structurée dans Utility Air Regulatory Group vs EPA (2014), puis cristallisée dans West Virginia vs EPA (2022), deux décisions relatives à l’Agence de protection de l’environnement (EPA). Dans ces affaires, la majorité conservatrice a invoqué la MQD pour insister sur une exigence de clarté de la délégation de pouvoir vers l’EPA (relevant de l’exécutif). De leur côté, les juges progressistes ont privilégié une analyse contextualiste sans un quelconque contrôle doctrinal, insistant sur la nécessité d’une certaine déférence envers l’expertise administrative dans des domaines techniques.
De manière générale, pour le juge en chef John Roberts, la MQD est simplement un déclencheur de contrôle textuel exigeant, et non un principe constitutionnel supérieur. Le juge conservateur Neil Gorsuch tend à l’inscrire plus spécifiquement dans la protection des prérogatives constitutionnelles du Congrès prévues à l’article I. Pour sa part, la juge Amy Coney Barrett, elle aussi conservatrice, l’intègre comme un outil parmi d’autres dans une démarche textualiste contextualisée.
Dans l’affaire des droits de douane, le juge en chef a mobilisé la MQD pour contraindre la revendication présidentielle dans une démarche textualiste rigoureuse – ce qui a pu rallier Amy Coney Barrett – tout en rappelant que le pouvoir de lever des droits, s’apparentant à une forme de taxation, relève constitutionnellement de la compétence exclusive du Congrès, ce qui a pu rallier Neil Gorsuch. Le seuil de contrôle étant strict, l’urgence ne pouvait justifier une lecture plus large de l’IEEPA.
Les trois juges progressistes – Elena Kagan, Sonia Sotomayor et Ketanji Brown Jackson – ont rejoint la majorité instaurée par le juge en chef Roberts, mais sans mobiliser la MQD comme fondement structurant. Selon elles, les outils ordinaires d’interprétation des textes de loi suffisaient à conclure à l’absence d’autorisation d’imposer les droits en cause. Fidèles à une approche contextualiste héritée notamment des affaires relatives à l’EPA, elles ont privilégié une analyse historique et structurelle du droit des échanges commerciaux et de la genèse de l’IEEPA, adoptée pour encadrer les pouvoirs d’urgence hérités du Trading With the Enemy Act (TWEA, loi sur le commerce avec l’ennemi, 1917). Seule la juge Jackson a rédigé un complément pour prévenir toute extension implicite de la MQD.
L’approche du juge en chef, s’appuyant sur une MQD pragmatique et disciplinée, a donc permis la mise en œuvre d’une coalition incluant des critiques de la doctrine.
Les juges conservateurs dissidents ont eux aussi raisonné dans le cadre de la MQD. Cependant, à leurs yeux, la pratique de retenue judiciaire vis-à-vis de l’exécutif en situation d’urgence et dans les affaires touchant aux relations internationales justifiait une lecture plus souple de l’exigence de clarté. Là où la majorité a refusé que l’urgence modifie le niveau de contrôle, la méthode contextualiste de la dissidence a conduit à une interprétation moins stricte de l’IEEPA.
Samuel Alito (juge) : « Avez-vous envisagé que votre héritage d’avocat constitutionnel puisse être d’avoir ressuscité la non-délégation ? »
(Rires)
Neal Katyal (avocat) : « Oh que oui. »
Cette plaisanterie lancée par un juge conservateur lors de la plaidoirie d’un avocat progressiste en novembre dernier pointait une ironie. La doctrine de non-délégation (ND), généralement associée aux juges conservateurs, repose sur l’idée que le Congrès ne peut transférer l’essence de son pouvoir législatif à l’exécutif sans encadrement suffisant (principe intelligible). Elle est souvent confondue avec la MQD. Pourtant, leur portée diffère : la ND met en cause la validité même de la loi ; la MQD en discipline l’interprétation.
L’alternative présentée par Katyal constituait une stratégie puissante : soit considérer que le pouvoir de lever des droits de douane est exclu de l’IEEPA (MQD), soit remettre en cause plus largement l’ensemble des délégations prévues par cette loi (ND). La Cour a choisi la première voie, avec une version pragmatique et circonscrite de la MQD, afin d’éviter tout bouleversement juridique.
Autre point significatif : Katyal, grand avocat de causes progressistes, n’a pas contesté le langage de la MQD et de la ND. Bien au contraire, il a placé la MQD au premier plan comme cadre d’interprétation, tout en laissant planer la ND en arrière-plan comme hypothèse plus radicale.
La Cour a renforcé une double légitimité. Elle a imposé une grammaire argumentative partagée par des acteurs du contentieux situés de part et d’autre d’un clivage idéologique. Par ailleurs, sa décision encadre le pouvoir exécutif sans provoquer de bouleversement juridique.
Dans l’immédiat, la question des remboursements se posera sur un plan administratif. Les importateurs disposent d’un délai de 180 jours à compter de la notification par les services douaniers pour contester les droits imposés. En cas de rejet, ils peuvent saisir la seule juridiction compétente en première instance, la Cour fédérale du commerce international (CFCI). Deux questions pourraient alors remonter jusqu’à la Cour suprême : l’invalidation a-t-elle un effet rétroactif intégral, c’est-à-dire dès l’origine ? Si tel est le cas, les importateurs qui n’auront pas contesté les droits dans les délais pourront-ils néanmoins prétendre à un remboursement ?
L’IEEPA écartée, quels sont les autres instruments dont dispose l’exécutif en matière de droits de douane ? Il s’agit notamment des articles 122 et 301 du Trade Act de 1974 ainsi que de l’article 232 du Trade Expansion Act de 1962.
L’article 122 – mobilisé par le président dès l’invalidation des droits fondés sur l’IEEPA – autorise la promulgation de droits plafonnés (15 % pour cent cinquante jours) afin de répondre à un déséquilibre de la balance des paiements. Contrairement à l’IEEPA, ces droits sont expressément prévus dans ce texte (import surcharges). Cependant, si la mesure vise un déficit commercial ou des objectifs industriels plus larges, la qualification pourrait être contestée devant la CFCI, y compris par la voie d’un recours en urgence.
C’est sur le fondement de l’article 232 qu’ont été imposés des droits douaniers, notamment sur l’acier et l’aluminium, y compris à l’égard du Canada et de l’Union européenne. Cet article de la loi de 1962 autorise le président à prendre des mesures de régulation du commerce pour des motifs de sécurité nationale. Les « droits de douane » n’y sont pas explicitement mentionnés, mais la Cour suprême a déjà permis une lecture large de ce dispositif en raison du motif invoqué (arrêt Algonquin), et la CFCI demeure liée par ce précédent. Toutefois, s’il s’avérait que l’invocation de la sécurité nationale déguisait un instrument de politique macroéconomique, la question d’un détournement de la délégation pourrait se poser. Dans une telle hypothèse, la MQD (exigence de clarté) et la ND (encadrement des délégations) pourraient conduire la Cour à resserrer la définition opératoire de la « sécurité nationale », à travers une coalition au sein de la majorité incluant des juges plus sensibles à ces enjeux (Gorsuch, Kavanaugh).
Le recours à l’article 301 du Trade Act de 1974 est plus complexe. Pour l’Union européenne, son usage s’inscrivait dans le cadre spécifique du différend Airbus et de contre-mesures autorisées par l’Organisation mondiale du commerce. Ces mesures ont été levées dans le cadre d’un accord de trêve.
La réponse aux mesures douanières peut ainsi passer par le droit, et non pas uniquement par la diplomatie. L’Union européenne ne peut être partie à des litiges devant la CFCI, mais elle pourrait soutenir financièrement des acteurs économiques qui souhaiteraient engager des recours. Cette pratique autorisée aux États-Unis mais déontologiquement balisée pourrait être explorée de manière méthodique.
Michael Nafi ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.