29.04.2026 à 18:59
John Hart, Emeritus Faculty, US government and politics specialist, Australian National University
Depuis le 2 mars, le Congrès avait soixante jours pour avaliser l’intervention contre l’Iran. Le délai expire ce 1er mai, et la guerre n’a toujours pas été autorisée. Donald Trump ne va sans doute pas rappeler ses militaires pour autant. Mais les élus démocrates, hostiles à ce conflit, pourraient bientôt voir une partie de leurs collègues républicains leur prêter main-forte pour tenter d’imposer la cessation d’une opération très impopulaire.
Si Donald Trump ne met pas fin à la confrontation militaire de son pays avec l’Iran dans les tout prochains jours, il enfreindra la loi des États-Unis.
La loi sur les pouvoirs de guerre (War Powers Resolution) adoptée en 1973 stipule qu’un président américain ne peut pas conduire une guerre sans l’aval du Congrès pendant plus de soixante jours. Passé ce délai, soit le Congrès doit déclarer la guerre et donc l’autoriser officiellement, soit le commandant en chef est constitutionnellement tenu de cesser les hostilités.
Même si un cessez-le-feu précaire prévaut actuellement entre Washington et Téhéran, le texte s’appliquerait en tout état de cause aux navires chargés de maintenir le blocus américain des ports iraniens.
Ce vendredi 1er mai, soixante jours se seront écoulés depuis le lancement de l’opération Epic Fury le 28 février dernier. Que signifie le dépassement de ce délai légal ?
Adoptée en novembre 1973 par le Congrès — une majorité des deux tiers a pu surmonter le veto opposé par le président Richard Nixon —, la loi sur les pouvoirs de guerre visait à mettre fin à l’usurpation récurrente, par les présidents des États-Unis, de la prérogative de déclarer la guerre, qui revient constitutionnellement au Congrès. Le texte a été adopté dans un contexte marqué par le départ du contingent américain du Vietnam à l’issue de plusieurs années d’une guerre que le Congrès n’avait jamais officiellement autorisée.
Plus de cinquante ans plus tard, force est de constater que cette loi n’a pratiquement jamais été réellement appliquée. Comprenant plusieurs formulations juridiques imprécises, le texte admet de nombreuses exceptions et ouvre la voie à de multiples interprétations différentes. Au cours des décennies, les présidents successifs et leurs conseillers se sont engouffrés dans ces brèches.
Ainsi, depuis Nixon, aucun président n’a véritablement été contraint par l’existence de la loi. Ceux qui ont déclenché des opérations sans feu vert du Congrès (Reagan en Grenade en 1983 ; George Bush père au Panama et en Yougoslavie en 1999 ; Biden au Yémen en 2023 ; puis Trump au Venezuela et en Iran en 2026, NDLR) se sont contentés de l’évoquer du bout des lèvres sans jamais réellement se mettre en conformité avec son esprit.
Le Congrès lui-même porte une porte de responsabilité de cet échec, lui qui a souvent renoncé à exercer ses prérogatives constitutionnelles en matière de déclaration de guerre. Pour autant, dans le conflit actuel, la loi pourrait bien être réactivée, avant tout parce qu’elle offre aux élus républicains hostiles à ce conflit un moyen de tenter de mettre fin à une guerre devenue impopulaire.
L’article 4 impose au président de présenter un rapport au Congrès dans les quarante-huit heures suivant l’engagement des troupes américaines dans des « hostilités ». Ce document doit détailler le fondement constitutionnel et législatif sur lequel repose l’action, sa justification, ainsi que l’ampleur et la durée prévues de l’intervention américaine.
La présentation de ce rapport déclenche alors un délai de soixante jours prévu par l’article 5. Si, à l’expiration de ce délai, le Congrès n’a pas déclaré ou autorisé la guerre — ou prolongé le délai —, le président doit impérativement mettre fin à l’action militaire.
Du fait du caractère automatique de cette disposition, les législateurs n’ont rien à faire pour la déclencher. Ils n’ont donc pas à se prononcer publiquement contre la politique militaire et de sécurité nationale conduite par le président.
Donald Trump a soumis son rapport sur la guerre avec l’Iran le 2 mars ; le compte à rebours de 60 jours expire donc le 1er mai.
Jusqu’à présent, le Congrès n’a toujours pas déclaré la guerre, bien que les républicains aient bloqué de nombreuses initiatives législatives des démocrates visant à mettre fin à la guerre ou à limiter la capacité de Trump à agir sans l’accord du Congrès. Ce dernier a également la possibilité de prolonger le délai de 60 jours pour une durée maximale de 30 jours, ce qui nécessiterait un vote à la Chambre des représentants et au Sénat.
Ce qui distingue fondamentalement cette guerre contre l’Iran des autres conflits menés par les récents présidents américains, c’est son impopularité. 34 % seulement des Américains la soutiennent, selon un sondage Reuters-Ipsos publié cette semaine.
On n’a observé aucun « effet de ralliement autour du drapeau » depuis le déclenchement d’Epic Fury. Les élus du Congrès, très sensibles à l’opinion de leurs électeurs, n’hésitent pas à s’opposer à Trump sur cette question. Beaucoup s’exposeraient à un retour de bâton électoral s’ils affichaient publiquement leur soutien à la guerre.
Exemple parmi d’autres : le sénateur républicain de l’Utah John Curtis a publié un article dans lequel il déclare qu’il ne soutiendra pas la guerre si le délai de 60 jours expire sans l’accord du Congrès. D’autres républicains ont fait écho à cette position.
Compte tenu de son mépris général pour la Constitution et le droit écrit, Donald Trump ignorera très probablement l’obligation légale de mettre fin à la guerre. Il pourrait, comme Nixon en 1973, arguer que la loi sur les pouvoirs de guerre est inconstitutionnelle, et cherchera sûrement à la contester devant les tribunaux.
Tout dépendra alors de la réaction du Congrès. Les démocrates envisageraient d’intenter une action en justice contre l’administration, bien que de tels recours se soient jusqu’ici révélés d’une efficacité limitée.
Le président pourrait également faire valoir que la « loi ne s’applique pas », car les forces américaines ne sont actuellement pas engagées dans des hostilités directes en Iran — un argumentaire déjà employé par Barack Obama lorsque le délai de 60 jours avait expiré lors des opérations militaires américaines en Libye en 2011.
Le 2 mars, quand Trump a adressé une notification officielle au Congrès, il a tenu à préciser qu’il agissait en vertu de son « autorité constitutionnelle en tant que commandant en chef et chef de l’exécutif » — mais aucune de ces deux fonctions ne lui confère le pouvoir d’engager les États-Unis dans une guerre sans l’approbation du Congrès. Il n’a d’ailleurs pas évoqué la loi sur les pouvoirs de guerre, se contentant de déclarer que son rapport était « conforme » à celle-ci — une formulation standard utilisée par ses prédécesseurs, qui ont tous fait preuve d’une certaine réticence à respecter ses dispositions.
Par le passé, lorsque les présidents et le Congrès se sont affrontés au sujet de la loi sur les pouvoirs de guerre, ils sont généralement parvenus à un compromis au cas par cas, souvent favorables au président. Mais cette fois-ci, la donne pourrait changer. Trump gère mal une guerre impopulaire, avec des majorités très fragiles au Sénat (53 républicains et 45 démocrates) et à la Chambre des représentants (218-212), à six mois des élections de mi-mandat.
Si rien ne change d’ici le 1er mai, la loi de 1973 pourrait connaître son heure de gloire en devenant, pour la première fois depuis son apparition, un véritable instrument de confrontation entre les pouvoirs exécutif et législatif.
John Hart ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
29.04.2026 à 16:33
Rémi Bourguignon, Professeur des Universités, IAE Paris-Est, Université Paris-Est Créteil Val de Marne (UPEC)

L’idée selon laquelle il faudrait mettre fin au monopole syndical pour redynamiser la démocratie sociale française fait son chemin depuis une dizaine d’années. Il faudrait faciliter la participation aux élections professionnelles des salariés non organisés sous la forme d’un syndicat voire leur permettre, sous certaines conditions, de prendre en charge la négociation collective. Alors que cette idée est revenue dans le débat social à la suite des prises de position de plusieurs économistes, il apparaît qu’elle repose sur une ambiguïté qui rend les enjeux peu perceptibles. Décryptage.
Pour réformer le fonctionnement de la démocratie sociale française, une proposition de réforme fait l’objet de vifs et récurrents débats depuis une dizaine d’années : la fin du monopole syndical. Cette proposition figurait en bonne place dans le programme politique de François Fillon lorsqu’il était candidat à l’élection présidentielle et a fait l’objet, dans la même période, d’un projet de loi déposé par le sénateur Jean-Louis Masson.
Les controverses suscitées par cette mesure ont été réamorcées ces derniers mois par les prises de position d’économistes occupant une place centrale dans le débat social. Pierre Cahuc et André Zylberberg sont ainsi les auteurs d’une tribune parue dans le journal les Échos dans laquelle ils appellent à remettre en cause le « monopole syndical » aux élections professionnelles selon lequel seuls les syndicats peuvent se présenter au premier tour de ces élections. Une « rente » qui nuirait non seulement à l’emploi, mais aussi à la démocratie sociale elle-même, nous disent les deux économistes qui proposent d’ouvrir ces élections en permettant aux salariés non investis par une organisation syndicale de pouvoir constituer une liste candidate.
Gilbert Cette, économiste à Neoma Business School et président du Conseil d’orientation des retraites, propose, de son côté, de remettre en cause le monopole syndical sur la négociation collective selon lequel seuls les syndicats sont habilités à négocier avec les employeurs. Avec Jacques Barthélémy puis dans un ouvrage coécrit avec Guy Groux et Richard Robert ainsi que dans de nombreuses interventions médiatiques, il propose que, sous certaines conditions, le pouvoir de négocier soit retiré aux syndicats pour être confié à l’instance élue du personnel, le comité social et économique (CSE). La mise en cause du monopole syndical sur la négociation collective avait déjà fait l’objet d’intenses discussions en 2016 à un moment où les organisations patronales demandaient à ce que le référendum d’entreprise puisse se substituer à la négociation avec les syndicats. Certains juristes se questionnaient alors sur la constitutionnalité du monopole syndical.
Qu’il s’agisse de la présentation de candidats au premier tour des élections professionnelles ou du droit de négocier avec l’employeur, les auteurs de ces propositions suggèrent de remettre en cause le monopole syndical pour laisser plus de place aux travailleurs non syndiqués. Mais que faut-il entendre par « monopole syndical », et y a-t-il réellement monopole syndical ?
À lire aussi : Syndicats : moins d'encartés, mais une image toujours positive auprès des salariés
En réalité, cette expression, sans être totalement fausse, est suffisamment ambiguë pour biaiser le débat public. Le non-spécialiste a, en effet, de quoi ne rien y comprendre. Pierre Cahuc et André Zylberberg parlent d’un monopole syndical tout en indiquant qu’il est réservé à un grand nombre d’organisations. D’ailleurs, comme une manifestation de leur embarras, les deux économistes parlent, dans la même tribune, d’un « quasi-monopole ». De même, pour Gilbert Cette et ses coauteurs, la principale entrave à la démocratie sociale est le trop grand nombre d’organisations syndicales. Leur principale proposition, qu’ils nomment la « mère des batailles », est de parvenir à réduire le nombre de syndicats. Là aussi, étrange conception du monopole que ce monopole partagé par un trop grand nombre d’acteurs.
L’ambiguïté, et donc la complexité, du débat tient à ce qu’il existe deux acceptions du monopole syndical. Une première acception est celle renvoyant à un droit de représentation exclusif. Christian Morel rappelle, à cet égard, qu’à l’époque du New Deal et de la rédaction des lois américaines sur la négociation collective dans les années 1930, deux idées de la démocratie étaient en discussion :
« D’un côté, celle de la représentation proportionnelle : selon cette philosophie, plusieurs syndicats pouvaient représenter une même collectivité de salariés. D’un autre côté, celle de la représentation majoritaire, selon laquelle le syndicat détenant la majorité devait disposer du monopole de la représentation. »
Et de rappeler que c’est la seconde qui l’a emporté de sorte que le monopole syndical prévaut dans les entreprises nord-américaines et, plus généralement, dans les systèmes anglo-saxons de relations professionnelles. Lorsqu’un syndicat parvient à s’implanter dans un établissement, il dispose d’un droit de représentation exclusif. Le système français, pour sa part, rejette le principe du monopole syndical et en prend même le contre-pied par un pluralisme particulièrement marqué.
Alors, de quoi parle-t-on lorsqu’on évoque le monopole syndical dans le système français ? En fait, pas d’un monopole syndical au sens où ces droits seraient réservés à un acteur exclusif mais d’un principe au cœur de la démocratie sociale française, à savoir un encadrement collectif de la représentation des salariés. On pourrait également dire un contrôle syndical sur cette représentation. En termes plus clairs, pour s’investir dans la représentation de leurs collègues et dans la négociation avec l’employeur, les salariés doivent s’inscrire dans le cadre d’une organisation collective, extérieure à l’entreprise et disposant d’une personnalité morale.
Ces organisations s’appellent syndicats et ont pour mission de constituer les listes au premier tour des élections professionnelles et de mandater des négociateurs auprès de l’employeur. Ce sont ces organisations qui portent la responsabilité de l’action de leurs militants sur le terrain. C’est en ce sens qu’il s’agit d’un contrôle syndical. Mais si l’on doit parler de monopole, c’est un monopole accordé à un statut, celui de syndicat. Pas un monopole accordé à un acteur.
En effet, l’ensemble des salariés ont la possibilité de se constituer en syndicat et, s’ils remplissent quelques critères, peuvent se présenter aux élections professionnelles. Si, à l’issue de ces élections, ils ont démontré leur représentativité, ils pourront prendre part aux négociations collectives. Le droit de se présenter aux élections professionnelles est donc parfaitement ouvert pourvu que les salariés qui le souhaitent inscrivent leur action dans le cadre d’une organisation collective responsable.
La loi indique notamment qu’elle est ouverte aux organisations syndicales « qui satisfont aux critères de respect des valeurs républicaines et d’indépendance, légalement constituées depuis au moins deux ans et dont le champ professionnel et géographique couvre l’entreprise ou l’établissement concernés ». Bref, si des salariés ont déposé des statuts, font preuve de transparence financière, respectent les valeurs républicaines et sont indépendants de l’employeur, ils peuvent se présenter aux élections professionnelles.
Opposer le monopole syndical à des élections ouvertes obscurcit la question. Car, à ce compte, il fait peu de doute que l’élection ouverte est préférable. Mais ce n’est précisément pas la question puisque l’élection est déjà ouverte. Ce qui est contesté par celles et ceux qui appellent à mettre fin au monopole syndical est, en réalité, moins une rente qui biaiserait la représentativité des négociateurs qu’une prérogative.
Le monopole syndical, pris en ce sens, serait plutôt à rapprocher du monopole médical selon lequel seuls les médecins sont habilités à prescrire des médicaments bien que les médecins soient en concurrence. De la même manière, si l’accès au premier tour des élections professionnelles et à la négociation collective est réservé aux organisations syndicales, celles-ci sont mises en concurrence et l’accès aux statuts de syndicats est possible pour tous les salariés.
Le débat sur la fin du monopole syndical invite ainsi à se demander si la représentation du personnel et la négociation collective doivent s’inscrire dans le cadre d’une action collective portée par une organisation identifiée et responsable ou si elle peut être le fait d’une collection de salariés plus ou moins coordonnés et organisés.
La forme syndicale joue actuellement un rôle important. Tout d’abord, elle offre une personnalité morale aux salariés qui s’y engagent, ce qui contribue à leur indépendance vis-à-vis de l’employeur et leur ouvre des modalités d’action dont ne disposent pas des salariés qui constitueraient une liste candidate dite non syndiquée.
Elle est surtout une organisation fondée sur des principes démocratiques et doit constituer, à ce titre, un espace permettant de mettre en discussion la diversité des intérêts et des visions qui traversent le monde du travail pour faire advenir, par la délibération, des revendications les plus partagées possibles. C’est au regard de cette fonction que le syndicalisme est habituellement considéré comme l’institution centrale de la démocratie sociale.
La contestation du monopole syndical est nourrie par l’idée selon laquelle les syndicats ne rempliraient, en réalité, plus cette fonction. Si le débat sur la vitalité de la démocratie syndicale est tout à fait légitime et bienvenu, l’argument selon lequel l’affaiblissement voire la suppression des prérogatives syndicales est de nature à renforcer la démocratie sociale reste à étayer.
Rémi Bourguignon a reçu des financements de recherche de France Stratégie, l'agence d'objectifs de l'IRES, la fédération CFE-CGC Métallurgie
29.04.2026 à 16:32
Nicolas Minvielle, Docteur en économie, spécialiste des questions d’innovation et de défense, Audencia
Marie Roussie, Docteur en science de gestion, spécialisée en prospective, Université Paris Dauphine – PSL
La prospective militaire ne se contente pas de décrire l’avenir, elle contribue à le façonner. Dès lors, une question s’impose : quelles hypothèses guident aujourd’hui nos représentations de la guerre, et que laissent-elles dans l’ombre ?
Les imaginaires contemporains de la guerre sont saturés d’images technologiques : drones autonomes, essaims robotisés, intelligence artificielle, armes hypersoniques, cyberconflits permanents. La conflictualité du futur s’y donne à voir comme un théâtre d’objets, toujours plus rapides, plus intelligents, plus autonomes.
Ces représentations ne sont pas fausses. Mais elles sont incomplètes – et, à bien des égards, trompeuses. En concentrant l’attention sur les innovations visibles, elles produisent un effet de substitution cognitive : la technologie devient le lieu apparent de la transformation, reléguant au second plan les dynamiques structurelles qui conditionnent pourtant son efficacité.
Ce déplacement du regard n’est pas neutre. Il reconduit une forme de fétichisme technologique où les artefacts sont perçus comme des causes, plutôt que comme des expressions de systèmes plus profonds. Or, les guerres ne se gagnent pas uniquement par les objets que l’on voit, mais par les structures que l’on ne voit pas (logistiques, industrielles, organisationnelles, sociales).
Nous continuons à observer la guerre par sa surface, mais beaucoup de choses se jouent ailleurs.
L’histoire militaire l’a souvent montré : les conflits sont moins déterminés par une innovation isolée que par la combinaison de facteurs structurels. La logistique, la capacité industrielle, la cohésion sociale, l’organisation des forces ou la résilience économique jouent souvent un rôle déterminant.
L’historien et analyste Stephen Biddle, dans un ouvrage déterminant écrit au début des années 2000, Military Power, démontre ainsi que la performance militaire dépend moins de la sophistication technologique que de l’intégration de cette technologie dans un « système de combat moderne » cohérent, reposant sur la coordination interarmes, la dispersion des unités, la discipline tactique et la capacité d’adaptation. Pour l’auteur, la supériorité américaine lors de la guerre du Golfe en 1991 ne s’explique pas uniquement par la possession de munitions guidées de précision, ou d’autres technologies d’ailleurs, mais par leur insertion dans un ensemble doctrinal et organisationnel plus large, combinant renseignement, commandement, logistique, dimensionnement adéquat des unités et supériorité aérienne. Autrement dit, la technologie n’est performative que lorsqu’elle est absorbée par un système capable de la rendre opérante.
La guerre moderne dépend par exemple de systèmes logistiques complexes, de réseaux énergétiques, de chaînes d’approvisionnement mondialisées et de capacités industrielles capables de soutenir un effort militaire prolongé. Souvent présenté comme l’avion de combat le plus avancé au monde, le F35 américain dépend d’un système informatique qui centralise notamment toutes les données de maintenance et d’opération (initialement le système ALIS remplacé progressivement par ODIN). Comme le montrent plusieurs rapports, cette dépendance crée des vulnérabilités importantes : remontée des données d’usage et de maintenance aux États-Unis avec une potentielle perte de souveraineté induite pour les usagers non américains, dépendance aux infrastructures états-uniennes, difficultés de maintenance, etc. Ainsi, une plateforme technologiquement supérieure peut devenir un point de fragilité systémique si elle s’inscrit dans un écosystème logistique instable ou centralisé.
De même, des variables moins visibles peuvent s’avérer décisives, comme le moral des troupes, la cohésion des sociétés, la culture organisationnelle des armées, la capacité d’adaptation doctrinale ou le lien entre les armées et le politique.
Le cas ukrainien semble en être un excellent exemple : cohésion nationale, commandement décentralisé, capacité d’innovation tactique, intégration rapide de technologies civiles (drones commerciaux, plates-formes de communication comme Telegram ou Starlink). Cette « adaptabilité distribuée » a permis à l’Ukraine de compenser des asymétries initiales majeures en matière de puissance de feu et de ressources.
Dans cette perspective, la question n’est pas que les technologies sont secondaires, mais c’est simplement qu’il faut les appréhender moins comme des ruptures autonomes que comme des multiplicateurs d’effets au sein de systèmes plus larges. Elles n’abolissent ni la friction ni l’incertitude ; elles vont simplement redéfinir les termes dans lesquels ces dernières s’expriment. Les asymétries technologiques n’ont pas permis aux États-Unis de remporter la guerre en Afghanistan, certains critiques expliquant simplement que les Américains n’avaient pas compris la nature sociale, culturelle et politique du conflit. Et aucune technologie n’a semblé capable de pallier cela.
Comprendre les conflits contemporains et à venir implique donc de déplacer le regard : des objets visibles vers les dynamiques invisibles, des capacités affichées vers les structures profondes, des innovations spectaculaires vers les processus d’apprentissage et d’adaptation qui en conditionnent l’efficacité réelle.
Si l’on prend cette idée de multiplicateur, l’intelligence artificielle, par exemple, améliore les capacités de ciblage ou de reconnaissance, mais elle transforme également des dimensions moins visibles : optimisation logistique, gestion sanitaire des forces avec un accompagnement aux décisions de triage médical, anticipation des risques environnementaux ou épidémiologiques, logistique des médicaments. Des travaux récents en défense montrent ainsi que l’IA peut avoir des effets systémiques en modifiant les processus de décision, les structures de commandement et les modes de formation.
Même si nous regardions les bonnes variables, un problème fondamental demeurerait : l’adversaire pense aussi. La stratégie n’est pas une science exacte, c’est un jeu d’anticipations imbriquées, chaque acteur tentant d’anticiper les décisions des autres. Mais il doit aussi anticiper ce que les autres pensent qu’il fera lui-même. Cette dynamique produit des chaînes d’anticipation complexes, où les perceptions et les représentations jouent un rôle central.
La guerre devient alors, en partie, une collision d’erreurs anticipées. Les conflits pouvant émerger plus facilement lorsque plusieurs acteurs interprètent mal les intentions de leurs adversaires, surestiment leurs propres capacités ou sous-estiment les risques d’escalade. Les surprises stratégiques pouvant naître ou être aggravées par ces décalages de perception.
Les scénarios, les discours prospectifs et les imaginaires de guerre ne se contentent pas, quant à eux, de décrire des évolutions possibles : ils contribuent à orienter les comportements présents. Les acteurs prennent leurs décisions en fonction de futurs anticipés, même incertains. Ces « attentes fictionnelles » structurent ainsi les investissements, les doctrines et les arbitrages stratégiques.
Cette performativité des visions du futur est aujourd’hui largement documentée. Les technologues et historiens Sheila Jasanoff et Sang-hyun Kim ont ainsi introduit en 2015 la notion « d’imaginaire sociotechnique » pour désigner la manière dont des représentations collectives du futur orientent les politiques publiques et les trajectoires technologiques. Appliquée au domaine militaire, cette approche permet de comprendre comment certaines visions de la guerre – notamment celles centrées sur l’autonomie, la vitesse et la précision algorithmique – structurent déjà les programmes d’armement et les doctrines d’emploi.
Les visions du futur circulent aujourd’hui dans les doctrines militaires, les think tanks, les simulations de crise, mais aussi dans la culture populaire, les jeux vidéo ou les représentations médiatiques de la guerre. Et ces récits contribuent à structurer les attentes collectives et les décisions stratégiques. Les États-Unis ont clairement compris à quel point ces récits jouent un rôle stratégique.
Des recherches soulignent l’imbrication étroite de Hollywood, du Pentagone et de l’industrie de défense dans la production d’images de guerre. Ces représentations ne se limitent pas à la sphère culturelle : elles participent à la légitimation des choix stratégiques et à la diffusion internationale d’un imaginaire technologique de la conflictualité. Leur diffusion est telle qu’elles ont d’ailleurs un impact sur les visions européennes, affectant notre capacité à envisager de manière originale et alternative les conflits à venir.
La prospective militaire ne vise pas à prédire avec exactitude ce que sera la guerre en 2040 ou en 2050. Elle consiste plutôt à éviter certaines formes de surprise stratégique et à se préparer aux conflits de demain, en élargissant le champ des futurs envisagés et en identifiant les dynamiques susceptibles de transformer des tensions en ruptures.
Penser le futur est un acte pleinement stratégique. Les scénarios produits aujourd’hui orientent déjà les investissements, les doctrines et les alliances de demain. À ce titre, ils contribuent à structurer les conflits futurs autant qu’ils prétendent les anticiper. Dès lors, la question centrale pourrait d’ailleurs ne pas être de savoir quel sera le futur de la guerre, mais de comprendre dans quelle mesure nos représentations actuelles contribuent, sans que nous en ayons toujours conscience, à en réduire la diversité et à en orienter les formes.
Nicolas Minvielle est membre du comité d’orientation de la Fabrique de la Cité, il a été animateur de la Red Team Défense et est LCL (R) auprès du Commandement du Combat Futur de l’Armée de terre. Il est aussi cofondateur de Making Tomorrow et investisseur dans Command AI
Marie Roussie est membre du Collectif Making Tomorrow et de la société Alt-a. Elle a travaillé au sein de la Red Team Défense du ministère des Armées, terrain de recherche de sa thèse. Depuis elle poursuit l’exploration stratégique et prospective des théâtres d’opérations militaires avec différents acteurs.
29.04.2026 à 16:31
Maxime Parola, Doctorant en Art, Université Côte d’Azur

La chaîne franco-allemande Arte propose sur son site de revoir l’intégrale de la série Twin Peaks (1990-1991 et 2017). Mais avant de nous replonger dans la « Black Lodge », essayons de comprendre comment une série si insolite est devenue culte.
Twin Peaks est le fruit de deux esprits singuliers, le scénariste Mark Frost, venant de la télévision, et le réalisateur David Lynch, issu du cinéma. Si Lynch a déjà montré sa singularité avec des films comme Eraserhead (1977) ou Blue Velvet (1986), Frost est en 1990 un scénariste de télévision plutôt consensuel.
La série s’ouvre sur la découverte du corps de Laura Palmer, dont la traque de l’assassin par l’étrange agent Cooper sera le moteur de l’intrigue. La série démarre donc comme une intrigue policière classique mais va rapidement emprunter des thématiques à d’autres genres, notamment le soap et le fantastique.
Pour bien comprendre le phénomène Twin Peaks, il faut se rappeler que son univers s’est développé dans plusieurs médias. D’abord il y eut la série et ses deux premières saisons en 1990 et en 1991, ensuite un film (Fire Walk With Me) en 1992 et, enfin, une troisième saison en 2017.
L’intrigue concernant le meurtre de Laura Palmer est posée et entièrement résolue entre la saison 1 et le milieu de la saison 2. Cette résolution avant même la fin de la saison et le glissement vers des intrigues secondaires auront raison des audiences et entraîneront la fin (provisoire) de la série en 1991.
David Lynch décide alors de poursuivre son histoire avec un film qui sera en réalité une préquelle à la série, mais permettra aussi d’approfondir certains éléments mythologiques liés à la « Black Lodge ». Le film est un échec critique et commercial cuisant, et l’univers de Twin Peaks semble se refermer pour toujours.
C’est ici que naît le statut de série culte, entre une série très populaire, un film qui le sera nettement moins et surtout un très grand nombre de questions que chacun pense restées sans réponses.
Pacôme Thiellement dira que la fin de Twin Peaks est comme la mort de Laura Palmer : bien après sa disparition, la série continue longtemps à nous hanter…
Et puis, en 2017, soit vingt-cinq ans plus tard, et comme cela avait été annoncé dans la série, Dale Cooper revient pour, croit-on, lever les derniers mystères de la loge. En réalité il n’en sera rien, et la dernière saison posera beaucoup plus de questions qu’elle n’offrira de réponses, dans la droite ligne des derniers films de David Lynch.
Si le statut de série culte s’est initialement construit autour des deux premières saisons de Twin Peaks c’est aussi largement à cause du personnage de Laura Palmer. C’est son corps mutilé qui ouvre la série, mais c’est son visage angélique qui refermera chacun des épisodes. Dans l’espace entre ces deux images se développeront toutes les ambiguïtés de ce personnage.
La série nous la présentera d’abord comme une figure angélique dont nous découvrirons petit à petit les failles morales. Alors que le film, à l’inverse, nous la montrera tristement réelle mais dotée d’une grande noblesse que personne ne verra, en dehors du téléspectateur.
Cet attachement au personnage sera, paradoxalement, la principale cause de la chute de Twin Peaks. Parce que c’est bien l’intrigue autour de son assassinat qui tiendra en haleine le spectateur chaque semaine, plus que l’esthétique singulière ou la mythologie de la série. La résolution du meurtre, même en ouvrant la porte à de nouvelles intrigues, ne suffira pas à intéresser les spectateurs de l’époque.
Quant au film, il arrive sûrement trop tard. Les spectateurs savent ce qu’ils voulaient savoir et sont passés à autre chose. Sans compter l’ambiance résolument plus glauque et dénuée d’humour du film en comparaison de la série.
Si Twin Peaks est considéré comme un moment de bascule dans le monde des séries, il faut noter que ça n’est pas tant pour l’une de ses caractéristiques que pour un ensemble de facteurs associés. Si cette série est une grande réussite populaire, elle n’est pas la première, loin de là. Des séries comme Star Trek ont conservé leur public bien au-delà de la fin de leur production.
Sur le plan qualitatif, là encore, l’ambition et la complexité qu’impulsent Frost et Lynch pour une série de télévision n’est pas inédite. On peut notamment citer la série le Prisonnier (1967-1968) qui reste un modèle du genre.
Ce qui rend la série singulière, c’est l’assemblage en un seul programme de genres très différents (le policier, le soap…), d’une intrigue captivante (qui a tué Laura Palmer ?) et d’une mystique cohérente et mystérieuse qui traversera l’ensemble de la série.
Pacôme Thiellement, auteur d’un essai de référence sur la série, souligne que celle-ci a inventé un nouveau type de spectateur : le spectateur « qualifié ». Il s’agit du spectateur qui revoit plusieurs fois les mêmes épisodes pour en déceler tous les indices. Cette attitude nouvelle n’est possible qu’avec l’avènement et la popularisation d’un nouvel outil technologique : le magnétoscope. Le créateur de la série Lost (2004-2010), Damon Lindelof, raconte d’ailleurs comment son père enregistrait systématiquement chaque épisode pour ensuite les revoir à l’infini.
Les références ayant permis l’élaboration de la mythologie de Twin Peaks ont été largement étudiées et révélées par Frost, dont l’attitude en interview est nettement moins sibylline que celle de Lynch. On sait que Frost a pioché dans une culture New Age et occultiste et plus particulièrement dans les théories de Dion Fortune et Helena Blavastky, cofondatrice de la Société théosophique.
Pour autant, Twin Peaks reste une œuvre dont le sens est largement multiple et ouvert, que la tardive saison 3 n’a pas souhaité rendre univoque. Citons cependant une interprétation parmi d’autres – de Pacôme Thiellement – selon qui la série parle « d’une nostalgie de l’Unité ». Si effectivement, on retrouve cette thématique du dédoublement et de sa résolution tout au long de la série (citons en vrac et sans spoiler : l’Homme venu d’un autre endroit et Mike, Bob et Leland, Laura et sa cousine, les 3 Cooper, etc.), on peut noter le rapprochement avec l’autre David (Cronenberg) chez qui nous soulevions déjà ici, la thématique centrale de la fusion. On peut d’ailleurs noter qu’un arrière-fond sexuel est là aussi commun aux deux réalisateurs même si cela passe plus par les couleurs et les ambiances chez Lynch.
Il semble vain de chercher une résolution définitive à Twin Peaks, mais rien ne nous empêche de continuer à chercher des signes pour le plaisir de l’analyse et pour en déceler toute la finesse et la poésie. Terminons encore une fois sur les mots de Thiellement :
« Il s’agit de la constitution d’une poétique, et la poétique est toujours une communication par signes. »
Maxime Parola ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
29.04.2026 à 16:31
Dan Mennill, Professor and Associate Dean of Science, University of Windsor

Paris a perdu trois décibels en dix ans grâce à des mesures efficaces contre la pollution sonore. Mais le bruit de la circulation oblige encore et toujours les oiseaux à chanter plus haut.
En 1962, la biologiste Rachel Carson nous mettait en garde dans le Printemps silencieux. Cet ouvrage, devenu depuis une référence majeure, alertait sur le monde muet et sans oiseau qui nous guettait du fait de l’impact incontrôlé des activités humaines.
Quarante ans plus tard, des biologistes ont mis en évidence un effet frappant de la pollution sonore sur le chant des oiseaux. Ils ont découvert que les bruits à basse fréquence de la circulation obligeaient les oiseaux à chanter à des fréquences plus élevées dans les villes européennes. Ainsi, les oiseaux d’un parc bruyant situé au pied de la tour Eiffel chantent à une fréquence supérieure de 400 hertz (Hz) à celle de leurs congénères vivant dans les forêts calmes de la banlieue parisienne.
L’étude que j’ai publiée dans la revue scientifique Ornithological Applications avec mon collègue Hans Slabbekoorn de l’Université de Leyde, montre cependant que Paris est un exemple de réussite dans la lutte contre la pollution sonore.
Pourtant, même si Paris est devenu plus calme, les oiseaux n’ont pas retrouvé leurs tonalités de chant naturelles. Nos recherches montrent que les mésanges charbonnières de Paris continuent de chanter à des fréquences plus aiguës que les oiseaux des zones sauvages situées en dehors de la ville.
Il parait donc essentiel de redoubler d’efforts en matière de réduction du bruit dans les zones urbaines du monde entier afin de permettre aux oiseaux sauvages de communiquer à leurs fréquences sonores naturelles.
De fait, les activités humaines inondent le monde des divers bruits. Les bruits des voitures, des avions, des bateaux et des activités industrielles produisent ainsi un grondement constant qui affecte les animaux sauvages, les oiseaux et les insectes. Nous négligeons souvent la pollution sonore en tant que problème de conservation, alors qu’elle peut avoir des effets dévastateurs sur la faune sauvage à une époque d’urbanisation croissante.
Le bruit de la circulation perturbe par exemple la capacité des oiseaux et des grenouilles à attirer des partenaires. Le bruit des bateaux entraîne lui une diminution de la communication vocale chez les baleines. Enfin, le bruit de la circulation influence par exemple les interactions prédateur-proie entre les papillons de nuit et les chauves-souris.
Depuis que l’on a découvert que, dans les villes européennes, les bruits de circulation à basse fréquence poussaient les oiseaux à chanter à des fréquences plus élevées, ce phénomène a également été observé chez diverses populations d’oiseaux à travers le monde.
Dans les prairies canadiennes, les bruants des prés émettent ainsi des chants plus aigus à proximité des pompes à pétrole bruyantes. Les rouges-gorges familiers chantent eux des mélodies plus aiguës en présence du bruit des éoliennes. On sait également que les zostérops à dos gris d’Australie produisent des chants et des cris plus aigus dans les zones urbaines bruyantes par rapport aux zones rurales.
Or, tous ces changements réduisent la capacité des oiseaux à défendre leurs territoires de reproduction et à attirer des partenaires.
À lire aussi : Préserver les océans du bruit humain pour mieux les protéger
Paris est l’une des plus grandes et des plus densément peuplées d’Europe, mais les Parisiens ont mis au point des stratégies innovantes pour lutter contre la pollution sonore.
La ville a transformé de nombreuses voies de circulation en pistes cyclables et a posé des revêtements antibruit sur les axes routiers principaux.
Des radars sonores infligent également des amendes aux véhicules trop bruyants. Un observatoire régional appelé Bruitparif surveille enfin le bruit dans toute la ville et supervise les efforts de réduction du bruit.
Toutes ces actions visent à rendre la ville plus calme, tant pour les habitants que pour la faune. Ces efforts contre le bruit soulèvent cependant la question suivante : peut-on réduire le niveau de pollution sonore afin de minimiser son impact sur le chant des oiseaux ?
En 2023, je me suis rendu à Paris pour enregistrer le chant de la mésange charbonnière, un oiseau commun des jardins européens.
J’ai utilisé des microphones et des enregistreurs numériques pour enregistrer les oiseaux dans les rues, sur les places et dans les parcs de toute la ville. J’ai suivi les traces de mon collaborateur, Hans Slabbekoorn, le biologiste qui avait été le premier à enregistrer les mésanges charbonnières à Paris en 2003.
En comparant le bruit de fond au chant des oiseaux, nous avons constaté que les mésanges charbonnières émettaient des chants plus aigus dans les environnements bruyants. En chantant à un ton plus aigu, elles évitent ainsi que leur chant ne soit masqué par les bruits de circulation à basse fréquence.
Nous avons également analysé les données sur le bruit recueillies dans tout Paris par Bruitparif. Nous avons ainsi constaté que Paris est en passe de gagner la bataille contre la pollution sonore et que la ville est devenue plus calme ces dernières années.
En effet, Paris est aujourd’hui environ trois décibels plus calme qu’il y a dix ans. Comme l’échelle des décibels est logarithmique, une baisse de trois décibels représente une réduction importante de l’intensité sonore. Mais malgré ces progrès, les mésanges charbonnières de Paris continuent de chanter à des fréquences plus aiguës que celles des oiseaux vivant dans les zones sauvages en dehors de la ville.
Il y a toutefois des raisons d’être optimiste. Des recherches menées dans d’autres villes ont montré que lorsque l’environnement devient moins bruyant, les oiseaux retrouvent leur tonalité naturelle.
Ainsi, le calme observé dans les rues pendant les confinements liés au Covid-19 a offert une occasion rare d’étudier les oiseaux dans un monde plus silencieux. Des biologistes de San Francisco (Californie) ont comme cela constaté que le paysage sonore urbain était devenu environ sept décibels plus silencieux pendant les confinements – des niveaux rarement observés depuis les années 1950.
Ce calme ambiant a permis aux oiseaux de modifier leur chant. À San Francisco, les bruants à couronne blanche ont réagi en chantant des mélodies plus graves et plus douces.
De nombreuses espèces d’oiseaux ont ainsi tiré profit de cet apaisement qui a régné pendant la période de confinement. Dans le cadre d’une étude portant sur 47 espèces d’oiseaux chanteurs en Amérique du Nord, notre équipe de recherche a constaté que les espèces dont le chant couvre une large gamme de fréquences – c’est-à-dire les sons les moins sensibles aux effets du bruit à basse fréquence – ont étendu leur aire de répartition pendant cette période de calme.
Ces résultats montrent que la pollution sonore affecte diverses espèces d’oiseaux, même celles dont le chant semble pourtant bien adapté aux environnements bruyants.
Nos études menées à Paris montrent qu’une réduction de trois décibels n’est pas suffisante pour permettre aux oiseaux de retrouver leurs fréquences de chant naturelles. Des efforts supplémentaires de réduction du bruit seront donc nécessaires pour que nous puissions partager l’espace sonore de manière adéquate avec nos amis à plumes.
Paris nous offre également une leçon porteuse d’espoir dans la lutte contre la pollution sonore. Les villes peuvent réduire le bruit en encourageant le vélo et les modes de transport plus silencieux. Les politiques publiques jouent également un rôle important, comme l’illustre l’agence Bruitparif à Paris.
Si nous mesurons la pollution sonore, nous pouvons nous efforcer de la réduire, d’améliorer notre propre bien-être et de créer un espace permettant aux oiseaux sauvages de communiquer à leurs fréquences sonores naturelles.
Dan Mennill a reçu des financements de la Natural Sciences and Engineering Research Council of Canada
29.04.2026 à 16:30
Valérie Depadt, Maître de conférences en droit, Université Sorbonne Paris Nord
Marjolaine Willems, Généticienne clinique, Université de Montpellier
En France, contrairement à d’autres pays, les conditions d’utilisation du diagnostic préimplantatoire sont très encadrées. Il ne peut pas être utilisé en tant que dépistage génétique global, et doit cibler uniquement un risque connu. Une situation que certains aimeraient voir évoluer.
Si l’infertilité constitue aujourd’hui la principale raison du recours à l’assistance médicale à la procréation (AMP), elle n’est pas la seule. Dans certains cas, ces techniques sont mobilisées pour éviter la transmission à l’enfant de maladies génétiques particulièrement graves.
Pour les familles concernées, l’enjeu dépasse alors la simple conception : il s’agit de donner naissance à un enfant indemne de la pathologie identifiée chez au moins l’un des parents. Dans ce contexte, le diagnostic préimplantatoire (DPI), qui permet l’analyse du patrimoine génétique d’embryons issus d’une fécondation in vitro avant leur transfert dans l’utérus – est autorisé en France depuis 1999.
Le DPI ne concerne donc qu’un nombre limité de personnes. Selon l’Agence de la biomédecine, environ 1 000 demandes de DPI sont examinées chaque année, dont environ les deux tiers sont acceptées. Pour autant, il cristallise des questions scientifiques, éthiques et politiques majeures, d’autant plus vives que les cadres juridiques et les pratiques diffèrent sensiblement d’un pays à l’autre.
Le DPI consiste à analyser de une à quelques cellules prélevées sur l’embryon afin de rechercher une anomalie génétique. Réalisé simultanément sur plusieurs embryons obtenus au cours d’un même cycle de fécondation, il permet d’exclure du transfert dans l’utérus les embryons porteurs de ladite anomalie.
En France, le DPI est autorisé lorsqu’une anomalie responsable d’une maladie gravement invalidante, susceptible d’être à révélation tardive ou pouvant mettre prématurément en jeu le pronostic vital a été préalablement et précisément identifiée, chez l’un des parents ou l’un de ses ascendants immédiats.
La loi impose toutefois une restriction majeure quant à la finalité du test : le diagnostic ne peut avoir d’autre objet que la recherche de l’anomalie génétique préalablement identifiée, ainsi que l’identification des moyens de la prévenir ou de la traiter. Le DPI ne constitue donc en aucun cas un dépistage génétique général : il s’agit d’un test ciblé visant un risque connu.
Ce cadre juridique traduit une conception médicale du DPI : il s’agit d’une alternative à une interruption médicale de grossesse lorsque le risque de maladie est élevé. Ainsi, le dispositif est pris en charge par l’Assurance-maladie dans la limite de quatre cycles de FIV. En raison de la haute technicité exigée et d’une volonté de centralisation, seuls cinq centres spécialisés disposent d’un agrément : Paris, Strasbourg, Montpellier, Nantes et Grenoble.
Les termes de la loi française expliquent également les limites technologiques constatées dans notre pays. En France, étant donné que seule la recherche de la pathologie faisant l’objet du diagnostic est autorisée, le recours aux méthodes de séquençage modernes, dites « pangénomiques » (car elles permettent de séquencer l’intégralité du génome) demeure marginal.
Il en va autrement à l’étranger, où de telles techniques sont largement utilisées.
Dans plusieurs pays, notamment aux États-Unis, au Royaume-Uni ou en Espagne, les progrès du séquençage génétique ont conduit à un usage différent du diagnostic préimplantatoire. Celui-ci est utilisé pour le dépistage général des anomalies chromosomiques chez l’embryon.
Ce type de DPI est appelé DPI-A, pour aneuploïdies. Les aneuploïdies sont des anomalies du nombre de chromosomes, telles que les trisomies ou les monosomies (parmi les exemples d’aneuploïdie les plus connus figure la trisomie 21, qui se caractérise par la présence d’un chromosome surnuméraire pour la 21e paire de chromosomes).
Le DPI-A ne consiste donc plus – ou plus uniquement – à rechercher une maladie génétique familiale identifiée. Il implique l’examen de l’ensemble des chromosomes des embryons produits par fécondation in vitro avant de les transférer dans l’utérus, afin de repérer ceux qui présentent un nombre chromosomique normal. Ces embryons sont supposés présenter de meilleures chances d’implantation et de naissance vivante.
À l’étranger, cette technique est largement proposée dans certaines cliniques, notamment dans le secteur privé, parfois au-delà des indications médicales strictes. Dans certains pays d’Europe, aux États-Unis ou encore au Canada, où le DPI-A est présenté comme un facteur d’accroissement des chances de réussite, il est utilisé dans une part importante des cycles de FIV.
Cette situation s’explique par la volonté de limiter toute extension du diagnostic vers une sélection embryonnaire élargie, laquelle est perçue comme susceptible d’ouvrir la voie à des dérives eugéniques.
Certaines instances éthiques françaises ont cependant récemment contribué à relancer le débat, en recommandant d’évaluer l’intérêt médical de ces techniques dans un cadre strictement encadré.
Le Comité consultatif national d’éthique pour les sciences de la vie et de la santé (CCNE), dans son avis 129 de 2017, était favorable à l’autorisation de la recherche d’aneuploïdies, au cours des fécondations in vitro, pour les couples ayant recours au DPI et certains couples infertiles.
Pour l’Agence de la biomédecine, il convient également de s’interroger sur les conséquences de la possibilité du séquençage de l’ensemble du génome, y compris en matière de diagnostic prénatal.
Malheureusement, à l’heure actuelle, les données nécessaires pour fonder une décision manquent encore.
Le DPI-A repose sur une hypothèse biologiquement cohérente : les anomalies chromosomiques étant fréquentes chez les embryons humains (à hauteur de 30 à 60 % des embryons systématiquement étudiés au cours d’un diagnostic préimplantatoire, leur identification pourrait théoriquement améliorer les résultats de la FIV, diminuer le risque d’échec d’implantation, de fausse couche, d’interruption médicale de grossesse ou de naissance d’enfant atteint d’une maladie génétique grave.
Toutefois, les données scientifiques apparaissent moins convaincantes qu’attendu au regard des bénéfices escomptés.
Rappelons qu’un cycle de FIV correspond à une tentative complète, incluant stimulation ovarienne, ponction ovocytaire et transfert d’embryon(s), plusieurs transferts pouvant être issus d’un même cycle. En France, le taux de naissance vivante est d’environ 25 % par cycle initié. En pratique, les patientes réalisent en moyenne deux à trois cycles pour obtenir une naissance vivante, les chances augmentant de manière cumulative avec le nombre de tentatives. La distinction entre taux par transfert et taux par cycle initié est essentielle, le bénéfice observé du DPI-A portant principalement sur le premier indicateur.
Concrètement, lors d’une fécondation in vitro (FIV), plusieurs ovocytes sont fécondés en laboratoire afin d’obtenir un nombre limité d’embryons (souvent entre cinq et dix). Sans DPI-A, un ou plusieurs embryons sont sélectionnés sur des critères morphologiques et transférés, les autres pouvant être congelés. Avec DPI-A, chaque embryon est biopsié et seuls ceux considérés comme euploïdes (présentant le bon nombre de chromosomes) sont retenus pour le transfert.
Cette sélection entraîne de facto une diminution du nombre d’embryons disponibles. Les données issues de cohortes de FIV montrent qu’en moyenne 30 à 60 % des embryons au stade blastocyste (cinq à six jours de développement) sont aneuploïdes, proportion qui augmente avec l’âge maternel. Par exemple, chez une patiente obtenant huit blastocystes, le DPI-A peut conduire à n’identifier que deux à trois embryons euploïdes, voire aucun selon l’âge, réduisant d’autant les possibilités de transfert.
L’exclusion systématique des embryons mosaïques, c’est-à-dire comportant à la fois des cellules euploïdes et aneuploïdes, peut accentuer cette réduction, alors même que des naissances vivantes d’enfants sains sont rapportées après transfert de tels embryons.
Les conséquences de cette sélection sont multiples : diminution du nombre de transferts possibles par cycle, augmentation du nombre de cycles nécessaires pour obtenir une grossesse, et risque de perte d’embryons potentiellement viables.
Les études réalisées montrent dans de larges proportions une augmentation des taux de grossesse par transfert embryonnaire dans certains contextes, comme les échecs d’implantation ou les fausses couches à répétition.
Cependant, il ne semble pas en être systématiquement de même pour le taux de naissances vivantes par cycle initié, qui constitue pourtant l’indicateur le plus pertinent pour les couples. Le DPI-A pourrait même conduire à un taux de naissance diminué chez les femmes de moins de 40 ans.
Plusieurs limites biologiques expliquent ces résultats contrastés. La biopsie embryonnaire repose sur l’analyse d’un nombre restreint de cellules, ce qui peut conduire à des erreurs d’interprétation du fait d’un problème de représentativité.
En présence de mosaïcisme embryonnaire, autrement dit lorsque l’embryon contient à la fois des cellules normales et des cellules aneuploïdes, les cellules prélevées pour être analysées peuvent ne pas refléter la constitution chromosomique de l’ensemble de l’embryon, conduisant à des résultats discordants ou à des erreurs de classification.
En outre, il existe parfois une capacité d’auto-correction. Ce phénomène constitue un facteur majeur de limites du DPI-A. Par ailleurs, la variabilité des conditions de prélèvement et les limites analytiques des techniques de séquençage peuvent contribuer à des faux positifs ou faux négatifs, notamment dans la détection du mosaïcisme.
Enfin, toutes les fausses couches ne sont pas liées à des anomalies chromosomiques, ce qui limite mécaniquement l’impact potentiel du dépistage de l’aneuploïdie sur les taux de naissance vivante.
Au regard de ces incertitudes, les sociétés savantes internationales, en particulier européenne (EHRE) et américaine, restent prudentes et ne recommandent pas l’utilisation systématique du DPI-A en pratique clinique courante pour tous les couples ayant recours à la FIV. Il pourrait exister un bénéfice pour certains sous-groupes de patientes, notamment les plus âgées, ou celles qui ont subi plusieurs fausses couches spontanées.
Les limites actuelles des connaissances soulignent la nécessité d’études rigoureuses, incluant également les aspects médico-économiques, afin d’évaluer l’intérêt réel du DPI-A selon les différentes populations de patientes et les contextes cliniques. En effet, la réalisation d’un DPI-A double le coût d’une FIV classique.
Pour combler ces lacunes, l’Agence nationale de sécurité du médicament et des produits de santé (ANSM) avait autorisé en 2021 l’Assistance publique – Hôpitaux de Paris (AP-HP) à mettre en œuvre un essai clinique (essai DEVIT) afin de collecter des données sur ces questions. L’objectif de cette étude était d’en évaluer les bénéfices et les risques.
Mais le 7 février 2024, le tribunal administratif de Montreuil (tribunal administratif de Montreuil, 8e chambre, 7 février 2024, no 2206833) saisi par la fondation conservatrice Jérôme-Lejeune, a annulé l’autorisation de l’ANSM, en rappelant l’interdiction légale du DPI-A, y compris au stade de la recherche.
Par une décision du 10 juillet 2025, la Cour administrative d’appel de Paris a confirmé la décision du tribunal administratif.
L’étude est donc interrompue, alors que l’évaluation objective des bénéfices et des risques nécessite précisément des travaux méthodologiquement solides.
En France, la question du DPI-A suscite un débat particulièrement clivé.
Certaines associations de patients, comme le collectif BAMP !, dénoncent une incohérence : le dépistage de la trisomie 21 est largement proposé pendant la grossesse, avec la possibilité d’une interruption médicale en cas d’anomalie, alors que le dépistage avant implantation reste interdit.
Le risque d’eugénisme n’est-il pas moindre lorsqu’il s’agit de sélectionner des embryons viables que dans la systématisation d’une proposition de détection d’une trisomie 21 chez le fœtus, quelques mois après le début de la grossesse ?
Cette situation crée de fait des inégalités d’accès, puisque seuls les couples disposant des ressources financières nécessaires ont le choix de se rendre à l’étranger.
À l’inverse, des opposants, comme la Fondation Jérôme-Lejeune, considèrent que l’extension du DPI vers le dépistage chromosomique pourrait renforcer une logique de sélection embryonnaire et poserait des questions éthiques majeures, notamment vis-à-vis du handicap.
Dans ce contexte, le débat ne se laisse pas aisément réduire à une opposition entre une évaluation scientifique supposée neutre et des prises de position liées à des considérations éthiques et sociétales.
Les données scientifiques disponibles concernant le DPI-A restent en effet discutées : si certaines études suggèrent un bénéfice dans des indications ciblées (échecs répétés d’implantation, fausses couches à répétition), d’autres soulignent l’absence d’amélioration significative des taux de naissances vivantes pour l’ensemble des patients ayant recours à l’AMP, ainsi que les limites liées au mosaïcisme embryonnaire, à la représentativité de la biopsie et à la variabilité des pratiques.
L’évaluation scientifique elle-même est donc marquée par des incertitudes, des choix méthodologiques et des interprétations divergentes.
Parallèlement, le recours au DPI-A soulève des enjeux qui dépassent le seul champ biomédical, notamment en matière de représentation du handicap, de sélection embryonnaire, d’équité d’accès aux soins et de finalités assignées à la médecine reproductive. Ces dimensions relèvent de choix collectifs et de cadres éthiques, qui ne peuvent être tranchés par les seules données scientifiques.
L’absence de cadre légal pour la recherche sur le DPI-A en France a paradoxalement freiné la production de données scientifiques nationales, comme le montre la décision du tribunal administratif de Montreuil.
La France ne conçoit l’évolution des techniques biomédicales autorisées que dans le respect des grands principes relatifs au corps humain, tels qu’inscrits dans le Code civil aux articles 16 et suivants, à l’exclusion de toute considération commerciale.
L’histoire du DPI illustre la tension permanente entre progrès biomédical, attentes des patients et préoccupations éthiques. Le DPI-A cristallise aujourd’hui des espoirs importants d’amélioration des résultats de la FIV, mais aussi des inquiétudes quant à ses implications sociétales.
Dans ce contexte, l’enjeu est peut-être moins de trancher immédiatement « pour » ou « contre » que de consolider les connaissances disponibles. Dépassionner le débat, mieux informer le public, soutenir la recherche et expliciter les incertitudes apparaissent comme des conditions essentielles pour orienter les décisions futures en matière de santé publique.
Dans un domaine marqué par la rapidité des innovations et l’ampleur des enjeux éthiques, la qualité des données scientifiques doit jouer un rôle déterminant dans la manière dont notre société définit et définira les choix collectifs à venir.
Marjolaine Willems est membre de la Société Française de Diagnostic Préimplantatoire (SFDPI). Elle a reçu des financements de l'Agence de Biomédecine.
Valérie Depadt ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.