29.04.2026 à 16:32
Nicolas Minvielle, Docteur en économie, spécialiste des questions d’innovation et de défense, Audencia
Marie Roussie, Docteur en science de gestion, spécialisée en prospective, Université Paris Dauphine – PSL
La prospective militaire ne se contente pas de décrire l’avenir, elle contribue à le façonner. Dès lors, une question s’impose : quelles hypothèses guident aujourd’hui nos représentations de la guerre, et que laissent-elles dans l’ombre ?
Les imaginaires contemporains de la guerre sont saturés d’images technologiques : drones autonomes, essaims robotisés, intelligence artificielle, armes hypersoniques, cyberconflits permanents. La conflictualité du futur s’y donne à voir comme un théâtre d’objets, toujours plus rapides, plus intelligents, plus autonomes.
Ces représentations ne sont pas fausses. Mais elles sont incomplètes – et, à bien des égards, trompeuses. En concentrant l’attention sur les innovations visibles, elles produisent un effet de substitution cognitive : la technologie devient le lieu apparent de la transformation, reléguant au second plan les dynamiques structurelles qui conditionnent pourtant son efficacité.
Ce déplacement du regard n’est pas neutre. Il reconduit une forme de fétichisme technologique où les artefacts sont perçus comme des causes, plutôt que comme des expressions de systèmes plus profonds. Or, les guerres ne se gagnent pas uniquement par les objets que l’on voit, mais par les structures que l’on ne voit pas (logistiques, industrielles, organisationnelles, sociales).
Nous continuons à observer la guerre par sa surface, mais beaucoup de choses se jouent ailleurs.
L’histoire militaire l’a souvent montré : les conflits sont moins déterminés par une innovation isolée que par la combinaison de facteurs structurels. La logistique, la capacité industrielle, la cohésion sociale, l’organisation des forces ou la résilience économique jouent souvent un rôle déterminant.
L’historien et analyste Stephen Biddle, dans un ouvrage déterminant écrit au début des années 2000, Military Power, démontre ainsi que la performance militaire dépend moins de la sophistication technologique que de l’intégration de cette technologie dans un « système de combat moderne » cohérent, reposant sur la coordination interarmes, la dispersion des unités, la discipline tactique et la capacité d’adaptation. Pour l’auteur, la supériorité américaine lors de la guerre du Golfe en 1991 ne s’explique pas uniquement par la possession de munitions guidées de précision, ou d’autres technologies d’ailleurs, mais par leur insertion dans un ensemble doctrinal et organisationnel plus large, combinant renseignement, commandement, logistique, dimensionnement adéquat des unités et supériorité aérienne. Autrement dit, la technologie n’est performative que lorsqu’elle est absorbée par un système capable de la rendre opérante.
La guerre moderne dépend par exemple de systèmes logistiques complexes, de réseaux énergétiques, de chaînes d’approvisionnement mondialisées et de capacités industrielles capables de soutenir un effort militaire prolongé. Souvent présenté comme l’avion de combat le plus avancé au monde, le F35 américain dépend d’un système informatique qui centralise notamment toutes les données de maintenance et d’opération (initialement le système ALIS remplacé progressivement par ODIN). Comme le montrent plusieurs rapports, cette dépendance crée des vulnérabilités importantes : remontée des données d’usage et de maintenance aux États-Unis avec une potentielle perte de souveraineté induite pour les usagers non américains, dépendance aux infrastructures états-uniennes, difficultés de maintenance, etc. Ainsi, une plateforme technologiquement supérieure peut devenir un point de fragilité systémique si elle s’inscrit dans un écosystème logistique instable ou centralisé.
De même, des variables moins visibles peuvent s’avérer décisives, comme le moral des troupes, la cohésion des sociétés, la culture organisationnelle des armées, la capacité d’adaptation doctrinale ou le lien entre les armées et le politique.
Le cas ukrainien semble en être un excellent exemple : cohésion nationale, commandement décentralisé, capacité d’innovation tactique, intégration rapide de technologies civiles (drones commerciaux, plates-formes de communication comme Telegram ou Starlink). Cette « adaptabilité distribuée » a permis à l’Ukraine de compenser des asymétries initiales majeures en matière de puissance de feu et de ressources.
Dans cette perspective, la question n’est pas que les technologies sont secondaires, mais c’est simplement qu’il faut les appréhender moins comme des ruptures autonomes que comme des multiplicateurs d’effets au sein de systèmes plus larges. Elles n’abolissent ni la friction ni l’incertitude ; elles vont simplement redéfinir les termes dans lesquels ces dernières s’expriment. Les asymétries technologiques n’ont pas permis aux États-Unis de remporter la guerre en Afghanistan, certains critiques expliquant simplement que les Américains n’avaient pas compris la nature sociale, culturelle et politique du conflit. Et aucune technologie n’a semblé capable de pallier cela.
Comprendre les conflits contemporains et à venir implique donc de déplacer le regard : des objets visibles vers les dynamiques invisibles, des capacités affichées vers les structures profondes, des innovations spectaculaires vers les processus d’apprentissage et d’adaptation qui en conditionnent l’efficacité réelle.
Si l’on prend cette idée de multiplicateur, l’intelligence artificielle, par exemple, améliore les capacités de ciblage ou de reconnaissance, mais elle transforme également des dimensions moins visibles : optimisation logistique, gestion sanitaire des forces avec un accompagnement aux décisions de triage médical, anticipation des risques environnementaux ou épidémiologiques, logistique des médicaments. Des travaux récents en défense montrent ainsi que l’IA peut avoir des effets systémiques en modifiant les processus de décision, les structures de commandement et les modes de formation.
Même si nous regardions les bonnes variables, un problème fondamental demeurerait : l’adversaire pense aussi. La stratégie n’est pas une science exacte, c’est un jeu d’anticipations imbriquées, chaque acteur tentant d’anticiper les décisions des autres. Mais il doit aussi anticiper ce que les autres pensent qu’il fera lui-même. Cette dynamique produit des chaînes d’anticipation complexes, où les perceptions et les représentations jouent un rôle central.
La guerre devient alors, en partie, une collision d’erreurs anticipées. Les conflits pouvant émerger plus facilement lorsque plusieurs acteurs interprètent mal les intentions de leurs adversaires, surestiment leurs propres capacités ou sous-estiment les risques d’escalade. Les surprises stratégiques pouvant naître ou être aggravées par ces décalages de perception.
Les scénarios, les discours prospectifs et les imaginaires de guerre ne se contentent pas, quant à eux, de décrire des évolutions possibles : ils contribuent à orienter les comportements présents. Les acteurs prennent leurs décisions en fonction de futurs anticipés, même incertains. Ces « attentes fictionnelles » structurent ainsi les investissements, les doctrines et les arbitrages stratégiques.
Cette performativité des visions du futur est aujourd’hui largement documentée. Les technologues et historiens Sheila Jasanoff et Sang-hyun Kim ont ainsi introduit en 2015 la notion « d’imaginaire sociotechnique » pour désigner la manière dont des représentations collectives du futur orientent les politiques publiques et les trajectoires technologiques. Appliquée au domaine militaire, cette approche permet de comprendre comment certaines visions de la guerre – notamment celles centrées sur l’autonomie, la vitesse et la précision algorithmique – structurent déjà les programmes d’armement et les doctrines d’emploi.
Les visions du futur circulent aujourd’hui dans les doctrines militaires, les think tanks, les simulations de crise, mais aussi dans la culture populaire, les jeux vidéo ou les représentations médiatiques de la guerre. Et ces récits contribuent à structurer les attentes collectives et les décisions stratégiques. Les États-Unis ont clairement compris à quel point ces récits jouent un rôle stratégique.
Des recherches soulignent l’imbrication étroite de Hollywood, du Pentagone et de l’industrie de défense dans la production d’images de guerre. Ces représentations ne se limitent pas à la sphère culturelle : elles participent à la légitimation des choix stratégiques et à la diffusion internationale d’un imaginaire technologique de la conflictualité. Leur diffusion est telle qu’elles ont d’ailleurs un impact sur les visions européennes, affectant notre capacité à envisager de manière originale et alternative les conflits à venir.
La prospective militaire ne vise pas à prédire avec exactitude ce que sera la guerre en 2040 ou en 2050. Elle consiste plutôt à éviter certaines formes de surprise stratégique et à se préparer aux conflits de demain, en élargissant le champ des futurs envisagés et en identifiant les dynamiques susceptibles de transformer des tensions en ruptures.
Penser le futur est un acte pleinement stratégique. Les scénarios produits aujourd’hui orientent déjà les investissements, les doctrines et les alliances de demain. À ce titre, ils contribuent à structurer les conflits futurs autant qu’ils prétendent les anticiper. Dès lors, la question centrale pourrait d’ailleurs ne pas être de savoir quel sera le futur de la guerre, mais de comprendre dans quelle mesure nos représentations actuelles contribuent, sans que nous en ayons toujours conscience, à en réduire la diversité et à en orienter les formes.
Nicolas Minvielle est membre du comité d’orientation de la Fabrique de la Cité, il a été animateur de la Red Team Défense et est LCL (R) auprès du Commandement du Combat Futur de l’Armée de terre. Il est aussi cofondateur de Making Tomorrow et investisseur dans Command AI
Marie Roussie est membre du Collectif Making Tomorrow et de la société Alt-a. Elle a travaillé au sein de la Red Team Défense du ministère des Armées, terrain de recherche de sa thèse. Depuis elle poursuit l’exploration stratégique et prospective des théâtres d’opérations militaires avec différents acteurs.
29.04.2026 à 16:31
Maxime Parola, Doctorant en Art, Université Côte d’Azur

La chaîne franco-allemande Arte propose sur son site de revoir l’intégrale de la série Twin Peaks (1990-1991 et 2017). Mais avant de nous replonger dans la « Black Lodge », essayons de comprendre comment une série si insolite est devenue culte.
Twin Peaks est le fruit de deux esprits singuliers, le scénariste Mark Frost, venant de la télévision, et le réalisateur David Lynch, issu du cinéma. Si Lynch a déjà montré sa singularité avec des films comme Eraserhead (1977) ou Blue Velvet (1986), Frost est en 1990 un scénariste de télévision plutôt consensuel.
La série s’ouvre sur la découverte du corps de Laura Palmer, dont la traque de l’assassin par l’étrange agent Cooper sera le moteur de l’intrigue. La série démarre donc comme une intrigue policière classique mais va rapidement emprunter des thématiques à d’autres genres, notamment le soap et le fantastique.
Pour bien comprendre le phénomène Twin Peaks, il faut se rappeler que son univers s’est développé dans plusieurs médias. D’abord il y eut la série et ses deux premières saisons en 1990 et en 1991, ensuite un film (Fire Walk With Me) en 1992 et, enfin, une troisième saison en 2017.
L’intrigue concernant le meurtre de Laura Palmer est posée et entièrement résolue entre la saison 1 et le milieu de la saison 2. Cette résolution avant même la fin de la saison et le glissement vers des intrigues secondaires auront raison des audiences et entraîneront la fin (provisoire) de la série en 1991.
David Lynch décide alors de poursuivre son histoire avec un film qui sera en réalité une préquelle à la série, mais permettra aussi d’approfondir certains éléments mythologiques liés à la « Black Lodge ». Le film est un échec critique et commercial cuisant, et l’univers de Twin Peaks semble se refermer pour toujours.
C’est ici que naît le statut de série culte, entre une série très populaire, un film qui le sera nettement moins et surtout un très grand nombre de questions que chacun pense restées sans réponses.
Pacôme Thiellement dira que la fin de Twin Peaks est comme la mort de Laura Palmer : bien après sa disparition, la série continue longtemps à nous hanter…
Et puis, en 2017, soit vingt-cinq ans plus tard, et comme cela avait été annoncé dans la série, Dale Cooper revient pour, croit-on, lever les derniers mystères de la loge. En réalité il n’en sera rien, et la dernière saison posera beaucoup plus de questions qu’elle n’offrira de réponses, dans la droite ligne des derniers films de David Lynch.
Si le statut de série culte s’est initialement construit autour des deux premières saisons de Twin Peaks c’est aussi largement à cause du personnage de Laura Palmer. C’est son corps mutilé qui ouvre la série, mais c’est son visage angélique qui refermera chacun des épisodes. Dans l’espace entre ces deux images se développeront toutes les ambiguïtés de ce personnage.
La série nous la présentera d’abord comme une figure angélique dont nous découvrirons petit à petit les failles morales. Alors que le film, à l’inverse, nous la montrera tristement réelle mais dotée d’une grande noblesse que personne ne verra, en dehors du téléspectateur.
Cet attachement au personnage sera, paradoxalement, la principale cause de la chute de Twin Peaks. Parce que c’est bien l’intrigue autour de son assassinat qui tiendra en haleine le spectateur chaque semaine, plus que l’esthétique singulière ou la mythologie de la série. La résolution du meurtre, même en ouvrant la porte à de nouvelles intrigues, ne suffira pas à intéresser les spectateurs de l’époque.
Quant au film, il arrive sûrement trop tard. Les spectateurs savent ce qu’ils voulaient savoir et sont passés à autre chose. Sans compter l’ambiance résolument plus glauque et dénuée d’humour du film en comparaison de la série.
Si Twin Peaks est considéré comme un moment de bascule dans le monde des séries, il faut noter que ça n’est pas tant pour l’une de ses caractéristiques que pour un ensemble de facteurs associés. Si cette série est une grande réussite populaire, elle n’est pas la première, loin de là. Des séries comme Star Trek ont conservé leur public bien au-delà de la fin de leur production.
Sur le plan qualitatif, là encore, l’ambition et la complexité qu’impulsent Frost et Lynch pour une série de télévision n’est pas inédite. On peut notamment citer la série le Prisonnier (1967-1968) qui reste un modèle du genre.
Ce qui rend la série singulière, c’est l’assemblage en un seul programme de genres très différents (le policier, le soap…), d’une intrigue captivante (qui a tué Laura Palmer ?) et d’une mystique cohérente et mystérieuse qui traversera l’ensemble de la série.
Pacôme Thiellement, auteur d’un essai de référence sur la série, souligne que celle-ci a inventé un nouveau type de spectateur : le spectateur « qualifié ». Il s’agit du spectateur qui revoit plusieurs fois les mêmes épisodes pour en déceler tous les indices. Cette attitude nouvelle n’est possible qu’avec l’avènement et la popularisation d’un nouvel outil technologique : le magnétoscope. Le créateur de la série Lost (2004-2010), Damon Lindelof, raconte d’ailleurs comment son père enregistrait systématiquement chaque épisode pour ensuite les revoir à l’infini.
Les références ayant permis l’élaboration de la mythologie de Twin Peaks ont été largement étudiées et révélées par Frost, dont l’attitude en interview est nettement moins sibylline que celle de Lynch. On sait que Frost a pioché dans une culture New Age et occultiste et plus particulièrement dans les théories de Dion Fortune et Helena Blavastky, cofondatrice de la Société théosophique.
Pour autant, Twin Peaks reste une œuvre dont le sens est largement multiple et ouvert, que la tardive saison 3 n’a pas souhaité rendre univoque. Citons cependant une interprétation parmi d’autres – de Pacôme Thiellement – selon qui la série parle « d’une nostalgie de l’Unité ». Si effectivement, on retrouve cette thématique du dédoublement et de sa résolution tout au long de la série (citons en vrac et sans spoiler : l’Homme venu d’un autre endroit et Mike, Bob et Leland, Laura et sa cousine, les 3 Cooper, etc.), on peut noter le rapprochement avec l’autre David (Cronenberg) chez qui nous soulevions déjà ici, la thématique centrale de la fusion. On peut d’ailleurs noter qu’un arrière-fond sexuel est là aussi commun aux deux réalisateurs même si cela passe plus par les couleurs et les ambiances chez Lynch.
Il semble vain de chercher une résolution définitive à Twin Peaks, mais rien ne nous empêche de continuer à chercher des signes pour le plaisir de l’analyse et pour en déceler toute la finesse et la poésie. Terminons encore une fois sur les mots de Thiellement :
« Il s’agit de la constitution d’une poétique, et la poétique est toujours une communication par signes. »
Maxime Parola ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
29.04.2026 à 16:31
Dan Mennill, Professor and Associate Dean of Science, University of Windsor

Paris a perdu trois décibels en dix ans grâce à des mesures efficaces contre la pollution sonore. Mais le bruit de la circulation oblige encore et toujours les oiseaux à chanter plus haut.
En 1962, la biologiste Rachel Carson nous mettait en garde dans le Printemps silencieux. Cet ouvrage, devenu depuis une référence majeure, alertait sur le monde muet et sans oiseau qui nous guettait du fait de l’impact incontrôlé des activités humaines.
Quarante ans plus tard, des biologistes ont mis en évidence un effet frappant de la pollution sonore sur le chant des oiseaux. Ils ont découvert que les bruits à basse fréquence de la circulation obligeaient les oiseaux à chanter à des fréquences plus élevées dans les villes européennes. Ainsi, les oiseaux d’un parc bruyant situé au pied de la tour Eiffel chantent à une fréquence supérieure de 400 hertz (Hz) à celle de leurs congénères vivant dans les forêts calmes de la banlieue parisienne.
L’étude que j’ai publiée dans la revue scientifique Ornithological Applications avec mon collègue Hans Slabbekoorn de l’Université de Leyde, montre cependant que Paris est un exemple de réussite dans la lutte contre la pollution sonore.
Pourtant, même si Paris est devenu plus calme, les oiseaux n’ont pas retrouvé leurs tonalités de chant naturelles. Nos recherches montrent que les mésanges charbonnières de Paris continuent de chanter à des fréquences plus aiguës que les oiseaux des zones sauvages situées en dehors de la ville.
Il parait donc essentiel de redoubler d’efforts en matière de réduction du bruit dans les zones urbaines du monde entier afin de permettre aux oiseaux sauvages de communiquer à leurs fréquences sonores naturelles.
De fait, les activités humaines inondent le monde des divers bruits. Les bruits des voitures, des avions, des bateaux et des activités industrielles produisent ainsi un grondement constant qui affecte les animaux sauvages, les oiseaux et les insectes. Nous négligeons souvent la pollution sonore en tant que problème de conservation, alors qu’elle peut avoir des effets dévastateurs sur la faune sauvage à une époque d’urbanisation croissante.
Le bruit de la circulation perturbe par exemple la capacité des oiseaux et des grenouilles à attirer des partenaires. Le bruit des bateaux entraîne lui une diminution de la communication vocale chez les baleines. Enfin, le bruit de la circulation influence par exemple les interactions prédateur-proie entre les papillons de nuit et les chauves-souris.
Depuis que l’on a découvert que, dans les villes européennes, les bruits de circulation à basse fréquence poussaient les oiseaux à chanter à des fréquences plus élevées, ce phénomène a également été observé chez diverses populations d’oiseaux à travers le monde.
Dans les prairies canadiennes, les bruants des prés émettent ainsi des chants plus aigus à proximité des pompes à pétrole bruyantes. Les rouges-gorges familiers chantent eux des mélodies plus aiguës en présence du bruit des éoliennes. On sait également que les zostérops à dos gris d’Australie produisent des chants et des cris plus aigus dans les zones urbaines bruyantes par rapport aux zones rurales.
Or, tous ces changements réduisent la capacité des oiseaux à défendre leurs territoires de reproduction et à attirer des partenaires.
À lire aussi : Préserver les océans du bruit humain pour mieux les protéger
Paris est l’une des plus grandes et des plus densément peuplées d’Europe, mais les Parisiens ont mis au point des stratégies innovantes pour lutter contre la pollution sonore.
La ville a transformé de nombreuses voies de circulation en pistes cyclables et a posé des revêtements antibruit sur les axes routiers principaux.
Des radars sonores infligent également des amendes aux véhicules trop bruyants. Un observatoire régional appelé Bruitparif surveille enfin le bruit dans toute la ville et supervise les efforts de réduction du bruit.
Toutes ces actions visent à rendre la ville plus calme, tant pour les habitants que pour la faune. Ces efforts contre le bruit soulèvent cependant la question suivante : peut-on réduire le niveau de pollution sonore afin de minimiser son impact sur le chant des oiseaux ?
En 2023, je me suis rendu à Paris pour enregistrer le chant de la mésange charbonnière, un oiseau commun des jardins européens.
J’ai utilisé des microphones et des enregistreurs numériques pour enregistrer les oiseaux dans les rues, sur les places et dans les parcs de toute la ville. J’ai suivi les traces de mon collaborateur, Hans Slabbekoorn, le biologiste qui avait été le premier à enregistrer les mésanges charbonnières à Paris en 2003.
En comparant le bruit de fond au chant des oiseaux, nous avons constaté que les mésanges charbonnières émettaient des chants plus aigus dans les environnements bruyants. En chantant à un ton plus aigu, elles évitent ainsi que leur chant ne soit masqué par les bruits de circulation à basse fréquence.
Nous avons également analysé les données sur le bruit recueillies dans tout Paris par Bruitparif. Nous avons ainsi constaté que Paris est en passe de gagner la bataille contre la pollution sonore et que la ville est devenue plus calme ces dernières années.
En effet, Paris est aujourd’hui environ trois décibels plus calme qu’il y a dix ans. Comme l’échelle des décibels est logarithmique, une baisse de trois décibels représente une réduction importante de l’intensité sonore. Mais malgré ces progrès, les mésanges charbonnières de Paris continuent de chanter à des fréquences plus aiguës que celles des oiseaux vivant dans les zones sauvages en dehors de la ville.
Il y a toutefois des raisons d’être optimiste. Des recherches menées dans d’autres villes ont montré que lorsque l’environnement devient moins bruyant, les oiseaux retrouvent leur tonalité naturelle.
Ainsi, le calme observé dans les rues pendant les confinements liés au Covid-19 a offert une occasion rare d’étudier les oiseaux dans un monde plus silencieux. Des biologistes de San Francisco (Californie) ont comme cela constaté que le paysage sonore urbain était devenu environ sept décibels plus silencieux pendant les confinements – des niveaux rarement observés depuis les années 1950.
Ce calme ambiant a permis aux oiseaux de modifier leur chant. À San Francisco, les bruants à couronne blanche ont réagi en chantant des mélodies plus graves et plus douces.
De nombreuses espèces d’oiseaux ont ainsi tiré profit de cet apaisement qui a régné pendant la période de confinement. Dans le cadre d’une étude portant sur 47 espèces d’oiseaux chanteurs en Amérique du Nord, notre équipe de recherche a constaté que les espèces dont le chant couvre une large gamme de fréquences – c’est-à-dire les sons les moins sensibles aux effets du bruit à basse fréquence – ont étendu leur aire de répartition pendant cette période de calme.
Ces résultats montrent que la pollution sonore affecte diverses espèces d’oiseaux, même celles dont le chant semble pourtant bien adapté aux environnements bruyants.
Nos études menées à Paris montrent qu’une réduction de trois décibels n’est pas suffisante pour permettre aux oiseaux de retrouver leurs fréquences de chant naturelles. Des efforts supplémentaires de réduction du bruit seront donc nécessaires pour que nous puissions partager l’espace sonore de manière adéquate avec nos amis à plumes.
Paris nous offre également une leçon porteuse d’espoir dans la lutte contre la pollution sonore. Les villes peuvent réduire le bruit en encourageant le vélo et les modes de transport plus silencieux. Les politiques publiques jouent également un rôle important, comme l’illustre l’agence Bruitparif à Paris.
Si nous mesurons la pollution sonore, nous pouvons nous efforcer de la réduire, d’améliorer notre propre bien-être et de créer un espace permettant aux oiseaux sauvages de communiquer à leurs fréquences sonores naturelles.
Dan Mennill a reçu des financements de la Natural Sciences and Engineering Research Council of Canada
29.04.2026 à 16:30
Valérie Depadt, Maître de conférences en droit, Université Sorbonne Paris Nord
Marjolaine Willems, Généticienne clinique, Université de Montpellier
En France, contrairement à d’autres pays, les conditions d’utilisation du diagnostic préimplantatoire sont très encadrées. Il ne peut pas être utilisé en tant que dépistage génétique global, et doit cibler uniquement un risque connu. Une situation que certains aimeraient voir évoluer.
Si l’infertilité constitue aujourd’hui la principale raison du recours à l’assistance médicale à la procréation (AMP), elle n’est pas la seule. Dans certains cas, ces techniques sont mobilisées pour éviter la transmission à l’enfant de maladies génétiques particulièrement graves.
Pour les familles concernées, l’enjeu dépasse alors la simple conception : il s’agit de donner naissance à un enfant indemne de la pathologie identifiée chez au moins l’un des parents. Dans ce contexte, le diagnostic préimplantatoire (DPI), qui permet l’analyse du patrimoine génétique d’embryons issus d’une fécondation in vitro avant leur transfert dans l’utérus – est autorisé en France depuis 1999.
Le DPI ne concerne donc qu’un nombre limité de personnes. Selon l’Agence de la biomédecine, environ 1 000 demandes de DPI sont examinées chaque année, dont environ les deux tiers sont acceptées. Pour autant, il cristallise des questions scientifiques, éthiques et politiques majeures, d’autant plus vives que les cadres juridiques et les pratiques diffèrent sensiblement d’un pays à l’autre.
Le DPI consiste à analyser de une à quelques cellules prélevées sur l’embryon afin de rechercher une anomalie génétique. Réalisé simultanément sur plusieurs embryons obtenus au cours d’un même cycle de fécondation, il permet d’exclure du transfert dans l’utérus les embryons porteurs de ladite anomalie.
En France, le DPI est autorisé lorsqu’une anomalie responsable d’une maladie gravement invalidante, susceptible d’être à révélation tardive ou pouvant mettre prématurément en jeu le pronostic vital a été préalablement et précisément identifiée, chez l’un des parents ou l’un de ses ascendants immédiats.
La loi impose toutefois une restriction majeure quant à la finalité du test : le diagnostic ne peut avoir d’autre objet que la recherche de l’anomalie génétique préalablement identifiée, ainsi que l’identification des moyens de la prévenir ou de la traiter. Le DPI ne constitue donc en aucun cas un dépistage génétique général : il s’agit d’un test ciblé visant un risque connu.
Ce cadre juridique traduit une conception médicale du DPI : il s’agit d’une alternative à une interruption médicale de grossesse lorsque le risque de maladie est élevé. Ainsi, le dispositif est pris en charge par l’Assurance-maladie dans la limite de quatre cycles de FIV. En raison de la haute technicité exigée et d’une volonté de centralisation, seuls cinq centres spécialisés disposent d’un agrément : Paris, Strasbourg, Montpellier, Nantes et Grenoble.
Les termes de la loi française expliquent également les limites technologiques constatées dans notre pays. En France, étant donné que seule la recherche de la pathologie faisant l’objet du diagnostic est autorisée, le recours aux méthodes de séquençage modernes, dites « pangénomiques » (car elles permettent de séquencer l’intégralité du génome) demeure marginal.
Il en va autrement à l’étranger, où de telles techniques sont largement utilisées.
Dans plusieurs pays, notamment aux États-Unis, au Royaume-Uni ou en Espagne, les progrès du séquençage génétique ont conduit à un usage différent du diagnostic préimplantatoire. Celui-ci est utilisé pour le dépistage général des anomalies chromosomiques chez l’embryon.
Ce type de DPI est appelé DPI-A, pour aneuploïdies. Les aneuploïdies sont des anomalies du nombre de chromosomes, telles que les trisomies ou les monosomies (parmi les exemples d’aneuploïdie les plus connus figure la trisomie 21, qui se caractérise par la présence d’un chromosome surnuméraire pour la 21e paire de chromosomes).
Le DPI-A ne consiste donc plus – ou plus uniquement – à rechercher une maladie génétique familiale identifiée. Il implique l’examen de l’ensemble des chromosomes des embryons produits par fécondation in vitro avant de les transférer dans l’utérus, afin de repérer ceux qui présentent un nombre chromosomique normal. Ces embryons sont supposés présenter de meilleures chances d’implantation et de naissance vivante.
À l’étranger, cette technique est largement proposée dans certaines cliniques, notamment dans le secteur privé, parfois au-delà des indications médicales strictes. Dans certains pays d’Europe, aux États-Unis ou encore au Canada, où le DPI-A est présenté comme un facteur d’accroissement des chances de réussite, il est utilisé dans une part importante des cycles de FIV.
Cette situation s’explique par la volonté de limiter toute extension du diagnostic vers une sélection embryonnaire élargie, laquelle est perçue comme susceptible d’ouvrir la voie à des dérives eugéniques.
Certaines instances éthiques françaises ont cependant récemment contribué à relancer le débat, en recommandant d’évaluer l’intérêt médical de ces techniques dans un cadre strictement encadré.
Le Comité consultatif national d’éthique pour les sciences de la vie et de la santé (CCNE), dans son avis 129 de 2017, était favorable à l’autorisation de la recherche d’aneuploïdies, au cours des fécondations in vitro, pour les couples ayant recours au DPI et certains couples infertiles.
Pour l’Agence de la biomédecine, il convient également de s’interroger sur les conséquences de la possibilité du séquençage de l’ensemble du génome, y compris en matière de diagnostic prénatal.
Malheureusement, à l’heure actuelle, les données nécessaires pour fonder une décision manquent encore.
Le DPI-A repose sur une hypothèse biologiquement cohérente : les anomalies chromosomiques étant fréquentes chez les embryons humains (à hauteur de 30 à 60 % des embryons systématiquement étudiés au cours d’un diagnostic préimplantatoire, leur identification pourrait théoriquement améliorer les résultats de la FIV, diminuer le risque d’échec d’implantation, de fausse couche, d’interruption médicale de grossesse ou de naissance d’enfant atteint d’une maladie génétique grave.
Toutefois, les données scientifiques apparaissent moins convaincantes qu’attendu au regard des bénéfices escomptés.
Rappelons qu’un cycle de FIV correspond à une tentative complète, incluant stimulation ovarienne, ponction ovocytaire et transfert d’embryon(s), plusieurs transferts pouvant être issus d’un même cycle. En France, le taux de naissance vivante est d’environ 25 % par cycle initié. En pratique, les patientes réalisent en moyenne deux à trois cycles pour obtenir une naissance vivante, les chances augmentant de manière cumulative avec le nombre de tentatives. La distinction entre taux par transfert et taux par cycle initié est essentielle, le bénéfice observé du DPI-A portant principalement sur le premier indicateur.
Concrètement, lors d’une fécondation in vitro (FIV), plusieurs ovocytes sont fécondés en laboratoire afin d’obtenir un nombre limité d’embryons (souvent entre cinq et dix). Sans DPI-A, un ou plusieurs embryons sont sélectionnés sur des critères morphologiques et transférés, les autres pouvant être congelés. Avec DPI-A, chaque embryon est biopsié et seuls ceux considérés comme euploïdes (présentant le bon nombre de chromosomes) sont retenus pour le transfert.
Cette sélection entraîne de facto une diminution du nombre d’embryons disponibles. Les données issues de cohortes de FIV montrent qu’en moyenne 30 à 60 % des embryons au stade blastocyste (cinq à six jours de développement) sont aneuploïdes, proportion qui augmente avec l’âge maternel. Par exemple, chez une patiente obtenant huit blastocystes, le DPI-A peut conduire à n’identifier que deux à trois embryons euploïdes, voire aucun selon l’âge, réduisant d’autant les possibilités de transfert.
L’exclusion systématique des embryons mosaïques, c’est-à-dire comportant à la fois des cellules euploïdes et aneuploïdes, peut accentuer cette réduction, alors même que des naissances vivantes d’enfants sains sont rapportées après transfert de tels embryons.
Les conséquences de cette sélection sont multiples : diminution du nombre de transferts possibles par cycle, augmentation du nombre de cycles nécessaires pour obtenir une grossesse, et risque de perte d’embryons potentiellement viables.
Les études réalisées montrent dans de larges proportions une augmentation des taux de grossesse par transfert embryonnaire dans certains contextes, comme les échecs d’implantation ou les fausses couches à répétition.
Cependant, il ne semble pas en être systématiquement de même pour le taux de naissances vivantes par cycle initié, qui constitue pourtant l’indicateur le plus pertinent pour les couples. Le DPI-A pourrait même conduire à un taux de naissance diminué chez les femmes de moins de 40 ans.
Plusieurs limites biologiques expliquent ces résultats contrastés. La biopsie embryonnaire repose sur l’analyse d’un nombre restreint de cellules, ce qui peut conduire à des erreurs d’interprétation du fait d’un problème de représentativité.
En présence de mosaïcisme embryonnaire, autrement dit lorsque l’embryon contient à la fois des cellules normales et des cellules aneuploïdes, les cellules prélevées pour être analysées peuvent ne pas refléter la constitution chromosomique de l’ensemble de l’embryon, conduisant à des résultats discordants ou à des erreurs de classification.
En outre, il existe parfois une capacité d’auto-correction. Ce phénomène constitue un facteur majeur de limites du DPI-A. Par ailleurs, la variabilité des conditions de prélèvement et les limites analytiques des techniques de séquençage peuvent contribuer à des faux positifs ou faux négatifs, notamment dans la détection du mosaïcisme.
Enfin, toutes les fausses couches ne sont pas liées à des anomalies chromosomiques, ce qui limite mécaniquement l’impact potentiel du dépistage de l’aneuploïdie sur les taux de naissance vivante.
Au regard de ces incertitudes, les sociétés savantes internationales, en particulier européenne (EHRE) et américaine, restent prudentes et ne recommandent pas l’utilisation systématique du DPI-A en pratique clinique courante pour tous les couples ayant recours à la FIV. Il pourrait exister un bénéfice pour certains sous-groupes de patientes, notamment les plus âgées, ou celles qui ont subi plusieurs fausses couches spontanées.
Les limites actuelles des connaissances soulignent la nécessité d’études rigoureuses, incluant également les aspects médico-économiques, afin d’évaluer l’intérêt réel du DPI-A selon les différentes populations de patientes et les contextes cliniques. En effet, la réalisation d’un DPI-A double le coût d’une FIV classique.
Pour combler ces lacunes, l’Agence nationale de sécurité du médicament et des produits de santé (ANSM) avait autorisé en 2021 l’Assistance publique – Hôpitaux de Paris (AP-HP) à mettre en œuvre un essai clinique (essai DEVIT) afin de collecter des données sur ces questions. L’objectif de cette étude était d’en évaluer les bénéfices et les risques.
Mais le 7 février 2024, le tribunal administratif de Montreuil (tribunal administratif de Montreuil, 8e chambre, 7 février 2024, no 2206833) saisi par la fondation conservatrice Jérôme-Lejeune, a annulé l’autorisation de l’ANSM, en rappelant l’interdiction légale du DPI-A, y compris au stade de la recherche.
Par une décision du 10 juillet 2025, la Cour administrative d’appel de Paris a confirmé la décision du tribunal administratif.
L’étude est donc interrompue, alors que l’évaluation objective des bénéfices et des risques nécessite précisément des travaux méthodologiquement solides.
En France, la question du DPI-A suscite un débat particulièrement clivé.
Certaines associations de patients, comme le collectif BAMP !, dénoncent une incohérence : le dépistage de la trisomie 21 est largement proposé pendant la grossesse, avec la possibilité d’une interruption médicale en cas d’anomalie, alors que le dépistage avant implantation reste interdit.
Le risque d’eugénisme n’est-il pas moindre lorsqu’il s’agit de sélectionner des embryons viables que dans la systématisation d’une proposition de détection d’une trisomie 21 chez le fœtus, quelques mois après le début de la grossesse ?
Cette situation crée de fait des inégalités d’accès, puisque seuls les couples disposant des ressources financières nécessaires ont le choix de se rendre à l’étranger.
À l’inverse, des opposants, comme la Fondation Jérôme-Lejeune, considèrent que l’extension du DPI vers le dépistage chromosomique pourrait renforcer une logique de sélection embryonnaire et poserait des questions éthiques majeures, notamment vis-à-vis du handicap.
Dans ce contexte, le débat ne se laisse pas aisément réduire à une opposition entre une évaluation scientifique supposée neutre et des prises de position liées à des considérations éthiques et sociétales.
Les données scientifiques disponibles concernant le DPI-A restent en effet discutées : si certaines études suggèrent un bénéfice dans des indications ciblées (échecs répétés d’implantation, fausses couches à répétition), d’autres soulignent l’absence d’amélioration significative des taux de naissances vivantes pour l’ensemble des patients ayant recours à l’AMP, ainsi que les limites liées au mosaïcisme embryonnaire, à la représentativité de la biopsie et à la variabilité des pratiques.
L’évaluation scientifique elle-même est donc marquée par des incertitudes, des choix méthodologiques et des interprétations divergentes.
Parallèlement, le recours au DPI-A soulève des enjeux qui dépassent le seul champ biomédical, notamment en matière de représentation du handicap, de sélection embryonnaire, d’équité d’accès aux soins et de finalités assignées à la médecine reproductive. Ces dimensions relèvent de choix collectifs et de cadres éthiques, qui ne peuvent être tranchés par les seules données scientifiques.
L’absence de cadre légal pour la recherche sur le DPI-A en France a paradoxalement freiné la production de données scientifiques nationales, comme le montre la décision du tribunal administratif de Montreuil.
La France ne conçoit l’évolution des techniques biomédicales autorisées que dans le respect des grands principes relatifs au corps humain, tels qu’inscrits dans le Code civil aux articles 16 et suivants, à l’exclusion de toute considération commerciale.
L’histoire du DPI illustre la tension permanente entre progrès biomédical, attentes des patients et préoccupations éthiques. Le DPI-A cristallise aujourd’hui des espoirs importants d’amélioration des résultats de la FIV, mais aussi des inquiétudes quant à ses implications sociétales.
Dans ce contexte, l’enjeu est peut-être moins de trancher immédiatement « pour » ou « contre » que de consolider les connaissances disponibles. Dépassionner le débat, mieux informer le public, soutenir la recherche et expliciter les incertitudes apparaissent comme des conditions essentielles pour orienter les décisions futures en matière de santé publique.
Dans un domaine marqué par la rapidité des innovations et l’ampleur des enjeux éthiques, la qualité des données scientifiques doit jouer un rôle déterminant dans la manière dont notre société définit et définira les choix collectifs à venir.
Marjolaine Willems est membre de la Société Française de Diagnostic Préimplantatoire (SFDPI). Elle a reçu des financements de l'Agence de Biomédecine.
Valérie Depadt ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
29.04.2026 à 16:29
Annabelle Littoz-Monnet, Professor in International Relations, Graduate Institute – Institut de hautes études internationales et du développement (IHEID)
Over the past two decades, global health has undergone a profound transformation. As public funding for international health and development has become increasingly unpredictable, private philanthropy has largely stepped in to fund global programmes.
It is well known that large foundations, such as the Gates Foundation, Bloomberg Philanthropies, or the Chan Zuckerberg Initiative, to list a few, now largely contribute to the budgets of the World Health Organization (WHO), a number of public-private partnerships, or initiate private initiatives.
What is less visible though is the way philanthropic organisations are increasingly producing the data, research, and knowledge infrastructures through which global health problems are known, prioritised and eventually governed. This shift is often presented as pragmatic, in the face of constrained budgets and an urgent global health crisis. Yet the expanding epistemic presence of philanthropic actors in global health is interrogating, when it shapes the very frameworks though which health issues are understood.
Philanthropic foundations have, in recent years, widely invested in the production of metrics on the “burden” of specific health conditions and the “costs” and “returns” of given health interventions.
These metrics, while necessary, do not only describe reality, but define what counts as a health problem and what kinds of interventions are deemed valuable.
In 2007, the Gates Foundation (formerly known as the Bill & Melinda Gates Foundation) created the Institute of Health Metrics and Evaluation (IHME) to provide “timely, relevant, and scientifically valid evidence to improve health policy and practice” (IHME website).
Since its establishment, the IHME’s has been calculating the so-called Global Burden of Disease (GBD) metrics.
The GBD is the largest-scale project ever set up aimed at measuring morbidity and mortality rates throughout the globe using the metric of DALYs (Disability Adjusted Life Years).
The IHME, which has benefited from generous funding from the Gates Foundation, produces profuse metrics and estimates, calculations, and projections, which nowadays deeply shape the way health problems are being known, compared, and governed.
Although the WHO initially attempted to equal the IHME as a provider of health metrics, the IHME has now reached a position of dominance in global health. The WHO itself now increasingly relies on those numbers for its own sense-making and agenda-setting exercises.
Other “data” initiatives have since then further stabilised the strong presence of philanthropists in global health. In 2015, Bloomberg Philanthropies, for instance, launched its own Data for Health initiative, also co-funded with the Australian government and the Gates Foundation, to “strengthen and standardise birth and death records and to better inform policymaking and improve public health outcomes”.
Vital Strategies, which describes itself as a global health non-profit organisation, entirely funded by Bloomberg Philanthropies, acts as the implementing partner of Data for Health. In that capacity, Vital Strategies supports the WHO in its risk monitoring work. As their resources often surpass those of the WHO, philanthropists’ data centers have come to sit at the core of global infrastructures of quantification, providing data and metrics to the WHO and supporting it in its own monitoring work.
It is on the basis of those estimates that philanthropic organisations themselves and global health actors at large produce calculations to identify which health interventions could “save the most lives” and be most cost-effective. Interventions considered to be “best buys” and funding priorities have, thus, been identified on the basis of such metrics.
GBD results have highlighted that diseases like malaria, HIV, and later non-communicable diseases (NCDs) account for a massive “burden” of DALYS.
Such numbers have helped, for instance, scale-up interventions for malaria and HIV treatment. The distribution of hundreds of millions of insecticide-treated nets has become a flagship intervention to solve malaria, with quantifiable impact, supported by the Gates Foundation but also global health actors at large. As philanthropic foundations increasingly partner with the WHO and other global health actors, they can, indeed, effectively translate this evidence in identifiable targets which all global health actors try to reach.
While supporting such interventions is in itself laudable, what is questioning is that this calculative logic introduced a particular way of valuing health interventions, toward an approach in which ‘results’ must be continuously and quantitatively evidenced. This logic has favoured, first, a move toward population-based interventions, which alone can be shown to be producing significant and measurable results. This approach implies that problems are seen mainly in terms of their magnitude and that interventions need to have “scalability” and “reach population impact”. Such interventions enable funders to calculate impact and returns on investment in a standardised way.
Second, this approach also favours highly technical interventions, rather than complex, structural interventions, as it is easier to produce evidence on their impact and the economic returns they generate.
With regard to the treatment of high blood pressure, for instance, anti-hypertensive therapy has been privileged. While philanthropists and the WHO also promote interventions that target salt intake and trans-fat in food, these tend to be less central and fashioned by philanthropists as more complex, because population-based impact measurements are unavailable. The identification of hypertensive therapy as a most effective intervention was largely identified through the funding of modelling scenarios and projections by Bloomberg Philanthropies, which has largely invested in the field to find out which hypothetical interventions would bring the best returns.
The involvement of philanthropists has therefore contributed to reinforcing a solutionist approach to health, where “quick fixes” are favoured, while factors relating to socioeconomic and environmental conditions problems are too often ignored.
Understanding this shift is crucial. It reveals that as private resources are called in to fill existing funding gaps, such a move is not neutral but deeply political.
Although the prevention of diseases is in itself a laudable objective for improving public health, what is interrogating is how the knowledge produced by these philanthropic actors, largely rooted in for-profit strategies and logics, is instrumental in making health conditions known, treated, and governed.
A weekly e-mail in English featuring expertise from scholars and researchers. It provides an introduction to the diversity of research coming out of the continent and considers some of the key issues facing European countries. Get the newsletter!
Annabelle Littoz-Monnet a reçu des financements du Fonds National Suisse de la recherche Scientifique (FNS).
29.04.2026 à 09:31
Benoit Ballester, Chercheur en Bioinformatique à l’Inserm, Unité Inserm 1090 TAGC, Théories et Approches de la Complexité Génomique, Aix-Marseille Université, Marseille., Aix-Marseille Université (AMU)
Pendant longtemps, nous avons appris à lire le génome en séparant deux mondes. D’un côté, les gènes, ces portions d’ADN qui contiennent les instructions pour fabriquer les protéines. À l’intérieur de ces gènes se trouvent les exons, les segments qui servent directement à produire l’ARN puis les protéines. De l’autre côté, l’ADN régulateur, souvent situé dans les régions dites non codantes, qui commande où, quand et à quel niveau les gènes s’expriment. Cette frontière a été très utile. Mais elle est plus poreuse qu’on ne le pensait.
Dans l’étude que nous venons de publier dans Nature Communications, nous montrons que des milliers d’exons, parmi les quelque 200 000 que compte le génome humain, ne servent pas seulement à coder des protéines. Une partie d’entre eux agissent aussi comme des régulateurs, c’est-à-dire des séquences capables de stimuler l’expression des gènes. Autrement dit, une même portion d’ADN peut porter deux messages à la fois : l’un pour la protéine, l’autre pour la régulation.
Cette idée existait déjà à travers quelques exemples isolés, mais notre travail en propose pour la première fois une vue systématique, à grande échelle, et dans plusieurs espèces, de l’humain à la souris, en passant par la drosophile et même une plante, Arabidopsis thaliana.
Ce phénomène n’était pas totalement inconnu. Depuis les années 1990, il était décrit dans la littérature scientifique, au fil de cas particuliers ou d’analyses plus larges, sans vraiment qu’on en saisisse l’ampleur.
Pour y répondre, nous avons combiné plusieurs approches à grande échelle, exploitant de très grands volumes de données biologiques issues de travaux antérieurs. Nous avons d’abord analysé plus de 20 000 cartes montrant les endroits du génome où se fixent des facteurs de transcription, ces protéines qui contrôlent l’activité des gènes, afin de repérer les exons qui ressemblent à de véritables régions régulatrices.
Nous avons ensuite cherché d’autres indices montrant que ces exons pouvaient vraiment jouer un rôle régulateur. Nous avons notamment vérifié s’ils se trouvent dans les régions de l’ADN les plus accessibles, condition nécessaire pour que les gènes puissent être activés, et s’ils sont capables d’augmenter l’expression d’un gène dans des tests fonctionnels. Nous avons aussi bloqué certaines de ces séquences dans des cellules afin de voir comment leur absence modifiait l’activité des gènes.
Au final, nous avons identifié plus de 10 000 exons candidats chez l’humain, avec des signatures comparables chez les autres espèces étudiées. Cela montre que cette double fonction n’est pas une exception, mais un phénomène largement répandu dans le vivant.
Cette découverte change d’abord notre vision de la régulation des gènes. Les séquences activatrices étaient surtout recherchées dans l’ADN non codant qui correspond à 98 % de notre ADN. Nous montrons qu’une partie de cette régulation est aussi inscrite au cœur même des régions codantes. Les exons ne sont donc pas seulement des segments qui produisent des protéines : certains participent aussi au pilotage de l’expression des gènes, parfois pour leur propre gène, parfois pour d’autres gènes à distance.
L’enjeu est aussi médical. En génétique, on accorde beaucoup d’attention aux mutations qui modifient la protéine. Mais les mutations dites synonymes, souvent qualifiées de silencieuses, sont généralement moins regardées. En effet, le code génétique est lu par groupes de trois lettres, appelés codons, et plusieurs codons différents peuvent correspondre au même acide aminé. Autrement dit, une mutation peut modifier la séquence d’ADN sans changer la protéine produite. Or, si un exon est aussi un régulateur, une mutation synonyme peut malgré tout perturber un signal régulateur sans altérer directement la protéine.
Dans notre étude, nous montrons par des tests fonctionnels que certaines de ces variations modifient bien l’activité régulatrice de l’exon. Dans des données issues de tumeurs, nous observons aussi que des mutations situées dans ces exons sont associées à des changements d’expression de gènes cibles, y compris pour des mutations synonymes.
Nous n’en sommes probablement qu’au début. Les 10 000 exons identifiés chez l’humain constituent un atlas, mais pas encore une carte complète de tous les contextes biologiques où ces séquences agissent. La suite consiste donc à en tester beaucoup plus, dans davantage de types cellulaires, de tissus et d’espèces, afin de comprendre quand ces régulateurs exoniques sont actifs, quels gènes ils contrôlent et comment ils ont émergé au cours de l’évolution.
Il faudra aussi revoir à grande échelle notre manière d’interpréter les variants situés dans les exons. Jusqu’ici, beaucoup d’analyses demandaient surtout : cette mutation change-t-elle la protéine ? Il faut désormais poser une seconde question : change-t-elle aussi la régulation du gène ? Cette lecture à double entrée pourrait affiner l’interprétation de variants encore mal compris, notamment en cancérologie et en génétique humaine.
Ce travail a été soutenu par le MESR, INSERM, IFB, ANR.