LePartisan.info À propos Podcasts Fil web Écologie Blogs REVUES Médias
Souscrire à ce flux
L’expertise universitaire, l’exigence journalistique

ACCÈS LIBRE UNE Politique International Environnement Technologies Culture

▸ les 50 dernières parutions

02.04.2025 à 12:21

Conversation avec Alain Aspect : des doutes d’Einstein aux GAFAM, où s’arrêtera la physique quantique ?

Alain Aspect, Professeur (chaire Augustin Fresnel) à l'Institut d'Optique Graduate School, Université Paris-Saclay

Alain Aspect, Prix Nobel de physique 2022, revient sur quelques étapes marquantes de sa carrière, sur les limites du monde quantique et sur l’essor des technologies quantiques aujourd’hui.
Texte intégral (5304 mots)

Alain Aspect est spécialiste de physique quantique. En 2022, il a obtenu le prix Nobel de physique pour ses travaux sur le phénomène d’« intrication quantique », qui est au cœur de nombreuses technologies quantiques de nos jours.

Il a aussi plus largement contribué au domaine, souvent en explorant d’autres situations où les prédictions de la physique quantique sont très éloignées de notre intuition du monde physique. À cause de cette étrangeté, la physique quantique est souvent considérée comme inaccessible.

Dans cet entretien, sans prétendre tout expliquer de la mécanique quantique, Elsa Couderc et Benoît Tonson, chefs de rubrique Sciences et Technologies, espéraient transmettre ce qui fait le sel de la physique quantique et qui attise les passions encore aujourd’hui. Alain Aspect a bien voulu se prêter au jeu et revenir avec eux sur quelques étapes marquantes de sa carrière, les limites du monde quantique et l’essor des technologies quantiques aujourd’hui, entre recherche publique et recherche industrielle.


Tous les quinze jours, des grands noms, de nouvelles voix, des sujets inédits pour décrypter l’actualité scientifique et mieux comprendre le monde. Abonnez-vous gratuitement dès aujourd’hui !


The Conversation : Pour aborder les travaux qui vous ont valu le prix Nobel, il faut revenir un peu en arrière, aux débuts de la théorie quantique. En effet, au tout début du XXe siècle, deux pères fondateurs de la physique quantique, Albert Einstein et Nils Bohr, s’écharpaient sur l’interprétation de la nouvelle théorie. Un des points de désaccord était lié au phénomène d’« intrication quantique ». L’intrication quantique, c’est le fait que deux particules séparées dans l’espace partagent des propriétés — à un point tel que l’on ne peut pas décrire complètement l’une sans décrire l’autre : il faut les décrire comme un tout. Einstein avait un problème avec cette idée, car cela signifiait pour lui que deux particules intriquées pourraient échanger de l’information instantanément sur de très grandes distances, c’est-à-dire plus rapidement que la vitesse de la lumière.

Avec vos expériences, vous avez montré qu’Einstein avait tort de ne pas admettre cette idée — ce que dit bien le titre de votre récent livre, paru chez Odile Jacob, Si Einstein avait su. Vous avez réalisé ces travaux à la fin des années 1970 et au début des années 1980, mais votre passion pour le sujet reste intacte. Pouvez-vous nous expliquer pourquoi ?

Alain Aspect : Cette expérience m’a passionné parce qu’elle met vraiment en jeu la conception du monde d’Einstein.

Pour compléter le cours de l’histoire que vous soulignez, entre le débat Einstein-Bohr et mes travaux, il y a eu, en 1964, un physicien appelé John Bell. Bell a écrit des équations qui formalisent le désaccord historique entre Einstein et Bohr. À la suite des travaux de John Bell, John Clauser puis moi, puis d’autres encore, avons travaillé expérimentalement sur leur désaccord. J’ai eu l’honneur de montrer qu’Einstein avait tort dans une certaine mesure, mais j’ai mis ainsi en relief son immense mérite d’avoir mis le doigt sur une propriété extraordinaire de la physique quantique, l’intrication, dont les gens n’avaient probablement pas réalisé toute l’importance auparavant.

Mais j’ai beau avoir démontré qu’Einstein avait eu tort sur un sujet bien particulier, il reste pour moi un héros absolu ! Je l’admire énormément pour ses contributions à la physique quantique entre 1900 et 1925 et pour son article de 1935. Il faut ajouter que la clarté de tout ce qu’il a écrit est incroyable. John Bell l’avait aussi remarqué et avait résumé les choses ainsi :

« Bohr était incohérent, peu clair, obscur à dessein, mais il avait raison. Einstein était cohérent, clair, terre-à-terre, mais il avait tort. (Bohr was inconsistent, unclear, willfully obscure, and right. Einstein was consistent, clear, down-to-earth, and wrong). » Propos de John Bell, rapportés par Graham Farmelo, le 11 juin 2010, dans le New York Times.

La physique quantique expliquée simplement par Alain Aspect, prix Nobel de physique.

Vous avez fait d’autres travaux importants par la suite. Est-ce que vous pouvez nous parler de vos préférés ?

A. A. : D’une part, à la fin des années 1980, j’ai travaillé avec Claude Cohen-Tannoudji au développement d’une méthode pour refroidir les atomes — qui est sa spécialité.

Comme la température est associée à la vitesse d’agitation des atomes, pour les refroidir, il faut en fait les ralentir. Notre méthode s’appelle le refroidissement « en dessous du recul du photon » parce qu’on a réussi à ralentir l’agitation thermique par de toutes petites quantités — plus petites que ce que l’on croyait possible avec les lois de la physique quantique, de l’ordre du milliardième de degré. Ainsi je suis heureux et fier d’avoir un peu contribué au prix Nobel de Claude Cohen-Tannoudji, comme mes amis Jean Dalibard et Christophe Salomon en ce qui concerne un autre volet de son travail.

Une autre première mondiale me tient à cœur. C’est un sujet dont nous avons eu l’idée avec mon collaborateur Philippe Bouyer, en sortant d’une conférence au début des années 2000. Les chercheurs en physique de la matière condensée cherchaient depuis la fin des années 1950 à observer directement un phénomène appelé « localisation d’Anderson », qui concerne des électrons dans un matériau désordonné. Le conférencier avait dit quelque chose du style « Il serait intéressant de mettre des atomes dans un milieu désordonné » (un milieu désordonné est un endroit où règne le désordre, par exemple avec des obstacles irréguliers). Avec Philippe, on s’est regardés dans la voiture et on s’est dit : « Cette expérience, que nous avons développée au laboratoire, nous pourrions la modifier pour essayer d’observer la localisation d’Anderson des atomes dans un désordre optique. » En effet, le but du groupe de recherche d’optique atomique, que j’ai monté à l’Institut d’optique, est de faire avec des atomes ce que l’on sait faire avec les photons ou les électrons. Par exemple, le groupe — dont je ne fais plus partie bien sûr, je suis à la retraite — essaye aujourd’hui de refaire mon expérience sur l’intrication quantique avec des atomes.

Pour revenir à la localisation d’Anderson, grâce au potentiel que nous créons avec des lasers, nous avons réussi à coincer des atomes ultrafroids (un milliardième de degré) dans un paysage désordonné, ce qui nous a permis d’observer directement la localisation d’Anderson. Nous avons aussi pu photographier une « fonction d’onde atomique », c’est-à-dire la « forme » d’un atome bloqué dans notre structure de lasers. Cet article est très cité par la communauté de la matière condensée qui s’intéresse à ce sujet — ils ont été tellement étonnés de voir directement une fonction d’onde photographiée ! La localisation d’Anderson est un phénomène quantique très subtil, et je suis particulièrement fier de notre travail sur ce sujet.

Vous avez beaucoup travaillé sur les propriétés de particules individuelles, sur le refroidissement par exemple, ou celles de duos de particules pour l’intrication. Que se passe-t-il quand il y a de nombreuses particules ? Plus spécifiquement, pourquoi les lois de la physique ne semblent-elles pas les mêmes à petite et grande échelle, alors que les grandes structures sont constituées de petites particules ?

A. A. : Je vais vous donner la réponse standard à cette question — mais je dois préciser qu’à mon avis, cette réponse standard ne fait que reculer le problème d’un cran.

Voici la réponse standard : il est clair que, quand on a beaucoup de particules, on n’observe plus les propriétés quantiques. Sinon, on pourrait observer le fameux chat de Schrödinger, qui est à la fois vivant et mort — et on ne l’observe pas. On dit que c’est à cause de la « décohérence ».

La décohérence, c’est le fait que quand des objets quantiques sont en interaction avec le monde extérieur, leurs propriétés quantiques disparaissent plus ou moins vite, d’une façon plus ou moins nette, mais de façon inévitable. Une partie de l’information quantique va en quelque sorte se diluer dans le monde extérieur, et donc les particules n’ont plus toutes leurs caractéristiques quantiques. Or, on peut montrer théoriquement que plus vous avez un grand nombre de particules, plus il faut que les perturbations de l’extérieur soient petites pour conserver les caractéristiques quantiques. En d’autres termes, pour pouvoir observer des propriétés quantiques avec un grand nombre de particules, il faut donc les isoler davantage du monde extérieur.

C’est l’objectif de tous les gens qui essayent aujourd’hui de construire un ordinateur quantique, dans lequel il faut avoir des centaines, des milliers, des dizaines de milliers de ce que l’on appelle des « bits quantiques ». Ce sont des particules quantiques que l’on arrive à intriquer sans qu’elles interagissent avec le monde extérieur.

Pour faire cet ordinateur quantique, est-ce que la difficulté est purement technologique, celle d’isoler davantage du monde extérieur, ou bien est-ce qu’il y a une limite intrinsèque, un nombre de particules que l’on ne peut plus intriquer ? Où est la limite entre le monde quantique et le monde classique ?

A. A. : Aujourd’hui, on a réussi à observer le phénomène d’intrication avec 1 000 particules, peut-être quelques milliers. Mais, de l’autre côté, dans n’importe quel objet à notre échelle, il y a 1023 particules (1 suivi de 23 zéros, soit cent mille milliards de milliards). Il y a une vingtaine d’ordres de grandeur entre les deux échelles, c’est un intervalle absolument gigantesque. D’où la question : et s’il y avait une limite absolue entre les deux mondes ? Ce serait une nouvelle loi de la physique, mais pour l’instant, on ne connaît pas cette limite.

Découvrir une telle loi serait formidable, même si, selon où cette limite se place, elle pourrait balayer nos espoirs de développer des ordinateurs quantiques.

Il se trouve que je suis cofondateur d’une start-up française, Pasqal, qui essaye de construire un ordinateur quantique qui soit une machine facile à utiliser pour les utilisateurs. Du coup, j’ai très envie que l’ordinateur quantique tienne ses promesses. Mais, d’un autre côté, si, en essayant de développer cet ordinateur quantique, on trouve qu’il y a une limite fondamentale entre monde quantique et monde macroscopique, je serais très heureux en tant que physicien ! En fait, je pense que je serais gagnant dans les deux cas : soit l’ordinateur quantique marche, et je suis gagnant parce qu’il y a une application à des phénomènes que j’ai étudiés il y a longtemps ; soit on aura trouvé une nouvelle loi de la physique, et ce serait absolument extraordinaire.

Est-ce que vous pouvez nous en dire un petit peu plus sur cette idée de limite fondamentale entre monde quantique et monde classique ?

A. A. : Non, pour l’instant, on n’en sait pas plus que ce que je vous ai dit, c’est-à-dire que la décohérence est le fait qu’il y a une partie de l’« information quantique » qui fuite vers l’extérieur, et que cela détruit les superpositions quantiques. Et que plus le nombre de particules intriquées est grand et plus la décohérence va être nocive — donc il faut isoler les systèmes de plus en plus si on veut qu’ils restent quantiques.

Cependant, il y aurait tout de même peut-être une échappatoire à la décohérence, dont rêvent les physiciens.

En effet, on décrit les particules quantiques grâce à leur « état » — c’est-à-dire ce qui décrit tous les aspects de la particule. Quand vous avez de nombreuses particules intriquées, vous imaginez bien que décrire l’ensemble de particules peut devenir un peu long. Pour un grand nombre de particules, l’« espace des états », c’est-à-dire l’ensemble de toutes les possibilités, est d’une taille absolument extraordinaire. Il suffit d’avoir 200 ou 300 bits quantiques intriqués pour que le nombre d’états possibles soit plus grand que le nombre de particules dans l’univers. Dans cet espace des états, on n’est pas à l’abri d’un coup de chance, comme on dit, qui nous fournirait un endroit protégé de la décohérence — un petit sous-ensemble de l’espace des états qui ne souffrirait pas de la décohérence. Si cet endroit existe, quelques états particuliers dans l’immense espace des états ne seraient pas détruits par les interactions avec le monde extérieur.

Il y a des efforts sérieux en ce sens. Quand vous entendez parler de bit quantique « topologique » par exemple, c’est bien de cela qu’il s’agit. Mais jusqu’à présent, on tâtonne encore dans ce domaine.

Pourquoi parlez-vous de la décohérence comme de quelque chose qui cache le problème, qui le repousse d’un cran ?

A. A. : En physique, il y a des choses que l’on peut expliquer rigoureusement à partir des lois fondamentales. Mais il y en a d’autres, qui sont absolument fonctionnelles – on sait qu’elles décrivent correctement les phénomènes que l’on observe – mais qu'on ne sait pas encore les démontrer à partir des premiers principes. Il faut les ajouter « à la main », comme on dit. C’est le cas de la décohérence, mais c’est aussi le cas du second principe de la thermodynamique. La décohérence est une théorie fonctionnelle pour expliquer la perte des caractéristiques quantiques, mais on ne sait pas encore complètement la démontrer en toute généralité.

Quelles sont les frontières de la recherche fondamentale en mécanique quantique aujourd’hui, les grandes questions que se posent les chercheuses et les chercheurs ?

A. A. : Je vais d’abord préciser que cela fait douze ans que je ne dirige plus de groupe de recherche… Je m’intéresse à ces questionnements, mais je ne contribue plus à les formuler.

Cela étant, il me semble qu’il faut distinguer entre les problèmes à très long terme et ceux à plus court terme. Dans les problèmes à très long terme, on sait par exemple qu’il y a un problème entre la relativité générale et la physique quantique. C’est un problème de théoriciens, bien en dehors de mon domaine de compétences.

En revanche, dans les perspectives à plus court terme, et que je comprends, il y a les gens qui essayent d’observer le régime quantique avec des objets « macroscopiques », en l’occurrence une membrane extrêmement tendue, qui vibre donc à une fréquence très élevée, et sur laquelle on commence à observer la quantification du mouvement oscillatoire. On touche là au problème que l’on a évoqué précédemment, celui de la limite entre monde quantique et monde macroscopique, puisqu’on commence à pouvoir étudier un objet qui est de dimension macroscopique et qui pourtant présente des phénomènes quantiques.

C’est une voie de recherche qui a l’avantage de ne pas être à l’échelle de décennies, mais plutôt à l’échelle des années, et qui peut nous aider à mieux comprendre cette limite entre le monde quantique et le monde classique. Pour cela, plusieurs systèmes sont envisagés, pas seulement les membranes, également des micromiroirs qui interagissent avec des photons.

Quelle taille font ces membranes ?

A. A. : Ces membranes peuvent être par exemple faites de matériaux 2D, un peu comme le graphène (réseau bidimensionnel d’atomes de carbone) : elles peuvent faire quelques millimètres de diamètre quand on les regarde par le dessus, mais seulement un atome d’épaisseur.

Ceci étant, ce n’est pas tant leur taille, mais leur fréquence de vibration qui est importante ici — c’est ça qui leur permet d’exhiber des propriétés quantiques. Les fréquences de vibration sont tellement élevées, comme quand on tend une corde de guitare, que l’on atteint des gammes de millions de hertz, soit des millions de vibrations par seconde. Quand le « quantum de vibration » (défini par Einstein en 1905 comme la fréquence multipliée par la constante de Planck) devient comparable à l’énergie thermique typique, c’est-à-dire quand la membrane vibre assez haut, l’agitation thermique vous gêne moins et vous pouvez observer des effets quantiques, à condition de refroidir suffisamment le système.

Y a-t-il d’autres avancées que vous suivez particulièrement et qui repoussent les limites fondamentales de la physique quantique ?

A. A. : Il faut bien sûr parler de tous ces efforts pour réaliser l’ordinateur quantique, qui suivent des voies toutes très intéressantes d’un point de vue de la physique fondamentale.

Il y a les voies qui utilisent des atomes neutres, ou des ions, ou des photons, pour fabriquer des bits quantiques. Ce sont des objets quantiques qui nous sont donnés par la nature. Par ailleurs, en matière condensée, que je connais personnellement moins bien, il y a des bits quantiques artificiels, basés sur des circuits supraconducteurs. Les matériaux supraconducteurs sont des matériaux bien particuliers, dans lesquels l’électricité peut se propager sans résistance – encore un phénomène quantique. Certains circuits, conçus spécialement, présentent des états quantiques spécifiques que l’on peut exploiter comme bits quantiques. À l’heure actuelle, on ne sait rendre des matériaux supraconducteurs qu’à très basse température.

L’avantage des objets quantiques naturels comme les photons, les ions et les atomes, c’est qu’ils sont parfaits par définition : tous les atomes de rubidium sont les mêmes, tous les photons de même fréquence sont les mêmes. Pour un expérimentateur, c’est une bénédiction.

Dans le domaine de la matière condensée, au contraire, les scientifiques fabriquent des circuits quantiques de façon artificielle, avec des supraconducteurs. Il faut les réaliser suffisamment bien pour que les circuits soient vraiment quantiques, tous identiques et avec les mêmes performances.

Et, en fait, quand on regarde l’histoire de la physique, on s’aperçoit qu’il y a des phénomènes qui sont démontrés avec des objets quantiques naturels. À partir du moment où on trouve que le phénomène est suffisamment intéressant, en particulier pour des applications, les ingénieurs arrivent progressivement à développer des systèmes artificiels qui permettent de reproduire le phénomène d’une façon beaucoup plus simple ou contrôlée. C’est pour cela je trouve que c’est intéressant de commencer par essayer l’ordinateur quantique avec des objets quantiques naturels, comme le fait Antoine Browaeys ici, à l’Institut d’optique, ou la start-up Quandela avec des photons.

On observe un fort engouement pour les technologies quantiques, dont certaines sont déjà opérationnelles, par exemple les gravimètres quantiques ou les simulateurs quantiques : quels sont les « avantages quantiques » déjà démontrés par les technologies opérationnelles aujourd’hui ?

A. A. : En ce qui concerne les gravimètres, c’est-à-dire les appareils qui mesurent la gravitation, la performance des gravimètres quantiques n’est pas meilleure que le meilleur des gravimètres classiques… sauf qu’au lieu de peser une tonne et d’avoir besoin de le déplacer avec une grue là où vous voulez aller mesurer la gravitation, c’est un appareil qui fait quelques dizaines de kilos et on peut le déplacer facilement sur les flancs d’un volcan pour savoir si le magma a des mouvements soudains, ce qui peut être un signe précurseur d’éruption. Dans ce cas-là, les performances ultimes des gravimètres quantiques ne sont pas meilleures que les performances ultimes des meilleurs systèmes classiques, mais la miniaturisation apporte des avantages certains.

Et pour l’ordinateur quantique ?

A. A. : En ce qui concerne l’ordinateur quantique, il faut d’abord définir le terme « avantage quantique ». Lorsqu’on vous annonce un avantage quantique obtenu en résolvant un problème que personne ne s’était jamais posé, on peut douter de l’intérêt. Par exemple, si vous faites passer un faisceau laser à travers un verre de lait, la figure lumineuse qui est derrière est une figure extrêmement compliquée à calculer. Ce calcul prendrait des années avec un ordinateur classique. Est-ce que je vais dire pour autant que mon verre de lait est un calculateur extraordinaire parce qu’il me donne le résultat d’un calcul infaisable ? Bien sûr que non. Certaines annonces d’avantage quantique relèvent d’une présentation analogue.

Par contre, ici à l’Institut d’optique, Antoine Browaeys a un simulateur quantique qui a répondu à un problème posé depuis longtemps : un problème de physiciens appelé le « problème d’Ising ». Il s’agit de trouver la configuration d’énergie minimale d’un ensemble de particules disposées régulièrement sur un réseau. Avec les ordinateurs classiques, on peut répondre au problème avec 80 particules maximum, je dirais. Tandis qu’avec son simulateur quantique, Antoine Browaeys a résolu le problème avec 300 particules. Il a incontestablement l’« avantage quantique ».

Il faut bien voir cependant que les physiciens qui étudiaient le problème avec des ordinateurs classiques ont été stimulés ! Ils ont alors développé des approximations qui permettent d’approximer le résultat à 300 particules, mais ils n’étaient pas certains que leurs approximations étaient correctes. Quant à Browaeys, il avait trouvé un résultat, mais il n’avait rien pour le vérifier. Quand ils ont constaté qu’ils ont trouvé la même chose, ils étaient tous contents. C’est une compétition saine — c’est l’essence de la méthode scientifique, la comparaison de résultats obtenus par diverses méthodes.

J’en profite pour dire qu’il y a une deuxième acception du terme « avantage quantique ». Elle se situe sur le plan énergétique, c’est-à-dire qu’on a de bonnes raisons de penser qu’on pourra faire, avec des ordinateurs quantiques, des calculs accessibles aux ordinateurs classiques, mais en dépensant moins d’énergie. Dans le contexte actuel de crise de l’énergie, c’est un avantage quantique qui mérite d’être creusé. On sait ce qu’il faudrait faire en principe pour exploiter cet avantage énergétique : il faudrait augmenter la cadence des calculs : passer d’une opération toutes les secondes ou dixièmes de seconde à mille par seconde. C’est vraiment un problème technologique qui paraît surmontable.

En somme, l’avantage quantique, ça peut être soit la possibilité de faire des calculs inaccessibles aux ordinateurs classiques, soit la possibilité de répondre à des problèmes auxquels on pourrait répondre avec un ordinateur classique, mais en dépensant moins d’énergie.

Certaines technologies quantiques ne sont pas encore suffisamment matures pour être largement utilisables — par exemple l’ordinateur quantique. Pourtant, de grandes entreprises annoncent ces derniers mois des avancées notables : Google en décembre 2024 et Amazon Web Services en février 2025 sur les codes correcteurs d’erreurs, Microsoft en février aussi avec des qubits « topologiques ». Quel regard portez-vous sur cette arrivée des géants du numérique dans le domaine ?

A. A. : L’arrivée des géants du numérique, c’est tout simplement parce qu’ils ont énormément d’argent et qu’ils veulent ne pas rater une éventuelle révolution. Comme nous tous, ils ne savent pas si la révolution de l’ordinateur quantique aura lieu ou non. Mais si elle a lieu, ils veulent être dans la course.

En ce qui concerne les annonces, je veux être très clair en ce qui concerne celle de Microsoft au sujet des bits quantiques « topologiques ». Cette annonce est faite par un communiqué de presse des services de communication de Microsoft, et elle n’est vraiment pas étayée par l’article publié par les chercheurs de Microsoft dans Nature, qui est une revue scientifique avec évaluation par les pairs — c’est-à-dire des chercheurs qui savent de quoi il en retourne et qui ne laissent pas publier des affirmations non justifiées.

Le communiqué de presse prétend qu’ils ont observé les fameux « fermions de Majorana » — un candidat au poste de bit quantique « topologique », c’est-à-dire dans le fameux sous-ensemble de l’espace des états qui serait protégé de la décohérence.

De leur côté, les chercheurs, dans l’article, disent qu’ils ont observé un phénomène qui pourrait — qui pourrait ! — être interprété, peut-être, par des fermions de Majorana. C’est extrêmement différent. De plus, le communiqué de presse évoque déjà le fait qu’ils vont avoir une puce dans laquelle il y aura un million de fermions de Majorana, alors qu’on n’est même pas sûr d’en avoir un seul. Je vous laisse apprécier !

Cette implication de la recherche privée risque-t-elle de déplacer l’engouement de la recherche publique vers d’autres sujets ? Quel regard portez-vous sur l’équilibre entre recherche publique et recherche privée ?

A. A. : Il y a des choses qui sont à la mode à un moment, puis qu’on oublie. Mais c’est normal, car il y a une forme de sélection naturelle des idées dans la recherche. Par exemple, en ce qui concerne les bits quantiques, cela fait quinze ans que la Commission européenne me demande sur quel type de bit quantique focaliser les efforts — on les a répertoriés tout à l’heure : photons, atomes, ions, circuits supraconducteurs, silicium… Je leur réponds, encore aujourd’hui, que je suis incapable de le leur dire. C’est le rôle de la puissance publique de financer le long terme.

Il faut laisser les chercheurs avancer et, à un moment donné, il y aura probablement une ou deux pistes qui se révéleront meilleures que les autres. Et bien sûr, on ralentira la recherche sur les autres. C’est ça, la sélection naturelle des idées.

Les acteurs privés ont d’ailleurs tous misé sur des candidats différents pour leurs bits quantiques…

A. A. : C’est vrai, mais une des caractéristiques du privé, c’est d’être très réactif. Donc le jour où ils réaliseront que leur choix de bit quantique n’est pas le bon, ils vont instantanément arrêter et passer à un choix qui s’est révélé meilleur. D’ailleurs, sur le plan de l’ingénierie, je dois dire que ce qui se fait dans le privé est tout à fait remarquable du point de vue de la réactivité. La recherche académique est meilleure pour laisser mûrir les idées, ce qui est une phase indispensable.

Il faut reconnaître que ces acteurs privés mettent beaucoup plus d’argent que le public, en revanche, ils n’ont pas le long terme devant eux. Or, il ne suffit pas de déverser des sommes énormes d’argent pour accélérer la recherche.

La recherche demande aussi une maturation des idées ; et ce n’est pas parce que vous avez dix fois plus d’argent que vous allez dix fois plus vite. Il y a à la fois des évolutions dans les idées et, parfois aussi, des évolutions technologiques inattendues. J’ai pu observer ces effets de maturation et de paliers lors de ma longue expérience d’évaluation des systèmes de recherche en France, en Allemagne et dans d’autres pays.

De ce point de vue, il est primordial que la recherche publique conserve des financements non fléchés, qu’on appelle « blancs ». Je pense qu’il n’est pas illégitime qu’un État qui met beaucoup d’argent dans la recherche signale que, sur tel et tel sujet, il aimerait que les gens travaillent et qu’il mette de l’argent là-dedans. Le point essentiel, c’est de laisser la place à d’authentiques sujets blancs, proposés par les chercheurs alors qu’ils ne figuraient dans aucun programme. C’est grâce à un projet non fléché que nous avons pu observer la localisation d’Anderson, par exemple. On ne peut pas tout prévoir sur le long terme.

Et puis il faut aussi que l’information circule pour que d’autres chercheurs s’emparent des avancées, et puissent les adopter. D’où l’importance des publications, qui sont l’occasion de partager ses résultats avec les autres chercheurs ; et d’où les réserves que l’on doit avoir sur la confidentialité, même s’il est clair que cette confidentialité est nécessaire dans certains domaines spécifiques.

The Conversation

Alain Aspect est co-fondateur de la start-up Pasqal.

02.04.2025 à 09:26

Europeans have more flexible views on how to respond to irregular migrants than policymakers think – new research

Martin Ruhs, Professor of Migration Studies, European University Institute

There is a public preference for some policies that include a pathway to legal status.
Texte intégral (1200 mots)

With an estimated minimum of 2.6 to 3.2 million irregular migrants in Europe and fierce public debates about them, policymakers face the difficult question of how to ensure migrants’ basic rights of protection from exploitation, destitution and ill health while also establishing effective migration controls. However, we know surprisingly little about how Europeans think about this policy dilemma.

In our study, the first of its kind in Europe, we surveyed 20,000 people across Austria, Italy, Poland, Sweden, and the UK to understand their preferences on policies regarding access to healthcare, social welfare and labour protections, as well as the obtainment of regular legal status or “regularisation” for irregular migrants.

The results challenge the idea that public attitudes toward irregular migrants’ rights are simply “for” or “against”. Instead, we find that variations in policy design matter – and when policies include both migration controls and protections for migrants, public support often increases.

Our method

To study public preferences for policies relating to irregular migrants, we conducted a conjoint survey experiment. In it, respondents were presented with different multidimensional “policy packages” that randomly varied in how they regulated opportunities for regularisation, as well as legal rights to access primary health care, financial support in low-income situations, and back pay of withheld wages.

Respondents were shown two policy packages at a time, and then asked to rate and indicate which of the two they preferred. For each respondent, this process was repeated five times. This method allowed us to study how a change in a particular policy feature – e.g., a change in how access to primary healthcare is regulated – affects individuals’ support for the overall policy package.

So, what do Europeans think? Here are some of our key results.

  • People favour selective regularisation

Our results suggest that the public prefers targeted pathways for regularisation for irregular migrants. Across all five countries we analysed, respondents consistently preferred policies that allow irregular migrants to acquire legal status based on certain conditions, including a clean criminal record and a minimum length of stay in the host country. Somewhat surprisingly, there was no consistent preference between a five-year or ten-year minimum residence period.

  • Healthcare gets more support than financial assistance

We found that giving irregular migrants access to healthcare is far less controversial than giving access to financial support for those living on low incomes. This aligns with findings from the US, where such support has remained politically divisive.

  • Some migration controls boost support for access to rights – but not all rights

We also found greater support for irregular migrants receiving health care and back pay for withheld wages when these rights were linked to a migration control measure: obligations for public sector employees to report irregular migrants to authorities.

This suggests, as existing literature highlights, that many people experience an internal conflict between humanitarian concerns and a desire for stricter migration controls.

However, the pattern in our data does not hold for all rights: even when combined with reporting obligations, the provision of cash assistance for irregular migrants still does not generate public support.

  • A preference for essential workers

Not all irregular migrants are viewed equally: our findings show that people are more supportive of rights and regularisation opportunities for migrants who previously worked legally in the host country – especially in essential roles like elder care. This reflects broader research on attitudes toward welfare deservingness, which found that public perception of migrants’ past contributions to society shape views on whether they should get access to rights.

How do attitudes differ across countries?

While there are many similarities in public views on regularisation opportunities and access to rights for irregular migrants across the countries we studied, there are also some notable differences. For example, support for providing primary healthcare varied: respondents in the UK were the least supportive, and respondents in Italy were the most. Similarly, while respondents in most countries opposed the provision of low-income support, Italian respondents were more ambivalent, showing no strong preference for or against this right for irregular migrants.

Overall, respondents in Italy showed the greatest preferences for inclusive policies, including the strongest support for allowing irregular migrants to apply for legal status. While our analysis does not investigate the reasons for this, it may reflect Italy’s history of regularisation programmes in recent decades, which may have made Italian respondents more open to and supportive of such programmes.

Rethinking public attitudes about irregular migrants

Public attitudes matter – they influence which policies are feasible and sustainable over time. Our research shows that EU and UK residents don’t default to blunt and one-sided policies such as blanket opposition to irregular migrants ever gaining legal status. Instead, people are selective, and prefer policies that distinguish between giving irregular migrants different types of rights. People also have specific views about when and why irregular migrants should have access to healthcare, social welfare, labour protections and legal status.

This does not mean that survey respondents wanted to offer unconditional legal status and access to rights to all irregular migrants. Instead, respondents often preferred an approach that combines selective access to rights with enforcement of migration rules. What our study indicates is that the public has more nuanced views on how migration should be managed than policymakers generally give them credit for. This suggests there may be more room for selective and inclusive policymaking than often assumed.


This article is based on a research paper co-authored by Lutz Gschwind (Uppsala University, UU), Martin Ruhs (EUI), Anton Ahlén (UU) and Joakim Palme (UU). The paper is part of the international “PRIME” project that analyses the conditions of irregular migrants in Europe. PRIME is funded by the European Union Horizon Europe programme. Views and opinions expressed, however, are those of the authors only and do not necessarily reflect those of the EU or the European Research Executive Agency. Neither the EU nor the granting authority can be held responsible for them.

The Conversation

The author has received support from the European Union Horizon Europe funding programme for research and innovation (project number 101095113).

01.04.2025 à 16:15

Projet de loi sur l’aide à mourir : peut-on ignorer la question économique ?

Frédéric Bizard, Professeur de macroéconomie, spécialiste des questions de protection sociale et de santé, ESCP Business School

Alors que le système de santé français est en crise, quelles pourraient être les implications du projet de loi sur l’aide à mourir  ? Le point de vue de l’économiste.
Texte intégral (3075 mots)

Dans notre pays marqué par un haut niveau d’inégalités sociales de santé, et alors que le système de santé français est en crise, quelles pourraient être les implications du projet de loi sur l’aide à mourir ? Le point de vue de l’économiste.


Le projet de loi sur l’aide à mourir reviendra au Parlement le 12 mai 2025. Deux propositions de loi distinctes, l’une sur les soins palliatifs et l’autre sur l’aide à mourir devraient alors être examinées et soumises au vote.

En ce qui concerne l’aide à mourir, la version du texte proposée reprend une part substantielle des amendements issus des débats parlementaires de 2024. Si ces derniers ont été jugés constructifs, ils ont curieusement ignoré la question économique de la fin de vie et son impact social.

C’est ce que nous allons aborder ici.

Une intention a priori progressiste

Avant d’entrer dans le vif du sujet, il ne semble pas inutile d’exposer la position personnelle de l’auteur de ces lignes sur ce sujet. La nature du sujet nous amène en effet à préciser d’où nous parlons.

Notre position sur les sujets sociétaux est que tout nouveau droit qui renforce la souveraineté et la liberté de l’individu dans ses choix de vie constitue, a priori, un progrès humain souhaitable.

Comme Rousseau, nous pensons que « l’Homme est né libre et partout il est dans les fers ». Pour cette raison, chaque chaîne que l’on peut briser est, a priori, une avancée salutaire. Par ailleurs, comme Sartre, nous constatons que « l’Homme est condamné à être libre ». Y compris, a priori, à la fin de sa vie.

Une fois cette position personnelle exprimée, il s’agit d’analyser avec la rigueur nécessaire la réalité du progrès humain proposé, en considérant notamment les plus fragiles et l’applicabilité concrète de cette proposition.

Cette analyse implique d’abord d’examiner le contexte actuel de notre protection sociale, ensuite, de mesurer l’influence de la question économique sur la fin de vie et, enfin, de s’interroger sur l’existence d’un cadre éthique solide encadrant l’aide à mourir.

Un ordre des priorités politiques étonnant

L’examen du projet de loi sur l’aide à mourir coïncide, à quelques semaines près, avec le vote d’une loi de financement de la Sécurité sociale 2025 qui n’a pas réussi à garantir la viabilité financière de notre système à moyen terme.

La trajectoire budgétaire des budgets sociaux, votée en février dernier, montre un déficit structurel annuel de 24 milliards d’euros. Si cette trajectoire se poursuit, la dette sociale, qui s’élevait déjà à 150 milliards d’euros fin 2024, subira d’ici à 2028 une hausse de près de 100 milliards d’euros.

Si les Français ne perçoivent pas immédiatement la dette de l’État comme une menace directe pour leur avenir, le principe de réalité économique s’impose : un tel niveau d’endettement social représente une menace existentielle pour le financement solidaire de notre protection sociale, c’est-à-dire la protection à laquelle peut prétendre chaque citoyen face aux principaux risques sociaux.

Parmi les budgets sociaux, le budget des dépenses publiques de santé est, de loin, le plus déficitaire. Il représentera en effet à lui seul 80 % du déficit annuel de la Sécurité sociale d’ici à 2028. Cette situation budgétaire est inédite depuis la création de la Sécurité sociale. Et elle n’est pas soutenable.

À ce jour, le financement de la dette sociale à venir n’est plus garanti, ce qui, sans réforme, remet en cause l’existence même de la Sécurité sociale dans les prochaines années.

Cette situation soulève une question fondamentale sur l’ordre des priorités politiques en matière de droits sociaux : ne faudrait-il pas d’abord sauver notre modèle de protection sociale solidaire, afin d’assurer une couverture à tous les citoyens, avant d’envisager la création d’un nouveau droit d’aide à mourir ?

Inégalités sociales de santé et fin de vie

Au-delà de la survie économique du modèle social, l’amélioration de son efficacité en matière de justice sociale pourrait être jugée prioritaire. Notre pays est marqué par un haut niveau d’inégalités sociales de santé, que la crise profonde actuelle du système ne peut qu’aggraver.

L’écart d’espérance de vie entre les 5 % des hommes les plus aisés et les 5 % les moins aisés atteint 13 ans en France. Par ailleurs, l’espérance de vie en bonne santé à la naissance (qui mesure le nombre d’années qu’une personne peut compter vivre sans souffrir d’incapacité dans les gestes de la vie quotidienne) était en baisse en 2023, à 63,6 ans chez les hommes et 64,2 ans pour les femmes.

Autrement dit, en 2023, à la naissance, les femmes pouvaient espérer vivre 64,2 ans sans incapacité et 77,5 ans sans incapacité forte, contre respectivement 63,6 ans et 73,8 ans pour les hommes.

Soulignons aussi que, depuis 2005, 100 % de la hausse de l’espérance de vie des femmes s’est accompagnée d’années vécues en mauvaise santé en France. Autrement dit, les années d’espérance de vie gagnées sont des années en mauvaise santé.

Si l’espérance de vie sans incapacité à la naissance des hommes a augmenté de 10 mois, celle des femmes a diminué de 4 mois. Ce mauvais résultat est plus marqué dans les classes populaires.

Ces inégalités sociales de santé impliquent que les classes populaires et moyennes auront potentiellement recours à l’aide à mourir plus tôt que les personnes aisées, sans même prendre en compte l’impact possible de la souffrance sociale dans une telle décision.

Prioriser l’aide à mourir plutôt que le rétablissement d’une justice sociale face aux aléas de la vie en matière de santé est d’autant plus surprenant qu’une réforme en ce sens est prête et reconnue en France. Il s’agit d’une refonte du système assise sur trois piliers : une santé globale (maintien en bonne santé et soins), un pilotage des ressources à partir de la demande (et non de l’offre) et une démocratisation de la santé. Ce nouveau modèle est à décliner sur l’organisation des soins, la gouvernance et le financement.

La fin de vie coûte cher

La proximité de la mort constitue un facteur majeur d’augmentation des dépenses de santé.

Aux États-Unis, les 5 % des assurés de Medicare (assurance publique pour les plus de 65 ans) qui décèdent dans l’année représentent entre 25 % et 30 % des dépenses totales de l’assureur, selon les études les plus récentes.

Pourcentage de décès et pourcentage des paiements Medicare dépensés au cours des 12 derniers mois de vie, parmi les bénéficiaires de Medicare âgés de 65 ans et plus, 1978-2006
Pourcentage de décès et pourcentage des paiements Medicare dépensés au cours des 12 derniers mois de vie, parmi les bénéficiaires de Medicare, âgés de 65 ans et plus, 1978-2006. Medicare Continuous History Sample, Fourni par l'auteur

En France, les dépenses publiques de santé liées à la dernière année de vie atteignent, en valeur actualisée pour 2025, environ 31 000 euros par personne décédant dans l’année, soit un total de 20 milliards d’euros par an (ce qui représente 10 % de la dépense publique de consommation de soins et biens médicaux).

À cette somme s’ajoute un reste à charge moyen de l’ordre de 3 100 euros, portant ainsi le coût total à près de 35 000 euros par personne décédant dans l’année.

Si l’on se limite aux dépenses exclusivement liées à la fin de vie, l’estimation actualisée de dépenses publiques s’élève à environ 11 milliards d’euros, soit 17 200 euros par personne.

À ce montant s’ajoute un reste à charge de 1 800 euros (10 % du total), ainsi que des dépenses sociales et d’accompagnement à domicile ou en Ehpad, qui peuvent être particulièrement élevées.

Les dépenses de fin de vie sont surtout de nature « active », c’est-à-dire curative et non palliative, et progressives dans le temps, avec un pic le dernier mois, comme le montre le graphe suivant.

Face à de tels montants, assurer la pérennité du financement des dépenses de santé pour tous est une priorité nationale. Faute d’y parvenir, les inégalités sociales en fin de vie vont exploser.

Un risque de régression sociale face à la mort

Une étude canadienne, portant sur une population étudiée entre 2016 et 2019, a permis de corréler le niveau de revenus des demandeurs d’aide à mourir avec la concrétisation de leur démarche. Ces travaux ont révélé que 58 % des demandes d’euthanasie provenaient de personnes à faibles revenus.

Promulguer un droit à l’aide à mourir dans un contexte où l’accès universel aux soins de fin de vie est menacé représenterait un risque de régression sociale face à la mort. En effet, qui souhaiterait laisser à ses proches le fardeau d’une dette liée à ses derniers jours de sa vie ?

De plus, on peut s’interroger : est-il réellement possible de neutraliser totalement l’impact de la souffrance sociale et la pression sociale de l’entourage, dans certains cas ?

La promesse illusoire des soins palliatifs

Les soins palliatifs ont été intégrés au droit positif par la loi du 9 juin 1999, qui en faisait un objectif premier. La loi Claeys-Leonetti de 2016 a renforcé le droit d’accès à ces soins, visant à répondre à la demande de « mourir dans la dignité » par une meilleure prise en charge de la souffrance et en clarifiant l’usage de la sédation profonde et continue jusqu’au décès.

Pourtant, près de dix ans plus tard, malgré certaines avancées, les pouvoirs publics n’ont toujours pas réussi à garantir une offre suffisante pour répondre aux besoins en soins palliatifs. Sur les 400 000 personnes éligibles aux soins palliatifs (60 % des décès), seuls 50 % y ont accès.

Avec le développement des pathologies chroniques et l’augmentation de la mortalité, les besoins en soins palliatifs devraient concerner 500 000 personnes d’ici à dix ans. En effet, ces besoins représentaient 61 % des décès en 2017, sachant que le nombre de décès approchera les 800 000 à la fin de la décennie 2030. Or, les financements prévus semblent déjà insuffisants, rendant cette promesse législative illusoire et trompeuse.

Dans un contexte de déficit structurel du budget de la santé de plus de 15 milliards d’euros par an, tout engagement de dépenses supplémentaires pérennes pour un nouveau droit immédiat soulève une question cruciale de solidarité intergénérationnelle. Les inégalités sociales observées aujourd’hui risquent de se multiplier demain.

Par ailleurs, les grandes difficultés de recrutement du personnel, la courte durée de vie professionnelle des paramédicaux, la perte de sens du métier de soignant, ne relèvent pas uniquement d’un manque de moyens financiers. Elles sont aussi et avant tout le résultat des défaillances en matière de gouvernance, d’organisation des carrières, de reconnaissance professionnelle et d’autonomie de soignants. Dans ces conditions, toute augmentation budgétaire supplémentaire risque d’être vaine, comparable un arrosage sur du sable.

Seule une réforme globale de notre système de santé rendrait crédible une politique de remise à niveau des soins palliatifs en France.

Fin de vie : quelle place pour l’économiste ?

Plaçons-nous maintenant dans un contexte favorable, en imaginant que la protection sociale de notre pays soit réformée et reconnue comme performante, tant sur le plan social qu’économique. L’économiste a-t-il pour autant son mot à dire sur la fin de vie ? Celle-ci coûte-t-elle trop cher ?

Comme pour le sauvetage de notre système de santé et notre protection sociale en général, la rationalité économique a toute sa place dans le débat. Rappelons que l’économie est avant tout une méthode d’analyse au service des décisions publiques, et pas un objet d’étude en soi.

Dans un pays très endetté, est-il souhaitable de consacrer 10 % des dépenses publiques de santé à la lutte contre la mort, plutôt qu’à l’enfance, à l’éducation ou à la précarité ? Cette question fondamentale, l’économiste peut la poser.

En effet, toutes les valeurs humaines – dont la vie en bonne santé et l’affection de ses proches – peuvent être évaluées en termes monétaires. La vraie question est de savoir quelle somme les individus sont prêts à consacrer pour préserver ces valeurs. Et d’apprécier correctement les choses.

Ainsi, il ne faut pas oublier que la valeur des derniers mois de vie ne se limite pas à des préférences individuelles. Cette valeur est collective, elle inclut le chagrin des proches, et les conséquences en matière de liens sociaux et affectifs. Autant de facteurs qui font que ladite valeur ne peut être résumée par la seule notion de « coûts des soins ».

Les dépenses élevées de soins en fin de vie actuelles étant inférieures aux préférences collectives sur ce sujet, elles sont donc économiquement justifiées. L’économiste ne devrait pas avoir d’objections à ce niveau de dépenses, sauf à chercher à optimiser l’utilisation de ces ressources rares que sont les dépenses publiques de santé.

Une aide à mourir éthique ?

Une autre interrogation surgit, qui dépasse le cadre économique : le choix de l’aide active à mourir peut-il être réellement éthique ? Pour que ce soit le cas, il faudrait garantir un cadre d’éligibilité infaillible, sous contrôle strict et durable. Est-ce un objectif atteignable ? Les débats législatifs de 2024, marqués par de nombreuses tergiversations sur les conditions d’application de la loi, illustrent les grandes difficultés à définir ledit cadre.

L’absence de ce cadre universel rigoureux, qui garantirait que tout risque de dérive dans l’usage de l’aide à mourir sera sous contrôle, suggère que l’aide à mourir éthique n’existe probablement pas. Aucune étude scientifique sérieuse ne permet d’affirmer le contraire, même s’il y a débat entre experts de l’éthique.

Ce premier quart de XXIe siècle nous rappelle que la lutte pour libérer l’être humain de ses entraves reste essentielle. Cependant, le critère ultime d’évaluation du progrès ne devrait-il pas être le bénéfice social réel apporté aux plus fragiles ?

The Conversation

Frédéric Bizard est président fondateur de l’Institut Santé.

01.04.2025 à 16:14

Lutte contre l’islamisme, laïcité : l’interdiction du voile dans le sport est-elle justifiée ?

Jean-François Loudcher, Professeur des universités en sciences historiques et sociales, Université de Bordeaux

Poussé par Bruno Retailleau et Gérald Darmanin, le premier ministre François Bayrou s’est engagé à interdire le voile islamique dans les compétitions sportives. Entrisme islamique, respect de la laïcité : les arguments de la droite et de l’extrême droite sont-ils fondés ?
Texte intégral (1772 mots)

Le 18 février, une proposition de loi LR, adoptée par le Sénat, a marqué une étape importante en direction d’une interdiction du port du voile islamique dans les compétitions sportives. Poussé par Bruno Retailleau et Gérald Darmanin, le premier ministre François Bayrou a promis d’accompagner la démarche des LR en proposant une loi à l’Assemblée nationale. Cette interdiction est-elle justifiée ? Le sport est-il soumis à l’entrisme islamiste comme l’affirment la droite et l’extrême droite et le voile en est-il son cheval de troie ?


Depuis la proposition de loi du LR Michel Savin sur l’interdiction du voile dans les compétitions sportives pour les fédérations ayant une délégation de service publique, le débat enflamme la classe politique et les réseaux sociaux. Si la droite considère que la neutralité s’impose dans le sport, la gauche dénonce une stigmatisation des sportives musulmanes et un dévoiement de la loi de 1905. Or, ce qui est en jeu, ce n’est pas seulement l’examen de quelques articles de loi, mais plusieurs décennies de polémiques et de discussions autour d’une position particulière de la laïcité que la proposition LR cristallise.

Au sein du gouvernement, les clivages sont explosifs. La ministre des sports, Marie Barsacq, a mis en garde « contre les « confusions » et les « amalgames » entre port du voile et « radicalisation dans le sport ». Bruno Retailleau, ministre de l’intérieur, s’est dit en « désaccord radical » avec la ministre des sports. Gérard Darmanin, ministre de la justice, favorable à l’interdiction du voile dans le sport, a fait pression sur le premier ministre, mettant sa démission dans la balance. François Bayrou inscrira bien cette interdiction dans un futur projet de loi.

Propositions de loi et enjeux politiques

La proposition de Michel Savin est la quatrième tentative du groupe LR. Il est l’aboutissment d’une longue offensive.

Dès 2019, Les Républicains ciblent la lutte contre le séparatisme et la « radicalisation islamiste » dans le sport suite à l’attentat de la Préfecture de police et l’assassinat de Samuel Patty l’année suivante en 2020. Ceci à travers la loi du 24 août 2021 confortant le respect des principes de la République et celle du 2 mars 2022 « visant à démocratiser le sport en France ».

LR souhaite déjà interdire le voile dans les compétitions sportives mais l’opposition de Roxana Maracineanu, socialiste et ministre des sports de 2018 à 2022 (gouvernements d’Edouard Philippe et de Jean Castex) permet de repousser leurs offensives. La ministre propose le CER Contrat d’Engagement Républicain qui oblige les associations demandant des subventions à respecter certains principes de laïcité.


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


Par ailleurs, les enquêtes initiées par la ministre relativisent la menace d’entrisme islamique. Sur 592 contrôles effectués par le biais des cellules de lutte contre l’islamisme radical et le repli communautaire (CLIR), seules 9 fermetures de clubs ont eu lieu.

Pourtant, en 2024, avec le soutien du gouvernement Attal, le groupe Les Républicains a l’opportunité de déposer une première proposition de loi en mars 2024, puis une seconde en juin. Le rapporteur, le sénateur LR Stéphane Piednoir, s’appuie sur les enquêtes de Roxana Maracineanu auxquelles il ajoute le résultat de 100 contrôles réalisés par le ministère des sports en 2022-2023. Ce dernier n’évoque pourtant que 6 cas de séparatisme.

Après la dissolution de l’AN de juin 2024, les députés d’Ensemble pour la république (EPR) tentent de récupérer l’initiative en déposant une troisième proposition de loi (le 29 octobre 2024) – sans succès.

La mission flash sur la laïcité dans le sport

Sous le gouvernement Bayrou, Les Républicains reviennent à la charge et déposent leur quatrième proposition de loi en février 2025.

Dans la foulée, le député Rassemblement national Julien Odoul prend l’initiative avec une « mission flash » qu’il co-dirige aux côtés de la députée EPR Caroline Yadan.

Le rapport est à charge, utilisant des informations parcellaires et orientées. Ainsi, il n’est pas mentionné la conclusion de l’enquête rendue par l’Institut des Hautes Etudes du Ministère de l’Intérieur qui précise que « les données collectées ne permettent pas de soutenir un rôle déterminé de la pratique sportive en soi ou de l’association sportive dans la radicalisation ».

Finalement, la mission flash envoie un message saturé de nombreux exemples et chiffres qui, mis bout à bout, font figure de démonstration. L’analyse du phénomène voile/entrisme est limitée mais la référence confuse au principe de laïcité fait figure de boussole.

Laïcité à la française et sport

Cette référence à la laïcité, régulièrement assénée dans les débats parlementaires et face aux associations défendant le port du voile, repose sur l’idée d’une neutralité existant en soi, inscrite dans le marbre de la loi de 1905. Or, l’analyse de cette loi montre une dynamique complexe. Cette législation se forme à partir de la proposition de Ferdinand Buisson, intransigeante, étendant la laïcité à tous les citoyens mais aussi avec celle d’Aristide Briand, plus tempérée, qui permet aux associations cultuelles (patronages, clubs de sport…) de fonctionner selon les règles de leur culte.

La laïcité « à la française » s’est construite sur un équilibre dynamique entre plusieurs tendances. On peut considérer qu’elle est désormais menacée par l’expression d’une neutralité plus radicale. En effet, la volonté de conciliation promue dans la loi de 2004, encore perpétuée dans la note de service sur l’abaya de 2023, ainsi que dans la proposition de l’Assemblée nationale d’octobre 2024 consistant à « saisir les organes disciplinaires compétents » à l’issue d’un « dialogue avec les intéressés », disparaît dans la proposition LR de Michel Savin.

Décrypter la proposition de loi de 2025

Finalement, la proposition de loi de février 2025 manque la cible de l’entrisme religieux pour deux raisons. D’une part, parce que, contrairement à la loi scolaire de 2004 dont elle s’inspire, la laïcité est à construire dans le sport, elle n’existe pas d’emblée. Il faut donc envisager la mise en œuvre de procédures pour y accéder sur le modèle du Contrat d’Engagement Républicain. D’autre part, la formulation de la proposition de loi est discutable. En effet, la notion de « signe » religieux renvoie à une « tenue » donc, et non à des attitudes ou démarches répréhensibles.

Le port seul du voile peut difficilement mettre en péril la République tant qu’il est du même ordre que « servir des repas sans porc dans les cantines aux élèves […] qui ne constitue évidemment pas une entrave au vivre ensemble dans le respect de règles de droit communes » selon les termes de Jean-Fabien Spitz. C’est bien l’intention de son affichage, par provocation, par choix personnel, par inadvertance ou par entrisme, dont on doit se saisir. Dès lors, la République doit montrer qu’elle sait faire ces différences et défendre les particularités.

Plutôt que d’interdire, il serait intéressant de légiférer sur les conditions d’autorisation du port du voile afin de construire cette « laïcité », laissant « saisir les organes disciplinaires compétents », autrement dit des structures spécialisées, « à l’issue d’un dialogue avec les intéressés » pour en juger la portée symbolique.

Rappelons enfin qu’en choisissant une interdiction du voile dans les compétitions sportives, la France serait particulièrement isolée parmi les nations du monde et d’Europe. Selon Amnesty International, il s’agirait du seul pays parmi 38 pays européens à le faire.

La proposition Savin liant port du voile et entrisme islamique et politique est à revoir. Indéniablement, des phénomènes de séparatisme et d’atteinte à la laïcité existent. Progressent-ils et dans quelle mesure sont-ils liés au sport ? Des études indépendantes fiables sur ce sujet doivent être menées.

The Conversation

Jean-François Loudcher ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

01.04.2025 à 16:14

Le décret de Trump sur la FIV : faut-il craindre le retour d’une politique eugéniste ?

Allane Madanamoothoo, Associate Professor of Law, EDC Paris Business School

Donald Trump s’est engagé à faciliter l’accès à la fécondation in vitro. Mais la normalisation de cette technique peu réglementée pourrait ouvrir la voie à des projets eugénistes.
Texte intégral (3461 mots)

L’amélioration de l’accès à la fécondation in vitro (FIV) est une cause chère à Donald Trump, qui vient de signer un décret en ce sens. Or, le couplage de la FIV avec le diagnostic préimplantatoire (DPI) largement pratiqué aux États-Unis pourrait ouvrir la voie à des projets eugénistes.


« Je suis le père de la FIV ! » Le 16 octobre 2024, trois semaines avant l’élection présidentielle qu’il allait remporter contre Kamala Harris, Donald Trump s’autoproclamait, devant une assistance exclusivement féminine, « père de la fécondation in vitro » (FIV). Ce n’était pas la première fois au cours de sa campagne qu’il s’exprimait sur l’épineuse question de la FIV : en août 2024, à Potterville (Michigan), il avait déjà fait cette promesse :

« Sous l’administration Trump, votre gouvernement paiera ou votre compagnie d’assurance sera obligée de payer tous les coûts associés aux traitements de FIV. »

Porté par cet engagement, il a signé, le 18 février 2025, un décret exécutif portant sur « l’examen » des moyens pour réduire les coûts de la FIV et pour en faciliter l’accès. Ce décret demande qu’une liste de recommandations politiques à ce sujet soit soumise dans les 90 jours suivant sa promulgation.

Donald Trump semble, de prime abord, vouloir aider les familles. Mais la normalisation de la naissance des enfants à partir d’un tri des embryons conçus par FIV, en fonction de leur patrimoine génétique, pourrait se révéler dangereuse et éthiquement inacceptable. Assisterons-nous à la mise en œuvre d’une nouvelle politique eugéniste aux États-Unis ? Et quel impact l’exécution de la promesse de Trump aura-t-elle sur l’industrie américaine de la fertilité dans sa globalité ?

L’eugénisme dans l’histoire récente du pays

L’eugénisme – qui signifie étymologiquement « bonne naissance » – désigne l’ensemble des méthodes et pratiques visant à l’amélioration de la population humaine par le contrôle sélectif de la reproduction.


À lire aussi : « Dune » : apologie ou critique de l’eugénisme ?


On distingue l’eugénisme positif, qui tend à favoriser la reproduction des individus jugés « supérieurs », de l’eugénisme négatif, dont le but est de limiter la reproduction de personnes considérées « inférieures ».


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


Ces formes d’eugénisme ont déjà toutes deux été pratiquées dans l’histoire récente des États-Unis.

L’eugénisme positif, d’abord, a émergé au début du XXe siècle dans le cadre des foires d’État, quand étaient organisés des concours pour élire le « bébé en meilleure santé » (« better babies »), qui évoluèrent, avec la préoccupation des eugénistes pour l’hérédité, en concours de « la famille la plus apte » (« fitter families »).

L’eugénisme négatif s’est manifesté à la même période à travers des politiques de stérilisation forcée de certaines catégories de la population – notamment les « faibles d’esprit », les malades mentaux, les handicapés physiques, les pauvres, les criminels, les Afro-Américains, etc. La première est adoptée en 1907 dans l’Indiana, avant de s’étendre dans un nombre considérable d’autres États.

Hygiène raciale, de Guillaume Dreyfus (2013).

L’arrêt Buck v. Bell, émis par la Cour suprême des États-Unis, le 2 mai 1927, joua un rôle central dans la légitimation et l’adoption des lois de stérilisation eugénique dans plusieurs États.

Carrie Buck, née en 1906, a été placée peu après sa naissance dans une famille d’accueil, chez John et Alice Dobbs, sa mère ayant été internée dans un asile de Virginie. À l’âge de 17 ans, elle est violée par le neveu d’Alice Dobbs et tombe enceinte. Sans doute pour se défaire de l’embarras de cette grossesse, les Dobbs la font interner dans la même institution où se trouve sa mère, pour « faiblesse d’esprit » et « promiscuité ». La direction de l’établissement exige alors que Carrie, qui donne naissance à une fille en 1924, soit stérilisée contre son gré. La même année, une loi autorisant la stérilisation forcée de personnes « faibles d’esprit » est votée dans l’État de Virginie. Le cas de Carrie est remonté jusqu’à la Cour suprême, qui confirme la constitutionnalité de la loi de Virginie en 1927.

La déclaration du juge Oliver Wendell Holmes, prononcée à l’issue du jugement, justifie ouvertement le caractère eugéniste de cette loi, dans le cadre de laquelle Carrie sera stérilisée le 19 octobre 1927 :

« Il vaut mieux pour le monde entier qu’au lieu d’attendre d’exécuter les descendants dégénérés pour crime, ou de les laisser mourir de faim pour leur imbécillité, la société puisse empêcher ceux qui sont manifestement inaptes de perpétuer leur espèce. Le principe qui soutient la vaccination obligatoire est assez fort pour couvrir la section des trompes de Fallope (…) Trois générations d’imbéciles, c’est assez ! »

Carrie Buck (à gauche) et sa mère Emma Buck (à droite), à l’asile pour épileptiques et déficients mentaux de Virginie, 1924. Arthur Estabrook Papers, Special Collections & Archives, University at Albany, SUNY

De 1907 jusqu’à la fin du XXe siècle, plus de 60 000 personnes furent ainsi stérilisées contre leur gré dans 32 États des États-Unis, dont environ 20 000 en Californie. En Caroline du Nord, les femmes afro-américaines constituaient le groupe le plus touché, suivies par les femmes blanches, puis par les hommes noirs et enfin les hommes blancs.

Un rapport de l’ONG américaine Center for Investigation Reporting révèle que plusieurs détenues ont été victimes de stérilisations contraintes en Californie il y a quelques années.

Pendant l’entre-deux-guerres, de nombreux pays s’inspirent des lois de stérilisation eugénique des États-Unis : Suisse (1928), Danemark (1929), Norvège, ou encore Finlande et Suède (1935)… Surtout, l’Allemagne nazie, par l’adoption de la loi du 14 juillet 1933, impose la stérilisation aux personnes atteintes de maladies héréditaires et mentales. Plus de 300 000 personnes seront stérilisées de force en cinq ans, au point que Joseph DeJarnette, membre d’un mouvement de promotion de la stérilisation forcée en Virginie, déclara :

« Les Allemands nous battent à notre propre jeu… »

Les designer babies : une nouvelle forme d’eugénisme « sous couvert » de la FIV ?

Dans le film d’anticipation d’Andrew Niccol Bienvenue à Gattaca, sorti en 1997, les humains sont classés en deux catégories : les « valides », nés à partir d’un tri des embryons conçus par FIV, sur la base de leur patrimoine génétique, et les « non valides », conçus naturellement et soumis aux aléas de la nature. Seuls les premiers, considérés comme les élites, peuvent occuper des postes clés dans la société. Les seconds, vus comme des humains de second ordre, sont cantonnés à une vie subalterne. Ce thriller eugéniste est-il appelé à devenir réalité ?

Bienvenue à Gattaca,, d’Andrew Niccol (1997) - Bande annonce.

À ce jour, la liste des recommandations visant à améliorer l’accès à la FIV pour les Américains n’a pas été officiellement communiquée, les 90 jours requis par le décret n’étant pas encore écoulés. De fait, il n’est pas possible d’affirmer avec certitude qu’une nouvelle forme d’eugénisme « sous couvert » de la FIV soit en train d’être mise en œuvre outre-Atlantique.

Toutefois, compte tenu des concours de « better babies » et de « fitter families » et de la pratique massive de stérilisations eugéniques par le passé aux États-Unis, de l’avancement des techniques d’assistance médicale à la procréation (AMP) ainsi que de l’enthousiasme de Donald Trump pour la FIV, il n’est pas impossible qu’un tel scénario se produise dans les années à venir.

Assistés de leur médecin et de leur conseiller génétique, les futurs parents pourraient être « incités » à concevoir un designer baby (bébé sur mesure) par FIV en choisissant le « meilleur » embryon après un « contrôle qualité » programmé et voulu par une politique eugéniste positive, plutôt que par la reproduction naturelle — et ce, même en l’absence de problèmes d’infertilité.

Cette possibilité est d’autant plus plausible qu’aux États-Unis le diagnostic préimplantatoire (DPI), qui permet à l’origine de détecter la présence d’éventuelles anomalies chromosomiques ou génétiques chez les embryons conçus après une FIV, est quasi généralisé : 83,3 % des cliniques de fertilité proposent, par exemple, le DPI pour permettre aux parents de choisir le sexe de l’enfant souhaité. Certaines d’entre elles, telles que Fertility Institutes, offrent également la possibilité de choisir la couleur de ses yeux.

Genomic Prediction, une autre société américaine en médecine reproductive, commercialise, quant à elle, une offre « premium » de DPI, le DPI-Polygénique, qui permet aux futurs parents d’évaluer les risques de plusieurs maladies polygéniques – causées par la mutation d’un grand nombre de gènes – chez les embryons conçus par FIV. En vertu du score de risque polygénique, les futurs parents peuvent ensuite sélectionner le « meilleur » embryon qu’ils souhaitent implanter dans l’utérus de la mère.

« Ces Américains qui programment des enfants “parfaits” », France Télévision.

Le potentiel intellectuel de l’enfant représente également un enjeu important pour nombre d’Américains. Selon une étude publiée dans la revue Science, 28 % des Américains accepteraient d’avoir un bébé génétiquement modifié afin de maximiser les chances de leur future progéniture d’accéder aux meilleures universités, et 38 % seraient prêts à avoir recours à la sélection des embryons en fonction de leur QI. Pour rappel, si la conception de bébés OGM reste interdite, on sait qu’elle est possible depuis la naissance de Lulu et Nana en Chine en 2018. Il en ressort qu’une partie significative des citoyens des États-Unis ne s’opposerait pas à des politiques relevant de l’eugénisme positif.

Un accès à la FIV profitable à l’industrie américaine de la fertilité

Depuis la naissance en 1981 d’Elizabeth Carr, premier « bébé éprouvette » américain, la FIV représente environ 2 % des naissances aux États-Unis, soit près de 100 000 chaque année. Un véritable business lucratif de la FIV s’est mis en place dans le pays.

Le coût moyen d’une FIV aux États-Unis s’élève à 12 000 dollars. S’y ajoutent des frais relatifs aux traitements hormonaux, estimés de 3 000 à 4 000 dollars par cycle de FIV. La probabilité d’une grossesse après une première FIV étant faible, plusieurs cycles de FIV peuvent être nécessaires pour espérer donner naissance à un enfant grâce à cette technique.

Or, il n’existe pas de système universel de santé aux États-Unis, et les lois sur la prise en charge de la FIV varient d’un État à un autre. Seuls quelques-uns ont adopté des lois obligeant les assurances privées de santé (via les employeurs ou à titre individuel) à couvrir ou à offrir les soins liés à l’infertilité, dont la FIV. Enfin, le programme Medicaid, qui fournit une assurance maladie aux individus à faible revenu, ne couvre pas non plus les frais liés à la FIV dans tous les États fédérés.

Dès lors, certaines grandes entreprises, à l’image de Google ou Apple, ont saisi cette situation comme une opportunité stratégique pour proposer à leurs employés, femmes et hommes, une couverture des frais d’AMP, afin d’attirer et de fidéliser les talents dans un marché du travail de plus en plus compétitif.

En 2023, le marché de la FIV aux États-Unis représentait 5,28 milliards de dollars. Il devrait atteindre 7,24 milliards de dollars en 2030.

Ce marché recouvre d’autres marchés connexes tels que celui des ovocytes (398,5 millions de dollars en 2024), celui du sperme (1,8 milliard de dollars en 2023) et celui de la gestation pour autrui (GPA), estimé à 27,61 milliards de dollars en 2023.

Aux États-Unis, les naissances par des techniques d’assistance médicale à la procréation ont plus que triplé depuis 1996 (2018). PEW Research Center

Il est indéniable que la facilitation d’accès à la FIV, que ce soit ou non dans un but eugénique, conduira à une croissance exponentielle de l’industrie américaine de la fertilité et lui sera pleinement profitable.

Pour conclure, cette situation se traduira, en parallèle, par une hausse de la demande de gamètes et de GPA, aggravant les risques de marchandisation et d’exploitation, ainsi que les risques médicaux déjà existants pour les mères porteuses et les donneuses d’ovocytes, qui pourraient être tentées de multiplier ces pratiques face à la demande et au regard de leur situation économique.


À lire aussi : Femmes porteuses aux États-Unis : la question complexe de leur rémunération


À ce propos, dans son ouvrage Confessions of a Serial Egg Donor, Julia Derek met en lumière le business des banques d’ovocytes. Elle raconte l’histoire vraie d’une donneuse d’ovocytes aux États-Unis, une étudiante d’université qui, par besoin d’argent, avait subi jusqu’à 12 cycles de stimulation ovarienne afin de produire un nombre maximal d’ovocytes, jusqu’à ce que son corps lâche…

The Conversation

Allane Madanamoothoo ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

01.04.2025 à 16:13

La Première Guerre mondiale du point de vue des chevaux

Eric Baratay, Professeur d'histoire, Université Jean Moulin Lyon 3

Indispensable pour la cavalerie, l’infanterie mais également l’artillerie, pour tirer canons, munitions, vivres et hommes, les chevaux ont aussi façonné l'évolution de cette guerre de tranchées.
Texte intégral (2885 mots)
Cavaliers de l'armée britannique en 1918. Photo prise par un photographe de guerre employée par l'armée britannique. National Library of Scotland , CC BY

Retracer l’histoire du point de vue des animaux, tâcher de trouver des sources pouvant témoigner de leur vécu et de leur évolution. Telle est l’ambition du dernier livre supervisé par Eric Baratay aux éditions Tallandier.

Dans ces bonnes feuilles que nous vous proposons, cet historien se penche sur la Grande Guerre qui, sur le seul front de l’Ouest, mobilisa pas moins de huit millions de chevaux. Indispensable pour la cavalerie, l’infanterie mais également l’artillerie, pour tirer canons, munitions, vivres et hommes, ils ont façonné l’évolution de cette guerre.

Saviez-vous par exemple qu’en 1914 c’est le manque de chevaux des Français comme des Allemands qui a empêché qu’un camp ou l’autre réussisse à contourner son adversaire, ce qui a provoqué la fixation du front et quatre ans de guerre de tranchées.

En examinant les écrits de poilus et des vétérinaires au front, Eric Baratay tâche ici de retracer la douloureuse mobilisation de ces millions de chevaux.


Lors de leur réquisition, les chevaux éprouvent d’abord un stress psychologique et physique en perdant leurs repères habituels du fait d’une succession de lieux, de mains, de voix. Leur embarquement dans les wagons est souvent difficile ; ils résistent, hennissent, se sentent poussés, frappés, se font serrer les uns contre les autres. Les plus rétifs continuent à hennir, à frapper les parois ; beaucoup sont apeurés par les trains qui passent, éprouvés par les secousses, irrités par les congénères inconnus.

Ils vivent un autre bouleversement lors de leur affectation, devant s’habituer à de nouveaux noms, de nouvelles voix et conduites, de nouveaux gestes et mots en divers patois changeant au gré des réaffectations, permissions, disparitions des hommes. Ainsi, les chevaux de trait affectés à la cavalerie se retrouvent avec un soldat sur le dos, rarement plus aguerri, tout aussi craintif, et ceux qui réagissent, hennissent, ruent, subissent alors des coups, entendent des cris, ce qu’ils connaissaient assez rarement auparavant s’ils viennent des campagnes.

Escorte de prisonniers allemands par la cavalerie française, le 24 août 1914. William Heinemann, London, CC BY

Dans les services attelés, les chevaux doivent apprendre à travailler avec des congénères pour les solitaires d’autrefois ou de nouveaux partenaires pour les habitués à cet emploi. Ils sont assemblés selon leur taille, leur force, voire leur couleur, rarement selon leur caractère, que les hommes ne connaissent pas et ne cherchent pas. Des chevaux manifestent des incompatibilités d’humeur, obligent ces humains à les séparer jusqu’à ce qu’une répartition soit trouvée, qu’une paix plus ou moins durable s’installe. Lors des essais à tirer ensemble, beaucoup se heurtent, glissent, tombent, s’empêtrent dans les traits, s’épuisent. L’adaptation est remise en cause par les changements d’affectation et les arrivées de nouveaux partenaires, tels ces chevaux américains, que les alliés vont chercher à partir de l’automne 1914 pour compenser les pertes.

D’autant que leur traversée de l’Atlantique s’avère un calvaire côté français, où l’on ne donne qu’une avance aux marchands américains, les laissant assurer le transport à moindres frais. Dès l’Amérique, les équidés choisis se retrouvent concentrés et mélangés dans des parcs puis entassés à 15 ou 20 dans des wagons, sans attache et sans surveillance interne. Les conflits, les coups, les chutes s’ajoutent au stress du voyage durant lequel ces animaux ne bénéficient guère d’arrêts le long d’un parcours de quatre à huit jours. Au port, ils sont de nouveau concentrés en enclos puis placés sur des barges et hissés par des grues sur des navires restés au large, une opération très stressante pour les équidés.

Perturbés par le déracinement, les importants changements climatiques à l’échelle américaine, le bouleversement du régime alimentaire, beaucoup s’affaiblissent et contractent des maladies infectieuses, d’autant qu’ils ne bénéficient pas de désinfection des enclos et des wagons ou de contrôles épidémiologiques, encore peu usités côté français.

À bord des navires, ces équidés se retrouvent entassés les uns contre les autres, en quatre rangées parallèles par étage, attachés de près, et comme ils ne font pas d’exercice dans des enclos ou de promenade sur le pont extérieur, qu’ils restent inactifs trois semaines au minimum, ils endurent des fourbures aiguës aux jambes. L’entassement est tel que des équidés se voient placés sur le pont extérieur où, malgré les couvertures mises sur eux ou les toiles tendues par-dessus, ils endurent de fortes variations de température, une humidité incessante, des courants d’air permanents, subissent d’importants refroidissements tout en devant résister aux tempêtes qui balaient l’endroit.

Au moins, ces animaux ne souffrent-ils pas de l’atmosphère confinée des étages internes, de la chaleur moite, du gaz carbonique, des fortes odeurs que les équidés enfermés produisent mais qui les indisposent vivement, d’autant que l’aération, guère pensée, est très insuffisante, que les excréments, le fumier, les aliments avariés sont irrégulièrement évacués et ces ponts mal nettoyés par des équipages négligents, peu impliqués financièrement dans le maintien en bonne santé des bêtes, bien qu’ils pâtissent aussi de la situation. Les morts sont laissés au milieu des vivants tout au long du voyage parce qu’on n’a pas prévu de les évacuer à la mer ! Les rescapés ressentent évidemment les phéromones de stress dégagés par les agonisants puis les odeurs des cadavres.

Chevaux et mulets souffrent souvent de la soif et de la faim, les marchands ayant trop peu prévu, les matelots s’évitant des corvées régulières, les aliments n’étant que de médiocre qualité. Ces équidés doivent souvent manger des aliments simplement jetés à terre, avalant en même temps la paille souillée, voire leurs excréments pour compenser la faim, mais les bêtes attachées trop court, incapables de baisser autant leur tête, sont forcées de jeûner. Beaucoup s’affaiblissent, contractent ou amplifient des maladies, mangent encore moins, respirent toujours plus mal, tombent au premier tangage, ont de plus en plus de peine à se relever, se blessent facilement lors des heurts avec d’autres ou contre les parois et lors de ces chutes, se fracturant des os ou se rompant des ligaments, contractant alors le tétanos ou la gangrène.

À l’arrivée, les sorties sont souvent retardées car, dans nombre de navires, les rampes reliant les ponts ont été enlevées pour mieux entasser, d’autant qu’on ne prévoyait pas de promenade extérieure. Les équidés doivent attendre plusieurs jours que de nouvelles pentes soient installées, sur lesquelles ils se précipitent pour sortir de cet enfer. Les blessés et les malades ne pouvant pas les gravir attendent d’être sanglés puis soulevés à la grue. À terre, les chevaux, souvent des mustangs plus ou moins sauvages, achetés à moindre coût, se montrent rebelles à la discipline. Ils déconcertent autant leurs congénères européens, habitués au travail, que les conducteurs qui font alors pleuvoir les coups.

Chevaux transportant des munitions à la 20ᵉ Batterie de l’Artillerie canadienne de campagne à Neuville Saint-Vaast, France
Chevaux transportant des munitions à la 20ᵉ Batterie de l’Artillerie canadienne de campagne à Neuville Saint-Vaast, France. Archives du Canada, CC BY

Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


Des incompréhensions réciproques

Ces incompréhensions sont nombreuses, d’autant que nombre de soldats n’ont jamais côtoyé de chevaux auparavant et que ces derniers ne sont pas habitués à de tels environnements. Nous avons vu que beaucoup d’équidés réquisitionnés refusent d’entrer dans les wagons ou les camions. Cela conduit les soldats à les qualifier de « bêtes », à se grouper jusqu’à six ou sept pour les forcer et à manier la violence. Or cette attitude des chevaux s’explique par leur vision, mieux connue de nos jours : étroite en hauteur mais très panoramique en largeur, d’un flanc à l’autre. Ils ont donc le sentiment d’être bêtement précipités contre un obstacle alors que la voie est libre autour ! D’autant qu’ils détectent mal l’intérieur noir des wagons, mettant du temps à accommoder leur vue à l’obscurité, et qu’ils rechignent logiquement à entrer dans cet inconnu… à la manière d’un automobiliste qui, par temps ensoleillé, freine devant une section très ombragée de la route formant un mur noir.

Des soldats français essayant de tirer une mule épuisée hors de la boue d’un trou d’obus
Des soldats français essayant de tirer une mule épuisée hors de la boue d’un trou d’obus. National Library of Scotland, CC BY

Un autre exemple d’incompréhension concerne l’abreuvement des chevaux durant l’été 1914. Ils ne peuvent pas boire suffisamment, souvent une fois la nuit car les cavaliers limitent ces moments dangereux pour eux, et cela provoque une importante mortalité. On peut invoquer la guerre de mouvement, qui réduit les possibilités de nourrir et d’abreuver, et la négligence des hommes, qui est réelle, mais la situation est confortée par un aspect inconnu des humains et même des animaux : on sait maintenant que les chevaux connaissent une forme de déshydratation qui ne provoque pas une soif importante, ce qui signifie que ces chevaux de guerre n’ont sans doute pas suffisamment manifesté leur besoin.

The Conversation

Eric Baratay ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

28 / 50
  GÉNÉRALISTES
Ballast
Fakir
Interstices
Lava
La revue des médias
Le Grand Continent
Le Monde Diplo
Le Nouvel Obs
Lundi Matin
Mouais
Multitudes
Politis
Regards
Smolny
Socialter
The Conversation
UPMagazine
Usbek & Rica
Le Zéphyr
  CULTURE / IDÉES 1/2
Accattone
Contretemps
A Contretemps
Alter-éditions
CQFD
Comptoir (Le)
Déferlante (La)
Esprit
Frustration
 
  IDÉES 2/2
L'Intimiste
Jef Klak
Lignes de Crêtes
NonFiction
Nouveaux Cahiers du Socialisme
Période
Philo Mag
Terrestres
Vie des Idées
Villa Albertine
 
  THINK-TANKS
Fondation Copernic
Institut La Boétie
Institut Rousseau
 
  TECH
Dans les algorithmes
Goodtech.info
Quadrature du Net
 
  INTERNATIONAL
Alencontre
Alterinfos
CETRI
ESSF
Inprecor
Journal des Alternatives
Guitinews
 
  MULTILINGUES
Kedistan
Quatrième Internationale
Viewpoint Magazine
+972 mag
 
  PODCASTS
Arrêt sur Images
Le Diplo
LSD
Thinkerview
 
  Pas des sites de confiance
Contre-Attaque
Issues
Korii
Positivr
Regain
Slate
Ulyces
🌓