URL du flux RSS

ACCÈS LIBRE UNE Politique International Environnement Technologies Culture

▸ les 25 dernières parutions

01.09.2025 à 15:52

Drones et robots tueurs dans la guerre : soldat ou algorithme, qui décidera de la vie et de la mort demain ?

Laurent Vilaine, Docteur en sciences de gestion, ancien officier, enseignant en géopolitique à ESDES Business School, ESDES - UCLy (Lyon Catholic University)
Alors que les armes autonomes sont de plus en plus présentes dans les conflits armés, comment concilier progrès technologique et impératif de contrôle humain ?
Texte intégral (2420 mots)

Il est impossible de purement et simplement ignorer la propagation sans cesse plus rapide des armes létales autonomes et de l’intelligence artificielle sur les théâtres de guerre ; mais il serait éminemment dangereux de confier la prise de décision à la technologie seule.


La guerre des machines est déjà en cours. Ces dernières années, le recours massif aux drones et à l’intelligence artificielle (IA) a transformé le champ de bataille et la nature des opérations. L’autonomie accélère la détection et la délivrance du feu. La refuser, c’est rendre les armes. L’envisager sans garde-fous, c’est percevoir la guerre dénuée de toute éthique.

La France est une puissance moyenne qui ne peut se permettre de prendre du retard technologique. Mais la France est également une grande démocratie qui se veut exemplaire : elle ne peut faire n’importe quoi avec l’avènement de ces nouvelles armes. Elle doit instaurer la primauté humaine sur le code informatique, assumer un couple homme-machine où l’impact militaire demeure, mais où l’humain reste responsable.

Les drones, l’IA, les robots tueurs sont déjà là. Le front en Ukraine est saturé de drones et de logiciels qui trient des images. Déjà, des prototypes sont capables de détecter, de poursuivre et de frapper presque sans intervention humaine. Où la France se place-t-elle dans cette rapide évolution, et que doit-elle décider aujourd’hui pour rester dans la course sans nier ses valeurs ?

Ce qui a déjà changé

Le drone est devenu l’outil d’artillerie du pauvre. Il est l’instrument de reconnaissance de la petite unité et l’engin de précision du dernier mètre. Avec les milliers de drones dans le ciel, l’œil est partout, l’angle mort se réduit. La surprise se joue en secondes.

L’artillerie classique est, certes, toujours efficace. Mais la rupture que constituent les drones est d’abord logicielle : des algorithmes identifient une silhouette humaine ou celle d’un véhicule et accélèrent le temps entre la détection et la frappe. C’est précisément là où l’humain fatigue, là où chaque seconde compte et que la valeur ajoutée de l’autonomie s’affirme.

Pourquoi l’autonomie change tout

Il est nécessaire de distinguer l’idéal du réel. Dans la première configuration, l’humain décide alors que, dans la deuxième, l’humain commence à déléguer des éléments de son jugement à, par exemple, une alerte automatique ou à une trajectoire optimale.

Concrètement, il est d’usage de parler de trois régimes différents :

  • l’humain dans la boucle ;
  • l’humain sur la boucle ;
  • et l’humain hors de la boucle.

Le premier cas est très simple : l’humain décide. Dans le deuxième cas, l’humain surveille et, éventuellement, interrompt. Dans le troisième cas, la machine est préprogrammée et décide seule.

Ce n’est pas qu’une affaire de choix, car, à très haute vitesse (défense antidrones, interception de missiles ou encore combat collaboratif aérien complexe), la présence humaine tend à s’effacer, puisque l’action se joue en secondes ou en dizaines de secondes. Le réalisme et l’efficacité de l’action imposent dès lors de penser que refuser toute autonomie revient à accepter d’être lent et, donc, inopérant. En revanche, accepter une autonomie totale, c’est-à-dire rejeter tout garde-fou, c’est faire entrer de l’incertitude, voire de l’erreur, dans le fonctionnement d’une action létale.

La responsabilité stratégique et éthique d’un pays démocratique se joue entre ces deux pôles.

Le dilemme des puissances moyennes

La France est, du point de vue militaire, une puissance moyenne, mais de très haute technologie. Elle est souveraine dans la grande majorité de ses équipements, mais ne dispose pas d’un budget illimité, ce qui l’oblige à arbitrer.

Dans ce contexte, se priver d’autonomie revient à prendre le risque d’un retard capacitaire face à des régimes autocratiques à l’éthique inexistante ; s’y jeter sans doctrine, c’est s’exposer à une bavure ou à une action involontaire menant à une escalade risquant d’éroder la confiance de la société dans sa propre armée.

Atouts et angles morts français

La France dispose d’une armée moderne et aguerrie en raison de sa participation à de nombreuses missions extérieures. Sa chaîne hiérarchique est saine car elle responsabilise les différents niveaux (contrairement à l’armée russe par exemple). Son industrie sait intégrer des systèmes complexes. En outre, elle dispose d’une grande expertise de la guerre électronique et en cybersécurité. Ces différentes caractéristiques sont des fondements solides pour développer une autonomie maîtrisée.

En revanche, les défauts de l’industrie française sont connus. Son industrie et les militaires privilégient des solutions lourdes et chères. En bonne logique ; les cycles d’acquisition sont longs en raison des innovations. Enfin, une certaine difficulté à passer du démonstrateur à la série peut être constatée.

Tout cela rend difficile la réponse à un besoin massif et urgent du déploiement de drones et de systèmes antidrones, qui combinent détection, brouillage, leurre et neutralisation, du niveau section jusqu’au niveau opératif (sur l’ensemble d’un front).

Ce que la France devrait décider maintenant

L’industrie doit ancrer la primauté nouvelle dès la conception de l’arme ou du système d’armes. Cet objectif doit incorporer certains impératifs : chaque boucle létale (processus de décision et d’action qui conduit à neutraliser ou à tuer une cible) doit avoir un responsable humain identifiable.

En outre, des garde-fous techniques doivent être mis en place. Des « kill-switch » (« boutons d’arrêt d’urgence ») physiques doivent être installés dans les systèmes. Des seuils reparamétrables doivent être prévus : par exemple, si un radar ou une IA détecte une cible, il est nécessaire de définir un seuil de confiance (par exemple de 95 %) avant de la classer comme ennemie. Des limitations géographiques et temporelles codées doivent être prévues. Par exemple, un drone armé ne peut jamais franchir les coordonnées GPS d’un espace aérien civil ou bien une munition autonome se désactive automatiquement au bout de trente minutes si elle n’a pas trouvé de cible.

Un autre point important est que la décision doit être traçable. Il est nécessaire de posséder des journaux de mission permettant de déterminer qui a fait quoi, quand et sur quelle base sensorielle (radars, imagerie, etc.). Une telle traçabilité permet de définir la chaîne de responsabilité. Elle permet également d’apprendre de ses erreurs.

La formation des personnels est aussi importante que la qualité des matériels. Les militaires doivent être formés, préparés à l’ambiguïté. Les opérateurs et décisionnaires doivent être en mesure de comprendre le fonctionnement et les limites des algorithmes, savoir lire un score de confiance. Ils doivent être en mesure de reconnaître une dérive de capteur et, par conséquent, de décider quand reprendre la main. Paradoxalement, l’autonomie exige des humains mieux formés, pas moins.

Sur le plan capacitaire, la France doit apprendre le « low-cost », ce qui implique de disposer d’essaims et de munitions rôdeuses en nombre. Pour ce faire, le pays doit savoir intégrer dans sa base industrielle de défense aussi bien les grandes entreprises traditionnelles que des start-ups innovantes pour plus de productions locales et réactives. Il ne s’agit pas de remplacer les systèmes lourds, mais bien de les compléter afin de pouvoir saturer le champ de bataille.

Le pays, qui a délaissé la capacité antiaérienne, doit bâtir une défense antidrones, chargée de la courte portée et ayant les capacités de détecter, d’identifier, de brouiller, de leurrer, de durcir les postes de commandement (c’est-à-dire leur apporter une protection plus efficace, en les enterrant, par exemple) et protéger les convois. Ces capacités doivent être intégrées dans l’entraînement au quotidien.

Ce qu’il faut éviter

Un piège peut être une forme de surenchère normative stérile. Il est nécessaire de tenir bon sur les principes sans être naïf dans un monde de plus en plus agressif. Si la France dit explicitement « Jamais de robots tueurs autonomes », cela n’empêchera pas d’autres pays d’en utiliser ; mais dire « Toujours oui à ces technologies » serait incompatible avec les principes moraux proclamés par Paris.

Un cadre clair, ajusté par l’expérience, doit donc être inventé.

La dépendance logicielle et, donc, l’absence de souveraineté numérique sont très dangereuses. Il est indispensable de ne pas acheter de briques IA sans véritablement connaître leurs biais, sans savoir ce que l’algorithme a pris en compte. Un effort financier continu doit être entrepris pour développer nos propres outils.

Enfin, il faut éviter d’oublier le facteur humain. Il serait tentant de soulager la chaîne décisionnelle par l’automatisation. Ce serait la priver de l’intelligence de situation propre aux humains et de leur intuition difficilement codable. La doctrine doit accepter de ralentir provisoirement l’action sur le champ de bataille pour laisser la place au jugement.

Responsabilité et droit : la vraie ligne rouge

Une machine, bien paramétrée, peut paradoxalement mieux respecter qu’un humain le droit des conflits armés qui repose sur quelques principes simples. Durant un conflit, il est nécessaire de distinguer (ne pas frapper les civils), d’agir dans le cadre de la proportionnalité, c’est-à-dire de ne pas causer de dommages excessifs (ce qui est très difficile à mettre en œuvre) ; et d’appliquer la précaution (faire tout ce qui est raisonnable pour éviter l’erreur).

Si une machine peut aider à appliquer ces principes, elle ne peut, seule, assumer la responsabilité de se tromper.

Comment correctement appliquer ces principes ? Réponse : c’est le commandement qui s’assure que les paramétrages et les règles ont été convenablement définis, testés, validés.

Société et politique : ne pas mentir au pays

La guerre est par nature une activité terrible, destructrice des âmes et des chairs. Affirmer que le recours généralisé à l’IA permettrait de rendre la guerre « propre » serait une imposture intellectuelle et morale.

L’autonomie est ambiguë. Si elle peut réduire certaines erreurs humaines inhérentes au combat (la fatigue, le stress, la confusion, l’indécision), elle en introduit d’autres :

  • le biais : une IA entraînée avec des images de chars soviétiques dans le désert peut se tromper si elle rencontre un blindé moderne en forêt) ;
  • les capteurs trompés : des feux de camp peuvent tromper une caméra infrarouge qui les prendra pour des signatures humaines ou de véhicules
  • la confusion. Exemple historique : en 1983, l’officier soviétique Stanislav Petrov a refusé de croire son système d’alerte qui détectait à tort une attaque nucléaire américaine contre l’URSS. Une IA autonome aurait appliqué son programme et donc déclenché le feu nucléaire soviétique contre le territoire des États-Unis…

Coder nos valeurs

Notre pays doit faire concilier agilité et vitesse au combat, et conscience humaine. Cela suppose de coder nos valeurs dans les systèmes (garde-fous, traçabilité, réversibilité), de procéder à des essais dans le maximum de situation (temps, météo, nombres différents d’acteurs, etc.), d’enseigner ce que l’on pourrait appeler « l’humilité algorithmique », du sergent au général.

Alors, demandions-nous, qui décidera de la vie et de la mort ? La réponse d’un pays démocratique, comme le nôtre, doit être nuancée. Certes, la machine étend le champ du possible, mais l’humain doit garder la main sur le sens et sur la responsabilité. L’autonomie ne doit pas chasser l’humain. La guerre moderne impose la rapidité de l’attaque et de la réplique. À notre doctrine d’éviter de faire de cet impératif un désert éthique.

The Conversation

Laurent Vilaine ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

27.08.2025 à 17:10

Ce que les pleurs de bébé nous disent vraiment – et pourquoi l’instinct maternel est un mythe

Nicolas Mathevon, Professeur (Neurosciences & bioacoustique - Université de Saint-Etienne, Ecole Pratique des Hautes Etudes - PSL & Institut universitaire de France), Université Jean Monnet, Saint-Étienne
Est-il possible de traduire les pleurs des bébés pour comprendre avec exactitude leurs besoins ?
Texte intégral (2979 mots)

Le son déchire le silence de la nuit : un sanglot étouffé, puis un hoquet, qui dégénère rapidement en un vagissement aigu et frénétique. Pour tout parent, soignant ou soignante, c’est un appel à l’action familier et urgent. Mais un appel à quoi ? Le bébé a-t-il faim ? A-t-il mal ? Se sent-il seul ? Ou est-il simplement inconfortable ? Ces cris peuvent-ils être compris instinctivement par les parents ?


En tant que bioacousticien, j’ai passé des années à étudier les communications sonores des animaux : des cris des bébés crocodiles, encore dans leurs œufs incitant leur mère à creuser le nid, aux cris des oiseaux diamants mandarins, permettant la reconnaissance au sein du couple. Alors que nous comprenons de mieux en mieux comment et pourquoi les animaux non humains communiquent par des sons, les vocalisations humaines non verbales sont encore peu étudiées. J’ai ainsi été surpris de découvrir, en tournant mon attention vers notre propre espèce, que les pleurs des bébés humains recelaient autant, sinon plus, de mystère.

Pourtant, les pleurs causent parfois bien des soucis aux parents et aux autres personnes qui s’occupent d’un bébé. Au-delà de ces soucis du quotidien, les pleurs de nourrisson peuvent entraîner, chez des personnes qui se sentent dépassées par la situation, une perte du contrôle d’elles-mêmes et être à l’origine du syndrome du bébé secoué (SBS), une maltraitance aux conséquences, dans certains cas, fatales pour l’enfant.

Depuis plus d’une décennie, mes collègues et moi, à l’Université et au CHU de Saint-Étienne, enregistrons des bébés, appliquons les outils de l’analyse des sons, et menons des expériences psychoacoustiques et de neuro-imagerie. Nos découvertes remettent en question nos croyances les plus établies et offrent un nouveau cadre, fondé sur des preuves, pour comprendre cette forme fondamentale de communication humaine.

Première constatation, et peut-être l’une des plus importantes : il est impossible de déterminer la cause d’un pleur de bébé uniquement à partir de sa sonorité.

Démystifier le « langage des pleurs »

De nombreux parents subissent une pression immense pour devenir des « experts et expertes en pleurs », et toute une industrie a vu le jour pour capitaliser sur cette anxiété. Applications, appareils et programmes de formation coûteux promettent toutes et tous de traduire les pleurs des bébés en besoins spécifiques : « J’ai faim », « Change ma couche », « Je suis fatigué·e ».

Nos recherches, cependant, démontrent que ces affirmations sont sans fondement.

Pour tester cela scientifiquement, nous avons entrepris une étude à grande échelle. Nous avons placé des enregistreurs automatiques dans les chambres de 24 bébés, enregistrant en continu pendant deux jours à plusieurs reprises au cours de leurs quatre premiers mois. Nous avons ainsi constitué une énorme base de données de 3 600 heures d’enregistrement contenant près de 40 000 « syllabes » de pleurs (les unités composant les pleurs).

Les parents, dévoués, ont scrupuleusement noté l’action qui avait réussi à calmer le bébé, nous donnant une « cause » pour chaque pleur : la faim (calmée par un biberon), l’inconfort (calmé par un changement de couche) ou l’isolement (calmé par le fait d’être pris dans les bras). Nous avons ensuite utilisé des algorithmes d’apprentissage automatique, entraînant une intelligence artificielle (IA) sur les propriétés acoustiques de ces milliers de pleurs pour voir si elle pouvait apprendre à en identifier la cause. S’il existait un « pleur de faim » ou un « pleur d’inconfort » distinct, l’IA aurait dû être capable de le détecter.

Le résultat fut un échec retentissant. Le taux de réussite de l’IA n’était que de 36 % – à peine supérieur aux 33 % qu’elle obtiendrait par pur hasard. Pour nous assurer qu’il ne s’agissait pas seulement d’une limite technologique, nous avons répété l’expérience avec des auditeurs et des auditrices humaines. Nous avons demandé à des parents et non-parents, d’abord, de s’entraîner sur les pleurs d’un bébé spécifique, comme le ferait un parent dans la vie réelle, puis d’identifier la cause de nouveaux pleurs du même bébé. Ils n’ont pas fait mieux, avec un score de seulement 35 %. La signature acoustique d’un pleur de faim n’est pas plus distincte de celle d’un pleur d’inconfort.

Cela ne signifie pas que les parents ne peuvent pas comprendre les besoins de leur bébé. Cela signifie simplement que le pleur en lui-même n’est pas un dictionnaire. Le pleur est le signal d’alarme. C’est votre connaissance du contexte essentiel qui vous permet de le décoder. « La dernière tétée remonte à trois heures, il a probablement faim. » « Sa couche semblait pleine. » « Il est seul dans son berceau depuis un moment. » Vous êtes le détective ; le pleur est simplement l’alerte initiale, indifférenciée.

Ce que les pleurs nous disent vraiment

Si les pleurs ne signalent pas leur cause, quelle information transmettent-ils de manière fiable ? Nos recherches montrent qu’ils véhiculent deux informations importantes.

La première est une information statique : l’identité vocale du bébé. Tout comme chaque adulte a une voix distincte, chaque bébé a une signature de pleur unique, principalement déterminée par la fréquence fondamentale (la hauteur) de son pleur. C’est le produit de son anatomie individuelle – la taille de son larynx et de ses cordes vocales. C’est pourquoi vous pouvez reconnaître le pleur de votre bébé au milieu d’une nurserie. Cette signature est présente dès la naissance et change lentement au cours du temps avec la croissance du bébé.

Fait intéressant, si les pleurs des bébés ont une signature individuelle, ils n’ont pas de signature sexuelle. Les larynx des bébés filles et garçons sont de la même taille. Pourtant, comme nous l’avons montré dans une autre étude, les adultes attribuent systématiquement les pleurs aigus aux filles et les pleurs graves aux garçons, projetant leur connaissance des voix adultes sur les nourrissons.

La seconde information est dynamique : le niveau de détresse du bébé. C’est le message le plus important encodé dans un pleur, et il est transmis non pas tant par la hauteur (aiguë ou grave) ou le volume (faible ou fort), mais par une caractéristique que nous appelons la « rugosité acoustique ». Un pleur d’inconfort simple, comme avoir un peu froid après le bain, est relativement harmonieux et mélodique. Les cordes vocales vibrent de manière régulière et stable.

Pleur d’inconfort d’un bébé (il ne signale pas de problème grave) Nicolas Mathevon272 ko (download)

Mais un pleur de douleur réelle, comme nous l’avons enregistré lors de séances de vaccination, est radicalement différent. Il devient chaotique, rêche et grinçant.

Pleurs d’un bébé après une vaccination. Nicolas Mathevon293 ko (download)

Le stress de la douleur pousse le bébé à forcer plus d’air à travers ses cordes vocales, les faisant vibrer de manière désorganisée et non linéaire. Pensez à la différence entre une note pure jouée à la flûte et le son rauque et chaotique qu’elle produit quand on souffle trop fort. Cette rugosité, un ensemble de phénomènes acoustiques incluant le chaos et des sauts de fréquence soudains, est un signal universel et indubitable de détresse. Un « ouin-ouin » mélodieux signifie « Je suis un peu contrarié », tandis qu’un « RRRÂÂÂhh » rauque et dur signifie : « Il y a urgence ! »

L’« instinct maternel » n’est qu’un mythe

Alors, qui est le plus à même de décoder ces signaux complexes ? Le mythe tenace de l’« instinct maternel » suggère que les mères sont biologiquement programmées pour cette tâche. Nos travaux démentent cette idée. Un instinct, comme le comportement figé d’une oie qui ramène un œuf égaré en le roulant jusqu’à son nid, est un programme inné et automatique. Comprendre les pleurs n’a rien à voir avec cela.

Dans l’une de nos études clés, nous avons testé la capacité des mères et des pères à identifier le pleur de leur propre bébé parmi une sélection d’autres. Nous n’avons trouvé absolument aucune différence de performance entre elles et eux. Le seul facteur déterminant était le temps passé avec le bébé. Les pères qui passaient autant de temps avec leurs nourrissons que les mères étaient tout aussi compétents. La capacité à décoder les pleurs n’est pas innée ; elle s’acquiert par l’exposition.

Nous l’avons confirmé dans des études avec des non-parents. Nous avons constaté que des adultes sans enfants pouvaient apprendre à reconnaître la voix d’un bébé spécifique après l’avoir entendue pendant moins de soixante secondes. Et celles et ceux qui avaient une expérience préalable de la garde d’enfants, comme le baby-sitting ou l’éducation de frères et sœurs plus jeunes, étaient significativement meilleurs pour identifier les pleurs de douleur d’un bébé que celles et ceux qui n’avaient aucune expérience.

Tout cela a un sens sur le plan évolutif. Les êtres humains sont une espèce à reproduction coopérative. Contrairement à de nombreux primates où la mère a une relation quasi exclusive avec son petit, les bébés humains ont historiquement été pris en charge par un réseau d’individus : pères, grands-parents, frères et sœurs et autres membres de la communauté. Dans certaines sociétés, comme les !Kung d’Afrique australe, un bébé peut avoir jusqu’à 14 soignants et soignantes différentes. Un « instinct » câblé et exclusivement maternel serait un profond désavantage pour une espèce qui repose sur le travail d’équipe.

Le cerveau face aux pleurs : l’expérience reconfigure tout

Nos recherches en neurosciences révèlent comment fonctionne ce processus d’apprentissage. Lorsque nous entendons un bébé pleurer, tout un réseau de régions cérébrales, appelé le « connectome cérébral des pleurs de bébé », entre en action. Grâce à l’imagerie à résonance magnétique fonctionnelle (IRMf), nous avons observé que les pleurs activent dans le cerveau les centres auditifs, le réseau de l’empathie (nous permettant de ressentir l’émotion de l’autre), le réseau miroir (nous aidant à nous mettre à la place de l’autre) ainsi que des zones impliquées dans la régulation des émotions et la prise de décision.

De manière intéressante, cette réponse n’est pas la même pour tout le monde. En comparant l’activité cérébrale des parents et des non-parents, nous avons constaté que si le cerveau de chacun réagit, le « cerveau parental » est différent. L’expérience avec un bébé renforce et spécialise ces réseaux neuronaux. Par exemple, le cerveau des parents montre une plus grande activation dans les régions associées à la planification et à l’exécution d’une réponse, tandis que les non-parents montrent une réaction émotionnelle et empathique plus brute, non tempérée. Les parents passent de la simple sensation de détresse à la résolution active de problèmes.

De plus, nous avons constaté que les niveaux individuels d’empathie – et non le genre – étaient le prédicteur le plus puissant de l’intensité d’activation du réseau de « vigilance parentale » du cerveau. S’occuper d’un enfant est une compétence qui se perfectionne avec la pratique, et elle remodèle physiquement le cerveau de toute personne dévouée, qu’elle ait ou non un lien de parenté avec le bébé.

De la gestion du stress à la coopération

Comprendre la science des pleurs n’est pas un simple exercice de recherche fondamentale ; cela a de profondes implications dans le monde réel. Les pleurs incessants, en particulier ceux liés aux coliques du nourrisson (qui touchent jusqu’à un quart des bébés), sont une source majeure de stress parental, de privation de sommeil et d’épuisement. Cet épuisement peut mener à un sentiment d’échec et, dans les pires cas, être un déclencheur du syndrome du bébé secoué, une forme de maltraitance tragique et évitable.

Le fait de savoir que vous n’êtes pas censé·e « comprendre de manière innée » ce que signifie un pleur peut être incroyablement libérateur. Cela lève le fardeau de la culpabilité et vous permet de vous concentrer sur la tâche pratique : vérifier le contexte, évaluer le niveau de détresse (le cri est-il rugueux ou mélodique ?) et essayer des solutions.

Plus important encore, la science met en lumière la plus grande force de notre espèce : la coopération. Les pleurs insupportables deviennent supportables lorsque le bébé peut être confié à un ou une partenaire, un grand-parent ou une amie pour une pause bien méritée.

Alors, la prochaine fois que vous entendrez le pleur perçant de votre bébé dans la nuit, souvenez-vous de ce qu’est vraiment cette vocalisation : non pas un test de vos capacités innées ou un jugement sur vos compétences parentales, mais une alarme simple et puissante, modulée par le degré d’inconfort ou de détresse ressenti par votre enfant.

C’est un signal façonné par l’évolution, interprétable non par un mystérieux instinct, mais par un cerveau humain attentionné, attentif et expérimenté. Et si vous vous sentez dépassé·e, la réponse la plus scientifiquement fondée et la plus appropriée sur le plan évolutif est de demander de l’aide.


Pour en savoir plus sur les pleurs des bébés, voir le site web : Comprendrebebe.com.

Nicolas Mathevon est l’auteur de Comprendre son bébé. Le langage secret des pleurs, éditions Tana, 2025.


Le projet « Les pleurs du bébé : Une approche intégrée – BABYCRY » est soutenu par l’Agence nationale de la recherche (ANR) qui finance en France la recherche sur projets, au titre de France 2030 (référence ANR-23-RHUS-0009). L’ANR a pour mission de soutenir et de promouvoir le développement de recherches fondamentales et finalisées dans toutes les disciplines, et de renforcer le dialogue entre science et société. Pour en savoir plus, consultez le site de l’ANR.

The Conversation

Nicolas Mathevon a reçu des financements de l'ANR, IUF, Fondation des Mutuelles AXA.

26.08.2025 à 12:36

La musique ne vous fait ni chaud ni froid ? Cela pourrait être dû au fonctionnement de votre cerveau

Catherine Loveday, Professor, Neuropsychology, University of Westminster
La musique vous laisse de marbre, que ce soit du Mozart ou un bon vieux Rolling Stones ? Des chercheurs lèvent le voile sur les ressorts de cette « anhédonie musicale », qui se nichent dans le cerveau.
Texte intégral (2016 mots)
Certaines personnes ne ressentent absolument rien quand elles écoutent de la musique. Les chercheurs ont en découvert la cause, logée dans le cerveau. Krakenimages/Shutterstock

Et si la musique vous laissait de marbre ? Alors qu’elle fait vibrer la plupart d’entre nous, 5 à 10 % de la population reste totalement indifférente aux mélodies. Ce trouble, appelé « anhédonie musicale », intrigue les chercheurs, qui en dévoilent aujourd’hui l’origine : un défaut de communication entre le cerveau auditif et le système de récompense.


Lorsque je demande à une salle remplie d’étudiants comment ils se sentiraient s’ils ne pouvaient plus jamais écouter de musique, la plupart sont horrifiés. Un bon nombre était encore en train d’écouter de la musique juste avant le début du cours. Mais il y en a toujours un ou deux qui avouent timidement que cela ne changerait rien à leur vie si la musique n’existait pas.

Les psychologues appellent cela « l’anhédonie musicale », c’est-à-dire l’absence de plaisir à écouter de la musique. Et un nouvel article publié par des neuroscientifiques espagnols et canadiens suggère qu’elle serait causée par un problème de communication entre différentes zones du cerveau.

Pour beaucoup d’entre nous, ne rien ressentirquand on écoute de la musique semble incompréhensible. Pourtant, pour 5 à 10 % de la population, c’est la norme.

Dans le cadre de mes recherches et de ma pratique auprès de personnes souffrant de pertes de mémoire, je leur demande souvent de choisir leurs chansons préférées dans le but de raviver chez elles des souvenirs marquants.

J’ai toujours été fascinée par le fait que certaines personnes me regardent d’un air perplexe et me disent : « La musique ne m’a jamais vraiment intéressé•e. » Cela contraste tellement avec la majorité des gens qui adorent parler de leur premier disque ou de la chanson qui a été jouée à leur mariage.

Des études récentes montrent des variations considérables dans l’intensité des émotions ressenties quand on écoute de la musique. Environ 25 % de la population est hyperhédonique, c’est-à-dire qu’elle éprouve un besoin presque obsessionnel de musique.

Les recherches dans ce domaine utilisent généralement le Barcelona Music Reward Questionnaire (BMRQ) (questionnaire de récompense musicale de Barcelone), qui interroge les personnes sur l’importance de la musique dans leur vie quotidienne : À quelle fréquence en écoutent-elles ? Leur arrive-t-il de fredonner des airs ? Y a-t-il des chansons qui leur donnent des frissons ?

Si le score obtenu est faible, alors on parle d’anhédonie musicale. Pour confirmer ce diagnostic, des chercheurs mesurent, en laboratoire, le rythme cardiaque, la température ou la sudation des personnes sondées, pendant qu’elles écoutent de la musique. Chez la plupart d’entre nous, ces marqueurs physiologiques varient en fonction de la musique écoutée, selon qu’elle nous touche beaucoup ou peu. Mais chez les personnes souffrant d’anhédonie musicale, l’effet physiologique est nul.

Une théorie a consisté à dire que le fait de moins apprécier la musique pourrait refléter une anhédonie plus générale, c’est-à-dire une absence de plaisir pour quoi que ce soit. Ces pathologies sont souvent liées à des perturbations au niveau des zones du système de récompense, telles que le noyau accumbens, le noyau caudé et le système limbique.

Il s’agit d’une caractéristique courante de la dépression qui, comme d’autres troubles de l’humeur, peut être corrélée à une absence de réponse à la musique. Cependant, cela n’explique pas l’anhédonie musicale « spécifique », qui touche des personnes qui prennent du plaisir avec d’autres récompenses, comme la nourriture, les relations sociales ou le cinéma par exemple, mais restent indifférentes à la musique.

Homme renfrogné devant un violon
Tous les enfants obligés de prendre des cours de musique ne remercient pas leurs parents une fois adultes. foto-lite/Shuttersock

Une autre explication qui a été avancée consiste à dire que les personnes qui s’intéressent peu à la musique ne la comprennent tout simplement pas, peut-être en raison de difficultés à percevoir les mélodies et les harmonies.

Pour vérifier cette hypothèse, nous pouvons nous intéresser aux personnes atteintes d’amusie, un trouble de la perception musicale qui affecte la capacité à reconnaître des mélodies familières ou à détecter des notes fausses. Ce trouble survient lorsque l’activité est réduite dans des régions clés du cortex fronto-temporal du cerveau, qui gère le traitement complexe de la hauteur des notes et de la mélodie. Or, on connaît au moins un cas d’une personne atteinte d’amusie qui n’en aime pas moins la musique.

Quoi qu’il en soit, d’autres recherches montrent que les personnes souffrant d’anhédonie musicale ont souvent une perception musicale normale, ils reconnaissent les chansons ou distinguent sans problème les accords majeurs des accords mineurs.

Alors, que se passe-t-il ? Un article recense toutes les recherches menées à ce jour dans ce domaine. La récompense musicale semble être traitée par la connectivité existant entre les zones corticales auditives, situées au niveau du gyrus temporal supérieur, et les zones du système de récompense. Il arrive que ces zones soient intactes chez des sujets souffrant d’anhédonie musicale. C’est donc la communication entre les zones qui est gravement perturbée : les parties du cerveau chargées du traitement auditif et le centre de la récompense ne communiquent pas.

Les personnes qui réagissent normalement à la musique présentent une activité importante au niveau de cette connexion dans le cerveau, qui est plus élevée pour une musique agréable que pour des sons neutres. Une étude réalisée en 2018 a montré qu’il est possible d’augmenter le plaisir procuré par la musique en stimulant artificiellement ces voies de communication à l’aide d’impulsions magnétiques.

Cette nouvelle analyse pourrait permettre aux scientifiques de mieux comprendre les troubles cliniques dans lesquels les récompenses quotidiennes semblent réduites ou amplifiées, ce qui est le cas par exemple lors de troubles alimentaires, d’addictions au sexe ou aux jeux.

Ces résultats remettent également en question l’idée répandue selon laquelle tout le monde aime la musique. La plupart des gens l’aiment, mais pas toutes les personnes, et cette variation s’explique par des différences dans le câblage du cerveau. Parfois, cela résulte des suites d’une lésion cérébrale, mais le plus souvent, les individus naissent ainsi, et une étude réalisée en mars 2025 a mis en évidence l’existence d’un lien génétique.

The Conversation

Catherine Loveday ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

24.08.2025 à 19:21

La longue histoire des tests de grossesse : de l’Égypte antique à Margaret Crane, l’inventrice du test à domicile

Valérie Lannoy, Post-doctorante en microbiologie, Sorbonne Université
Depuis la pandémie de Covid-19, nous connaissons tous très bien les tests antigéniques, mais saviez-vous que les premiers tests de ce type ont été développés, pour la grossesse, grâce à Margaret Crane ?
Texte intégral (1956 mots)

Depuis la pandémie de Covid-19, nous connaissons tous très bien les tests antigéniques, mais saviez-vous que le principe de l’autotest a été imaginé, dans les années 1960, par une jeune designer pour rendre le test accessible à toutes les femmes en le pratiquant à domicile ? Découvrez l’histoire de Margaret Crane, et les obstacles qu’elle a dû surmonter.


Les tests de diagnostic rapide ont sauvé de nombreuses vies à travers le monde grâce à leurs simplicité et rapidité, et à leur prix abordable. Les plus répandus sont les tests antigéniques, dont nous avons tous pu bénéficier pendant la pandémie de Covid-19. D’autres tests antigéniques existent, comme ceux détectant la dengue ou le chikungunya, deux infections virales tropicales, ou encore le paludisme, la maladie la plus mortelle au monde chez les enfants de moins de 5 ans.

Ces types de tests sont reconnus d’utilité publique par l’Organisation mondiale de la santé (OMS). Le test antigénique de la grippe est par exemple utilisé en routine. Bien que l’intérêt pour ces tests ait émergé durant la Covid-19, nous étions déjà familiarisés avec les tests antigéniques sans nous en rendre compte ! Les tests de grossesse, ô combien impliqués dans nos histoires personnelles, sont les premiers tests de diagnostic rapide créés. On doit cette découverte à Margaret Crane, dont l’invention a contribué à l’amélioration considérable du domaine diagnostique général.

Les tests de grossesse à travers les âges

Détecter une grossesse a toujours revêtu une importance pour la santé féminine, la gestion familiale et les questions sociales. Un papyrus médical égyptien datant d’environ 1350 avant notre ère, appelé le papyrus Carlsberg, détaille une méthode simple. Des grains d’orge et de blé, enfermés chacun dans un petit sac ou un récipient, étaient humidifiés quotidiennement avec l’urine de la femme à tester. L’absence de germination diagnostiquait l’absence de grossesse. La germination de l’orge, elle, prévoyait la naissance d’un garçon, quand celle du blé présageait celle d’une fille. En 1963, une équipe de recherche a décidé d’essayer cette technique de l’Égypte antique, à première vue rudimentaire. De manière étonnante, même si la prédiction du sexe était décevante, la méthode égyptienne avait une sensibilité très élevée : 70 % des grossesses ont été confirmées ! Cela est probablement dû au fait que les hormones dans les urines de la femme enceinte miment l’action des phytohormones, les hormones végétales.

En 1927, le zoologue anglais Lancelot Hogben obtient une chaire de recherche pour étudier les hormones animales à l’Université du Cap en Afrique du Sud. Il y découvre le « crapaud à griffe » du Cap (Xenopus laevis) dont les femelles ont la capacité de pondre toute l’année. Le professeur Hogben contribue à la création d’un test de grossesse qui porte son nom. Son principe ? Injecter de l’urine de femme enceinte dans un crapaud femelle. En raison des hormones contenues dans l’urine, cette injection déclenchait spontanément la ponte. Le test présentait une sensibilité supérieure à 95 % !

Bien que ce protocole soit devenu un test de routine dans les années 1940, la majorité des femmes n’avait toujours pas d’accès facile aux tests de grossesse. D’autres tests similaires existaient, utilisant des souris femelles ou des lapines, consistant à en examiner les ovaires pendant 48 à 72 heures après l’injection d’urine, pour voir si celle-ci avait induit une ovulation. Ces tests présentaient des contraintes de temps, de coûts et l’utilisation d’animaux, ce qui a motivé la recherche de méthodes plus rapides et moins invasives.

La découverte de l’hormone hCG

Au début des années 1930, la docteure américaine Georgeanna Jones découvrit que le placenta produisait une hormone, appelée la gonadotrophine chorionique humaine, dont l’abréviation est l’hCG. Cette découverte en a fait un marqueur précoce de grossesse, et pour la tester, il ne restait plus qu’à la détecter !

En 1960, le biochimiste suédois Leif Wide immunisa des animaux contre l’hCG humaine et en purifia les anticorps. On avait donc à disposition des molécules, les anticorps, capables de détecter l’hCG, encore fallait-il que la réaction antigène-anticorps (dans ce cas, l’hCG est l’antigène reconnu par les anticorps) puisse être visible pour confirmer une grossesse à partir d’urines.

Le professeur Leif Wide développa un test de grossesse, selon une technologie appelée l’inhibition de l’hémagglutination. Elle se base sur l’utilisation de globules rouges, dont la couleur permet une analyse à l’œil nu. Si les anticorps se lient aux globules rouges, ils ont tendance à s’agglutiner, et cela forme une « tache rouge » au fond du test. En cas de grossesse, l’échantillon d’urine contient de l’hCG : les anticorps réagissent avec l’hCG et ne peuvent pas lier les globules rouges. L’absence de tâche rouge indique une grossesse ! Ce test était révolutionnaire, car, contrairement aux autres, et en plus d’être beaucoup moins coûteux, le résultat n’était obtenu qu’en deux heures.

L’invention de Margaret Crane

En 1962, l’entreprise américaine Organon Pharmaceuticals a commercialisé ce test de grossesse, à destination des laboratoires d’analyses médicales. En 1967, Margaret Crane est une jeune designer de 26 ans sans aucun bagage scientifique, employée par cette compagnie dans le New Jersey, pour créer les emballages de leur branche cosmétique. Un jour qu’elle visite le laboratoire de l’entreprise, elle assiste à l’exécution d’un des tests. Un laborantin lui explique la longue procédure, consistant au prélèvement d’urine par le médecin et à l’envoi à un laboratoire d’analyses. Il fallait attendre environ deux semaines pour une femme avant d’avoir un résultat.

Le test de grossesse inventé par Margaret Crane
Le test de grossesse inventé par Margaret Crane. National Museum of American History, CC BY

Malgré la complexité théorique de la technique, Margaret Crane réalise alors à la fois la simplicité de lecture du test et du protocole : il suffisait d’avoir des tubes, un flacon d’anticorps et un indicateur de couleur (les globules rouges) ! De retour chez elle à New York, elle lance des expériences en s’inspirant d’une boîte de trombones sur son bureau, et conçoit un boîtier ergonomique – avec tout le matériel et un mode d’emploi simplifié –, destiné à l’usage direct à la maison par les utilisatrices. Margaret Crane montre son prototype à Organon Pharmaceuticals, qui refuse l’idée, jugeant qu’une femme ne serait pas capable de lire seule le résultat, aussi simple soit-il…

La persévérance de Margaret Crane

Peu de temps après la proposition de Margaret Crane, un homme employé par Organon Pharmaceuticals s’en inspire et lance la même idée, et lui est écouté. Elle décide alors de tirer parti de la situation, en assistant aux réunions où elle était la seule femme. Plusieurs tests, prototypés par des designers masculins, y sont présentés : en forme d’œuf de poule, soit roses, soit décorés de strass… Sans aucune hésitation, c’est celui de Margaret Crane qui est choisi pour sa praticité, car elle l’avait pensé pour que son utilisation soit la plus facile possible. Margaret Crane dépose son brevet en 1969, mais Organon Pharmaceuticals hésite à le commercialiser tout de suite, de peur que les consommatrices soient dissuadées par des médecins conservateurs ou par leur communauté religieuse.

Il est mis pour la première fois sur le marché en 1971 au Canada, où l’avortement venait d’être légalisé. Bien que créditée sur le brevet américain, Margaret Crane ne perçut aucune rémunération, car Organon Pharmaceuticals céda les droits à d’autres entreprises.

L’histoire de Margaret Crane illustre un parcours fascinant, où l’observation empirique rencontre le design industriel. Sa contribution fut finalement reconnue en 2014 par le Musée national d’histoire américaine.

Son concept fondateur, celui d’un test simple, intuitif et autonome pour l’utilisateur, ouvrit la voie révolutionnaire aux tests de grossesse sous la forme que nous connaissons aujourd’hui et aux tests antigéniques, essentiels notamment lors de crises sanitaires.

The Conversation

Valérie Lannoy ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

21.08.2025 à 16:23

Comment le croisement des roses d’Orient et d’Occident au XIXᵉ siècle a totalement changé nos jardins

Thibault Leroy, Biologiste, chercheur en génétique des populations, Inrae
Jérémy Clotault, Enseignant-chercheur en génétique, Université d’Angers
En Europe, la rose a connu son âge d’or au XIXᵉ siècle : en l’espace de quelques décennies, le nombre de variétés s’est envolé, passant d’environ 100 à près de 8 000.
Texte intégral (2695 mots)
Photo de la variété ancienne La Sirène prise au sein de la roseraie Loubert (Gennes-Val-de-Loire, Maine-et-Loire). Agnès Grapin, équipe GDO, IRHS, Fourni par l'auteur

En Europe, la rose a connu son âge d’or au XIXe siècle : en l’espace de quelques décennies, le nombre de variétés s’est envolé, passant d’environ 100 à près de 8 000. Grâce à l’étude des caractéristiques de ces variétés et aux outils modernes de la génomique, nous venons de retracer l’histoire de cette évolution, marquée par d’importants croisements entre rosiers asiatiques et rosiers européens anciens. De ce mariage est née une diversité qui continue de façonner nos jardins contemporains.


Le XIXᵉ, un siècle rosomane

Depuis l’Antiquité, les roses sont cultivées, aussi bien en Chine que dans la région méditerranéenne, pour leurs vertus médicinales, notamment les propriétés anti-inflammatoires et antimicrobiennes des huiles essentielles ou comme sources de vitamine C dans les cynorrhodons (faux-fruits des rosiers), et pour leur forte charge symbolique, notamment religieuse. Pourtant, pendant des siècles, le nombre de variétés est resté très limité, autour d’une centaine. Le XIXe siècle marque un tournant majeur pour l’horticulture européenne avec une effervescence portée par un nouvel engouement pour l’esthétique des roses. Les collectionneurs – dont la figure la plus emblématique fut probablement l’impératrice Joséphine de Beauharnais– et les créateurs de nouvelles variétés français ont eu un rôle déterminant dans cet essor, donnant naissance à une véritable « rosomanie » et contribuant à une explosion du nombre de variétés, passant d’une centaine à près de 8000 variétés ! À titre de comparaison, depuis cette période, le nombre de variétés a certes continué de progresser, s’établissant à environ 30 000 variétés aujourd’hui, mais à un rythme de croissance moins soutenu.

Changements esthétiques des fleurs au cours du XIXᵉ siècle, sur la base d’un panel de variétés encore disponibles dans la roseraie de Thérèse Loubert (Gennes-Val-de-Loire, Maine-et-Loire), spécialisée en roses anciennes. Thibault Leroy, Fourni par l'auteur

Au-delà de l’augmentation du nombre de variétés, le XIXe siècle a été marqué par une grande diversification des caractéristiques des rosiers. Le nombre de pétales, notamment, est devenu un critère d’intérêt majeur. Les rosiers botaniques, des formes cultivées anciennes issues directement de la nature, ne possédaient en général que cinq pétales. Au fil du XIXe siècle, la sélection horticole a permis d’obtenir des variétés aux fleurs bien plus sophistiquées, certaines présentant plusieurs dizaines, voire des centaines de pétales. Cependant, cette évolution n’a pas suivi une progression linéaire : la première moitié du siècle a vu une nette augmentation du nombre de pétales, marquée par une mode des rosiers cent-feuilles, tandis que la seconde moitié a été plutôt caractérisée par une stagnation, voire un retour à des formes plus simples. Certaines variétés très travaillées sur le plan esthétique ont ainsi été sélectionnées pour paradoxalement n’avoir que cinq pétales.

Aquarelle d’un rosier cent-feuilles par Pierre-Joseph Redouté (1759-1840), familier de Joséphine de Beauharnais et célèbre pour ses planches botaniques, surtout de rosiers. Paradoxalement, le nom de cent-feuilles vient de leur grand nombre de pétales. Pierre-Joseph Redouté, Fourni par l'auteur

La plus grande différence entre les rosiers du début et de la fin du XIXe réside dans un caractère fondamental : la remontée de floraison. Jusqu’au milieu du XIXe siècle, les rosiers étaient majoritairement non remontants, c’est-à-dire qu’ils ne fleurissaient qu’une seule fois par an, au printemps. La capacité des rosiers à refleurir, en générant de nouvelles fleurs au cours de l’été, voire même jusqu’à l’automne, n’est pas le fruit du hasard ! Cette caractéristique a constitué un objectif important des sélectionneurs de l’époque. Cette histoire, très associée aux croisements génétiques effectués, notamment avec des rosiers chinois, a laissé une empreinte durable, aussi bien dans nos jardins contemporains que dans les génomes mêmes des rosiers.

Bien qu’ils n’en étaient pas conscients, les sélectionneurs ont aussi pu contribuer à l’introduction de caractères défavorables. Ainsi, en étudiant les niveaux de symptômes de la maladie des taches noires sur des centaines de variétés du XIXe, nous avons mis en évidence une augmentation de la sensibilité des variétés. Cette maladie est aujourd’hui considérée comme une des premières causes de traitements phytosanitaires sur les rosiers, ce qui n’est pas sans poser des questions sanitaires sur l’exposition aux pesticides des fleuristes et autres professionnels du secteur horticole. Notre étude a néanmoins trouvé des régions génomiques associées à une résistance à cette maladie, offrant l’espoir d’une sélection vers des variétés nouvelles plus résistantes.

Notre étude n’a pas uniquement porté sur la prédisposition aux maladies mais également à l’une des caractéristiques les plus importantes des roses : leur odeur. Le parfum des roses est expliqué par un cocktail complexe de molécules odorantes. Deux molécules sont néanmoins très importantes dans ce qu’on appelle l’odeur de rose ancienne, le géraniol et le 2-phényléthanol. Nous avons étudié le parfum de centaines de variétés et observé une très forte variabilité de celui-ci, autant en teneur qu’en composition. Nos résultats ne soutiennent toutefois pas, ou alors extrêmement marginalement, une réduction du parfum des roses au cours du XIXe siècle. La perte de parfum est vraisemblablement arrivée ultérieurement, au cours du XXe siècle, une période qui voit l’apparition d’une activité de création variétale spécifique pour les roses à fleurs coupées et qui aurait négligé le parfum des roses au profit de la durée de tenue en vase, permettant de délocaliser la production dans des pays aux coûts de production réduits.

Des rosiers aux génomes métissés

Pour mieux comprendre l’origine et la diversité de ces rosiers du XIXe, il faut désormais plonger dans l’univers de l’infiniment petit : celui de leurs génomes. Dans notre nouvelle étude, nous avons entrepris de caractériser en détail la génétique de plus de 200 variétés, en nous appuyant sur des dizaines de milliers de marqueurs, c’est-à-dire d’une information ciblée sur des zones particulières des génomes, connues comme étant variables selon les variétés, et ce, répartis sur l’ensemble de leurs chromosomes. Pour une trentaine de variétés, nous sommes allés encore plus loin, en décryptant l’intégralité de leur génome, fournissant non plus des dizaines de milliers, mais des dizaines de millions de marqueurs, ouvrant ainsi une fenêtre encore plus précise sur l’histoire génétique des rosiers. A noter que le mode de conservation nous a facilité la tâche pour étudier l’ADN de ces rosiers historiques directement à partir des plantes actuelles conservées en roseraie. En effet, grâce au greffage, les variétés de rosiers sont potentiellement immortelles !

Grâce à cette analyse, nous avons d’abord pu confirmer les résultats d’études antérieures qui, bien que fondées sur un nombre limité de marqueurs génétiques, avaient déjà mis en évidence que la diversification des rosiers du XIXe siècle résultait de croisements successifs entre rosiers anciens européens et rosiers asiatiques. La haute résolution offerte par la génomique nous a toutefois permis d’aller plus loin : nous avons montré que cette diversité s’est construite en réalité sur un nombre très réduit de générations de croisements, impliquant de manière récurrente des variétés phares de l’époque, utilisées comme parents dans de nombreux croisements. Il est remarquable de noter que cela s’est produit avec une bonne dose de hasard (via la pollinisation) puisque la fécondation artificielle (choix des deux parents du croisement) n’est utilisée sur le rosier qu’à partir du milieu du XIXᵉ siècle.

Bien que reposant sur un nombre limité de générations de croisements, contribuant à un métissage entre rosiers asiatiques et européens, notre étude a également permis de montrer que les rosiers possèdent une importante diversité génétique. Toutefois, la sélection menée au cours du XIXe siècle a contribué à une légère érosion de cette diversité, en particulier chez les variétés issues de la fin du siècle. Or, le maintien d’une large diversité génétique est essentiel pour la résilience et l’adaptation des espèces face aux changements environnementaux. Sa préservation au long cours représente donc un enjeu majeur. Tant que les anciennes variétés sont conservées, cette perte reste réversible. Il est donc crucial d’agir pour éviter leur disparition définitive en préservant les collections de roses anciennes et botaniques.

À l’échelle du génome complet, la sélection tend à réduire la diversité génétique. Mais à une échelle plus fine, ses effets peuvent être encore plus marqués, entraînant une diminution locale beaucoup plus prononcée de la diversité. Notre étude a ainsi révélé qu’une région du chromosome 3, contenant différentes formes d’un gène clé impliqué dans la remontée de la floraison, a fait l’objet d’une sélection particulièrement intense au XIXe siècle. Ce résultat, bien que prévisible compte tenu de l’importance de ce caractère, a été confirmé de manière claire à la lumière des données génomiques. De manière plus inattendue, nous avons également identifié d’autres régions du génome présentant des signatures similaires de sélection, notamment sur les chromosomes 1, 5 et 7. À ce stade, les gènes concernés, et les éventuels caractères morphologiques associés restent encore à identifier. Malgré les avancées de la génomique, le mariage des roses d’Occident et d’Orient au XIXe siècle garde encore nombre de ses secrets de famille !

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.

16 / 25

 

  GÉNÉRALISTES
Ballast
Fakir
Interstices
Lava
La revue des médias
Le Grand Continent
Le Diplo
Le Nouvel Obs
Lundi Matin
Mouais
Multitudes
Politis
Regards
Smolny
Socialter
The Conversation
UPMagazine
Usbek & Rica
Le Zéphyr
 
  Idées ‧ Politique ‧ A à F
Accattone
Contretemps
A Contretemps
Alter-éditions
CQFD
Comptoir (Le)
Déferlante (La)
Esprit
Frustration
 
  Idées ‧ Politique ‧ i à z
L'Intimiste
Jef Klak
Lignes de Crêtes
NonFiction
Nouveaux Cahiers du Socialisme
Période
Philo Mag
Terrestres
Vie des Idées
 
  ARTS
Villa Albertine
 
  THINK-TANKS
Fondation Copernic
Institut La Boétie
Institut Rousseau
 
  TECH
Dans les algorithmes
Framablog
Goodtech.info
Quadrature du Net
 
  INTERNATIONAL
Alencontre
Alterinfos
CETRI
ESSF
Inprecor
Journal des Alternatives
Guitinews
 
  MULTILINGUES
Kedistan
Quatrième Internationale
Viewpoint Magazine
+972 mag
 
  PODCASTS
Arrêt sur Images
Le Diplo
LSD
Thinkerview
 
Fiabilité 3/5
Slate
Ulyces
 
Fiabilité 1/5
Contre-Attaque
Issues
Korii
Positivr
Regain
🌞