URL du flux RSS

ACCÈS LIBRE UNE Politique International Environnement Technologies Culture

▸ les 25 dernières parutions

03.09.2025 à 12:26

Du monde du silence au babillage des baleineaux, une plongée-conversation avec Olivier Adam

Olivier Adam, Bioacousticien, Sorbonne Université
Olivier Adam nous emmène dans les profondeurs, où on apprend à connaître le chant des baleines, les clics des cachalots, et ce que le son représente pour ces espèces marines toujours si mystérieuses.
Texte intégral (7560 mots)
Olivier Adam est informaticien, spécialiste d’acoustique et de traitement du signal. Il suit les cétacés grâce à leurs vocalisations. Fourni par l'auteur

Olivier Adam, informaticien et professeur de traitement du signal à Sorbonne Université, a découvert les sons émis par les cétacés, lors d’une mission à Gibraltar, en 2003. C’était le début d’une passion au long cours. Il revient tout juste de Madagascar, où ses collègues et lui étudient les baleines à bosse. À cette occasion, il a raconté à Elsa Couderc, cheffe de rubrique Sciences et technologies à « The Conversation France », comment on apprend à mieux connaître ces animaux grâce aux surprenantes ondes sonores qu’ils émettent en permanence. Bienvenue dans un monde qui est tout sauf silencieux.


The Conversation : Vous êtes informaticien, à l’origine spécialiste d’acoustique et de traitement du signal. En entendant ces mots, on ne pense pas immédiatement à la vie sous-marine. Comment en êtes-vous venu à étudier les cétacés ?

Olivier Adam : Jusqu’en 2000, j’étudiais les pathologies du système auditif chez l’humain. On avait développé des outils informatiques permettant d’évaluer le fonctionnement de notre audition.

Puis, un jour, un collègue biologiste est revenu d’une conférence aux États-Unis, où les chercheurs avaient déjà commencé à collecter des sons de cétacés et à les analyser. Ce collègue, Christophe Guinet, voulait savoir à quelles profondeurs les cachalots descendaient au cours de leurs grandes plongées. Or, à l’époque, la seule manière de suivre ces animaux, c’était d’enregistrer leurs émissions sonores grâce à des hydrophones que l’on déployait en surface. Et il m’a demandé si je pouvais l’accompagner sur une mission : « On va faire des observations de cachalots en mai à Gibraltar, est-ce que tu veux venir ? » J’ai accepté. Là-bas, j’ai vu mon premier cachalot. Je l’ai enregistré et je ne m’en suis jamais remis. C’est quelque chose que je n’oublierai jamais. Ça a été un réel tournant pour moi, d’un point de vue personnel et scientifique.

Une baleine à bosse à Madagascar. Olivier Adam, Fourni par l'auteur

T. C. : Qu’est-ce que vous avez entendu ?

O. A. : Ce sont des sons complètement improbables dans notre oreille humaine, très différents des sons qu’on entend dans notre vie quotidienne. C’est dingue, parce que c’est un tout autre monde, un monde sonore auquel on n’a pas accès d’habitude, qu’on ne connaît pas. Et il est tout sauf silencieux.

Cette première fois à Gibraltar, le cachalot est resté à la surface, immobile, en train de respirer intensément pendant cinq ou dix minutes, puis il fait un « canard » [l’animal lève la nageoire caudale pour débuter sa plongée] et, à partir de là, pour moi qui ne peux pas descendre physiquement à ces profondeurs abyssales, la seule façon de le suivre, c’était en l’écoutant (à l’époque, les balises n’existaient pas). Ce que j’ai fait, totalement immobile sur le bateau, mon casque audio vissé sur la tête, pendant les quarante-cinq minutes de son extraordinaire plongée. Puis il est remonté à la surface, et ce cycle a recommencé par une phase de respiration intense avant de repartir en plongée. Grâce aux enregistrements sonores, on pouvait reconstruire son activité, c’est-à-dire sa prospection de la masse d’eau devant lui à la recherche de nourriture, sa chasse dans la pénombre des profondeurs et les moments où il avait trouvé à manger. C’était saisissant et spectaculaire.

Les clics d’un cachalot. Olivier Adam, Fourni par l'auteur1,4 Mo (download)

Il faut bien comprendre qu’en écoutant ces cétacés, on entre complètement dans leur monde, dans leur intimité. C’est ça qui est dingue : dès qu’ils descendent à quelques mètres, ils disparaissent, et la seule façon de rester en contact, c’est grâce à l’acoustique. On arrive à les accompagner et à les suivre, sans même avoir à plonger avec eux !

T. C. : Que pouvez-vous déduire des sons que vous enregistrez ?

O. A. : La première information qu’on en déduit est que si on les entend, c’est évidemment qu’ils sont présents. C’est très important, car une grande partie des cétacés est très discrète et ne s’approche pas des bateaux. Donc on ne les voit pas même quand ils viennent à la surface respirer. Par contre, on peut les entendre, et c’est cette détection de leurs émissions sonores qui témoigne de leur présence. Ensuite, on peut essayer de les localiser, et dire s’ils sont à proximité ou éloignés. Cette information est cruciale quand on veut décrire la fréquentation d’une zone d’intérêt, comme une aire marine protégée, ou les effets potentiels d’une activité anthropique en mer.

Les vocalisations d’une baleine boréale. Olivier Adam, Fourni par l'auteur1,26 Mo (download)

Et puis il y a d’autres analyses que l’on peut mener à partir des enregistrements de leurs émissions sonores. On peut s’intéresser à leur langage, à leurs comportements, et finalement à leur société. Comment vivent-ils ensemble ? Quelles sont leurs interactions ? Ce sont de très belles questions scientifiques, tout à fait d’actualité aujourd’hui !

T. C. : Comment les cétacés perçoivent-ils le monde ?

O. A. : Ils ont les mêmes sens que nous. La vue, par exemple, car même si on s’imagine qu’il fait noir dans les grandes profondeurs, avec la bioluminescence [émanant de céphalopodes comme le calmar diaphane, ou de crevettes], il y a quand même quelques repères visuels.

De plus, près de la surface, les cétacés restent en contact et évoluent à proximité les uns des autres – c’est le sens du toucher. C’est même étonnant de les voir ainsi alors qu’ils ont l’immensité de l’océan à eux. Il faut croire que le vivre-ensemble est très important dans leur société.

Ensuite, il y a aussi le goût et l’odorat, mais probablement moins développés que pour les mammifères terrestres.

Pour la « perception magnétique », c’est plus compliqué. Il s’agit d’une hypothèse qui a été souvent avancée pour les grandes baleines afin d’expliquer leurs routes migratoires, mais sans que ce soit totalement démontré. Par contre, il y a eu des recherches sur les dauphins qui ont montré leur sensibilité au champ magnétique.

Mais il est clair que l’audition est fondamentale pour les cétacés. Ils ne peuvent tout simplement pas vivre avec un système auditif défaillant. En plus, les odontocètes [les cétacés à dents, comme les dauphins et les orques] ont une faculté supplémentaire : l’écholocalisation. Ils vont émettre des sons courts pour trouver leurs proies ou pour avoir des informations sur leur environnement immédiat. L’écholocalisation consiste à émettre des « clics » sonores, et à interpréter leurs rebonds acoustiques sur les obstacles autour d’eux – que ce soient des rochers, des bateaux, ou d’autres animaux. Grâce à ces échos, ils peuvent se repérer dans l’espace, savoir ce qu’il y a autour d’eux, si c’est immobile ou en mouvement…

groupe de dauphins sous l’eau
Des dauphins en groupe. Olivier Adam, Fourni par l'auteur

À lire aussi : À la découverte de l’univers sensoriel des dauphins et de leurs trois « super-sens »


Aujourd’hui, on essaye de comprendre si cette image acoustique leur apporte d’autres informations, par exemple, une texture, une sensation. Personnellement, je ne pense pas qu’il faille réduire l’écholocalisation à l’obtention d’une image mentale. Ce que je dis est certes très spéculatif, car je n’ai pas encore de preuve scientifique de cela, mais c’est mon intuition parce que les odontocètes émettent des clics en permanence, même lorsqu’ils sont assez proches pour voir complètement ce qu’ils sont en train d’écholocaliser. Pourquoi feraient-ils cela s’ils ont déjà un visuel très clair de ce qu’ils ont devant eux ? Du coup, je suis convaincu que la perception et l’interprétation qu’ils ont des échos leur procurent des informations et des ressentis qui vont bien au-delà d’une simple image.

T. C.  : Est-ce que vous pouvez reconnaître ces animaux à partir de leurs clics ?

O. A. : Les cachalots, oui – ils font des sons très spécifiques, très forts et souvent avec des rythmes particuliers. Ils se distinguent nettement des 90 autres espèces de cétacés.

Mais il faut comprendre que, si on connaît bien certaines de ces espèces car on les observe régulièrement, comme les baleines à bosse par exemple, il y en a d’autres que l’on ne voit presque jamais dans leur environnement naturel et que l’on découvre parce qu’un jour, un individu s’échoue sur une plage. Cela a été le cas, par exemple, au nord-ouest de Madagascar où un cachalot pygmée s’est échoué. Il mesurait moins de 4 mètres, comparé aux 15-18 mètres du grand cachalot, et on ne savait même pas que cette espèce était présente dans les eaux malgaches. En fait, il s’agit d’une espèce très furtive, donc très difficile à observer dans le milieu naturel. C’est la raison pour laquelle on a très peu d’information, que ce soit sur son mode de vie, son groupe social et sa production sonore. Donc, clairement, on ne connaît pas les émissions sonores de toutes les espèces de cétacés !

T. C. : Le son peut servir à plein de choses aux cétacés, et, comme vous le disiez, à avoir une vie sociale. On sait notamment que différents clans d’une même espèce ont des manières de s’exprimer différentes, n’ont pas le même langage. Comment apprend-on ce genre de choses ?

O. A. : Sur le langage, les premiers gros travaux datent des années 1960-1970 avec des études réalisées sur des dauphins en captivité. Les scientifiques essayaient d’évaluer leur intelligence, notamment en parlant avec eux, que ce soit en anglais ou grâce à des sifflements.

Quand on a voulu faire ces expérimentations dans le milieu naturel, cela a été beaucoup plus compliqué. Aujourd’hui, il y a des scientifiques, comme Denise Herzing ou Diana Reiss à New York, qui mènent ce type de recherche sur la structure sociétale des dauphins dans leur environnement naturel. Elles basent leurs travaux sur des observations visuelles et acoustiques, et c’est très compliqué du fait de la faible disponibilité des cétacés. J’ai moi-même essayé de travailler sur les dauphins en Guadeloupe et à La Réunion, mais cela demande de la patience et de l’obstination pour leur proposer une expérimentation, car il est très rare qu’ils restent suffisamment longtemps avec nous avant de repartir vivre leur vie.

En ce qui concerne ce qu’on pourrait appeler les « dialectes » de populations des baleines à bosse : les biologistes comparent leurs vocalisations depuis les années 1970. On a noté que leurs chants se transmettaient de génération en génération. Aussi, pour les groupes qui sont dans des hémisphères différents et, donc, qui ne peuvent pas s’entendre, elles vont émettre des vocalisations différentes. C’est pour cela qu’on parle de « dialectes régionaux ».

Les vocalisations d’une baleine à bosse. Olivier Adam, Fourni par l'auteur1,54 Mo (download)

T. C. : Donc les baleines à bosse ne « parlent » pas le même dialecte, alors qu’elles possèdent toutes les mêmes capacités physiques pour produire des sons.

O. A. : Tout à fait. J’ai travaillé avec la chercheuse américaine Joy Reidenberg sur l’anatomie de leur système respiratoire, et nous avons décrit les différents éléments de leur générateur vocal. Et oui, c’est le même pour toutes les baleines à bosse, mâles et femelles. Même si, techniquement, il n’y a que les mâles qui chantent – les femelles vocalisent aussi, mais elles ne répètent pas des phrases plusieurs fois de suite, donc on ne parle pas de chant pour elles, mais de « sons sociaux ».

Concernant les dialectes, comme je le disais tout à l’heure, il est normal qu’elles ne partagent pas les mêmes vocalisations avec des baleines qui ne sont pas de la même population.

Par contre, il y a des exceptions à cette règle : on a remarqué quelques vocalisations qu’elles ont toutes en commun, par exemple des « woop » et des sons pulsés. Et ça, on ne sait pas pourquoi. Est-ce que ce sont les plus vieilles vocalisations de leur répertoire ? ou les plus faciles à émettre ? ou les plus intuitives ?

La chercheuse américaine Michelle Fournet [Université du New Hampshire] s’est intéressée à cette question. Elle a postulé que le « woop » correspondait à une sorte de signalement, comme un « bonjour ». Elle a testé son hypothèse en diffusant ce son dans l’eau, et il y a eu plein de baleines à proximité, qui ont répondu, à leur tour, en émettant cette même vocalisation. C’est intéressant ! On est aujourd’hui dans quelque chose d’entièrement spéculatif, mais c’est une nouvelle thématique qui est de plus en plus à la mode, le « playback ».

Avec mes collègues d[e l’Université d’]’Orsay et du Cerema [Centre d’études et d’expertise sur les risques, l’environnement, la mobilité et l’aménagement, du ministère de la transition écologique], je la pratique depuis deux ans maintenant. On enregistre des sons et, pour certains, on pense qu’ils ont une signification. On essaye comme cela d’avancer dans le dictionnaire des cétacés. C’est passionnant, mais pas très simple, car il faut pouvoir observer très finement les réactions des cétacés au moment même de la diffusion des sons que l’on veut tester.

Respiration en surface d’une baleine à bosse. Olivier Adam, Fourni par l'auteur

Aussi, pour ne rien rater, nous sommes obligés de combiner des drones aériens, pour observer ce que les animaux font à la surface, et des balises électroniques que l’on ventouse sur leur dos et qui nous informent sur leurs mouvements quand on perd le contact avec eux en surface parce qu’ils descendent en plongée. Il s’agit d’expérimentations difficiles à mettre en œuvre et longues dans leur durée, mais qui sont nécessaires pour enregistrer leurs réactions et comprendre les effets de tel ou tel son.

T. C. : Est-ce qu’avec le « playback », le but est de créer des « dictionnaires » dans lesquels on aurait une correspondance entre un mot humain et un son animal ? Quel est le degré d’anthropomorphisme quand on parle de langage animal ?

O. A. : C’est compliqué, en fait. Dans les années 1970, on était partis sur l’idée « un son égale un mot » : on essayait de trouver à quel mot correspondait chaque son émis.

Aujourd’hui, on a un peu changé de concept. On regarde plutôt des phrases, parce que les baleines à bosse émettent leurs vocalisations dans un certain ordre, en séquences temporelles parfaitement organisées dans le temps, et elles les répètent dans ce même ordre.

Aussi, on s’interroge sur cette structure temporelle du fait que les vocalisations ne sont pas émises de façon aléatoire. On se demande également : « Si on enlève une vocalisation, est-ce que ça change la phrase, ou pas ? » C’est comme si on enlevait une note dans une partition de musique : est-ce que cela change complètement la mélodie ? Et probablement que, comme pour certaines notes, des vocalisations pourraient avoir un rôle plus important que d’autres dans la syntaxe mélodique du chant. Ce que je veux dire, c’est que peut-être que nous ne devrions pas considérer les vocalisations toutes de la même façon.

Et on pourrait aussi envisager une combinaison des deux, c’est-à-dire une signification particulière pour une vocalisation et une autre liée à l’ensemble de la phrase, c’est-à-dire finalement des choses plus complexes à imaginer et à déchiffrer.

Les scientifiques s’intéressent aussi à la communication interespèce, par exemple en diffusant des sons d’orques à d’autres espèces de cétacés. C’est ce que fait très bien la chercheuse Charlotte Curé [Cerema]. Et c’est super intéressant, car leurs réactions ne sont pas les mêmes ! Par exemple, les cachalots ont arrêté leur plongée pour remonter illico à la surface et voir ce qui se passait. Les globicéphales, qui sont de grands dauphins avec une tête arrondie et qui vivent toujours en grands groupes de plusieurs dizaines d’individus, quant à eux, sont venus au bateau… probablement pour vérifier s’il y avait à manger, car ils partagent les mêmes proies que les orques. Par contre, pour les baleines à bosse, c’était le contraire : elles se sont éloignées discrètement, sûrement pour se protéger de potentielles attaques…

Voilà où on en est aujourd’hui… Ces questions de langage, ça va prendre du temps.

T. C. : On comprend que ce sujet n’est pas facile. Quelles seraient les prochaines étapes pour avancer sur le langage des baleines ?

O. A. : Il y a plein de questions qui ne sont absolument pas résolues aujourd’hui ! Par exemple, on n’a toujours pas réussi à extraire la signature acoustique individuelle chez les baleines à bosse. Cela signifie qu’on ne sait pas reconnaître un individu à partir des sons qu’il émet. Pour ma part, je suis convaincu qu’elle existe et que ces cétacés s’identifient entre eux uniquement à partir de leurs émissions sonores !

Autre chose qu’on ne sait toujours pas, c’est s’il y a une « hiérarchie vocale » ? À partir du moment où on parle de groupes sociaux, on peut s’attendre à une certaine organisation avec des « leaders » ou des « influenceurs » – on pourrait imaginer que certains individus sont plus loquaces et imposent leurs vocalisations et leurs décisions. Si oui, qui sont-ils ? Sont-ils les plus vieux, les plus imposants, les plus rapides, ou tout le contraire ?

Pour les cachalots, on sait que c’est le cas : il y a des communautés d’une douzaine de femelles qui vivent ensemble toute leur vie. Ce sont des clans. Ces individus partagent des sons, s’alimentent dans les mêmes zones et élèvent leurs jeunes ensemble. Les rôles sociaux sont partagés. On distingue la matriarche, qui est la femelle plus vieille. On repère aussi les nounous qui s’occupent de tous les petits lorsque les autres adultes plongent pour s’alimenter.

Chez les orques, la structure sociale est différente. La mère garde ses petits tout au long de sa vie. Elle va leur transmettre son savoir, c’est-à-dire comment trouver les proies, les meilleures techniques de chasse et leur répertoire vocal. Cet apprentissage de génération en génération est juste exceptionnel. Il est essentiel pour leur survie et constitue la culture du groupe.

Chez les baleines à bosse en revanche, la société est plus ouverte. Les relations entre les adultes sont très souples, notamment pendant la période de reproduction, au cours de laquelle les mâles se reproduisent avec plusieurs femelles, et inversement. Par contre, il existe un lien particulièrement fort : celui qui relie la mère à son baleineau. Au cours de sa première année, ce dernier est totalement dépendant de sa mère, pour l’alimentation, pour les déplacements, pour sa protection.

vue du ciel
Une baleine à bosse et son baleineau. Olivier Adam, Fourni par l'auteur

T. C. : Est-ce que les baleineaux « babillent » ?

O. A. : Oui, tout à fait. Les sons des baleineaux sont moins puissants, moins construits, moins cohérents – c’est assez mignon ! Nous avons montré qu’ils émettent des sons dès la première semaine après leur naissance – comme nos bébés.

En plus, ils naissent là où les mâles chantent, ce qui laisse croire que les baleineaux ont entendu ces chants puissants alors qu’ils étaient encore dans le ventre de leur mère.

Puis, au cours de leurs premières semaines de vie, ils vont apprendre à contrôler leur générateur vocal pour imiter les vocalisations des aînés et les reproduire tout au long de leur vie.

Deux baleines à bosse : le baleineau et sa mère. Olivier Adam, Fourni par l'auteur319 ko (download)

Une de nos étudiants, Maevatiana Ratsimbazafindranahaka, qui a soutenu sa thèse en novembre 2023, a montré que les baleineaux réclament du lait à leur mère. Un peu comme s’ils chouinaient quand ils ont faim !

T. C. : Vous travaillez beaucoup sur les baleines à bosse à Madagascar… Encore cet été, vous étiez là-bas, et c’est de là que viennent les photos qui illustrent cet entretien. Comment ont évolué les choses depuis votre première mission sur l’île en 2007 ?

O. A. : Quand j’ai commencé à travailler sur les cétacés au début des années 2000, personne en France ne s’intéressait à leurs émissions sonores. En plus, le matériel pour enregistrer des sons en mer coûtait cher, donc il était difficilement accessible pour débuter.

C’est finalement auprès d’un laboratoire américain que j’ai pu récupérer mes premières données, mais cela a été aussi ma première déception : elles n’étaient pas d’assez bonne qualité pour être utilisées d’un point de vue scientifique. Il faut se rappeler que, contrairement à aujourd’hui, à l’époque, les gens ne partageaient pas leurs données très facilement.

Donc la seule solution était d’aller en mer pour faire moi-même mes enregistrements. C’était nouveau pour moi – j’étais très surpris que des biologistes passent des mois entiers au milieu de nulle part pour aller enregistrer des espèces non humaines, alors que moi, quand j’ai fait ma thèse en informatique, toutes les données que j’utilisais étaient accessibles très facilement sur Internet, il suffisait de les télécharger sur un serveur. En commençant ma recherche sur les cétacés et en travaillant avec des biologistes, je me suis rendu compte du temps, de l’énergie et de la patience qu’il faut pour observer le vivant.

chercheurs sur un bateau
Étudier les cétacés est un vrai travail d’équipe, tant de nombreuses compétences sont nécessaires. Olivier Adam, Fourni par l'auteur

Je suis arrivé à Madagascar en 2007. Je n’avais jamais vu de baleines à bosse, je ne les avais jamais écoutées. Et là, ça a été un choc. Déjà parce que je me suis retrouvé dans une barque de six mètres de long, totalement ouverte aux intempéries, avec un petit moteur de 60 CV, et sans gilets de sauvetage… Au niveau sécurité, il faut reconnaître qu’on n’était pas complètement au point ! On allait en mer pour écouter des chants des journées entières. Je déployais un simple hydrophone du bateau et, pendant des heures, on les écoutait en direct. C’était complètement fou toute l’énergie acoustique qu’elles envoyaient à travers l’océan !

Par la suite, j’ai continué de travailler avec l’association Cétamada. Avec eux, on a fait des choses exceptionnelles. On a installé la première station acoustique pour enregistrer les chants tout au long de la saison. On a prélevé des échantillons de peau pour constituer la plus grande base génétique de l’océan Indien. On s’est aussi intéressés aux habitats, à la distribution géographique de ces baleines. On a ainsi montré qu’elles sont très mobiles pendant la période de reproduction, en se déplaçant dans tout l’océan Indien. Au cours d’une même saison, ce sont les mêmes individus que l’on voit à La Réunion, à Madagascar, aux Comores, et jusqu’à la côte africaine. Ce sont de vrais nomades. Et maintenant, comme je le disais précédemment, on travaille sur le playback.

T. C. : Aujourd’hui, vos bases de données acoustiques sont agrémentées d’autres types de données ?

O. A. : Oui, tout à fait, l’acoustique est une des méthodes. J’étais focalisé sur l’acoustique au début de ma carrière, je lui suis toujours, mais, maintenant, j’utilise aussi d’autres outils d’observation pour avoir une description la plus complète possible. Car il faut bien comprendre que chaque méthode a ses avantages et ses inconvénients. Elles sont complémentaires. Donc je recommande vraiment de ne pas hésiter à combiner les observations visuelles faites par des observateurs à bord des bateaux ou en utilisant un drone aérien, l’acoustique évidemment, et de faire aussi des prélèvements d’eau pour faire de l’ADN environnemental.

Mais il faut noter que toutes ces données n’ont pas ce caractère instantané qui nous permet de suivre, même a posteriori, ce que font les cétacés. Du coup, aujourd’hui, nous déployons aussi des balises électroniques que l’on ventouse sur le dos des cétacés. Elles sont équipées d’une caméra, d’un hydrophone et de différents capteurs qui nous permettent de savoir exactement ce qu’elles ont fait durant leurs plongées.

Malheureusement, ces balises ne restent attachées que quelques heures avant de se détacher par elle-même généralement du fait de la force hydrodynamique qui s’exerce quand la baleine se déplace. Connaître son activité pendant un temps si court est assez frustrant quand on sait qu’une baleine vit cent ans ! Idéalement, on aimerait bien suivre sa vie sur plusieurs années…

Île Sainte-Marie à Madagascar, en août 2025. Olivier Adam, Fourni par l'auteur

Quoi qu’il en soit, les bases de données ont augmenté d’une façon incroyable. Au milieu des années 2010, il y a eu un réel basculement : on est passé d’une ère où on avait très peu de données à une ère où on en avait trop – c’est le big data des cétacés. Les hydrophones et les drones sont très accessibles, les smartphones s’emportent partout… on peut capter des données 24 heures sur 24, 7 jours sur 7.

Notre communauté scientifique s’organise pour développer des méthodes afin d’analyser les sons qu’on a mesurés et de ne pas les mettre à la poubelle faute de temps pour les analyser. Par exemple, je travaille aujourd’hui avec une doctorante, Lucie Jean-Labadye, informaticienne elle aussi, qui applique des méthodes d’intelligence artificielle et d’apprentissage profonds pour interpréter les enregistrements sous-marins.

T. C. : Justement, à quoi sert l’IA dans le cadre de vos travaux ?

O. A. : À deux choses. Tout d’abord, il s’agit de traiter ces grandes bases de données. En fait, pour la détection et la classification des événements sonores, les programmes que l’on a développés depuis les années 2000 étaient basés sur l’extraction de quelques caractéristiques acoustiques, comme les fréquences et les durées. Cela était suffisant lorsqu’on s’intéressait à certaines vocalisations, mais leurs performances se dégradaient avec la forte augmentation de la taille des bases de données. Pour faire simple, ces méthodes généralisent mal.

Or, aujourd’hui, on a besoin de méthodes qui permettent de traiter des grandes bases de données. L’IA nous aide à traiter massivement tous les enregistrements acoustiques, et donc à analyser les paysages sonores.

La deuxième raison de s’intéresser à l’IA, c’est que l’on peut se focaliser sur les détails. Pour classifier des vocalisations de baleines, il faut se fixer des critères et des seuils. Or cela s’avère vite très compliqué et fastidieux. Et souvent, au final, cela ne nous aide pas à mieux comprendre l’information, car on ne sait pas trop où elle est cachée.

Avec l’IA, on peut tester plein de critères différents et les appliquer à des centaines d’heures d’enregistrement. Cela permet de tester différentes solutions, de faire les choses plus rapidement et de mieux comprendre la signification de leur langage.

T. C. : Aujourd’hui, vous travaillez aussi sur les « paysages sonores sous-marins ». Qu’est-ce que c’est ? Pourquoi étudier ces paysages sonores ?

O. A. : Il est important de replacer ce que font les cétacés dans le contexte environnemental dans lequel ils évoluent. En particulier, on sait que les activités humaines ont des influences directes sur les écosystèmes marins. Et toutes nos activités sont bruyantes.

Donc, travailler sur les paysages sonores revient à savoir ce qui relève de notre présence en mer, à nous les humains, et de pouvoir caractériser cette pollution sonore. L’idée est donc de classer les événements sonores en trois catégories : la « biophonie » incluant les sons du vivant comme les chants de baleines, par exemple ; la « géophonie » qui rassemblent les sons de l’environnement, tels que la pluie ; et l’« anthropophonie », qui correspond à tous les sons issus des activités humaines.

Les enregistrements acoustiques nous donnent principalement les niveaux sonores et les bandes fréquentielles. En fonction des types de sons et de leur durée d’exposition, on peut en déduire les risques encourus par les cétacés. L’objectif est clairement d’avancer sur la conservation de l’océan et la protection des cétacés. Il est essentiel de tout faire pour mieux considérer l’océan et ses habitants. Et de soutenir des régulations de nos activités économiques pour protéger efficacement le milieu marin. C’est urgent, aujourd’hui.

De nombreux secrets demeurent encore sous la surface. À Madagascar, en août 2025. Olivier Adam, Fourni par l'auteur
The Conversation

Olivier Adam ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

01.09.2025 à 15:52

Drones et robots tueurs dans la guerre : soldat ou algorithme, qui décidera de la vie et de la mort demain ?

Laurent Vilaine, Docteur en sciences de gestion, ancien officier, enseignant en géopolitique à ESDES Business School, ESDES - UCLy (Lyon Catholic University)
Alors que les armes autonomes sont de plus en plus présentes dans les conflits armés, comment concilier progrès technologique et impératif de contrôle humain ?
Texte intégral (2420 mots)

Il est impossible de purement et simplement ignorer la propagation sans cesse plus rapide des armes létales autonomes et de l’intelligence artificielle sur les théâtres de guerre ; mais il serait éminemment dangereux de confier la prise de décision à la technologie seule.


La guerre des machines est déjà en cours. Ces dernières années, le recours massif aux drones et à l’intelligence artificielle (IA) a transformé le champ de bataille et la nature des opérations. L’autonomie accélère la détection et la délivrance du feu. La refuser, c’est rendre les armes. L’envisager sans garde-fous, c’est percevoir la guerre dénuée de toute éthique.

La France est une puissance moyenne qui ne peut se permettre de prendre du retard technologique. Mais la France est également une grande démocratie qui se veut exemplaire : elle ne peut faire n’importe quoi avec l’avènement de ces nouvelles armes. Elle doit instaurer la primauté humaine sur le code informatique, assumer un couple homme-machine où l’impact militaire demeure, mais où l’humain reste responsable.

Les drones, l’IA, les robots tueurs sont déjà là. Le front en Ukraine est saturé de drones et de logiciels qui trient des images. Déjà, des prototypes sont capables de détecter, de poursuivre et de frapper presque sans intervention humaine. Où la France se place-t-elle dans cette rapide évolution, et que doit-elle décider aujourd’hui pour rester dans la course sans nier ses valeurs ?

Ce qui a déjà changé

Le drone est devenu l’outil d’artillerie du pauvre. Il est l’instrument de reconnaissance de la petite unité et l’engin de précision du dernier mètre. Avec les milliers de drones dans le ciel, l’œil est partout, l’angle mort se réduit. La surprise se joue en secondes.

L’artillerie classique est, certes, toujours efficace. Mais la rupture que constituent les drones est d’abord logicielle : des algorithmes identifient une silhouette humaine ou celle d’un véhicule et accélèrent le temps entre la détection et la frappe. C’est précisément là où l’humain fatigue, là où chaque seconde compte et que la valeur ajoutée de l’autonomie s’affirme.

Pourquoi l’autonomie change tout

Il est nécessaire de distinguer l’idéal du réel. Dans la première configuration, l’humain décide alors que, dans la deuxième, l’humain commence à déléguer des éléments de son jugement à, par exemple, une alerte automatique ou à une trajectoire optimale.

Concrètement, il est d’usage de parler de trois régimes différents :

  • l’humain dans la boucle ;
  • l’humain sur la boucle ;
  • et l’humain hors de la boucle.

Le premier cas est très simple : l’humain décide. Dans le deuxième cas, l’humain surveille et, éventuellement, interrompt. Dans le troisième cas, la machine est préprogrammée et décide seule.

Ce n’est pas qu’une affaire de choix, car, à très haute vitesse (défense antidrones, interception de missiles ou encore combat collaboratif aérien complexe), la présence humaine tend à s’effacer, puisque l’action se joue en secondes ou en dizaines de secondes. Le réalisme et l’efficacité de l’action imposent dès lors de penser que refuser toute autonomie revient à accepter d’être lent et, donc, inopérant. En revanche, accepter une autonomie totale, c’est-à-dire rejeter tout garde-fou, c’est faire entrer de l’incertitude, voire de l’erreur, dans le fonctionnement d’une action létale.

La responsabilité stratégique et éthique d’un pays démocratique se joue entre ces deux pôles.

Le dilemme des puissances moyennes

La France est, du point de vue militaire, une puissance moyenne, mais de très haute technologie. Elle est souveraine dans la grande majorité de ses équipements, mais ne dispose pas d’un budget illimité, ce qui l’oblige à arbitrer.

Dans ce contexte, se priver d’autonomie revient à prendre le risque d’un retard capacitaire face à des régimes autocratiques à l’éthique inexistante ; s’y jeter sans doctrine, c’est s’exposer à une bavure ou à une action involontaire menant à une escalade risquant d’éroder la confiance de la société dans sa propre armée.

Atouts et angles morts français

La France dispose d’une armée moderne et aguerrie en raison de sa participation à de nombreuses missions extérieures. Sa chaîne hiérarchique est saine car elle responsabilise les différents niveaux (contrairement à l’armée russe par exemple). Son industrie sait intégrer des systèmes complexes. En outre, elle dispose d’une grande expertise de la guerre électronique et en cybersécurité. Ces différentes caractéristiques sont des fondements solides pour développer une autonomie maîtrisée.

En revanche, les défauts de l’industrie française sont connus. Son industrie et les militaires privilégient des solutions lourdes et chères. En bonne logique ; les cycles d’acquisition sont longs en raison des innovations. Enfin, une certaine difficulté à passer du démonstrateur à la série peut être constatée.

Tout cela rend difficile la réponse à un besoin massif et urgent du déploiement de drones et de systèmes antidrones, qui combinent détection, brouillage, leurre et neutralisation, du niveau section jusqu’au niveau opératif (sur l’ensemble d’un front).

Ce que la France devrait décider maintenant

L’industrie doit ancrer la primauté nouvelle dès la conception de l’arme ou du système d’armes. Cet objectif doit incorporer certains impératifs : chaque boucle létale (processus de décision et d’action qui conduit à neutraliser ou à tuer une cible) doit avoir un responsable humain identifiable.

En outre, des garde-fous techniques doivent être mis en place. Des « kill-switch » (« boutons d’arrêt d’urgence ») physiques doivent être installés dans les systèmes. Des seuils reparamétrables doivent être prévus : par exemple, si un radar ou une IA détecte une cible, il est nécessaire de définir un seuil de confiance (par exemple de 95 %) avant de la classer comme ennemie. Des limitations géographiques et temporelles codées doivent être prévues. Par exemple, un drone armé ne peut jamais franchir les coordonnées GPS d’un espace aérien civil ou bien une munition autonome se désactive automatiquement au bout de trente minutes si elle n’a pas trouvé de cible.

Un autre point important est que la décision doit être traçable. Il est nécessaire de posséder des journaux de mission permettant de déterminer qui a fait quoi, quand et sur quelle base sensorielle (radars, imagerie, etc.). Une telle traçabilité permet de définir la chaîne de responsabilité. Elle permet également d’apprendre de ses erreurs.

La formation des personnels est aussi importante que la qualité des matériels. Les militaires doivent être formés, préparés à l’ambiguïté. Les opérateurs et décisionnaires doivent être en mesure de comprendre le fonctionnement et les limites des algorithmes, savoir lire un score de confiance. Ils doivent être en mesure de reconnaître une dérive de capteur et, par conséquent, de décider quand reprendre la main. Paradoxalement, l’autonomie exige des humains mieux formés, pas moins.

Sur le plan capacitaire, la France doit apprendre le « low-cost », ce qui implique de disposer d’essaims et de munitions rôdeuses en nombre. Pour ce faire, le pays doit savoir intégrer dans sa base industrielle de défense aussi bien les grandes entreprises traditionnelles que des start-ups innovantes pour plus de productions locales et réactives. Il ne s’agit pas de remplacer les systèmes lourds, mais bien de les compléter afin de pouvoir saturer le champ de bataille.

Le pays, qui a délaissé la capacité antiaérienne, doit bâtir une défense antidrones, chargée de la courte portée et ayant les capacités de détecter, d’identifier, de brouiller, de leurrer, de durcir les postes de commandement (c’est-à-dire leur apporter une protection plus efficace, en les enterrant, par exemple) et protéger les convois. Ces capacités doivent être intégrées dans l’entraînement au quotidien.

Ce qu’il faut éviter

Un piège peut être une forme de surenchère normative stérile. Il est nécessaire de tenir bon sur les principes sans être naïf dans un monde de plus en plus agressif. Si la France dit explicitement « Jamais de robots tueurs autonomes », cela n’empêchera pas d’autres pays d’en utiliser ; mais dire « Toujours oui à ces technologies » serait incompatible avec les principes moraux proclamés par Paris.

Un cadre clair, ajusté par l’expérience, doit donc être inventé.

La dépendance logicielle et, donc, l’absence de souveraineté numérique sont très dangereuses. Il est indispensable de ne pas acheter de briques IA sans véritablement connaître leurs biais, sans savoir ce que l’algorithme a pris en compte. Un effort financier continu doit être entrepris pour développer nos propres outils.

Enfin, il faut éviter d’oublier le facteur humain. Il serait tentant de soulager la chaîne décisionnelle par l’automatisation. Ce serait la priver de l’intelligence de situation propre aux humains et de leur intuition difficilement codable. La doctrine doit accepter de ralentir provisoirement l’action sur le champ de bataille pour laisser la place au jugement.

Responsabilité et droit : la vraie ligne rouge

Une machine, bien paramétrée, peut paradoxalement mieux respecter qu’un humain le droit des conflits armés qui repose sur quelques principes simples. Durant un conflit, il est nécessaire de distinguer (ne pas frapper les civils), d’agir dans le cadre de la proportionnalité, c’est-à-dire de ne pas causer de dommages excessifs (ce qui est très difficile à mettre en œuvre) ; et d’appliquer la précaution (faire tout ce qui est raisonnable pour éviter l’erreur).

Si une machine peut aider à appliquer ces principes, elle ne peut, seule, assumer la responsabilité de se tromper.

Comment correctement appliquer ces principes ? Réponse : c’est le commandement qui s’assure que les paramétrages et les règles ont été convenablement définis, testés, validés.

Société et politique : ne pas mentir au pays

La guerre est par nature une activité terrible, destructrice des âmes et des chairs. Affirmer que le recours généralisé à l’IA permettrait de rendre la guerre « propre » serait une imposture intellectuelle et morale.

L’autonomie est ambiguë. Si elle peut réduire certaines erreurs humaines inhérentes au combat (la fatigue, le stress, la confusion, l’indécision), elle en introduit d’autres :

  • le biais : une IA entraînée avec des images de chars soviétiques dans le désert peut se tromper si elle rencontre un blindé moderne en forêt) ;
  • les capteurs trompés : des feux de camp peuvent tromper une caméra infrarouge qui les prendra pour des signatures humaines ou de véhicules
  • la confusion. Exemple historique : en 1983, l’officier soviétique Stanislav Petrov a refusé de croire son système d’alerte qui détectait à tort une attaque nucléaire américaine contre l’URSS. Une IA autonome aurait appliqué son programme et donc déclenché le feu nucléaire soviétique contre le territoire des États-Unis…

Coder nos valeurs

Notre pays doit faire concilier agilité et vitesse au combat, et conscience humaine. Cela suppose de coder nos valeurs dans les systèmes (garde-fous, traçabilité, réversibilité), de procéder à des essais dans le maximum de situation (temps, météo, nombres différents d’acteurs, etc.), d’enseigner ce que l’on pourrait appeler « l’humilité algorithmique », du sergent au général.

Alors, demandions-nous, qui décidera de la vie et de la mort ? La réponse d’un pays démocratique, comme le nôtre, doit être nuancée. Certes, la machine étend le champ du possible, mais l’humain doit garder la main sur le sens et sur la responsabilité. L’autonomie ne doit pas chasser l’humain. La guerre moderne impose la rapidité de l’attaque et de la réplique. À notre doctrine d’éviter de faire de cet impératif un désert éthique.

The Conversation

Laurent Vilaine ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

27.08.2025 à 17:10

Ce que les pleurs de bébé nous disent vraiment – et pourquoi l’instinct maternel est un mythe

Nicolas Mathevon, Professeur (Neurosciences & bioacoustique - Université de Saint-Etienne, Ecole Pratique des Hautes Etudes - PSL & Institut universitaire de France), Université Jean Monnet, Saint-Étienne
Est-il possible de traduire les pleurs des bébés pour comprendre avec exactitude leurs besoins ?
Texte intégral (2979 mots)

Le son déchire le silence de la nuit : un sanglot étouffé, puis un hoquet, qui dégénère rapidement en un vagissement aigu et frénétique. Pour tout parent, soignant ou soignante, c’est un appel à l’action familier et urgent. Mais un appel à quoi ? Le bébé a-t-il faim ? A-t-il mal ? Se sent-il seul ? Ou est-il simplement inconfortable ? Ces cris peuvent-ils être compris instinctivement par les parents ?


En tant que bioacousticien, j’ai passé des années à étudier les communications sonores des animaux : des cris des bébés crocodiles, encore dans leurs œufs incitant leur mère à creuser le nid, aux cris des oiseaux diamants mandarins, permettant la reconnaissance au sein du couple. Alors que nous comprenons de mieux en mieux comment et pourquoi les animaux non humains communiquent par des sons, les vocalisations humaines non verbales sont encore peu étudiées. J’ai ainsi été surpris de découvrir, en tournant mon attention vers notre propre espèce, que les pleurs des bébés humains recelaient autant, sinon plus, de mystère.

Pourtant, les pleurs causent parfois bien des soucis aux parents et aux autres personnes qui s’occupent d’un bébé. Au-delà de ces soucis du quotidien, les pleurs de nourrisson peuvent entraîner, chez des personnes qui se sentent dépassées par la situation, une perte du contrôle d’elles-mêmes et être à l’origine du syndrome du bébé secoué (SBS), une maltraitance aux conséquences, dans certains cas, fatales pour l’enfant.

Depuis plus d’une décennie, mes collègues et moi, à l’Université et au CHU de Saint-Étienne, enregistrons des bébés, appliquons les outils de l’analyse des sons, et menons des expériences psychoacoustiques et de neuro-imagerie. Nos découvertes remettent en question nos croyances les plus établies et offrent un nouveau cadre, fondé sur des preuves, pour comprendre cette forme fondamentale de communication humaine.

Première constatation, et peut-être l’une des plus importantes : il est impossible de déterminer la cause d’un pleur de bébé uniquement à partir de sa sonorité.

Démystifier le « langage des pleurs »

De nombreux parents subissent une pression immense pour devenir des « experts et expertes en pleurs », et toute une industrie a vu le jour pour capitaliser sur cette anxiété. Applications, appareils et programmes de formation coûteux promettent toutes et tous de traduire les pleurs des bébés en besoins spécifiques : « J’ai faim », « Change ma couche », « Je suis fatigué·e ».

Nos recherches, cependant, démontrent que ces affirmations sont sans fondement.

Pour tester cela scientifiquement, nous avons entrepris une étude à grande échelle. Nous avons placé des enregistreurs automatiques dans les chambres de 24 bébés, enregistrant en continu pendant deux jours à plusieurs reprises au cours de leurs quatre premiers mois. Nous avons ainsi constitué une énorme base de données de 3 600 heures d’enregistrement contenant près de 40 000 « syllabes » de pleurs (les unités composant les pleurs).

Les parents, dévoués, ont scrupuleusement noté l’action qui avait réussi à calmer le bébé, nous donnant une « cause » pour chaque pleur : la faim (calmée par un biberon), l’inconfort (calmé par un changement de couche) ou l’isolement (calmé par le fait d’être pris dans les bras). Nous avons ensuite utilisé des algorithmes d’apprentissage automatique, entraînant une intelligence artificielle (IA) sur les propriétés acoustiques de ces milliers de pleurs pour voir si elle pouvait apprendre à en identifier la cause. S’il existait un « pleur de faim » ou un « pleur d’inconfort » distinct, l’IA aurait dû être capable de le détecter.

Le résultat fut un échec retentissant. Le taux de réussite de l’IA n’était que de 36 % – à peine supérieur aux 33 % qu’elle obtiendrait par pur hasard. Pour nous assurer qu’il ne s’agissait pas seulement d’une limite technologique, nous avons répété l’expérience avec des auditeurs et des auditrices humaines. Nous avons demandé à des parents et non-parents, d’abord, de s’entraîner sur les pleurs d’un bébé spécifique, comme le ferait un parent dans la vie réelle, puis d’identifier la cause de nouveaux pleurs du même bébé. Ils n’ont pas fait mieux, avec un score de seulement 35 %. La signature acoustique d’un pleur de faim n’est pas plus distincte de celle d’un pleur d’inconfort.

Cela ne signifie pas que les parents ne peuvent pas comprendre les besoins de leur bébé. Cela signifie simplement que le pleur en lui-même n’est pas un dictionnaire. Le pleur est le signal d’alarme. C’est votre connaissance du contexte essentiel qui vous permet de le décoder. « La dernière tétée remonte à trois heures, il a probablement faim. » « Sa couche semblait pleine. » « Il est seul dans son berceau depuis un moment. » Vous êtes le détective ; le pleur est simplement l’alerte initiale, indifférenciée.

Ce que les pleurs nous disent vraiment

Si les pleurs ne signalent pas leur cause, quelle information transmettent-ils de manière fiable ? Nos recherches montrent qu’ils véhiculent deux informations importantes.

La première est une information statique : l’identité vocale du bébé. Tout comme chaque adulte a une voix distincte, chaque bébé a une signature de pleur unique, principalement déterminée par la fréquence fondamentale (la hauteur) de son pleur. C’est le produit de son anatomie individuelle – la taille de son larynx et de ses cordes vocales. C’est pourquoi vous pouvez reconnaître le pleur de votre bébé au milieu d’une nurserie. Cette signature est présente dès la naissance et change lentement au cours du temps avec la croissance du bébé.

Fait intéressant, si les pleurs des bébés ont une signature individuelle, ils n’ont pas de signature sexuelle. Les larynx des bébés filles et garçons sont de la même taille. Pourtant, comme nous l’avons montré dans une autre étude, les adultes attribuent systématiquement les pleurs aigus aux filles et les pleurs graves aux garçons, projetant leur connaissance des voix adultes sur les nourrissons.

La seconde information est dynamique : le niveau de détresse du bébé. C’est le message le plus important encodé dans un pleur, et il est transmis non pas tant par la hauteur (aiguë ou grave) ou le volume (faible ou fort), mais par une caractéristique que nous appelons la « rugosité acoustique ». Un pleur d’inconfort simple, comme avoir un peu froid après le bain, est relativement harmonieux et mélodique. Les cordes vocales vibrent de manière régulière et stable.

Pleur d’inconfort d’un bébé (il ne signale pas de problème grave) Nicolas Mathevon272 ko (download)

Mais un pleur de douleur réelle, comme nous l’avons enregistré lors de séances de vaccination, est radicalement différent. Il devient chaotique, rêche et grinçant.

Pleurs d’un bébé après une vaccination. Nicolas Mathevon293 ko (download)

Le stress de la douleur pousse le bébé à forcer plus d’air à travers ses cordes vocales, les faisant vibrer de manière désorganisée et non linéaire. Pensez à la différence entre une note pure jouée à la flûte et le son rauque et chaotique qu’elle produit quand on souffle trop fort. Cette rugosité, un ensemble de phénomènes acoustiques incluant le chaos et des sauts de fréquence soudains, est un signal universel et indubitable de détresse. Un « ouin-ouin » mélodieux signifie « Je suis un peu contrarié », tandis qu’un « RRRÂÂÂhh » rauque et dur signifie : « Il y a urgence ! »

L’« instinct maternel » n’est qu’un mythe

Alors, qui est le plus à même de décoder ces signaux complexes ? Le mythe tenace de l’« instinct maternel » suggère que les mères sont biologiquement programmées pour cette tâche. Nos travaux démentent cette idée. Un instinct, comme le comportement figé d’une oie qui ramène un œuf égaré en le roulant jusqu’à son nid, est un programme inné et automatique. Comprendre les pleurs n’a rien à voir avec cela.

Dans l’une de nos études clés, nous avons testé la capacité des mères et des pères à identifier le pleur de leur propre bébé parmi une sélection d’autres. Nous n’avons trouvé absolument aucune différence de performance entre elles et eux. Le seul facteur déterminant était le temps passé avec le bébé. Les pères qui passaient autant de temps avec leurs nourrissons que les mères étaient tout aussi compétents. La capacité à décoder les pleurs n’est pas innée ; elle s’acquiert par l’exposition.

Nous l’avons confirmé dans des études avec des non-parents. Nous avons constaté que des adultes sans enfants pouvaient apprendre à reconnaître la voix d’un bébé spécifique après l’avoir entendue pendant moins de soixante secondes. Et celles et ceux qui avaient une expérience préalable de la garde d’enfants, comme le baby-sitting ou l’éducation de frères et sœurs plus jeunes, étaient significativement meilleurs pour identifier les pleurs de douleur d’un bébé que celles et ceux qui n’avaient aucune expérience.

Tout cela a un sens sur le plan évolutif. Les êtres humains sont une espèce à reproduction coopérative. Contrairement à de nombreux primates où la mère a une relation quasi exclusive avec son petit, les bébés humains ont historiquement été pris en charge par un réseau d’individus : pères, grands-parents, frères et sœurs et autres membres de la communauté. Dans certaines sociétés, comme les !Kung d’Afrique australe, un bébé peut avoir jusqu’à 14 soignants et soignantes différentes. Un « instinct » câblé et exclusivement maternel serait un profond désavantage pour une espèce qui repose sur le travail d’équipe.

Le cerveau face aux pleurs : l’expérience reconfigure tout

Nos recherches en neurosciences révèlent comment fonctionne ce processus d’apprentissage. Lorsque nous entendons un bébé pleurer, tout un réseau de régions cérébrales, appelé le « connectome cérébral des pleurs de bébé », entre en action. Grâce à l’imagerie à résonance magnétique fonctionnelle (IRMf), nous avons observé que les pleurs activent dans le cerveau les centres auditifs, le réseau de l’empathie (nous permettant de ressentir l’émotion de l’autre), le réseau miroir (nous aidant à nous mettre à la place de l’autre) ainsi que des zones impliquées dans la régulation des émotions et la prise de décision.

De manière intéressante, cette réponse n’est pas la même pour tout le monde. En comparant l’activité cérébrale des parents et des non-parents, nous avons constaté que si le cerveau de chacun réagit, le « cerveau parental » est différent. L’expérience avec un bébé renforce et spécialise ces réseaux neuronaux. Par exemple, le cerveau des parents montre une plus grande activation dans les régions associées à la planification et à l’exécution d’une réponse, tandis que les non-parents montrent une réaction émotionnelle et empathique plus brute, non tempérée. Les parents passent de la simple sensation de détresse à la résolution active de problèmes.

De plus, nous avons constaté que les niveaux individuels d’empathie – et non le genre – étaient le prédicteur le plus puissant de l’intensité d’activation du réseau de « vigilance parentale » du cerveau. S’occuper d’un enfant est une compétence qui se perfectionne avec la pratique, et elle remodèle physiquement le cerveau de toute personne dévouée, qu’elle ait ou non un lien de parenté avec le bébé.

De la gestion du stress à la coopération

Comprendre la science des pleurs n’est pas un simple exercice de recherche fondamentale ; cela a de profondes implications dans le monde réel. Les pleurs incessants, en particulier ceux liés aux coliques du nourrisson (qui touchent jusqu’à un quart des bébés), sont une source majeure de stress parental, de privation de sommeil et d’épuisement. Cet épuisement peut mener à un sentiment d’échec et, dans les pires cas, être un déclencheur du syndrome du bébé secoué, une forme de maltraitance tragique et évitable.

Le fait de savoir que vous n’êtes pas censé·e « comprendre de manière innée » ce que signifie un pleur peut être incroyablement libérateur. Cela lève le fardeau de la culpabilité et vous permet de vous concentrer sur la tâche pratique : vérifier le contexte, évaluer le niveau de détresse (le cri est-il rugueux ou mélodique ?) et essayer des solutions.

Plus important encore, la science met en lumière la plus grande force de notre espèce : la coopération. Les pleurs insupportables deviennent supportables lorsque le bébé peut être confié à un ou une partenaire, un grand-parent ou une amie pour une pause bien méritée.

Alors, la prochaine fois que vous entendrez le pleur perçant de votre bébé dans la nuit, souvenez-vous de ce qu’est vraiment cette vocalisation : non pas un test de vos capacités innées ou un jugement sur vos compétences parentales, mais une alarme simple et puissante, modulée par le degré d’inconfort ou de détresse ressenti par votre enfant.

C’est un signal façonné par l’évolution, interprétable non par un mystérieux instinct, mais par un cerveau humain attentionné, attentif et expérimenté. Et si vous vous sentez dépassé·e, la réponse la plus scientifiquement fondée et la plus appropriée sur le plan évolutif est de demander de l’aide.


Pour en savoir plus sur les pleurs des bébés, voir le site web : Comprendrebebe.com.

Nicolas Mathevon est l’auteur de Comprendre son bébé. Le langage secret des pleurs, éditions Tana, 2025.


Le projet « Les pleurs du bébé : Une approche intégrée – BABYCRY » est soutenu par l’Agence nationale de la recherche (ANR) qui finance en France la recherche sur projets, au titre de France 2030 (référence ANR-23-RHUS-0009). L’ANR a pour mission de soutenir et de promouvoir le développement de recherches fondamentales et finalisées dans toutes les disciplines, et de renforcer le dialogue entre science et société. Pour en savoir plus, consultez le site de l’ANR.

The Conversation

Nicolas Mathevon a reçu des financements de l'ANR, IUF, Fondation des Mutuelles AXA.

26.08.2025 à 12:36

La musique ne vous fait ni chaud ni froid ? Cela pourrait être dû au fonctionnement de votre cerveau

Catherine Loveday, Professor, Neuropsychology, University of Westminster
La musique vous laisse de marbre, que ce soit du Mozart ou un bon vieux Rolling Stones ? Des chercheurs lèvent le voile sur les ressorts de cette « anhédonie musicale », qui se nichent dans le cerveau.
Texte intégral (2016 mots)
Certaines personnes ne ressentent absolument rien quand elles écoutent de la musique. Les chercheurs ont en découvert la cause, logée dans le cerveau. Krakenimages/Shutterstock

Et si la musique vous laissait de marbre ? Alors qu’elle fait vibrer la plupart d’entre nous, 5 à 10 % de la population reste totalement indifférente aux mélodies. Ce trouble, appelé « anhédonie musicale », intrigue les chercheurs, qui en dévoilent aujourd’hui l’origine : un défaut de communication entre le cerveau auditif et le système de récompense.


Lorsque je demande à une salle remplie d’étudiants comment ils se sentiraient s’ils ne pouvaient plus jamais écouter de musique, la plupart sont horrifiés. Un bon nombre était encore en train d’écouter de la musique juste avant le début du cours. Mais il y en a toujours un ou deux qui avouent timidement que cela ne changerait rien à leur vie si la musique n’existait pas.

Les psychologues appellent cela « l’anhédonie musicale », c’est-à-dire l’absence de plaisir à écouter de la musique. Et un nouvel article publié par des neuroscientifiques espagnols et canadiens suggère qu’elle serait causée par un problème de communication entre différentes zones du cerveau.

Pour beaucoup d’entre nous, ne rien ressentirquand on écoute de la musique semble incompréhensible. Pourtant, pour 5 à 10 % de la population, c’est la norme.

Dans le cadre de mes recherches et de ma pratique auprès de personnes souffrant de pertes de mémoire, je leur demande souvent de choisir leurs chansons préférées dans le but de raviver chez elles des souvenirs marquants.

J’ai toujours été fascinée par le fait que certaines personnes me regardent d’un air perplexe et me disent : « La musique ne m’a jamais vraiment intéressé•e. » Cela contraste tellement avec la majorité des gens qui adorent parler de leur premier disque ou de la chanson qui a été jouée à leur mariage.

Des études récentes montrent des variations considérables dans l’intensité des émotions ressenties quand on écoute de la musique. Environ 25 % de la population est hyperhédonique, c’est-à-dire qu’elle éprouve un besoin presque obsessionnel de musique.

Les recherches dans ce domaine utilisent généralement le Barcelona Music Reward Questionnaire (BMRQ) (questionnaire de récompense musicale de Barcelone), qui interroge les personnes sur l’importance de la musique dans leur vie quotidienne : À quelle fréquence en écoutent-elles ? Leur arrive-t-il de fredonner des airs ? Y a-t-il des chansons qui leur donnent des frissons ?

Si le score obtenu est faible, alors on parle d’anhédonie musicale. Pour confirmer ce diagnostic, des chercheurs mesurent, en laboratoire, le rythme cardiaque, la température ou la sudation des personnes sondées, pendant qu’elles écoutent de la musique. Chez la plupart d’entre nous, ces marqueurs physiologiques varient en fonction de la musique écoutée, selon qu’elle nous touche beaucoup ou peu. Mais chez les personnes souffrant d’anhédonie musicale, l’effet physiologique est nul.

Une théorie a consisté à dire que le fait de moins apprécier la musique pourrait refléter une anhédonie plus générale, c’est-à-dire une absence de plaisir pour quoi que ce soit. Ces pathologies sont souvent liées à des perturbations au niveau des zones du système de récompense, telles que le noyau accumbens, le noyau caudé et le système limbique.

Il s’agit d’une caractéristique courante de la dépression qui, comme d’autres troubles de l’humeur, peut être corrélée à une absence de réponse à la musique. Cependant, cela n’explique pas l’anhédonie musicale « spécifique », qui touche des personnes qui prennent du plaisir avec d’autres récompenses, comme la nourriture, les relations sociales ou le cinéma par exemple, mais restent indifférentes à la musique.

Homme renfrogné devant un violon
Tous les enfants obligés de prendre des cours de musique ne remercient pas leurs parents une fois adultes. foto-lite/Shuttersock

Une autre explication qui a été avancée consiste à dire que les personnes qui s’intéressent peu à la musique ne la comprennent tout simplement pas, peut-être en raison de difficultés à percevoir les mélodies et les harmonies.

Pour vérifier cette hypothèse, nous pouvons nous intéresser aux personnes atteintes d’amusie, un trouble de la perception musicale qui affecte la capacité à reconnaître des mélodies familières ou à détecter des notes fausses. Ce trouble survient lorsque l’activité est réduite dans des régions clés du cortex fronto-temporal du cerveau, qui gère le traitement complexe de la hauteur des notes et de la mélodie. Or, on connaît au moins un cas d’une personne atteinte d’amusie qui n’en aime pas moins la musique.

Quoi qu’il en soit, d’autres recherches montrent que les personnes souffrant d’anhédonie musicale ont souvent une perception musicale normale, ils reconnaissent les chansons ou distinguent sans problème les accords majeurs des accords mineurs.

Alors, que se passe-t-il ? Un article recense toutes les recherches menées à ce jour dans ce domaine. La récompense musicale semble être traitée par la connectivité existant entre les zones corticales auditives, situées au niveau du gyrus temporal supérieur, et les zones du système de récompense. Il arrive que ces zones soient intactes chez des sujets souffrant d’anhédonie musicale. C’est donc la communication entre les zones qui est gravement perturbée : les parties du cerveau chargées du traitement auditif et le centre de la récompense ne communiquent pas.

Les personnes qui réagissent normalement à la musique présentent une activité importante au niveau de cette connexion dans le cerveau, qui est plus élevée pour une musique agréable que pour des sons neutres. Une étude réalisée en 2018 a montré qu’il est possible d’augmenter le plaisir procuré par la musique en stimulant artificiellement ces voies de communication à l’aide d’impulsions magnétiques.

Cette nouvelle analyse pourrait permettre aux scientifiques de mieux comprendre les troubles cliniques dans lesquels les récompenses quotidiennes semblent réduites ou amplifiées, ce qui est le cas par exemple lors de troubles alimentaires, d’addictions au sexe ou aux jeux.

Ces résultats remettent également en question l’idée répandue selon laquelle tout le monde aime la musique. La plupart des gens l’aiment, mais pas toutes les personnes, et cette variation s’explique par des différences dans le câblage du cerveau. Parfois, cela résulte des suites d’une lésion cérébrale, mais le plus souvent, les individus naissent ainsi, et une étude réalisée en mars 2025 a mis en évidence l’existence d’un lien génétique.

The Conversation

Catherine Loveday ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

24.08.2025 à 19:21

La longue histoire des tests de grossesse : de l’Égypte antique à Margaret Crane, l’inventrice du test à domicile

Valérie Lannoy, Post-doctorante en microbiologie, Sorbonne Université
Depuis la pandémie de Covid-19, nous connaissons tous très bien les tests antigéniques, mais saviez-vous que les premiers tests de ce type ont été développés, pour la grossesse, grâce à Margaret Crane ?
Texte intégral (1956 mots)

Depuis la pandémie de Covid-19, nous connaissons tous très bien les tests antigéniques, mais saviez-vous que le principe de l’autotest a été imaginé, dans les années 1960, par une jeune designer pour rendre le test accessible à toutes les femmes en le pratiquant à domicile ? Découvrez l’histoire de Margaret Crane, et les obstacles qu’elle a dû surmonter.


Les tests de diagnostic rapide ont sauvé de nombreuses vies à travers le monde grâce à leurs simplicité et rapidité, et à leur prix abordable. Les plus répandus sont les tests antigéniques, dont nous avons tous pu bénéficier pendant la pandémie de Covid-19. D’autres tests antigéniques existent, comme ceux détectant la dengue ou le chikungunya, deux infections virales tropicales, ou encore le paludisme, la maladie la plus mortelle au monde chez les enfants de moins de 5 ans.

Ces types de tests sont reconnus d’utilité publique par l’Organisation mondiale de la santé (OMS). Le test antigénique de la grippe est par exemple utilisé en routine. Bien que l’intérêt pour ces tests ait émergé durant la Covid-19, nous étions déjà familiarisés avec les tests antigéniques sans nous en rendre compte ! Les tests de grossesse, ô combien impliqués dans nos histoires personnelles, sont les premiers tests de diagnostic rapide créés. On doit cette découverte à Margaret Crane, dont l’invention a contribué à l’amélioration considérable du domaine diagnostique général.

Les tests de grossesse à travers les âges

Détecter une grossesse a toujours revêtu une importance pour la santé féminine, la gestion familiale et les questions sociales. Un papyrus médical égyptien datant d’environ 1350 avant notre ère, appelé le papyrus Carlsberg, détaille une méthode simple. Des grains d’orge et de blé, enfermés chacun dans un petit sac ou un récipient, étaient humidifiés quotidiennement avec l’urine de la femme à tester. L’absence de germination diagnostiquait l’absence de grossesse. La germination de l’orge, elle, prévoyait la naissance d’un garçon, quand celle du blé présageait celle d’une fille. En 1963, une équipe de recherche a décidé d’essayer cette technique de l’Égypte antique, à première vue rudimentaire. De manière étonnante, même si la prédiction du sexe était décevante, la méthode égyptienne avait une sensibilité très élevée : 70 % des grossesses ont été confirmées ! Cela est probablement dû au fait que les hormones dans les urines de la femme enceinte miment l’action des phytohormones, les hormones végétales.

En 1927, le zoologue anglais Lancelot Hogben obtient une chaire de recherche pour étudier les hormones animales à l’Université du Cap en Afrique du Sud. Il y découvre le « crapaud à griffe » du Cap (Xenopus laevis) dont les femelles ont la capacité de pondre toute l’année. Le professeur Hogben contribue à la création d’un test de grossesse qui porte son nom. Son principe ? Injecter de l’urine de femme enceinte dans un crapaud femelle. En raison des hormones contenues dans l’urine, cette injection déclenchait spontanément la ponte. Le test présentait une sensibilité supérieure à 95 % !

Bien que ce protocole soit devenu un test de routine dans les années 1940, la majorité des femmes n’avait toujours pas d’accès facile aux tests de grossesse. D’autres tests similaires existaient, utilisant des souris femelles ou des lapines, consistant à en examiner les ovaires pendant 48 à 72 heures après l’injection d’urine, pour voir si celle-ci avait induit une ovulation. Ces tests présentaient des contraintes de temps, de coûts et l’utilisation d’animaux, ce qui a motivé la recherche de méthodes plus rapides et moins invasives.

La découverte de l’hormone hCG

Au début des années 1930, la docteure américaine Georgeanna Jones découvrit que le placenta produisait une hormone, appelée la gonadotrophine chorionique humaine, dont l’abréviation est l’hCG. Cette découverte en a fait un marqueur précoce de grossesse, et pour la tester, il ne restait plus qu’à la détecter !

En 1960, le biochimiste suédois Leif Wide immunisa des animaux contre l’hCG humaine et en purifia les anticorps. On avait donc à disposition des molécules, les anticorps, capables de détecter l’hCG, encore fallait-il que la réaction antigène-anticorps (dans ce cas, l’hCG est l’antigène reconnu par les anticorps) puisse être visible pour confirmer une grossesse à partir d’urines.

Le professeur Leif Wide développa un test de grossesse, selon une technologie appelée l’inhibition de l’hémagglutination. Elle se base sur l’utilisation de globules rouges, dont la couleur permet une analyse à l’œil nu. Si les anticorps se lient aux globules rouges, ils ont tendance à s’agglutiner, et cela forme une « tache rouge » au fond du test. En cas de grossesse, l’échantillon d’urine contient de l’hCG : les anticorps réagissent avec l’hCG et ne peuvent pas lier les globules rouges. L’absence de tâche rouge indique une grossesse ! Ce test était révolutionnaire, car, contrairement aux autres, et en plus d’être beaucoup moins coûteux, le résultat n’était obtenu qu’en deux heures.

L’invention de Margaret Crane

En 1962, l’entreprise américaine Organon Pharmaceuticals a commercialisé ce test de grossesse, à destination des laboratoires d’analyses médicales. En 1967, Margaret Crane est une jeune designer de 26 ans sans aucun bagage scientifique, employée par cette compagnie dans le New Jersey, pour créer les emballages de leur branche cosmétique. Un jour qu’elle visite le laboratoire de l’entreprise, elle assiste à l’exécution d’un des tests. Un laborantin lui explique la longue procédure, consistant au prélèvement d’urine par le médecin et à l’envoi à un laboratoire d’analyses. Il fallait attendre environ deux semaines pour une femme avant d’avoir un résultat.

Le test de grossesse inventé par Margaret Crane
Le test de grossesse inventé par Margaret Crane. National Museum of American History, CC BY

Malgré la complexité théorique de la technique, Margaret Crane réalise alors à la fois la simplicité de lecture du test et du protocole : il suffisait d’avoir des tubes, un flacon d’anticorps et un indicateur de couleur (les globules rouges) ! De retour chez elle à New York, elle lance des expériences en s’inspirant d’une boîte de trombones sur son bureau, et conçoit un boîtier ergonomique – avec tout le matériel et un mode d’emploi simplifié –, destiné à l’usage direct à la maison par les utilisatrices. Margaret Crane montre son prototype à Organon Pharmaceuticals, qui refuse l’idée, jugeant qu’une femme ne serait pas capable de lire seule le résultat, aussi simple soit-il…

La persévérance de Margaret Crane

Peu de temps après la proposition de Margaret Crane, un homme employé par Organon Pharmaceuticals s’en inspire et lance la même idée, et lui est écouté. Elle décide alors de tirer parti de la situation, en assistant aux réunions où elle était la seule femme. Plusieurs tests, prototypés par des designers masculins, y sont présentés : en forme d’œuf de poule, soit roses, soit décorés de strass… Sans aucune hésitation, c’est celui de Margaret Crane qui est choisi pour sa praticité, car elle l’avait pensé pour que son utilisation soit la plus facile possible. Margaret Crane dépose son brevet en 1969, mais Organon Pharmaceuticals hésite à le commercialiser tout de suite, de peur que les consommatrices soient dissuadées par des médecins conservateurs ou par leur communauté religieuse.

Il est mis pour la première fois sur le marché en 1971 au Canada, où l’avortement venait d’être légalisé. Bien que créditée sur le brevet américain, Margaret Crane ne perçut aucune rémunération, car Organon Pharmaceuticals céda les droits à d’autres entreprises.

L’histoire de Margaret Crane illustre un parcours fascinant, où l’observation empirique rencontre le design industriel. Sa contribution fut finalement reconnue en 2014 par le Musée national d’histoire américaine.

Son concept fondateur, celui d’un test simple, intuitif et autonome pour l’utilisateur, ouvrit la voie révolutionnaire aux tests de grossesse sous la forme que nous connaissons aujourd’hui et aux tests antigéniques, essentiels notamment lors de crises sanitaires.

The Conversation

Valérie Lannoy ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

15 / 25

 

  GÉNÉRALISTES
Ballast
Fakir
Interstices
Lava
La revue des médias
Le Grand Continent
Le Diplo
Le Nouvel Obs
Lundi Matin
Mouais
Multitudes
Politis
Regards
Smolny
Socialter
The Conversation
UPMagazine
Usbek & Rica
Le Zéphyr
 
  Idées ‧ Politique ‧ A à F
Accattone
Contretemps
A Contretemps
Alter-éditions
CQFD
Comptoir (Le)
Déferlante (La)
Esprit
Frustration
 
  Idées ‧ Politique ‧ i à z
L'Intimiste
Jef Klak
Lignes de Crêtes
NonFiction
Nouveaux Cahiers du Socialisme
Période
Philo Mag
Terrestres
Vie des Idées
 
  ARTS
Villa Albertine
 
  THINK-TANKS
Fondation Copernic
Institut La Boétie
Institut Rousseau
 
  TECH
Dans les algorithmes
Framablog
Goodtech.info
Quadrature du Net
 
  INTERNATIONAL
Alencontre
Alterinfos
CETRI
ESSF
Inprecor
Journal des Alternatives
Guitinews
 
  MULTILINGUES
Kedistan
Quatrième Internationale
Viewpoint Magazine
+972 mag
 
  PODCASTS
Arrêt sur Images
Le Diplo
LSD
Thinkerview
 
Fiabilité 3/5
Slate
Ulyces
 
Fiabilité 1/5
Contre-Attaque
Issues
Korii
Positivr
Regain
🌞