URL du flux RSS

ACCÈS LIBRE UNE Politique International Environnement Technologies Culture

▸ les 25 dernières parutions

03.07.2025 à 14:42

Nouvelles images de la galaxie du Sculpteur : mille et une couleurs à 11 millions d’années lumières de la Terre

Eric Emsellem, Astrophysicien, Observatoire Européen Austral
Une nouvelle étude a permis de couvrir presque totalement la galaxie dite du Sculpteur, à 11 millions d'années-lumière de la Terre, avec un niveau de détail inégalé.
Texte intégral (1471 mots)
La galaxie du Sculpteur est imagée en grand détail par l'instrument MUSE du VLT de l'Observatoire européen austral, au Chili. ESO/E. Congiu et al., CC BY

Une nouvelle étude a permis de couvrir presque totalement la galaxie du Sculpteur, à 11 millions d'années-lumière de la Terre, avec un niveau de détail inégalé, et dans de très nombreuses couleurs. Ces informations, libres d'accès, permettent d'avancer dans notre compréhension de la formation des étoiles.


Une collaboration internationale d'astronomes, dont je fais partie, vient de rendre publique une des plus grandes mosaïques multicouleur d'une galaxie emblématique de l'Univers proche, la galaxie spirale du Sculpteur, ou NGC 253.

En seulement quelques nuits d'observations, nous avons pu couvrir la quasi-totalité de la surface apparente de cette galaxie de 65 000 années-lumière de large, avec un niveau de détail inégalé, grâce à un instrument unique, MUSE, attaché au Very Large Telescope de l'Observatoire européen austral (ESO).

Ces images permettent de voir à la fois les petites et les grandes échelles de cette galaxie située à 11 millions d'années-lumière de la nôtre. En d'autres termes, on peut zoomer et dézoomer à l'envi, ce qui ouvre la porte à de nouvelles découvertes, et à une compréhension approfondie du processus de formation des étoiles.

Un des Graals de l'astrophysique moderne : comprendre la formation des étoiles

Voici ce que l'on sait déjà. Pour former des étoiles, du gaz interstellaire est comprimé et de petits grumeaux s'effondrent : des étoiles naissent, vivent, et certaines étoiles finissent leurs vies dans une explosion qui disperse de nouveaux atomes et molécules dans le milieu interstellaire environnant — ce qui procure une partie du matériel nécessaire à la prochaine génération d'étoiles.

La galaxie du Sculpteur vue par le VLT : les étoiles déjà présentes en gris, auxquelles se surimposent les pouponnières d'étoiles en rose. Source : ESO.

Ce que l'on comprend beaucoup moins bien, c'est de quelle façon les grandes structures du disque galactique comme les spirales, les filaments ou les barres évoluent dans le temps et promeuvent (ou inhibent) ce processus de formation d'étoiles.

Pour comprendre ces processus, il faut étudier de nombreuses échelles à la fois.

En premier lieu, des échelles spatiales : les grandes structures elles-mêmes (spirales, filaments, barres font plusieurs milliers d'années-lumière), les régions denses de gaz appelées « pouponnières d'étoiles » (qui ne font « que » quelques années-lumière)… et une vision globale et cohérente de la galaxie hôte (jusqu'à des dizaines de milliers d'années-lumière de rayon).


À lire aussi : Nouvelle découverte : les deux gros bébés exoplanètes du système YSES-1


De plus, ces processus ont lieu sur des durées totalement différentes les unes des autres : les étoiles massives explosent au bout de quelques millions d'années, alors que les structures dynamiques comme les spirales évoluent sur des centaines de millions d'années.

De nombreuses études ont permis, dans les quinze dernières années, une cartographie de galaxies voisines à l'aide d'imageurs très performants au sol et dans l'espace.

Mais les différents acteurs de ces processus complexes (par exemple le gaz interstellaire, les étoiles jeunes ou vieilles, naines ou massives, la poussière) émettent de la lumière de manière spécifique. Certains par exemple n'émettent que certaines couleurs, d'autres un large domaine de longueur d'onde.

Ainsi, seule la spectroscopie — qui distingue les différentes couleurs de la lumière — permet d'extraire simultanément des informations telles que la composition des étoiles, l'abondance des différents atomes dans le gaz interstellaire, le mouvement du gaz et des étoiles, leur température, etc.


Tous les quinze jours, de grands noms, de nouvelles voix, des sujets inédits pour décrypter l'actualité scientifique et mieux comprendre le monde. Abonnez-vous gratuitement dès aujourd'hui !


L'avancée de l'ESO et de son instrument MUSE

C'est pourquoi cette étude dirigée par Enrico Congiu, un astronome de l'ESO, est si pertinente et excitante pour la communauté scientifique.

En rassemblant plus de 100 champs de vue, et quelques 9 millions de spectres obtenus avec le spectrographe MUSE au VLT, Enrico Congiu et son équipe, dont j'ai la chance de faire parti, ont pu sonder simultanément et pour la première fois l'ensemble de la galaxie mais aussi les différentes régions de formation stellaire individuellement dans leur environnement spécifique (dans les bras des spirales, au sein de la barre ou vers le centre), apportant des mesures robustes de leur composition et de leur dynamique.

La galaxie du Sculpteur vue dans différentes couleurs grâce au spectrographe MUSE : les éclats correspondent à des éléments chimiques abondants, comme l'hydrogène, qui émettent à des longueurs d'onde spécifiques. Source : ESO.

L'équipe d'astronomes en a profité pour découvrir plusieurs centaines de nébuleuses planétaires — vingt fois plus que ce qui était connu jusque-là. Ces données nous donnent simultanément des indications sur l'histoire de formation stellaire de la galaxie. Par exemple, elles vont permettre d'identifier et de caractériser en détail presque 2500 régions de formation stellaire, la plus grande base de données spectroscopiques pour une seule galaxie (article en préparation).

Mais c'est aussi une opportunité unique de tester la mesure de la distance à cette galaxie.

En effet, le nombre relatif de nébuleuses planétaires brillantes et moins brillantes au sein d'une même galaxie est un levier puissant pour déterminer la distance de cette galaxie. L'équipe internationale a ainsi montré que la méthode basée sur les nébuleuses planétaires était certainement entachée d'erreur si l'on ignore l'impact de l'extinction due à la poussière présente dans la galaxie.

Exploiter librement les données de MUSE pour démultiplier le potentiel de découverte

Ces magnifiques données calibrées et documentées de NGC 253 sont le fruit d'un travail important de la collaboration menée par Enrico Congiu, qui a décidé de les rendre publiques. Au-delà des études présentes et futures conduites par cette équipe, c'est donc la communauté astronomique mondiale (et n'importe quel astronome amateur !) qui peut aujourd'hui librement exploiter le cube de données spectroscopique MUSE.

Cet aspect « Science ouverte » est une composante primordiale de la science moderne, permettant à d'autres équipes de reproduire, tester et étendre le travail effectué, et d'appliquer de nouvelles approches, à la fois créatives et rigoureuses scientifiquement, pour sonder ce magnifique héritage de la science et de la technologie.

The Conversation

Eric Emsellem a reçu des financements de la Fondation Allemande pour la Recherche (DFG) pour par exemple l'emploi d'etudiants. Il travaille pour l'ESO (Observatoire Europeen Austral) et est en détachement de l'Observatoire de Lyon qui a mené la construction de l'instrument MUSE. Il fait parti de la collaboration internationale PHANGS et est un co-auteur de l'étude menée par Enrico Congiu.

02.07.2025 à 18:38

Le Palais de la découverte menacé de fermeture : quelle place pour la culture scientifique en France ?

Bastien Fayet, Doctorant en géographie - UMR 6590 ESO, Université d’Angers
Le Palais de la découverte, fermé depuis 4 ans, pourrait ne jamais rouvrir. Un symbole fort des fragilités de la culture scientifique en France.
Texte intégral (2439 mots)
La mythique cage de Faraday du Palais de la découverte a permis à des milliers d'enfants de comprendre les principes de la conductivité électrique, en toute sécurité N Krief EPPDCSI, CC BY-ND

Fermé depuis quatre ans, le Palais de la découverte pourrait ne jamais rouvrir ses portes. Cette incertitude dépasse la seule question d’un musée parisien : elle met en lumière les fragilités d’un secteur culturel essentiel mais discret, celui de la culture scientifique.


Une question tient actuellement en haleine les professionnels et amateurs de culture scientifique : le Palais de la découverte va-t-il fermer ? Rouvrir ? Être déplacé ?

Le Palais de la découverte est un musée de culture scientifique. Ce champ d’activité propose des actions de médiation pour mettre en relation la société avec les connaissances scientifiques, grâce à des expositions, des ateliers, des conférences ou d’autres activités à destination des enfants et des adultes. Le Palais de la découverte est sous la tutelle principale du ministère de la Culture et celle, secondaire, de l’Enseignement supérieur, tout comme la Cité des Sciences et de l’Industrie, un autre centre de culture scientifique parisien. Ces deux structures ont d’ailleurs été regroupées dans la même entité administrative, Universcience, en 2009, pour faciliter leur gestion. Le Palais de la découverte est hébergé au sein du Grand Palais, dans l’aile ouest.

En rénovation depuis 4 ans, il devait rouvrir en 2026, avec une exposition temporaire et des événements de préouverture le 11 juin 2025. Cette préouverture a été annulée, sur fond de tension avec le ministère de la Culture, mais aussi avec le directeur du Grand Palais qui souhaiterait voir le Palais de la découverte être déplacé.

Depuis, le directeur d’Universcience, Bruno Maquart, a été limogé par le gouvernement, une pétition des salariés pour sauver le Palais de la découverte a été lancée et plusieurs tribunes de soutien ont été publiées, comme par des institutions scientifiques internationales, le Collège de France et le réseau national de la culture scientifique (AMCSTI). Le 19 juin, le ministre de l’Enseignement supérieur et de la recherche Philippe Baptiste c’est dit favorable au maintien du Palais de la découverte au sein du grand palais, mais le ministère de la Culture, tutelle principale du Palais, ne s’est toujours pas positionné, laissant encore planer une incertitude.

Pour des personnes extérieures à ce champ d’activité, les problèmes du Palais de la découverte peuvent sembler quelque peu parisiano-centrés ou peu importants par rapport à d’autres problématiques actuelles. Et pourtant, la question soulevée est plus globale qu’il n’y paraît.

Un symbole de l’évolution de la culture scientifique

Le Palais de la découverte est né dans le cadre de l’exposition internationale de 1937, d’une idée du peintre André Léveillé et du physicien et homme politique Jean Perrin.

Le Palais de la découverte, depuis 1937 temple de la vulgarisation scientifique.

Le Front Populaire au pouvoir porte les premières grandes politiques culturelles et Perrin voit dans le projet proposé par Léveillé un moyen de rendre la science accessible à tous et de favoriser des vocations. Il disait à propos du Palais de la découverte :

« S’il révélait un seul Faraday, notre effort à tous serait payé plus qu’au centuple ».

Perrin parviendra à pérenniser l’institution au-delà de l’exposition. À cette époque, difficile de parler de culture scientifique et de médiation : il s’agit surtout d’un temple de la science, important pour les scientifiques en période d’institutionnalisation de la recherche et de justification de sa légitimité.

Le Palais va par la suite faire évoluer son fonctionnement pour s’adapter aux changements sociaux. Des actions de médiation plus proches des formes contemporaines apparaissent dans les années 1960, en parallèle du développement du champ de la culture scientifique.

Ainsi, le Palais propose dans ces années des expositions itinérantes - traduisant la volonté d’aller au-delà des murs du musée - des conférences et de l’animation culturelle de clubs de jeunes. Dans les années 1970, les démonstrations et les conférences sont progressivement remplacées par des expériences interactives, et dans les années 1980 les activités pédagogiques avec les écoles, en complément des enseignements scolaires jugés souvent insuffisants, sont fréquentes.

En 1977, le président de la République Valéry Giscard d’Estaing valide l’aménagement de la Cité des Sciences et de l’Industrie à la Villette. Là où le Palais se veut plus proche des sciences académiques, la Cité est pensée pour faire le lien entre sciences, techniques et savoir-faire industriels. On parlera ainsi de l’électrostatique et des mathématiques dans le premier, par exemple, quand le deuxième proposera une exposition sur la radio.

Expérience démontrant le principe de l'électrostatisme au Palais de la découverte
Expérience démontrant le principe de l'électrostatisme au Palais de la découverte. A Robin EPPDCSI, CC BY-ND

La diversité de la culture scientifique en France

Décentrons le regard de Paris. La culture scientifique est loin de se limiter à la capitale et au Palais de la découverte. Avec l’effervescence des revendications sociales des années 1960, des associations émergent pour diffuser la culture scientifique dans l’ensemble du territoire national.

L’institutionnalisation de ces structures de culture scientifique a lieu dans les années 1980, sous la présidence de François Mitterrand, avec la volonté d’encadrer le travail de médiateur scientifique et de créer des Centres de Culture Scientifique, Technique et Industrielle (CCSTI) permettant de diffuser cette culture dans l’ensemble du territoire.

Aujourd’hui, les acteurs de la culture scientifique sont marqués par leur grande diversité, si bien qu’il est difficile de les dénombrer. Entre les lieux de médiation centrés sur les sciences techniques ou de la nature, ceux sur le patrimoine, les associations d’éducation populaire, les musées et muséums ou encore les récents festivals, tiers-lieux culturels et médiateurs indépendants - sans parler des collectifs moins institutionnels et des groupements informels d’amateurs passant sous les radars, la culture scientifique est un champ culturel d’une grande diversité.


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


Culture scientifique et justice sociale : mission impossible

Cette diversité d’acteurs propose des actions de médiation scientifique dans un contexte fort en enjeux sociaux : crises démocratiques et écologiques, désinformation, inégalités d’accès aux métiers et filières d’études scientifiques…L’accès à l’information scientifique est un enjeu de lutte contre les injustices sociales – défini par la philosophe Iris Marion Young comme ce qui constituent des contraintes institutionnelles au développement personnel (oppression), ou à l’auto-détermination (domination).

Mais plusieurs chercheurs français ou internationaux ont étudié l’incapacité de la culture scientifique à répondre aux enjeux de justice sociale qui lui sont attribués. En partie à cause de projets trop descendants, trop courts ou peu adaptés aux publics les plus marginalisés des institutions culturelles.

Le Palais de la découverte est peut-être là encore un symbole de son temps, car plusieurs critiques peuvent lui être adressées, par exemple concernant la sociologie de ces publics plutôt aisés et diplômés, au détriment des groupes sociaux marginalisés. Certes, on trouve davantage de catégories sociales défavorisées dans les musées de sciences que de ceux d’art, mais les populations précaires et racisées restent minoritaires.

Le Palais essayait tout de même de s’améliorer sur cette question, par exemple à travers les « relais du champ social », visant à faciliter la visite de personnes en précarité économique.

Mais les résultats de ce type d’actions inclusives, que l’on retrouve ailleurs en France, sont globalement mitigés. Développer des projets qui répondent réellement aux besoins des publics marginalisés nécessite du temps et des moyens financiers. Or les pouvoirs publics ne semblent pas financer la culture scientifique à la hauteur de ces besoins, d’après les professionnels du secteur. Ce n’est pas uniquement le cas pour les structures nationales mais aussi pour celles locales. Par exemple, Terre des sciences, CCSTI de la région Pays de la Loire, a récemment annoncé la fermeture de son antenne de la ville moyenne de Roche-sur-Yon, ouverte depuis 15 ans, faute de financement suffisant.

La situation du Palais de la découverte n’est donc pas un problème isolé. En tant qu’institution nationale de la culture scientifique, il est le symbole d’une histoire des relations entre les sciences et la société depuis sa création jusqu’à aujourd’hui. Et à travers la crise actuelle qu’il traverse, la question à poser est peut-être celle de la culture scientifique que nous voulons, partout en France

The Conversation

Bastien Fayet ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

29.06.2025 à 08:30

Mais pourquoi certains requins « freezent » lorsqu’on les retourne ?

Jodie L. Rummer, Professor of Marine Biology, James Cook University
Joel Gayford, PhD Candidate, Department of Marine Biology, James Cook University
Plutôt qu’une stratégie de survie ingénieuse, l’immobilité tonique pourrait n’être qu’un simple « bagage évolutif ».
Texte intégral (1421 mots)
Lorsqu’on retourne certains requins, ils se figent totalement. Rachel Moore

Vous avez peut-être déjà vu cette scène dans votre documentaire animalier préféré. Le prédateur surgit brutalement de sa cachette, gueule grande ouverte, et sa proie… se fige soudain. Elle semble morte. Cette réponse de figement – appelée « immobilité tonique » – peut sauver la vie de certains animaux. Les opossums sont célèbres pour leur capacité à « faire le mort » afin d’échapper aux prédateurs. Il en va de même pour les lapins, les lézards, les serpents et même certains insectes.

Mais que se passe-t-il quand un requin agit ainsi ?

Dans notre dernière étude, nous avons exploré ce comportement étrange chez les requins, les raies et leurs proches parents. Chez ce groupe, l’immobilité tonique est déclenchée lorsque l’animal est retourné sur le dos : il cesse de bouger, ses muscles se relâchent et il entre dans un état proche de la transe. Certains scientifiques utilisent même cette réaction pour manipuler certains requins en toute sécurité.

Mais pourquoi cela se produit-il ? Et ce comportement aide-t-il réellement ces prédateurs marins à survivre ?

Le mystère du « requin figé »

Bien que ce phénomène soit largement documenté dans le règne animal, les causes de l’immobilité tonique restent obscures – surtout dans l’océan. On considère généralement qu’il s’agit d’un mécanisme de défense contre les prédateurs. Mais aucune preuve ne vient appuyer cette hypothèse chez les requins, et d’autres théories existent.

Nous avons testé 13 espèces de requins, de raies et une chimère – un parent du requin souvent appelé « requin fantôme » – pour voir si elles entraient en immobilité tonique lorsqu’on les retournait délicatement sous l’eau.

Sept espèces se sont figées. Nous avons ensuite analysé ces résultats à l’aide d’outils d’analyse évolutive pour retracer ce comportement sur plusieurs centaines de millions d’années d’histoire des requins.

Alors, pourquoi certains requins se figent-ils ?

Des requins et d’autres poissons nagent au-dessus d’un récif corallien
Chez les requins, l’immobilité tonique est déclenchée lorsqu’on les retourne sur le dos. Rachel Moore

Trois hypothèses principales

Trois grandes hypothèses sont avancées pour expliquer l’immobilité tonique chez les requins :

  1. Une stratégie anti-prédateur – « faire le mort » pour éviter d’être mangé.

  2. Un rôle reproductif – certains mâles retournent les femelles lors de l’accouplement, donc l’immobilité pourrait réduire leur résistance.

  3. Une réponse à une surcharge sensorielle – une sorte d’arrêt réflexe en cas de stimulation extrême.

Mais nos résultats ne confirment aucune de ces explications.

Il n’existe pas de preuve solide que les requins tirent un avantage du figement en cas d’attaque. En réalité, des prédateurs modernes, comme les orques, exploitent cette réaction en retournant les requins pour les immobiliser, avant d’arracher le foie riche en nutriments – une stratégie mortelle.


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


L’hypothèse reproductive est aussi peu convaincante. L’immobilité tonique ne varie pas selon le sexe, et rester immobile pourrait même rendre les femelles plus vulnérables à des accouplements forcés ou nocifs.

Quant à la théorie de la surcharge sensorielle, elle reste non testée et non vérifiée. Nous proposons donc une explication plus simple : l’immobilité tonique chez les requins est probablement une relique de l’évolution.

Une affaire de bagage évolutif

Notre analyse suggère que l’immobilité tonique est un trait « plésiomorphe » – c’est-à-dire ancestral –, qui était probablement présent chez les requins, les raies et les chimères anciens. Mais au fil de l’évolution, de nombreuses espèces ont perdu ce comportement.

En fait, nous avons découvert que cette capacité avait été perdue au moins cinq fois indépendamment dans différents groupes. Ce qui soulève une question : pourquoi ?

Dans certains environnements, ce comportement pourrait être une très mauvaise idée. Les petits requins de récif et les raies vivant sur le fond marin se faufilent souvent dans des crevasses étroites des récifs coralliens complexes pour se nourrir ou se reposer. Se figer dans un tel contexte pourrait les coincer – ou pire. Perdre ce comportement aurait donc pu être un avantage dans ces lignées.

Que faut-il en conclure ?

Plutôt qu’une tactique de survie ingénieuse, l’immobilité tonique pourrait n’être qu’un « bagage évolutif » – un comportement qui a jadis servi, mais qui persiste aujourd’hui chez certaines espèces simplement parce qu’il ne cause pas assez de tort pour être éliminé par la sélection naturelle.

Un bon rappel que tous les traits observés dans la nature ne sont pas adaptatifs. Certains ne sont que les bizarreries de l’histoire évolutive.

Notre travail remet en question des idées reçues sur le comportement des requins, et éclaire les histoires évolutives cachées qui se déroulent encore dans les profondeurs de l’océan. La prochaine fois que vous entendrez parler d’un requin qui « fait le mort », souvenez-vous : ce n’est peut-être qu’un réflexe musculaire hérité d’un temps très ancien.

The Conversation

Jodie L. Rummer reçoit des financements de l’Australian Research Council. Elle est affiliée à l’Australian Coral Reef Society, dont elle est la présidente.

Joel Gayford reçoit des financements du Northcote Trust.

25.06.2025 à 17:04

IA et étudiants : Savoir citer ses sources est indispensable à la formation intellectuelle – et ne pas le faire est passible de sanctions

Mônica Macedo-Rouet, Professeure des universités en psychologie de l'éducation, CY Cergy Paris Université
Lorsque l’on demande conseil à ChatGPT, il est nécessaire de vérifier que les informations correspondent à celles de l’article original.
Texte intégral (2360 mots)
Utiliser l’IA pour ses études, mais intelligemment. Franco Alva/Unsplash, CC BY

La fin de l’année universitaire est un moment propice à la réflexion sur les usages de l’intelligence artificielle (IA) dans les travaux académiques. C’est le moment où les enseignants-chercheurs évaluent les écrits des étudiants. Les réclamations qui s’ensuivent nous donnent l’occasion de discuter avec eux de leur rapport à la lecture, aux sources d’information et à la connaissance.

Si peu d’étudiants savent que ne pas citer ses sources dans les règles de l’art est une faute qui peut avoir des conséquences graves pour leur scolarité, il convient de décider comment l’on pourrait tirer parti de cette technologie incroyablement puissante sans renoncer à nos principes éthiques ni à nos ambitions de formation intellectuelle des étudiants.


Je lis les écrits d’étudiants en Master depuis plus de vingt ans. Cette année, j’ai constaté une augmentation massive du nombre de travaux qui comportaient des passages entiers stylistiquement proches des textes produits par l’IA générative. J’ai passé de nombreuses heures à scruter les rapports du logiciel Compilatio (un outil conçu au départ pour lutter contre le plagiat, progressivement adapté à l’IA), à vérifier l’authenticité des références bibliographiques, à faire des recherches en ligne et parfois même dans des ouvrages imprimés, afin de savoir si mes étudiants avaient rédigé eux-mêmes leurs textes.

En effet, à l’heure actuelle, aucun outil ne permet de déterminer avec certitude si un texte a été produit par l’IA générative. Parmi les cas suspects, j’ai décelé des citations à des auteurs et des références bibliographiques introuvables sur le Net ou à la bibliothèque universitaire. Ces occurrences connues sous le nom d’« hallucinations » justifiaient pleinement une demande d’explications à mes étudiants. Leurs réponses m’ont laissée perplexe.

Si les étudiants ont majoritairement reconnu avoir utilisé l’IA, ils ne voyaient pas où était le problème. Tous m’ont envoyé les articles qu’ils avaient « lu » et « traité » dans le cadre de leur travail. Ils ont justifié l’utilisation de l’IA générative comme un moyen de « reformuler [leurs] propos », « structurer [leurs] idées », « améliorer la syntaxe », « illustrer les idées de chaque auteur », « gagner du temps plutôt que de retourner dans chaque article », ou encore « faire la bibliographie à [leur] place ». Tout cela leur paraissait tout à fait normal et acceptable.

Plus grave pour moi, dont le métier est d’éduquer à l’évaluation de l’information, quand je leur ai demandé pourquoi le nom d’un auteur ou le titre d’une revue cité dans leur texte étaient différents de ceux qui figuraient dans la première page de l’article qu’ils m’avaient transmis, il y a eu un haussement d’épaules.

D’où venait leur perception que la citation des sources était un détail dans la rédaction d’un écrit sur un sujet de recherche ?

Le rôle des sources dans les écrits scientifiques… et dans les textes générés par l’IA

L’attitude des étudiants, faite d’un mélange de surprise (certes possiblement feinte) et de frustration vient, à mon avis, du bouleversement apporté par l’IA générative au statut des sources d’information dans les textes.

Dans un texte scientifique, le rôle des sources d’information est fondamental. La source correspond à l’ensemble des paramètres qui renseignent le lecteur sur l’origine de l’information, tels que l’auteur, la date de publication, ou le média. Elle donne des indications sur l’affiliation institutionnelle et disciplinaire d’un auteur, le processus éditorial préalable à la publication d’une information, et d’autres indices qui permettent d’interpréter les propos et d’en juger la fiabilité.

Or, si les chercheurs s’appuient constamment sur ces critères pour évaluer la crédibilité d’un texte, c’est l’objet d’un processus d’apprentissage pour les étudiants. Dans un article précurseur sur le sujet, Wineburg a comparé le raisonnement d’historiens et d’élèves de terminale sur un ensemble de documents à propos d’un évènement historique controversé. La source était le premier critère utilisé par les historiens pour évaluer la pertinence et la fiabilité d’un document, alors qu’il n’apparaissait qu’en troisième position pour les lycéens, qui se focalisaient davantage sur le contenu et la lisibilité des textes. Ces résultats ont été répliqués dans de nombreuses études.

Récemment, tout un chacun a pu mesurer leur importance dans le contexte de la diffusion des fausses informations sur la Covid-19. Sans la source, la crédibilité d’une information scientifique peut difficilement être évaluée.

L’IA peut contredire ses sources : elle n’est pas conçue pour y être fidèle

Dans les textes générés par l’IA, le rôle des sources est sensiblement différent.

À la base de cette technologie, il y a bien un corpus de sources gigantesque qui permet à des modèles statistiques du langage d’apprendre et de générer des textes cohérents et vraisemblablement similaires aux textes produits par les humains.

Mais les sources ne servent que d’input durant l’entraînement et ne sont pas utilisées comme critère explicite de fiabilité lors de la génération d’une réponse. Le modèle prédit la suite la plus probable d’un texte, mot à mot, selon les régularités apprises, sans évaluer la véracité de l’information par rapport à des documents authentifiés.


À lire aussi : Comment fonctionne ChatGPT ? Décrypter son nom pour comprendre les modèles de langage


Ainsi, l’on peut se retrouver avec un texte généré par l’IA parfaitement cohérent et néanmoins erroné. Même lorsque l’on demande à ChatGPT de résumer un article scientifique, il est nécessaire de vérifier que les informations correspondent à celles de l’article original. Sans une vérification scrupuleuse des textes produits par l’IA, il y a un risque de reproduction d’informations imprécises ou incorrectes, et d’attribution de certaines idées à de faux auteurs, ce qui constitue une fraude passible de sanctions.

Ne pas citer ses sources (correctement) est passible de sanctions

Les étudiants n’ont pas forcément l’impression de tricher lorsqu’ils utilisent l’IA comme une aide à la rédaction, car les textes générés par l’IA ne constituent pas un plagiat au sens propre. En France, le ministère de l’Enseignement supérieur et de la Recherche s’est prononcé sur ce sujet dans une réponse à la question d’un sénateur en 2023 :

« Les œuvres créées par des IA ne sont pas protégées en elles-mêmes sauf si elles reproduisent des œuvres de l’esprit au sens du code de la propriété intellectuelle[…][donc] recopier un texte produit par ChatGPT ne peut être sanctionné au regard des dispositions des articles L. 122-4 et L. 335-2 du code de la propriété intellectuelle. »

Cependant, la même réponse précise que :

« L’indication des sources est une obligation juridique, académique et éthique. D’un point de vue académique, notamment, elle doit permettre d’apprécier la valeur pédagogique du travail original réalisé par son auteur. Ne pas mentionner les sources pour faire sien un travail réalisé par autrui ou par une IA est, en conséquence, constitutif d’une fraude susceptible d’être poursuivie et sanctionnée, pour les usagers de l’enseignement supérieur, en application des dispositions des articles R. 811-1 et suivants du code de l’éducation. »

Autrement dit, le fait d’utiliser un texte généré par l’IA ne dispense pas l’étudiant de citer correctement ses sources. Les sanctions peuvent aller jusqu’à l’exclusion de l’université et le retrait du diplôme, et ce sans délai de prescription.

En somme, ne pas citer ses sources dans les règles de l’art est une faute qui peut avoir des conséquences graves pour la scolarité d’un étudiant, sans parler du fait que la simple copie d’un texte produit par l’IA ne garantit pas l’apprentissage. Car celui-ci requiert un traitement actif de l’information de la part de l’apprenant.

Chacun doit donc s’assurer que les sources utilisées dans son travail sont correctement citées, selon les normes bibliographiques et scientifiques en vigueur. Hélas, ces normes sont enseignées parfois trop brièvement ou superficiellement – quand elles le sont – dans les cours de méthodologie de la recherche à l’université.

Une première piste : améliorer la détection des textes produits par l’IA

Une première piste serait d’améliorer la détection des textes produits par l’IA.

Les logiciels de détection automatique deviennent de plus en plus performants dans cette tâche, mais les modèles d’IA générative s’améliorent également dans l’application de stratégies de paraphrase et « d’humanisation » des textes, qui rendent plus difficile la détection automatique. Par ailleurs, certains chercheurs s’évertuent à construire des modèles visant à empêcher directement la détection automatique des textes générés par l’IA.


À lire aussi : Peut-on détecter automatiquement les deepfakes ?


C’est donc un rapport de forces extrême et inégal qui est en train de se jouer et risque de se reproduire en permanence, rendant difficile la mise à disposition des enseignants d’outils performants de détection automatique.

Pour améliorer la détection des textes générés par l’IA, une étude non encore publiée, déposée dans la plateforme ArXiv, propose de faire appel à des experts de l’usage de l’IA. Les chercheurs ont en effet observé que ces experts sont capables d’utiliser plusieurs critères d’évaluation de manière flexible : « vocabulaire de l’IA », présence de structures syntaxiques et documentaires stéréotypées, absence de fautes orthographiques et grammaticales, entre autres. Ces résultats nécessitent évidemment d’être confirmés par une publication et répliqués, mais ils suggèrent qu’il peut être utile de former les enseignants à l’application de ces critères.

Former – toujours former ! – à l’évaluation des sources d’information

Au-delà de l’aspect purement « détectionnel » des textes, ce sont des connaissances sur la structure et la rhétorique des textes générés par l’IA qu’il convient d’expliciter dans le but de les intégrer dans la pédagogie universitaire.

L’IA peut aider les enseignants et les étudiants dans de nombreuses tâches, mais elle ne peut pas se substituer complètement au jugement humain. L’usage éthique de l’IA ne se résume pas à interdire certains procédés ni à promouvoir les compétences techniques des étudiants et des enseignants (par exemple, « Comment faire un bon prompt ? »). Elle va au-delà des aspects normatifs et techniques, et inclut les questions d’épistémologie, de connaissances documentaires, et de métacognition indispensables à toute démarche maîtrisée de recherche d’informations.

Je suis sûre que l’on gagnerait à avoir des discussions plus ouvertes avec les étudiants au sujet des usages de l’IA dans les travaux universitaires, ce que cela signifie pour eux et pour nous, enseignants et chercheurs, et comment l’on pourrait tirer parti de cette technologie incroyablement puissante sans renoncer à nos principes éthiques ni à nos ambitions de formation intellectuelle des étudiants. Ce serait un débat au nom du savoir, de l’apprentissage et de la vérité, un débat dont notre université et notre démocratie ont tant besoin.

The Conversation

Mônica Macedo-Rouet ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

25.06.2025 à 12:10

Pourquoi la musique sonne-t-elle juste ou faux ?

Jean-Pierre Dalmont, Professeur des Universités, spécialiste des guides d'ondes acoustiques et de la physique des instruments de musique, Le Mans Université
La réponse à cette question relève autant des mathématiques et de la physique que de la physiologie.
Texte intégral (1219 mots)

Pourquoi la musique sonne-t-elle « juste » ou « faux » et pourquoi seuls quelques élus après un travail forcené sont-ils capables de jouer ensemble et juste ? La réponse à cette question relève autant des mathématiques et de la physique que de la physiologie.


S’il arrive souvent qu’on perçoive dans diverses circonstances que certaines personnes, même seules, chantent faux, c’est parce qu’elles s’éloignent de façon très significative de l’échelle musicale attendue. Pour fixer les idées, si dans une mélodie, la note attendue est un La3 (le la au milieu du clavier) sa fréquence devrait être de l’ordre de 440 Hz, c’est-à-dire 440 oscillations par seconde.

Si elle dévie de plus de 10 Hz, elle sera suffisamment éloignée de l’attendu pour choquer les auditeurs qui connaissent la mélodie. Les échelles musicales ont une grande part d’arbitraire et leur perception relève donc de l’acquis.

Quelqu’un qui n’a aucune culture musicale ne sera en aucun cas choqué par ces déviations. D’ailleurs, les échelles musicales qui ne relèvent pas de notre culture telles que les échelles orientales ou les échelles en quart de tons nous paraissent fausses, car elles ne nous sont pas familières.

La justesse est donc une notion toute relative, et c’est lorsque l’on fait de la musique à plusieurs que celle-ci prend vraiment son sens. En effet, deux musiciens qui jouent ensemble doivent être « d’accord », c’est-à-dire que les notes qu’ils vont jouer ensemble doivent s’accorder. Et là, notre oreille est intraitable : si deux musiciens ne sont pas accordés, le résultat est extrêmement déplaisant, ça sonne faux. On sort donc du domaine de l’acquis pour rentrer dans celui de la physique.


Tous les quinze jours, de grands noms, de nouvelles voix, des sujets inédits pour décrypter l’actualité scientifique et mieux comprendre le monde. Abonnez-vous gratuitement dès aujourd’hui !


La musique, une affaire de physiciens ?

À quel phénomène cela tient-il ? La réponse à cette question est connue finalement depuis assez peu de temps au regard de l’histoire de la musique puisque c’est seulement au milieu du XIXe siècle qu’Hermann von Helmholtz donne une explication scientifique de la notion de dissonance, qu’il nomme « Rauhigkeit » (« rugosité »).

Il associe la notion de dissonance à la notion de battements. En effet, les mathématiques nous disent que, lorsqu’on superpose deux sons purs de même amplitude et de fréquences voisines, il en résulte un son unique dont la fréquence est leur moyenne et dont l’amplitude est modulée périodiquement par une fréquence égale à leur différence. Par exemple, si on superpose deux sons purs de même amplitude et de fréquences 439 Hz et 441 Hz, on obtient un son de 440 Hz qui s’éteint deux fois par seconde (2 Hz). C’est une sensation assez désagréable, car notre cerveau n’apprécie pas les événements répétés rapidement qui mobilisent trop son attention.

Un son pur de 439 Hz, puis un de 441 Hz et enfin le mélange des deux.

Hermann von Helmholtz a estimé subjectivement que la sensation était la plus désagréable pour des battements autour de 30 Hz. Quand cette fréquence augmente, la sensation de battement disparaît et la sensation désagréable avec.

Les choses se compliquent lorsqu’on superpose deux sons complexes. Un son complexe est un son périodique dont on sait, depuis Joseph Fourier, qu’il peut être décomposé en une somme de sons purs – les harmoniques –, dont les fréquences sont multiples de sa fréquence, dite fréquence fondamentale. Lorsqu’on superpose deux sons complexes, alors tous les harmoniques du premier son sont susceptibles de battre avec un voire plusieurs harmoniques du second. La probabilité pour que les deux sons sonnent bien ensemble est alors quasi nulle.

Les rares situations sans battement correspondent aux intervalles consonants : l’octave qui correspond à un rapport de fréquence égal à 2 exactement, la quinte qui correspond à un rapport 3/2, la quarte 4/3, la tierce majeure 5/4 et, à la limite, la tierce mineure 6/5.

Ces intervalles, si la note fondamentale n’est pas trop basse, ne créent pas de battements. Cela s'explique car de la superposition de deux sons d’un intervalle juste résulte un seul son, dont la fréquence fondamentale est la différence entre les deux. Ainsi un La3 à 440 Hz et un La4 à 880 Hz (octave) donnent un La3 de fréquence 440 Hz, mais avec un timbre différent. Un La3 à 440 Hz et un Mi4 à 660 Hz (quinte) donnent un La2 à 220 Hz. De même, un La3 à 440 Hz et un do#4 à 550 Hz (tierce majeure) donnent un La1 à 110 Hz.

Dans tous les cas, l’oreille ne perçoit pas de battements car ceux-ci sont trop rapides. Par contre, si on considère un La2 une octave plus bas à 220 Hz et un do#3 à 275 Hz (tierce majeure), on obtient un La1 à 55 Hz qui commence à être perçu comme rugueux. À cette hauteur, la tierce est presque dissonante. C’est sans doute pour cela qu’au Moyen Âge, la tierce majeure était rejetée, car considérée comme dissonante, sans parler de la tierce mineure. Ces deux intervalles sont d’ailleurs toujours considérés par les spécialistes comme des consonances imparfaites, par opposition à l’octave et la quinte qui sont des consonances parfaites.

Ces intervalles sont à la base de la musique occidentale puisqu’ils permettent de construire la gamme naturelle Ut (do) ré mi fa sol la, qui va permettre, en combinant différentes notes non conjointes, de définir les bases de l’harmonie musicale. Au fil du temps, les compositeurs et les auditeurs seront de plus en plus accommodants vis-à-vis de la justesse et, actuellement, sur un clavier numérique, seules les octaves sont rigoureusement justes.

Finalement, de nos jours, chanter juste, c’est chanter pas trop faux !

The Conversation

Jean-Pierre Dalmont ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

5 / 25

 

  GÉNÉRALISTES
Ballast
Fakir
Interstices
Lava
La revue des médias
Le Grand Continent
Le Monde Diplo
Le Nouvel Obs
Lundi Matin
Mouais
Multitudes
Politis
Regards
Smolny
Socialter
The Conversation
UPMagazine
Usbek & Rica
Le Zéphyr
 
  Idées ‧ Politique ‧ A à F
Accattone
Contretemps
A Contretemps
Alter-éditions
CQFD
Comptoir (Le)
Déferlante (La)
Esprit
Frustration
 
  Idées ‧ Politique ‧ i à z
L'Intimiste
Jef Klak
Lignes de Crêtes
NonFiction
Nouveaux Cahiers du Socialisme
Période
Philo Mag
Terrestres
Vie des Idées
 
  ARTS
Villa Albertine
 
  THINK-TANKS
Fondation Copernic
Institut La Boétie
Institut Rousseau
 
  TECH
Dans les algorithmes
Framablog
Goodtech.info
Quadrature du Net
 
  INTERNATIONAL
Alencontre
Alterinfos
CETRI
ESSF
Inprecor
Journal des Alternatives
Guitinews
 
  MULTILINGUES
Kedistan
Quatrième Internationale
Viewpoint Magazine
+972 mag
 
  PODCASTS
Arrêt sur Images
Le Diplo
LSD
Thinkerview
 
Fiabilité 3/5
Slate
Ulyces
 
Fiabilité 1/5
Contre-Attaque
Issues
Korii
Positivr
Regain
🌞