ACCÈS LIBRE UNE Politique International Environnement Technologies Culture
30.10.2024 à 16:47
Ouvrir les modèles d’IA pour qu’ils ne restent pas l’apanage des géants du Web
Thierry Poibeau, DR CNRS, École normale supérieure (ENS) – PSL
Texte intégral (1897 mots)
Les grands modèles de langue, comme celui derrière ChatGPT, sont « fermés » : on ne sait pas comment ils sont mis au point, sur quelles données et avec quels paramètres. Même les modèles dits ouverts ne le sont que très partiellement, ce qui pose des problèmes de transparence et de souveraineté évidents. Développer des modèles ouverts est une alternative réaliste et souhaitable à moyen terme.
De la traduction automatique à la génération de contenu, les modèles de langue (ou modèles de langage) reposent sur des ensembles massifs de données et des algorithmes complexes. L’une des grandes questions pour la communauté de l’Intelligence artificielle est de savoir si ces modèles doivent rester fermés – contrôlés uniquement par quelques grandes entreprises – ou être ouverts et accessibles au public – en particulier aux chercheurs, développeurs et institutions publiques.
Un modèle ouvert présente plusieurs avantages. Premièrement, il permet une plus grande transparence. Les utilisateurs peuvent voir comment le modèle a été formé, quelles données ont été utilisées et quelles décisions algorithmiques sous-tendent ses prédictions. Cela favorise la confiance dans les résultats produits et permet à la communauté scientifique de vérifier et de corriger les biais qui pourraient être présents. Deuxièmement, un modèle ouvert encourage l’innovation. En permettant à d’autres chercheurs, développeurs et entreprises de travailler avec ces modèles, on peut accélérer le développement de nouvelles applications et résoudre des problèmes complexes de manière plus collaborative.
Les modèles fermés quant à eux posent des problèmes importants. Leur opacité rend difficile l’identification des responsabilités juridiques, car il est presque impossible de déterminer quelles données ont été utilisées lors de l’entraînement ou comment les décisions du système ont été prises. Cette opacité crée donc des risques potentiels de discrimination algorithmique, de désinformation et d’utilisation abusive des données personnelles. En outre, ces modèles fermés renforcent les monopoles technologiques, laissant peu de place à la concurrence et limitant ainsi les possibilités de mise au point de solutions concurrentes.
Si, aujourd’hui, les modèles de langue réellement ouverts (open source) sont encore relativement marginaux, ils restent une option envisageable à moyen terme. Pour qu’ils se développent, il faudra non seulement surmonter des obstacles techniques, mais aussi repenser les modèles de financement et de régulation, afin de garantir que l’innovation ne soit pas réservée à une poignée de géants technologiques. Il en va de l’avenir de l’intelligence artificielle ouverte et de son potentiel à bénéficier à l’ensemble de la société.
Lobbying et stratégies d’entreprises
Un lobbying intensif est mené auprès des gouvernements et des instances de régulation pour avancer l’argument selon lequel l’ouverture complète des LLM pourrait mener à des dérives. La crainte d’un mauvais usage, qu’il s’agisse de diffusion massive de fausses informations ou de cyberattaques – voire le fantasme d’une prise de pouvoir par des machines supra-intelligentes, est mise en avant pour justifier la fermeture de ces modèles.
OpenAI, avec d’autres, proclame qu’ouvrir les modèles serait source de danger pour l’humanité. Le débat est en fait souvent difficile à suivre : certains parlent de danger, voire demandent un moratoire sur ce type de recherche, mais continuent d’investir massivement dans le secteur en parallèle.
Par exemple, Elon Musk a signé en mars 2023 la lettre du Future of Life Institute demandant une pause de six mois des recherches en IA, tout en lançant en juillet 2023 xAI, un concurrent d’OpenAI ; Sam Altman, qui dirige OpenAI, parle aussi fréquemment de danger tout en visant des levées de fonds de plusieurs milliards de dollars pour développer des modèles toujours plus puissants.
Si certains croient sans doute vraiment qu’il y a là un danger (mais il faudrait définir lequel exactement), d’autres semblent manœuvrer en fonction de leurs intérêts et des immenses sommes investies.
Des modèles dits « ouverts » qui ne le sont pas tant que ça
Face à cela, d’autres sociétés, comme Méta avec ses modèles Llama, ou Mistral en France, proposent des modèles dits « ouverts ». Mais ces modèles sont-ils réellement ouverts ?
L’ouverture se limite en effet le plus souvent à l’accès aux « poids » du modèle, c’est-à-dire aux milliards de paramètres qui se voient ajustés lors de son entraînement grâce à des données. Mais le code utilisé pour entraîner ces modèles, et les données d’entraînement (ces masses de données cruciales qui permettent au modèle d’analyser et de produire du texte) restent généralement des secrets bien gardés, hors de portée des utilisateurs et même des chercheurs, limitant ainsi la transparence de ces modèles. À ce titre, peut-on vraiment parler de modèle ouvert si seuls les poids sont disponibles et non les autres composantes essentielles ?
L’ouverture des poids offre toutefois des avantages certains. Les développeurs peuvent adapter le modèle sur des données particulières (à travers le « fine tuning ») et surtout, ces modèles offrent une meilleure maîtrise que des modèles complètement fermés. Ils peuvent être intégrés dans d’autres applications, sans qu’il s’agisse de boîte noire uniquement accessible par « prompt engineering », où la façon de formuler une requête peut influer sur les résultats, sans qu’on sache très bien pourquoi.
L’accès aux poids favorise également l’optimisation des modèles, notamment à travers des techniques comme la « quantisation », qui réduit la taille des modèles tout en préservant leur performance. Cela permet de les exécuter sur des machines plus modestes, des ordinateurs portables voire des téléphones.
En rendant les modèles partiellement ouverts, les sociétés propriétaires bénéficient ainsi de l’intérêt de milliers de développeurs, ce qui permet des progrès potentiellement plus rapides que pour les modèles fermés, mis au point par des équipes forcément plus réduites.
Vers des modèles réellement open source ?
Mais peut-on envisager demain la création de modèles de langage réellement open source, où non seulement les poids, mais aussi les données d’entraînement et les codes d’apprentissage seraient accessibles à tous ? Une telle approche soulève des défis techniques et économiques importants.
Le principal obstacle reste la puissance de calcul nécessaire pour entraîner ces modèles, qui est actuellement l’apanage des entreprises dotées de ressources colossales (Google, Meta, Microsoft, etc.) ; OpenAI, ou Mistral en France, ont recours à de la puissance de calcul proposée par différents acteurs, dont les géants de l’informatique suscités. C’est en partie pour couvrir ces coûts – l’accès la puissance de calcul – que ces entreprises doivent régulièrement lever des fonds importants. Le coût énergétique, matériel, et en ressources humaines est prohibitif pour la plupart des acteurs.
Pourtant, des initiatives existent. Des communautés de chercheurs et des organisations à but non lucratif cherchent à développer des modèles ouverts et éthiques, basés sur des jeux de données accessibles, ou du moins transparents.
Ainsi, Allen AI (centre de recherche privé à but non lucratif, financé à l’origine par Paul Allen, le cofondateur de Microsoft décédé en 2018) a mis au point les modèles Olmo et Molmo (modèle de langue et modèle multimodal), qui sont complètement ouverts.
SiloAI, une entreprise finlandaise, en collaboration avec l’Université de Turku a mis au point un modèle multilingue complètement ouvert, Poro, performant pour les langues scandinaves.
En France, Linagora et d’autres travaillent aussi à mettre au point des systèmes ouverts, dans la continuité de Bloom (un modèle complètement ouvert, mis au point par un collectif de chercheurs sous l’impulsion de la société Hugging Face en 2022).
Le modèle économique de ces initiatives reste à déterminer, de même que le retour sur investissement à terme des sommes colossales actuellement en jeu sur ce thème au niveau international.
En pratique, ces modèles sont souvent entraînés sur des infrastructures publiques (Lumi en Finlande pour Poro, Genci en France pour Bloom) : il s’agit souvent de collaborations entre universitaires et entreprises privées pouvant ensuite commercialiser les solutions développées, puisqu’un modèle ouvert n’est pas synonyme de complètement gratuit, et des services annexes comme l’adaptation des modèles pour des besoins particuliers peuvent contribuer au financement de telles initiatives.
Une autre piste se situe dans le développement de modèles de langue spécialisés, moins coûteux en termes de données et d’infrastructure, mais qui pourraient répondre à des besoins spécifiques, ce qui permettrait à des entreprises ou des acteurs plus modestes de tirer leur épingle du jeu.
Thierry Poibeau est membre de l'Institut Prairie-PSAI (Paris AI Research Institute - Paris School of Artificial Intelligence) et a reçu des financements à ce titre.
29.10.2024 à 16:38
Est-il vrai qu’il y a plus de microbes que de cellules dans le corps humain ?
Valérie Lannoy, post-doctorante en microbiologie, Sorbonne Université
Texte intégral (1012 mots)
Il est difficile de faire nos courses sans qu’il ne nous soit proposé des produits pour protéger notre microflore ! Notre corps hébergerait dix fois plus de bactéries que de cellules. Vraiment ?
La microflore ou microbiote est l’ensemble des micro-organismes qui résident normalement dans notre corps. Ses secrets ont été vulgarisés par la Dre Giulia Enders dans son livre « Le charme discret de l’intestin ». Ce best-seller a largement contribué à l’engouement autour du sujet ! Pourtant, la découverte de la microflore intestinale a plus d’un siècle. Nous la devons au microbiologiste Élie Metchnikoff, prix Nobel de médecine en 1908. Avec le temps, les avancées technologiques ont facilité l’étude du microbiote, et c’est en 1977 que le célèbre ratio d’une cellule humaine pour dix bactéries est publié par le microbiologiste américain Dwayne Savage.
Des quantités de microbes et de cellules difficilement mesurables
En 1972, le biochimiste Thomas Luckey a évalué que chaque gramme de selles humaines renfermait cent milliards de bactéries et que l’appareil digestif en contenait un kilo. En multipliant, et en considérant que la majorité des bactéries se loge dans les fèces, l’estimation de la quantité dans le corps était donc de 100 000 milliards de bactéries. En 1977, l’équipe du Pr Savage a ramené ce nombre sur le nombre de cellules humaines (10 000 milliards), d’où le fameux ratio. Ce rapport d’un sur dix s’est vite répandu dans la communauté scientifique, car il est facile à retenir et rend concrète la notion de microflore intestinale. Le ratio est encore diffusé dans les cours de biologie ou activités de vulgarisation.
Chaque semaine, nos scientifiques répondent à vos questions.
N’hésitez pas à nous écrire pour poser la vôtre et nous trouverons la meilleure personne pour vous répondre.
Et bien sûr, les questions bêtes, ça n’existe pas !
Près de quarante ans après, en 2014, le microbiologiste Judah Rosner a publié une lettre dans l’ancien journal scientifique « Microbe » pour questionner l’intangible proportion d’un sur dix. Le début de son texte est d’ailleurs intéressant et révèle un paradoxe : « La science se régit par une réanalyse critique de faits. […] Mais une fois qu’un fait entre dans la littérature scientifique, au bout d’un moment, il devient difficile à effacer. » Le Pr Rosner souligne que l’estimation de 10 000 milliards de cellules est d’abord sortie dans un livre en 1970, mais que l’information n’y est pas référencée. Il avertit aussi que l’appréciation de la quantité de cellules humaines représente en fait un défi. Il conclut que, même si le ratio devait être contredit, cela ne remettrait pas en cause l’implication du microbiote dans la santé humaine.
Une question de méthode
Deux ans après la lettre mentionnée, des travaux israéliens ont démenti l’inébranlable ratio. L’équipe du Professeur Ron Milo a sélectionné l’organe dont le nombre de bactéries était représentatif des bactéries dans l’organisme. La microflore de la bouche, des poumons ou de la peau n’a pas été comptabilisée, car la quantité de bactéries y est cent fois moins riche que dans le gros intestin. Ils ont pris en compte que le côlon contient 400 grammes et non un kilo de selles fraîches. Ensuite, l’équipe s’est inspirée d’un article scientifique italien, qui évaluait le nombre de cellules humaines, non pas de manière globale, mais organe par organe puisque les tailles et masses des cellules sont très variables à travers le corps.
Le nombre de cellules humaines devient alors trois fois plus élevé, soit 30 000 milliards. La proportion de bactéries par cellule est ainsi affinée à 1,3. Bien qu’inférieur à 10, le rapport est supérieur à 1, donc les bactéries restent supérieures en nombre.
Néanmoins, chaque fois vous déféquez aux toilettes, il se rééquilibre et ce sont les cellules humaines qui deviennent supérieures en nombre !
Virus, bactéries et protozoaires peuplent notre corps
Nous parlons de bactéries, composante du microbiote intestinal la plus analysée aujourd’hui. Cependant, elle n’exprime pas toute la complexité de votre microflore. Bactéries, levures, protozoaires (animal microscopique à une seule cellule) et virus, voici le petit monde inoffensif que vous hébergez ! Notre « virobiote » a longtemps été considéré comme représentant l’écrasante majorité de l’organisme. En 2021, des études revoient cette donnée à la baisse, et rapprochent le nombre de virus dans notre corps à celui des bactéries. Par conséquent, ces effectifs sont semblables aux cellules humaines.
Mais n’oubliez pas qu’en les additionnant, bactéries et virus groupés ensemble sont majoritaires !
Valérie Lannoy ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
28.10.2024 à 16:53
Le brouillard d’eau : une nouvelle piste pour lutter contre les feux de véhicule
Antonin Robinet, doctorant en sciences des incendies, INSA Centre Val de Loire
Khaled Chetehouna, Sécurité Incendie ; Combustion ; Pyrolyse ; Milieu poreux, INSA Centre Val de Loire
Texte intégral (2189 mots)
Beaucoup d’additifs utilisés pour lutter contre les incendies se sont révélés être très nocifs pour l’environnement, il est donc nécessaire d’étudier de nouvelles pistes. Aussi surprenant que cela puisse paraître, les alcools pourraient se révéler être de bons candidats.
Contrairement à ce qui est souvent montré au cinéma, un véhicule endommagé n’explose pas. En revanche, les incendies sont tristement courants. Nos voitures et autres véhicules de transport à roues sont des machines très complexes qui possèdent de nombreux points de défaillances. En 2022, les sapeurs-pompiers comptabilisaient 45 588 interventions pour des feux de véhicules.
Le compartiment moteur d’un véhicule est une zone sensible. C’est un endroit très chaud (jusqu’à plusieurs centaines de degrés Celsius), rempli de substances combustibles diverses (carburant, huiles de synthèse, graisses, flexibles, plastiques) et soumis à un apport d’air régulier grâce au ventilateur du circuit de refroidissement. Le compartiment moteur réunit donc les trois composantes du triangle du feu qui sont la carburant, l’oxygène de l’air et une source de chaleur.
Les dernières réglementations en vigueur posent des défis pour la protection incendie. Les normes permissibles d’émissions de polluants ont généralisé le déploiement de filtres à particules qui doivent se régénérer, c’est-à-dire éliminer ces particules, à une température comprise entre 550 °C et 650 °C.
Les constructeurs capitonnent les compartiments moteurs avec de l’isolant pour diminuer le bruit perçu par les usagers mais cela a pour effet secondaire de piéger l’air chaud dans le compartiment moteur et d’en augmenter la température ambiante.
Alors que des réglementations sur les moyens d’extinction automatique des incendies pour les véhicules de transport public se mettent en place, intéressons-nous aux nouveaux défis de ce domaine.
Des molécules efficaces contre les incendies mais nuisibles pour l’environnement
Au cours du XXe siècle, on découvre que les halons, des gaz à base de brome, sont des agents extincteurs très efficaces. Dès le début des années 1980, il est cependant reconnu qu’ils participent à la dégradation de la couche d’ozone et leur utilisation est progressivement éliminée depuis l’adoption du protocole de Montréal en 1987.
Les hydrofluorocarbures (HFC) ont depuis lors été utilisés comme des alternatives. Ces gaz ne dégradent pas la couche d’ozone mais leur pouvoir de réchauffement global est plusieurs milliers de fois plus important que le CO₂. L’amendement Kigali, signé en 2016, a ajouté les HFC à la liste du protocole de Montréal.
De manière générale, l’ensemble des molécules contenant des halogènes comme le fluor sont progressivement marginalisées. La réglementation européenne prévoit l’interdiction prochaine des PFAS, ces « polluants éternels ». Ils sont utilisés dans la formulation des mousses anti-incendie employées par les sapeurs-pompiers pour lutter contre certaines classes de feux. On constate donc que toute la filière de l’extinction incendie doit se réinventer, dans un contexte de changement climatique global et alors que les normes sont des plus en plus restrictives.
Pour éviter de rejouer un scénario tel que celui qui a conduit à l’adoption des HFC, il convient d’étudier soigneusement chaque solution alternative potentielle, de se plonger dans la littérature scientifique passée et présente et d’identifier les impacts de ces technologies du point de vue de la performance anti-incendie mais également sur l’environnement et la santé humaine. C’est cet écueil que nous cherchons à éviter au sein de notre unité P2CFE du laboratoire PRISME et qui fonde mon travail de thèse, en menant la recherche sur une technologie propre : le brouillard d’eau.
Petites gouttes, grands défis
Les gouttes d’un brouillard d’eau sont très petites. Cela permet d’attaquer la flamme de trois manières. Premièrement, elles permettent de refroidir la flamme et la surface du combustible. Deuxièmement, les gouttes d’eau qui se vaporisent prennent beaucoup de place et chassent l’oxygène. Enfin, la densité du brouillard lui permet d’atténuer le rayonnement thermique de l’incendie et l’empêche ainsi de se propager en réchauffant à distance du combustible environnant. Le brouillard d’eau agit alors comme un écran de protection.
Dans notre laboratoire, le brouillard est composé de gouttes d’un diamètre d’une centaine de micromètres. Nous avons pu montrer que c’est le mécanisme de refroidissement de la flamme qui est privilégié lors de l’aspersion. Ce mécanisme est accentué lorsque le brouillard est pulvérisé avec une grande vitesse sur l’incendie. Cela engendre beaucoup de turbulence, ce qui brise la structure de la flamme, comme lorsqu’on souffle sur une bougie.
L’utilisation du brouillard d’eau pour la protection incendie d’un compartiment moteur ne coule pas de source car il est nécessaire d’intégrer sur le véhicule un réservoir d’eau d’une capacité de quelques dizaines de litres.
Un autre défi est le moteur lui-même, qui est un obstacle potentiel entre la buse du brouillard et la flamme. Il faut donc privilégier une forte vitesse initiale des gouttes et un faible diamètre afin de favoriser la distribution des gouttes dans l’ensemble du compartiment.
Le ventilateur de refroidissement est à même de souffler les petites gouttes du brouillard d’eau. Nous avons donc étudié l’influence de cette ventilation sur les performances du brouillard d’eau. Une faible ventilation transversale permet d’améliorer le temps d’extinction (de 14 secondes sans ventilation à 7 secondes pour une vitesse de ventilation de 3 mètres par seconde) en ramenant une partie du brouillard vers la flamme tandis qu’une forte ventilation transversale balaie systématiquement le spray et décroît fortement les capacités de refroidissement et d’extinction du brouillard (la flamme n’est pas éteinte en moins de 30 secondes). Pour contourner ce problème, il faut privilégier les cônes d’aspersion avec un angle élevé et orienter la projection dans le sens de la ventilation.
Éteindre le feu avec du vin ?
L’amélioration de la performance peut également passer par la modification de la solution pulvérisée. Afin d’innover, nous avons mené un travail exhaustif de revue de la littérature scientifique sur ce sujet.
Nous avons notamment pu mettre en évidence une nouvelle classe d’additifs pour le brouillard d’eau : les solvants. Parmi ces solvants, on trouve de nombreuses espèces hautement inflammables, comme l’éthanol.
Ajouter de l’éthanol dans l’eau pour améliorer la performance du brouillard d’eau peut sembler paradoxal. C’est pourtant l’effet que nous avons pu tester et confirmer au sein de notre laboratoire, sur une catégorie d’alcools allant du méthanol à l’heptanol.
L’augmentation du taux de refroidissement par rapport à l’eau seule est indéniable mais son origine est encore mal comprise. Les hypothèses privilégiées concernent une diminution du diamètre des gouttes par l’ajout d’alcool dans l’eau ou une accélération du processus d’évaporation des gouttes grâce à la présence d’alcool.
L’utilisation potentielle d’alcools comme additifs répond également à un impératif environnemental. La revue a mis en évidence un manque d’intérêt des scientifiques pour l’impact sur la santé et l’environnement des additifs pour le brouillard d’eau, alors même que la recherche sur ce brouillard d’eau ne peut pas se décorréler de l’interdiction progressive d’autres technologies d’extinction incendie. Dans cette optique, les alcools sont des additifs intéressants car ils sont biodégradables et possèdent de bonnes propriétés antigel et anticorrosion. Le brouillard d’eau additivée en est encore au stade d’études au laboratoire mais il ne fait aucun doute que le besoin réglementaire va fortement accélérer son développement dans les prochaines années.
Antonin Robinet a reçu des financements publics de l'Agence Innovation Défense et de la Région Centre-Val de Loire pour ses travaux de thèse
Khaled Chetehouna ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
27.10.2024 à 11:09
L’Agence spatiale européenne ouvre une réplique de terrain lunaire pour préparer les futures missions
Forganni Antonella, Professeure de droit, ESSCA School of Management
Benjamin Pothier, Chercheur en Anthropologie, ethnobotanique et histoire de l'art, Artiste spatial et specialiste du facteur humain dans les missions spatiales habitées, Explorateur, University of Plymouth
Texte intégral (2844 mots)
Les missions spatiales coûtent trop cher pour laisser quoique ce soit au hasard. Alors, les agences spatiales les préparent en grand détail sur Terre, notamment dans des répliques d’environnements lunaires ou martiens, avec des volontaires prêts à s’isoler pendant de longs mois pour tester les scaphandres et leur résistance psychologique. Un de nos auteurs, qui a vécu l’expérience, fait le rapprochement avec les rites initiatiques traditionnels.
Le 25 septembre dernier une installation tout à fait particulière a été inaugurée par l’Agence spatiale européenne (ESA) et le Centre aérospatial allemand à Cologne : elle s’appelle LUNA et a pour objectif d’aider dans la préparation des prochaines missions lunaires, en permettant de reconstituer un environnement similaire, pour certains aspects, à celui du satellite naturel de notre planète.
Avec une surface de 700 mètres carrés, LUNA reconstitue au mieux l’ambiance lunaire, notamment grâce aux 750 tonnes de « sable » spécifiquement altéré pour simuler le régolithe (le sol lunaire), d’un « simulateur solaire » pour reproduire l’alternance de lumière et ténèbres sur la Lune, et d’autres stratagèmes pour effectuer des tâches comme les prélèvements. Autrement dit, elle fait partie de ce que l’on appelle les « analogues ».
Ce projet s’inscrit dans le contexte d’une accélération des efforts des acteurs majeurs du spatial pour atteindre le progrès scientifique nécessaire afin de réaliser de nouvelles ambitieuses missions, notamment retourner sur la Lune, comme prévu par les accords Artemis – la Lune représentant une étape intermédiaire pour ensuite se diriger vers Mars.
Au niveau européen, l’ESA soutient le développement de l’industrie spatiale européenne, et y apporte ses valeurs de coopération et d’ouverture.
Missions spatiales simulées pour vraies avancées scientifiques
Les analogues sont des structures qui ont été développées dès les premières missions spatiales, surtout lors du programme Apollo, mais avec une recrudescence ces dernières années, avec déjà au moins une vingtaine d’analogues présentés par la NASA, afin de tester des équipements, des robots, des technologies, et les interactions humaines dans des conditions particulières sur Terre, pour préparer les vraies missions spatiales lors de missions fictives organisées sur Terre.
Dans la plupart des cas, les participants ne sont pas de futurs astronautes, mais ils répondent à des critères précis en lien avec l’objectif de chaque analogue.
Les missions spatiales étant à haut risque, il est essentiel d’effectuer sur Terre et dans des environnements spécifiques des tests pour anticiper les possibles problèmes que l’on pourrait rencontrer. Les analogues sont donc situés dans des environnements isolés, confinés et extrêmes, qui reproduisent en partie les conditions que les astronautes retrouvent au-delà de l’atmosphère terrestre – par exemple l’Antarctique.
Les tests réalisés lors des missions fictives dans les analogues peuvent concerner les équipements, tels que les combinaisons des astronautes, mais aussi des conditions de travail inhabituelles comme l’apesanteur, en exploitant l’environnement sous-marin, et le « facteur humain », c’est-à-dire comment un groupe de personnes arrive à travailler ensemble en bon entente, quels types de qualités humaines sont nécessaires à la réussite d’une mission – par exemple la résistance au stress et au confinement prolongé, la concentration, la résilience…
À lire aussi : Comment devient-on astronaute ?
Pour cette raison, il est intéressant de solliciter des profils très différents, des artistes aux ingénieurs, des militaires aux anthropologues, comme dans le cas de Benjamin Pothier (un des auteurs de cet article), ayant à son actif des expériences de recherche universitaire en anthropologie, de créations artistiques dans le domaine de la photographie, de la cinématographie et du space art, et enfin des expériences d’explorations géographiques en milieux extrêmes, un « plus » pour ce type de projet.
Du rituel initiatique à l’analogue lunaire
Ayant participé sur le terrain à plusieurs missions sur des analogues spatiaux, Benjamin peut apporter son témoignage de première main sur ce que signifie d’endurer la vie dans ces conditions extrêmes, où il faut parfois cohabiter avec des inconnus, dans des espaces limités, pour une période qui peut être relativement longue, sans ou avec très peu de contacts avec l’extérieur.
Dans son essai, il explique les similitudes frappantes, ainsi que les différences, entre les missions au sein d’analogues spatiaux et les rituels d’initiation.
Il cite, parmi les exemples d’analogues célèbres, l’habitat HI-SEAS, installé par la NASA dans un environnement volcanique hostile à Hawaï, pour simuler des missions sur Mars. La simulation incluant ici des contraintes comme des réserves d’eau limitées, une nourriture préparée comme pour les missions dans l’espace, l’utilisation de reproductions des combinaisons des astronautes, etc.
Un ensemble de contraintes « psychophysiologiques », qui trouvent un écho dans la manière dont sont structurés les rituels initiatiques.
En effet, de nombreux rites de passage, et notamment ceux de passage à l’âge adulte, montrent dans leur phase liminaire une propension à l’enfermement, à l’exposition à des épreuves d’endurance physique et psychologique : « privation de sommeil, jeûne, exposition au froid ou au soleil), à la douleur (coups, flagellations, piqûres d’insectes) » (selon Julien Bohomme), voire à des interdits alimentaires et des situations vexatoires qui trouvent un écho indéniable dans les processus à l’œuvre dans les missions analogues pour les besoins de la simulation de la dure réalité de la vie dans l’espace : privation de sommeil, confinement, régimes alimentaires spécifiques, accès réduit à l’eau courante pour la toilette quotidienne et relative promiscuité, épreuves d’endurance physique, exposition au froid, au danger, au stress et à la fatigue et manque de sommeil sont autant de facteurs propres aux missions analogues.
À lire aussi : Risquer sa vie pour décrocher la lune : voyage dans la psyché des astronautes
Il convient également de noter que de nombreux sites d’essais analogues tels que les grottes souterraines, les volcans et les montagnes sont aussi, oserait-on dire « depuis la nuit des temps », des lieux dédiés à des rites de passage et autres expériences mystiques ou religieuses, comme des environnements propices à l’isolement, au dépassement de soi, à la confrontation au danger, etc.
Le niveau de réalisme peut être cependant très différent d’un analogue spatial à l’autre : selon l’objectif spécifique pour lequel ils ont été créés, les analogues peuvent viser à isoler à l’intérieur d’un espace sécurisé mais très limité un groupe de personnes pour tester les réactions et le défi psychologique, ou à les éloigner dans des environnements hostiles pour permettre des tests d’équipement lors des sorties extravéhiculaires, par exemple.
L’analogue LUNA, installée à Cologne, en Allemagne, où se trouve le centre de formation des astronautes de l’ESA est dans les fait plus similaire à des bases analogues telles que le projet MARS500 de l’Institut des problèmes biomédicaux de Moscou et construit dans les années 2010 pour simuler un voyage et une mission martienne, ou le projet HERA de la NASA, situé dans un building du Johnson Space Center et utilisé pour simuler des missions spatiales de longue durée.
Un analogue lunaire volontairement ouvert
Parmi les différents atouts de cette installation, nous voulons souligner sa nature ouverte, car accessible aux agences spatiales, aux universitaires, ainsi qu’à l’industrie spatiale, du monde entier.
Cette approche s’inscrit dans la tendance tout européenne d’accès libre dans le cadre de la politique spatiale, que nous retrouvons aussi dans d’autres projets de l’Union européenne (EU) comme Copernicus, le programme d’observation de la Terre de l’UE qui permet la collecte de données rendues disponibles pour tous.
Par sa nature même, l’espace est considéré comme la prochaine frontière pour l’humanité. Les progrès technologiques accélérés de ces dernières années nous amènent à nous interroger sur les prochaines étapes de son exploration et d’un séjour plus long des êtres humains dans cet espace.
La commercialisation de l’espace, avec des acteurs du secteur privé en première ligne, tels que SpaceX, pose des questions de gouvernance et réglementation. Dans ce contexte, l’Europe est porteuse d’une approche plutôt coopérative que de rivalité avec les autres acteurs de la communauté internationale, et de valeurs d’ouverture aux autres plutôt que d’exclusion, comme l’accessibilité de l’analogue LUNA nous le démontre.
Benjamin Pothier est membre de l'Explorers Club, il était expert au sein du comité des vols spatiaux habités de la fédération internationale d'astronautique de 2019 à 2022.
Forganni Antonella ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
27.10.2024 à 11:09
« Allez-vous acheter moins de bouteilles en plastique ? » Une simple question peut changer nos comportements
Bing Bai, Doctorant en Marketing à l'Université de Montpellier - Attaché d'enseignement à l'EDHEC Business School, Université de Montpellier
Laurie Balbo, Professeure Associée en Marketing _ Directrice des Programmes MSc Marketing et MSc Digital Marketing & Data Analytics, Grenoble École de Management (GEM)
Marie-Christine Lichtlé, Professeur des Universités, Université de Montpellier
Texte intégral (1874 mots)
Envisagez-vous d’acheter moins de bouteilles d’eau en plastique à l’avenir ? Peut-être pas, mais maintenant que la question vous a été posée, vous allez forcément y penser. Cet effet psychologique pourrait être utilisé pour inciter à diminuer à la consommation de plastique.
Avec un taux de croissance de 73 % au cours de la dernière décennie, le marché de l’eau en bouteille est l’un de ceux qui connaissent la plus forte augmentation au niveau mondial. Malheureusement, cette consommation a des conséquences environnementales néfastes : augmentation des déchets plastiques, émissions de gaz à effet de serre liées à la production, le transport et la distribution des bouteilles ou encore surexploitation des ressources en eau pour produire de l’eau en bouteille. Ces impacts ne font qu’aggraver la crise écologique actuelle. Face à cette situation, la réduction de notre dépendance à l’eau embouteillée émerge comme un enjeu environnemental crucial.
En 2020, une étude de Futerra et OnePulse révèle que 80 % des sondés se disent prêts à changer leurs habitudes pour lutter contre le changement climatique et 50 % d’entre eux envisagent de limiter leur usage de plastique. Cependant, peu de recherches ont été dédiées aux stratégies de communication qui permettraient de diminuer la consommation d’eau en bouteille.
Les autoprophéties : une question pour favoriser le changement
Nos recherches explorent l’impact de ce que nous appelons les autoprophéties sur la réduction de l’achat d’eau en bouteille plastique aux États-Unis, en nous appuyant sur un échantillon de 269 personnes. Les autoprophéties désignent un phénomène psychologique selon lequel le simple fait de poser des questions aux individus sur leurs comportements futurs (par exemple : « Allez-vous recycler vos emballages ? ») peut accroître la probabilité qu’ils adoptent ces comportements. Notre étude analyse ce processus et examine comment des facteurs individuels peuvent en moduler les effets.
Des chercheurs ont montré que l’on peut expliquer les effets des autoprophéties grâce à la théorie de la dissonance cognitive. Lorsqu’une personne est invitée à prédire son comportement futur, elle peut prendre conscience d’un écart entre ses croyances normatives (ce qu’elle considère comme socialement désirable ou acceptable) et ses comportements. Cette incohérence suscite une dissonance, c’est-à-dire une contradiction, qui motive souvent les individus à modifier leurs actions pour mieux les aligner avec leurs valeurs.
Ressentir à l’avance la culpabilité d’une action contraire à nos valeurs
Dans notre étude, nous montrons le mécanisme émotionnel par lequel la demande d’autoprophétie influence les comportements pro-environnementaux, par l’intermédiaire de la culpabilité anticipée. Dans son ouvrage intitulé Une théorie de la dissonance cognitive, le psychosociologue américain Leon Festinger décrit la dissonance comme un état caractérisé par un inconfort psychologique, provoquant ainsi une aversion et une motivation à changer de comportement. Toutefois, il ne précise pas explicitement la nature de cet inconfort. Des théoriciens ultérieurs de la dissonance ont identifié la culpabilité comme une émotion provoquée par la dissonance dans certaines situations.
Nous avons exploré cette idée en nous concentrant spécifiquement sur la culpabilité, en formulant l’hypothèse que les individus anticipent ce sentiment lorsqu’ils envisagent de ne pas adopter un comportement écologique. C’est notamment le cas lorsque ce comportement est en accord avec leurs croyances normatives (c’est-à-dire les attentes sociales ou culturelles auxquelles se conformer dans certaines situations). Ainsi, cette anticipation de la culpabilité conduit à répondre à des demandes de comportements alignés sur des valeurs écologiques, pour éviter ce sentiment négatif.
Pour tester cette hypothèse, nous avons mesuré la culpabilité chez des participants exposés à une publicité contenant une question de prédiction dont le but était de réduire leurs achats d’eau en bouteille plastique. Ces participants ressentaient à l’avance davantage de culpabilité que ceux du groupe de contrôle, exposés à une publicité sans question de prédiction. Cette culpabilité anticipée réduit, à son tour, leur intention d’acheter de l’eau en bouteille.
Des effets qui varient selon les individus
Nous avons exploré deux facteurs pouvant influencer l’efficacité de la technique des autoprophéties : les croyances normatives et les motivations qui poussent les personnes à s’engager dans une action.
Des recherches antérieures ont souligné l’importance des croyances normatives. Les individus fortement attachés à leurs croyances sont plus enclins à prédire qu’ils adopteront des comportements en accord avec celles-ci et à les mettre réellement en place. Nous avons examiné comment différents types de normes influencent les intentions. En effet, certaines normes sont descriptives (ce que la majorité des gens font), d’autres sont injonctives (ce que nous pensons qu’il est attendu de nous) et enfin certaines sont personnelles (nos propres standards moraux internes).
Les résultats montrent que ces trois types de normes influencent directement le sentiment de culpabilité anticipée. Les participants pensent que la plupart des gens achètent moins de bouteilles, qu’il est socialement attendu de le faire, et que cela correspond à leurs convictions personnelles. Plus ces normes sont fortes, plus la culpabilité anticipée en cas de non-conformité augmente. Cependant, nous n’avons observé aucune interaction entre les normes et la question de prédiction. Cela suggère qu’une question de prédiction ne rend pas les croyances normatives plus saillantes au moment de la prédiction, et qu’elles ne guident donc pas les participants dans leur prise de décision.
Par ailleurs, nous avons étudié la motivation d’approche, c’est-à-dire le désir de s’engager dans des actions qui procurent des expériences positives ou des récompenses. Ainsi, nous pouvons mesurer un score dit de BAS (pour behavioral approach system, ou système d’approche comportementale) : les individus avec les plus forts scores ont plus tendance à essayer de remplir leurs objectifs, qu’ils soient concrets (par exemple atteindre ou saisir un objet), ou plus abstraits (par exemple l’altruisme ou la productivité). Ces individus fournissent des efforts accrus pour atteindre les buts qui leur procurent du plaisir, réduisant ainsi l’écart entre les objectifs qu’ils se sont fixés et ce qu’ils font en réalité.
Les plus enclins à la dissonance sont ceux qui remplissent le moins leurs objectifs
Contrairement à notre hypothèse, les individus qui ont une faible sensibilité aux récompenses et à la recherche d’expériences positives ressentent davantage de culpabilité que ceux avec un fort score. Notre interprétation est que bien que les individus qui ont un score faible à ce test soient moins motivés à agir pour atteindre leurs objectifs, ils prennent d’autant plus conscience de l’écart entre leurs comportements actuels et leurs normes personnelles lorsqu’on leur pose une question à ce propos. Cette conscience accrue de l’inadéquation entre leurs actions et leurs normes, même en l’absence d’une forte motivation, génère un sentiment de culpabilité anticipée plus fort. Par conséquent, bien qu’ils aient moins d’impulsion à agir, cette anticipation de la culpabilité accroît leur intention de réduire leur consommation de bouteilles en plastique.
À l’inverse, les individus avec un score élevé semblent intrinsèquement disposés à aligner leurs actions avec leurs normes, ce qui réduit leur dissonance cognitive. Ils semblent agir de manière proactive pour combler l’écart entre leurs comportements et leurs objectifs, diminuant ainsi la culpabilité anticipée.
Utiliser les autoprophéties dans les campagnes environnementales
Les résultats de notre étude ouvrent des perspectives pour les campagnes de sensibilisation environnementale. Les agences gouvernementales et les ONG peuvent aisément intégrer des questions de prédiction dans leurs communications pour favoriser des comportements écologiques.
Contrairement à de précédents résultats, nos résultats n’ont pas mis en évidence l’effet des croyances normatives sur l’efficacité des autoprophéties. Si un tel effet avait été observé, nous aurions constaté que plus les participants adhéraient à des croyances normatives fortes, plus leur comportement aurait été influencé par l’autoprédiction, en particulier en adaptant leurs actions pour correspondre à ces normes. Toutefois, la littérature montre que les normes personnelles influencent la façon dont les individus forment leurs intentions et adoptent des comportements écologiques. Nous recommandons donc d’avoir recours aux normes personnelles dans les campagnes utilisant des autoprophéties, par exemple en créant des messages qui mettent en avant la nécessité d’actions pro-environnementales et les conséquences de l’inaction.
Il convient également de noter que cette étude se concentre sur les intentions comportementales. Des recherches antérieures ont cependant montré les effets des autoprophéties sur les comportements réels (et non anticipés) et répétés dans le temps. Par exemple, certaines études ont documenté des améliorations dans le recyclage sur des périodes de quatre semaines après le protocole, ou encore une augmentation de la fréquentation des clubs de sport sur des périodes allant jusqu’à six mois après la prédiction. Ces différents résultats nous permettent de constater qu’une simple question, en exploitant un levier émotionnel, peut réellement inciter le public à changer ses pratiques.
Bing Bai a reçu des financements de la chaire Marketing responsable et bien-être de l'Université de Montpellier.
Laurie Balbo et Marie-Christine Lichtlé ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur poste universitaire.