26.04.2026 à 09:15
Juliette Ravaux, Maître de conférences, Sorbonne Université
Sébastien Duperron, Professeur d'écotoxicologie microbienne, Muséum national d’histoire naturelle (MNHN)

Dans l’ouvrage Secrets de l’océan profond, tout juste publié aux éditions Quae, Juliette Ravaux, maîtresse de conférences à Sorbonne Université en biologie animale, et Sébastien Duperron, professeur au Muséum national d’histoire naturelle et spécialiste d’écologie microbienne, nous font découvrir des espèces animales mystérieuses et des ressources mal connues de l’océan profond. Leur but est de mieux comprendre ce bien commun, pour mieux le préserver. Dans cet extrait, ces spécialistes nous donnent à voir ce que perçoivent les curieuses espèces vivant dans les abysses, qu’ils ont tous deux pu observer lors de leurs plongées à bord du Nautile, sous-marin de la flotte scientifique à la fois unique… et exigu.
La vie dans l’océan profond s’accompagne d’un panel de contraintes environnementales, parmi lesquelles l’absence de lumière solaire et la rareté de la nourriture. À elles seules, ces deux conditions affectent des fonctions essentielles des organismes telles que l’orientation dans leur environnement à la recherche de nourriture ou de partenaires, mais aussi le métabolisme, la croissance et la reproduction. En conséquence, les espèces des profondeurs possèdent une vaste diversité d’adaptations dont certaines sont présentées ici, mais dont beaucoup restent encore à découvrir !
Descendons sur la dorsale de l’océan Atlantique, à plus de 2 000 mètres de fond, au plus près des fumeurs noirs qui crachent un fluide brûlant. Là, sur les parois des cheminées hydrothermales, des crevettes se rassemblent par milliers en nuées grouillantes. Ce sont des crevettes aveugles, Rimicaris exoculata, une espèce emblématique de ces environnements atlantiques. Les adultes ne possèdent pas les yeux pédonculés typiques des crevettes, ce qui leur vaut ce surnom. Et pourtant, elles possèdent bien des yeux, difficilement reconnaissables car ils sont très modifiés : ce sont des plaques rosées en forme de V qui se situent sur leur dos. Ces plaques ne leur permettent pas de voir leur environnement sous forme d’une image comme le font nos yeux.
Mais elles sont très sensibles à la lumière et détectent des sources lumineuses de très faible intensité, invisibles pour l’œil humain. Elles sont constituées d’une couche très épaisse de cellules photoréceptrices, sous laquelle se trouve une couche réfléchissante de cellules blanches qui renvoie la lumière vers les photorécepteurs, augmentant ainsi la quantité de lumière perçue.
Grâce à ces capteurs hypersensibles, les crevettes Rimicaris sont donc spécialisées dans la détection de lumière ténue. Reste encore à déterminer quels signaux lumineux elles perçoivent dans leur environnement parmi les sources potentielles, comme celle émise par le fluide hydrothermal sous forme de rayonnement thermique.
À l’instar de Rimicaris, les espèces abyssales évoluent dans des environnements obscurs dépourvus de lumière solaire. Il existe cependant une autre source lumineuse majeure : la bioluminescence. Plus faible que la lumière solaire, elle n’est apparente que la nuit dans les eaux de surface, mais elle est nettement visible en profondeur grâce au contraste avec le fond noir. Cette lumière émise par les organismes révèle la présence de partenaires, de prédateurs, de sources de nourriture, et peut aussi servir de défense, de leurre ou de camouflage. Dans la zone crépusculaire, diverses espèces arborent ainsi un ventre bioluminescent qui les rend moins visibles aux prédateurs et aux proies situés en dessous. Cette contre-illumination leur permet en effet de se fondre dans la faible luminosité provenant de la surface.
Au-delà de 1 000 mètres, la bioluminescence constitue la principale, sinon la seule, source de lumière. Elle apparaît de façon intermittente sous forme d’éclairs lumineux, le plus souvent de couleur bleue ou verte, qui durent quelques dixièmes de secondes à quelques secondes. Des observations menées au large de New York dans les années 1950 rapportent des fréquences de signaux bioluminescents allant jusqu’à 94 éclairs par minute dans le champ de vision du photomètre pour des profondeurs au-delà de 1 000 mètres. Dans les années 2000, un inventaire de la faune au large de la côte californienne, de la surface jusqu’à 3 900 mètres de profondeur, a révélé que plus de trois quarts des individus de la colonne d’eau émettent de la lumière. Les océans crépitent d’un feu d’artifice silencieux et le paysage lumineux des profondeurs se présente comme un fond noir piqueté d’étincelles bleutées.
Dans ces paysages obscurs, les animaux sont-ils aveugles ? Les yeux des poissons téléostéens peuplant les profondeurs sont souvent décrits comme étant « régressés » ou « dégénérés ». Pourtant, ces yeux existent bel et bien et les poissons des profondeurs ne sont généralement pas aveugles, bien au contraire. Les yeux des poissons bathypélagiques présentent une grande variété de morphologies : ils sont parfois clairement régressé avec une rétine absente ou défectueuse, comme chez les « poissons-baleines » du genre Cetomimus, ou au contraire très grands et développés, comme ceux de l’alépocéphale à bec (Alepocephalus rostratus).
Dans l’ensemble, à quelques exceptions près, les yeux des espèces bathypélagiques ont toutefois tendance à être plus petits (par rapport à la taille du corps) que ceux de leurs cousins de la zone mésopélagique. Ils sont néanmoins parfaitement fonctionnels et particulièrement efficaces pour détecter des éclairs de bioluminescence ponctuels, grâce à deux caractéristiques notables : une large pupille et une rétine riche en photorécepteurs très sensibles à la lumière. Le record est actuellement détenu par la dirette argentée, une espèce abyssale qui possède un nombre exceptionnel de pigments responsables de la détection de faible luminosité, les rhodopsines. Alors que l’humain ne possède qu’un seul exemplaire de rhodopsine, la dirette en possède 38 ! Chacune de ces rhodopsines serait capable de détecter une couleur dans la gamme des bleus et des verts. Cet exceptionnel répertoire de pigments permet donc à la dirette de distinguer davantage de nuances de lumière bleue et de lumière verte que l’être humain, ce qui s’avère très utile pour identifier différentes sources de bioluminescence, et ainsi distinguer les prédateurs et les proies.
Comme la dirette, la majorité des poissons des grands fonds possède une vision limitée aux longueurs d’onde bleues et vertes. Ils ne peuvent percevoir les autres couleurs, et sont de ce fait daltoniens ! Les poissons bathypélagiques seraient en théorie capables de voir un flash bioluminescent à une distance pouvant aller jusqu’à 100 mètres dans une eau limpide. Cependant, cette distance est en réalité inatteignable pour la plupart des poissons pélagiques, qui n’ont pas l’énergie suffisante pour nager jusqu’à une source lumineuse à une telle distance en un laps de temps court. Ainsi, même si les poissons des profondeurs peuvent voir des éclairs lointains, ils ne réagissent probablement qu’à ceux produits à une distance plus proche.
Tout comme les poissons bathypélagiques, les crustacés de ces profondeurs présentent une grande variété de morphologie des yeux. Là encore, on retrouve des exemples d’yeux particulièrement sensibles à la lumière et adaptés à la détection de la bioluminescence. Le record revient probablement aux grands yeux de l’ostracode Gigantocypris muelleri, qui possèdent des réflecteurs qui ressemblent à des phares de voiture et des photorécepteurs géants qui lui confèrent une sensibilité à la lumière impressionnante. Il est ainsi capable de distinguer les silhouettes de proies et de prédateurs qui se profilent contre la faible lumière descendant dans la colonne d’eau au-dessus de lui, et il peut déjouer le camouflage en contre-illumination des espèces bioluminescentes de la zone crépusculaire. S’il est capable de détecter efficacement la bioluminescence, ce crustacé ne peut en revanche voir avec précision l’organisme qui la produit, car ses yeux possèdent une faible résolution, ce qui fait qu’il voit flou !
Dans les grands fonds, on trouve donc des espèces dont la vision s’est adaptée pour percevoir de très faibles intensités lumineuses, et dans un répertoire de couleurs spécialisé, plutôt que pour produire une image nette et détaillée de leur environnement.
Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.
26.04.2026 à 09:15
Mickaël Hedde, Directeur de recherche, Inrae
Antonio Bispo, Inrae
Claire Chenu, Enseignante chercheure à AgroParisTech, science du sol, biogéochimie, matières organiques, Inrae
Flavien Poinçot, Ingénieur, animateur du RNEST, Acta
Jérôme Cortet, Professeur, Université Paul Valéry – Montpellier III
The European soil monitoring directive, adopted by the European Union at the end of 2025, aims to achieve healthy soils by 2050. Brussels’ directive is centred on an environmental DNA based approach. France’s experience in measuring soil quality could be used advantageously, particularly as the best monitoring tools are those that integrate several complementary approaches at the same time.
Since November 2025, the European Soil Monitoring and Resilience Directive requires member states to regularly assess soil biodiversity. It calls for soil microbial diversity analysis (bacteria and fungi) at six year intervals based on environmental DNA or “eDNA”.
Yet, while eDNA is a powerful tool for detecting biodiversity at scale, it is not enough on its own for interpreting observed changes and identifying their causes. This is because bacterial and fungal communities only represent part of the soil biodiversity, which also includes many organisms with crucial and varied ecological roles.
Abundance, biomass and the activity of living organisms – dimensions that cannot be assessed by molecular detection alone also determine how soils function. A graduated approach combining several complementary protocols is therefore required to produce robust and useful indicators for field work.
France’s track record via its soil quality measurement network (Réseau de Mesures de la Qualité des Sols (RMQS) and GIS Sol, constitutes, as such, a benchmark for interpreting results and an established operational framework for monitoring soil biodiversity. This could usefully complement the basis of the European legislation.
DNA works with a molecular approach and, as such, offers advantages in environmental monitoring in other words – broad and standardised biodiversity analysis, strong spatial and temporal comparability. Such methods provide a particularly effective tool for detecting changes in the composition of biological communities.
However, the molecular signatures derived from eDNA do not always allow us to correctly identify the taxa that is present in soil. They may show representativeness biases. They are often poorly correlated with other biological characteristics that are essential for characterising biodiversity and soil ecosystem functioning, such as the abundance of organisms, their biomass, their demographic structure or even their activities. They will thus offer an incomplete and sometimes distorted view of soil health.
However, beyond the simple detection of changes in diversity, monitoring devices must also make it possible to interpret these developments, that is to say, to understand what they imply for soil functionality in agriculture, for example, and to identify their causes. This is what will allow us to assess the effectiveness of public policies and management practices. In this context, reducing biological and ecological soil complexity to this single component carries a risk related to interpretation difficulties.
However, the EU directive stipulates that member states may supplement mandatory indicators with other biological indicators in their national monitoring arrangements, thus opening up the possibility of more integrated approaches.
Environmental monitoring has two distinct and complementary objectives: detecting changes in the state of ecosystems and attributing these changes to environmental pressures, land uses or management practices. These two dimensions are closely linked by the biological and ecological processes that structure how ecosystems function.
Beyond their scientific scope, the indicators used for monitoring soil biodiversity are instrumental in public decision-making. It is not only a question of identifying the dynamics within biological communities, but also understanding their causes. Therefore, this primarily concerns policymakers. The aim is to guide planning and sustainable management practices, identify situations presenting degradation, implement policies to remedy them, and be able to assess their effectiveness.
A monitoring system that would be limited to detecting changes in soil biodiversity without taking into account interpretation and attribution related to environmental pressures would provide a limited basis for evaluating public policies and the implementation of suitable management strategies.
Ecological soil functions – such as regulating water and contaminants, providing nutrients, storing carbon, maintaining structure, or supporting biodiversity itself are not static states, but dynamic processes. They are based on the activity of living organisms, their biomass and their functional characteristics (physiology, behaviour), as well as their interactions (competition, symbiosis, parasitism). They are expressed through renewal flows and speeds rather than mere stocks.
In this context, molecular approaches provide valuable information on the presence of organisms, but by themselves do not allow us to assess these dynamic processes or their actual intensity. A correct interpretation of soil functioning therefore requires additional measures as well as interpretation references linking biological indicators to different land use contexts and environmental conditions.
eDNA data is increasingly used for developing new approaches, such as those based on interaction networks, which show how biological soil communities are organised. When these networks are built only on presence or co-occurrence data, they mainly reflect how ecological conditions or environmental niches are shared by different species.
This only provides indirect information on the biological activities at work and on matter and energy flows, which also determine soil functioning. Ecological interpretation requires additional information, particularly on the abundance or biomass of organisms. This is how biological communities can be linked to the ecological processes supporting soil functions.
In order to reconcile operational efficiency and ecological relevance, soil biodiversity monitoring benefits from combining several types of approaches, each providing specific information on the condition and functioning of biological communities.
eDNA-based approaches enable broad and standardised detection of microbial biodiversity, and could be extended to other organisms, such as invertebrates.
Other methods are based on direct observation of soil fauna organisms, estimation of their abundance or biomass, or analysis of their functional characteristics. They provide essential information on the biological structure and ecological role of soil communities.
These approaches should not be seen as mutually exclusive, but as complementary tools. They allow us to link the composition of biological communities (taxonomic and functional structure) to the ecological processes that support soil functions. Their combination is, as such, particularly interesting for building a monitoring strategy with different levels of information.
This logic of complementary is already implemented in some existing monitoring tools as it the case in the framework of France’s national soil monitoring network (RMQS) or in the mountain biodiversity observatory Orchamp. These approaches are not meant to be deployed everywhere, but their combination is essential for correctly interpreting the condition and evolution of soil biodiversity.
Preserving our ability to understand, explain and take action requires us to recognise that the biological complexity of soils calls for a controlled diversity of monitoring approaches.
With the support of GIS Sol, France is among the nations at the forefront of soil biodiversity monitoring. It has been experimenting with this approach, combining several protocols within RMQS for several years. This experience, which is rare on a European scale, should be the basis for building the country’s future national soil monitoring network.
In addition to the mandatory indicators, the directive enables member states to supplement their own systems with optional indicators. This flexibility gives them the opportunity to set up a monitoring system that’s not only capable of detecting trends in changing soil biodiversity, but interpreting the causes and possibilities for remediation. This finally allows us to assess the implications for public policy.
With this in mind, several principles should be taken into consideration when implementing the EU directive at national level:
Do not restrict national soil biodiversity monitoring to a single eDNA-derived measure, which limits our ability to interpret observed changes.
Implement a combination of complementary measures in order to link the detection of biodiversity to community structure and ecological processes that support soil functions, with the support of protocols and measures developed across Priority Research Programmes and Equipments (PEPR) Dynabiod and SolsVivants in France, for example.
Develop open interpretation frameworks and analytical frameworks to assess whether the observed variations are significant, in order to link biological indicators to land uses and environmental pressures.
Take advantage of existing analysis mechanisms, in particular France’s soil quality measurement network supported by GIS Sol, to ensure consistency, comparability and the scientific robustness of any given future national monitoring system.
This article was a collaborative effort by RMQS Biodiversité, several PEPR by SolsVivants, Dynabiod and RNEST and their respective co-authors. Other contributers included: Apolline Auclerc, Nolwenn Bougon, Miriam Buitrago, Philippe Hinsinger, Claudy Jolivet, Antoine Lévêque, Gwenaël Magne, Florence Maunoury-Danger, Jérôme Mathieu, Christian Mougin, Laurent Palka, Benjamin Pauget, Guénola Pérès, Sophie Pouzenc, Sophie Raous, Claire Salomon, Marie-Françoise Slak, Wilfried Thuiller, Cécile Villenave, Quentin Vincent.
A weekly e-mail in English featuring expertise from scholars and researchers. It provides an introduction to the diversity of research coming out of the continent and considers some of the key issues facing European countries. Get the newsletter!
Mickaël Hedde a reçu des financements de différents organismes français (OFB, ANR, ADEME) et de l'Union Européen (Horizon Europe) pour mener ses recherches au sein de l'INRAE.
Antonio Bispo est directeur de l'unité de recherche INRAE Info&Sols basée à Orléans. Il a reçu des financements de différents organismes français (Ministères, OFB, ANR, ADEME, Région Centre Val de Loire) et de l'Union Européen (Horizon Europe) pour mener ses recherches. L'unité de recherche pilote, pour le compte du GIS Sol (www.gissol.fr), les programmes nationaux d'inventaire et de surveillance des sols, elle gère également le système national d'information sur les sols.
Claire Chenu est membre de l'Association Française pour l'Etude des Sols (AFES), membre correspondant de l'Académie d'Agriculture et membre de l'Académie des Technologies. Elle co-préside le Comité Scientifique, Technique et d'Innovation du Réseau National d'Expertise Scientifique et Technique sur les Sols (CSTI RNEST). Elle a reçu des financements Européens (en particulier European Joint Programme SOIL) pour mener des recherches au sein d'INRAE et AgroParisTech
Flavien Poincot est ingénieur à l'Acta qui accompagne, anime et représentante le réseau des 19 instituts techniques agricoles, organismes de recherche appliquée travaillant pour l’ensemble des productions agricoles, animales et végétales.
Jérôme Cortet est membre de la Société française d’Écologie Évolution (SFE2) et de l'Association française pour l’Étude du Sol (AFES). Il co-préside actuellement le Comité Scientifique Technique et d'Innovation du Réseau National d'Expertise Scientifique et Technique sur les Sols (CSTI RNEST). Il a reçu des financements de différents organismes français (ANR, ADEME, Région Occitanie) pour mener ses recherches au sein du Centre d’Écologie Fonctionnelle et Évolutive, laboratoire rattaché à l'Université de Montpellier Paul-Valéry
25.04.2026 à 11:25
Julien Pillot, Enseignant-Chercheur en Economie, INSEEC Grande École
Les lunettes connectées pourraient bien être le prochain terminal pour bien des usages numériques. Alors que le marché des smartphones marque le pas, tout semble réuni pour un développement rapide et leur adoption à grande échelle. Tout ? Enfin presque tout.
Imaginez un matin ordinaire, vous quittez votre domicile et, d’un simple battement de paupières, le monde s’enrichit d’une couche invisible. Les panneaux publicitaires murmurent votre nom ; les visages des passants s’ornent discrètement de leur profil professionnel ; votre agenda flotte dans l’air devant vous tel un fantôme bienveillant. La réalité, soudain, s’augmente d’une surcouche d’informations entièrement paramétrable. Et devient ipso facto « négociable ».
Ce jour-là, nous ne regarderons plus le monde : nous le consulterons. Nous ne croiserons plus un regard, nous l’analyserons. Et c’est précisément là, dans cet infime glissement entre perception et information, que tout basculera. Car ce ne sont pas seulement nos yeux qui changeront de monture. C’est notre humanité elle-même qui se trouvera augmentée… ou peut-être, simplement, mise à nu.
Récit dystopique pour les uns, utopique pour les autres, il dépeint une réalité qui pourrait advenir bien plus vite que vous ne le pensez. Car, en coulisses, tout est en place pour effectuer la prochaine grande disruption de l’électronique grand public : la bascule du smartphone vers les lunettes connectées. Analyse en trois temps.
À lire aussi : Pourquoi le métavers peine-t-il à prendre auprès des consommateurs ?
Première condition pour qu’une disruption advienne, il faut que le standard de marché arrive en bout de cycle de vie et montre quelques sérieux signes d’essoufflement. Nous disposons d’une batterie d’indicateurs qui atteste du fait que le smartphone est solidement ancré dans cette phase de maturité :
son taux de croissance ne progresse plus (Figure 1) et est essentiellement tiré par les renouvellements d’équipement et le marché de seconde main,
le marché est oligopolistique (Figure 2),
les barrières à l’entrée sont très élevées,
les parts de marché sont stables tout comme l’indice de concentration (l’indice de Herfindahl-Hirschman est stable autour de 1058, signe d’un marché modérément concentré),
les innovations autour du standard sont essentiellement incrémentales (reconnaissance faciale, IA, déverrouillage par empreinte digitale, amélioration tendancielle des capteurs vidéos…) et de moins en moins rentables pour les fabricants,
les marges des constructeurs sont sous pression, surtout sur le moyen et bas de gamme.
Résultat des courses : nul industriel de l’électronique ne cherche actuellement le produit qui sera susceptible, à terme, de remplacer le smartphone, ou à tout le moins à coexister avec lui. La question n’est donc plus de savoir si le smartphone sera remplacé, mais par quoi et quand ?
Deuxième condition à la survenue d’une disruption : il convient de pouvoir s’appuyer sur un écosystème d’innovation complet qui, par sa complémentarité, offre une valeur d’usage potentielle très importante aux utilisateurs. Le smartphone, par exemple, n’aurait pu s’imposer comme il l’a fait sans un vivier très important de développeurs d’applications, des équipementiers tiers, ou des réseaux téléphoniques permettant un accès Internet (très haut débit).
Dans un autre registre, la voiture électrique ne peut s’imposer d’elle-même sur le marché. Elle doit compter sur le développement parallèle de réseaux de charge, de réseaux de maintenance, voire d’infrastructures de recyclage de batteries.
Or, à y regarder de près, les lunettes connectées disposent déjà d’un écosystème complet et prêt à soutenir l’innovation dans son passage à l’échelle (Figure 3). Non seulement cet écosystème partage avec celui des smartphones des briques technologiques essentielles, permettant un « départ lancé », mais il est en outre composé d’entreprises qui ont les incitations autant que les moyens technologiques et financiers de faire basculer le marché dans le camp de la lunette connectée.
Figure 3 : Écosystème simplifié de la lunette connectée
D’un côté, pour les géants de l’électronique, de l’IA, de la pub et du software qui seraient exclus ou outsiders du marché du smartphone, l’occasion est trop belle de se positionner stratégiquement sur un marché d’équipement au potentiel colossal de plusieurs dizaines, voire centaines de millions d’unités écoulées par an. De l’autre, si les leaders du marché du smartphone sont confrontés au dilemme de l’innovateur, ils ne veulent se retrouver coincés avec un produit voué au déclin et dont les marges s’effritent.
Ils placent donc stratégiquement leurs pions dans ce nouvel écosystème ; nul doute qu’à l’instar d’Edison en son temps, ils sauront arbitrer entre distinction et conformisme pour gagner, comme le souligne fort justement Philippe Silberzhan, la bataille si cruciale de l’adoption.
Troisième et dernière grande condition à la survenue d’une disruption : l’adoption massive de l’innovation. Or, l’histoire a montré que si certains critères tels que le prix, le design, ou le marketing sont essentiels, rien ne pèse davantage dans les dynamiques d’adoption que la valeur perçue des cas d’usage. C’est cette valeur perçue qui, non seulement, augmente l’utilité du produit innovant, mais dégrade en parallèle celle des produits standards.
À titre illustratif, malgré un regain d’intérêt récent, les baladeurs numériques type iPod n’ont guère plus d’utilité, quand s’impose le combo smartphone + plate-forme de streaming. Le fait d’avoir déjà investi dans l’acquisition d’un smartphone qui permet la lecture de musique freine _ipso facto les incitations à investir dans un appareil entièrement dédié à cette fonction, quand bien même la qualité d’écoute s’avèrerait supérieure.
Figure 4 : Cartographie des cas d’usage des lunettes connectées
Or, comme on peut le constater dans la Figure 4, les lunettes connectées sont appelées à faire tout ce qu’un smartphone fait déjà (téléphone, musique…), tout en améliorant l’interface humain-machine (comme dans le cas de la traduction en temps réel, ou la navigation assortie d’une interface HUD nettement plus pratique qu’un écran de téléphone), ajoutant des couches informationnelles contextuelles – qui affolent déjà les directions marketing du monde entier – et des fonctionnalités supplémentaires notamment dans le domaine du partage social. Quand l’ensemble de ces usages sera stable et performant, il y a fort à parier qu’un acheteur ayant fait l’acquisition de lunettes connectées, quelle qu’en soit la raison ou la motivation, ne renouvellera pas son smartphone une fois celui-ci devenu obsolète.
Les freins à l’adoption de ces lunettes restent encore largement à découvrir. Bien sûr, le prix sera déterminant, tout autant que le design, la valeur perçue des usages, la qualité de l’interface, sans oublier l’acceptation sociale d’un objet susceptible de se montrer encore plus intrusif que ne l’est le smartphone (si, c’est possible !).
À ce sujet, de nombreux règlements français et européens pourraient entraver le déploiement de certaines fonctionnalités clés des lunettes connectées, et par là même, en réduire l’utilité. Le RGPD, par exemple, prévoit le consentement explicite pour la captation d’images ou de vidéos, et estime l’enregistrement sonore en continu comme disproportionné (ce qui a en partie contribué au retrait du collier connecté friend.com du marché).
Sans oublier que la reconnaissance faciale via IA est si strictement encadrée, tant au titre du RGPD que de l’IA Act, que ses applications commerciales dans l’UE paraissent aujourd’hui illusoires. Rappelons que l’IA Act catégorise la biométrie, la notation sociale ou la manipulation inconsciente au rang des risques inacceptables, que les domaines des applications médicales, de sécurité ou d’éducation sont étroitement surveillés car considérés à « haut risque », et que la détection des émotions ou la génération de contenu contextuel sont perçues comme des « risques spécifiques » qui justifient un contrôle renforcé. Autant de garde-fous salutaires pour les uns, ou d’entraves à l’innovation pour les autres, qui pourraient limiter le déploiement de certaines fonctionnalités en Europe, et partant, la valeur d’usage des lunettes connectées.
Ces incertitudes font qu’il est prématuré de dire que les lunettes connectées vont rapidement trouver leur public. Mais, on parle d’un marché potentiellement énorme qui aiguise naturellement les appétits : 4 milliards de personnes portent des lunettes dans le monde, avec un cycle de renouvellement de deux ans à deux ans et demi, et un volume annuel de 950 millions de montures écoulées. Les ventes progressent déjà de façon si spectaculaire (Figure 5) que Meta a décidé de décaler le lancement européen de ses « Ray-Ban Display » en Europe.
Preuve que les investisseurs sont prêts à suivre, les marchés frémissent à chaque nouvelle annonce d’un géant de la tech faisant part de son intention de se lancer (comme Apple ou Samsung) ou de se relancer sur ce marché (comme Google, pus de 10 ans après l’échec de ses Smart Glasses).
L’histoire qui, comme chacun le sait, a tendance à bégayer, a montré que, lorsque tant d’entreprises, aussi puissantes et influentes que celles qui apparaissent dans l’écosystème des lunettes connectées, ont conjointement investi des sommes considérables pour développer et promouvoir un produit, elles finissent par former une « communauté de destin » qui est solidairement intéressée au succès de l’innovation… quitte à précipiter le déclin du standard de marché. C’est là « le facteur X » qui laisse à penser que, contrairement aux premières tentatives des années 2010, cette fois, c’est vraiment différent.
Julien Pillot ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
25.04.2026 à 08:26
Nour Chiboub, Doctorant, Université Savoie Mont Blanc
Aurélie Gauchet, Professeure en psychologie de la santé, Université Savoie Mont Blanc
Le stress fait partie du quotidien, mais savons-nous réellement ce qu’il recouvre ? Quels sont les fondements du stress et comment, lorsqu’il devient chronique au travail, conduit-il à l’épuisement professionnel ?
Le stress est devenu un mot du quotidien. Une échéance qui approche, une mauvaise nuit, un conflit au travail… Vous avez forcément entendu la phrase : « Je suis stressé·e. » Une évidence qui mérite pourtant d’être interrogée.
Dans les Confessions (Livre XI, chapitre 14), Saint-Augustin écrivait à propos du temps : « Qu’est-ce donc que le temps ? Si personne ne me le demande, je le sais ; si je veux l’expliquer à celui qui me le demande, je ne le sais plus. » Il en va de même pour le stress. Parlons-nous d’un événement, d’un état intérieur ou d’une réaction du corps ? En pratique, le terme sert souvent à désigner ces trois dimensions à la fois.
Cette utilisation polysémique donne l’impression que tout le monde parle de la même chose. Pourtant, ce n’est pas le cas. Cette confusion façonne notre manière de penser le stress, souvent de manière négative.
Le stress est avant tout un concept scientifique issu de la biologie et de la physiologie, qui a ensuite été étendu à la psychologie et aux sciences sociales.
Le concept de stress s’inscrit dans l’étude de l’adaptation biologique. Au XIXᵉ siècle, Claude Bernard introduit la notion de milieu intérieur. Walter Cannon formalise ensuite le concept d’homéostasie, qui désigne la capacité de l’organisme à maintenir un équilibre interne malgré les variations de l’environnement.
Dans ce cadre, l’endocrinologue Hans Selye propose, en 1936, une conceptualisation fondatrice du stress. Dans un article publié dans la revue scientifique Nature, il définit le stress comme :
« La réponse non spécifique de l’organisme à toute demande qui lui est faite. »
À partir des années 1960, cette conception strictement biologique s’enrichit. Les travaux de Mason et Levine montrent que la réponse de stress dépend aussi de facteurs psychologiques, comme la signification émotionnelle d’une situation ou encore l’imprévu et la nouveauté.
Ces recherches ouvrent la voie au modèle transactionnel proposé par Lazarus et Folkman. Le stress apparaît lorsqu’un individu perçoit un déséquilibre entre les exigences d’une situation et les ressources dont il dispose pour y faire face. Ainsi, deux personnes confrontées à une même situation peuvent ressentir des niveaux de stress très différents.
Le stress constitue un mécanisme essentiel d’adaptation. Face à une situation perçue comme menaçante, le cerveau déclenche une réponse coordonnée souvent décrite comme la réaction « de combat ou de fuite » (fight or flight).
Cette réponse mobilise rapidement le système nerveux sympathique, entraînant la libération d’adrénaline et de noradrénaline, puis l’activation de l’axe hypothalamo-hypophyso-surrénalien et la sécrétion de cortisol, hormone centrale du stress chez l’humain.
Cette réponse est loin d’être chaotique : elle repose sur une organisation temporellement coordonnée des médiateurs biologiques, un peu à l’image d’une belle symphonie. Lorsqu’elle est aiguë et transitoire, cette activation peut être bénéfique. Par exemple, elle améliore temporairement la vigilance, certaines performances cognitives et physiques et peut même renforcer certaines réponses immunitaires.
Alors, plutôt pas mal le stress finalement. Vous ne trouvez pas ?
Mais… si le stress est utile, pourquoi parle-t-on si souvent de ses effets négatifs sur la santé ?
Pour répondre à cette question, les chercheurs Sterling et Eyer ont proposé, à la fin des années 1980, le concept d’allostasie, qui désigne la capacité de l’organisme à ajuster ses systèmes biologiques afin de maintenir la stabilité face aux exigences de l’environnement.
Dans les années 1990, les neuroscientifiques McEwen et Stellar ont approfondi ce cadre théorique en introduisant le concept de charge allostatique, qui correspond à l’usure progressive des systèmes biologiques lorsque les réponses de stress sont activées de manière répétée ou prolongée et sans récupération suffisante.
Nous pouvons voir cela comme une forme de « dette » qui s’accumule lorsque l’organisme mobilise ses ressources sans avoir le temps de les reconstituer.
Le monde du travail constitue un terrain particulièrement propice à l’accumulation de cette dette. Dans cette perspective, l’épuisement professionnel ou burn out est souvent défini comme un syndrome résultant de la chronicisation (processus par lequel une douleur devient chronique, ndlr) d’une réponse de stress dans un milieu professionnel.
Cela se manifeste généralement par une grande fatigue émotionnelle, une forme de distance ou de détachement vis-à-vis de son travail et des personnes avec qui l’on travaille, ainsi qu’un sentiment de ne plus accomplir son travail de manière satisfaisante.
La recherche montre d’abord que les conditions de travail jouent un rôle central dans l’apparition de l’épuisement professionnel. Certaines caractéristiques du travail, comme une charge excessive, des demandes émotionnelles élevées ou un manque d’autonomie, sont associées à un risque accru de burn out. Le manque de soutien des collègues ou de la hiérarchie constitue également un facteur important.
Ces résultats rappellent que le burn out n’est pas un problème individuel. Il dépend largement de l’organisation du travail. Il s’agit avant tout d’une problématique sociétale. L’individu ne devrait pas porter seul la responsabilité de son propre épuisement. Cela ne signifie pas pour autant que nous sommes totalement démunis face à la chronicisation du stress.
Autrement dit, il serait réducteur d’attribuer l’épuisement uniquement à l’individu, tout comme il le serait de l’en déresponsabiliser entièrement.
Les thérapies cognitivo-comportementales (TCC) constituent un cadre scientifiquement validé pour mieux gérer le stress.
Il est possible d’identifier certaines pensées automatiques qui amplifient la réaction de stress et déforment la réalité. Par exemple, une erreur au travail peut parfois être interprétée comme la preuve d’une incompétence.
Cette conclusion transforme un événement ponctuel en jugement global sur soi. Ce qui, bien qu’économique pour le cerveau, est un raccourci souvent dénigrant envers soi. Je peux alors me « décentrer » de la situation : que dirais-je à un ou une amie dans la même situation ?
Il peut aussi être utile de distinguer les éléments sur lesquels l’individu a une marge d’action de ceux qui échappent à son contrôle. Lors d’une présentation importante, par exemple, la préparation relève de notre contrôle, alors que la réaction du public ne dépend pas de nous. L’idée est donc de concentrer son énergie sur ce qui est contrôlable pour ne pas s’épuiser.
Enfin, le soutien social constitue une ressource importante. Parler avec ses proches ou ses collègues peut aider à réguler le stress, à condition d’identifier clairement son besoin initial. Demandez-vous par exemple : dans cette situation, est-ce que je veux être écouté·e ou recevoir des conseils ? Il est important de ne pas craindre la verbalisation explicite de ses besoins.
Nous proposons donc de porter un autre regard sur le stress. Utilisé à tort et à travers, et parfois diabolisé, il s’agit pourtant d’un concept scientifique central pour comprendre l’adaptation.
Le stress n’est pas l’ennemi. Il constitue un mécanisme indispensable à la vie. L’enjeu n’est donc pas de l’éliminer mais d’éviter qu’il ne s’installe durablement. Il s’agit plutôt de retrouver une temporalité plus équilibrée, où les périodes d’activation s’accompagnent de véritables moments de récupération.
Nous pouvons voir le stress comme un colocataire avec lequel nous cohabitons en permanence. Lorsque les règles sont bien établies, ce colocataire peut être un allié précieux. Mais lorsqu’il décide de mettre les pieds sur la table, alors il devient toxique.
Le véritable enjeu n’est peut-être pas de chasser le stress, mais d’apprendre à mieux vivre avec lui.
Nour Chiboub a reçu des financements de la Fondation de France.
Gauchet Aurélie a reçu des financements de Fondation de France pour la thèse de Nour Chiboub.
24.04.2026 à 12:04
Pascale Tugayé, Doctorante en management public, Université Côte d’Azur
« Nudge » et « boost » peuvent être utilisés pour obtenir un comportement particulier d’une personne. Mais comment ces deux leviers se combinent-ils ? Lequel utiliser ? Dans quelles conditions ?
Le « nudge » a acquis une grande visibilité depuis que Thaler et Sunstein ont développé le concept au début de ce siècle. Sur la base des travaux dans le domaine de l’économie comportementale de Richard Thaler, prix Nobel d’économie en 2017, de nombreuses expérimentations ont permis de se pencher sur nos processus de décision.
Moins médiatisé, le « boost » appartient à un autre champ d’intervention concernant les comportements. Inspiré des travaux de Gigerenzer sur les prises de décisions rapides et basées sur des informations faites d’idées schématiques, son but est de développer davantage des compétences basiques, très techniques mais pertinentes, dans le but de faire un choix plus construit.
En effet, le nudge est intégré au sein de ce que Thaler et Sunstein appellent une architecture de choix. Cette dernière doit être étudiée pas à pas et revisitée dans des contextes distincts comme une cantine, une rue voire un relevé de banque, pour mettre en évidence la différence observée entre le comportement réel chez les individus et le comportement désirable.
À lire aussi : Mégots jetés au sol : quand l’effet des nudges part en fumée…
Par « désirable », il est entendu privilégié par la collectivité (par exemple, jeter moins de mégots dans l’espace public) ou tout simplement préféré sur le long terme par un individu concerné (finaliser un rapport difficile à rédiger). En l’occurrence, chacun se doit de prendre de nombreuses décisions quotidiennement.
Deux systèmes sont traditionnellement identifiés lors de la prise de décision individuelle. Le cerveau a l’habitude de prendre la majorité de ses décisions sur la base d’un système de pensée rapide et peu réflexif. C’est le fameux « système 1 » de pensée de Kahneman sur lequel sont en partie fondées les théories du nudge et du boost. Le « système 2 » de la pensée, quant à lui, nécessite une vraie réflexion coûteuse pour l’organisme, qu’il ne met en place que pour des problèmes complexes ou nouveaux.
Le nudge est conçu pour venir inciter les individus à prendre une décision plus favorable sans coercition, c’est-à-dire sans restreindre les possibilités qui s’offrent à chacun. Profondément ancrés dans une démarche de paternalisme – les hommes ont parfois besoin d’être orientés vers des choix plus pertinents – sans renoncer à l’espace de liberté de chacun, les nudges sont vus comme des instruments peu coûteux et complémentaires de démarches plus globales.
Souvent ludiques, ils se veulent imperceptibles et ne doivent être qu’un coup de pouce, une incitation douce, à mieux décider au sein du système rapide de pensée. Mais les nudges peuvent être considérés par certains comme des outils inquisiteurs et manipulateurs. En réponse, Thaler et Sunstein ont développé la notion de sludge (dont la traduction pourrait être boue épaisse). Soit le « cousin malveillant » du nudge qui aurait pour objectif de rendre les actions plus difficiles à réaliser, notamment par une complexification des procédures ou un temps de réalisation excessivement long. Ainsi, le simple fait de vous faire décocher l’autorisation de recevoir des actualités commerciales dans le cadre d’une offre promotionnelle est assimilable à une tentative de sludge.
Le boost, de son côté, repose sur l’idée que le passage par un système de pensée long et complexe, dans certains cas, pourra nuire à l’individu et l’empêcher de prendre la meilleure décision. Gigerenzer prend l’exemple d’une expérience dans un hôpital pour orienter les patients avec une douleur cardiaque sur la base de 3 ou 19 critères. Le système frugal, basé sur 3 critères, permet de mieux traiter les patients dans leur ensemble et n’empêche pas de revoir un patient avec une problématique complexe pour des processus médicaux plus longs et complets. Le travail de Gigerenzer se base ainsi sur des méthodes dites heuristiques. Herzog et Hertwig ont récemment publié un article décrivant les processus heuristiques comme des règles générales très basiques délaissant certaines informations et permettant de faire des choix plus rapidement.
Revenons à notre exemple précédent : d’aucuns pourraient croire que poser trois questions à chaque patient ne suffirait pas à les orienter en cas d’urgence. Or, ces trois questions décisives seront mieux canalisées que 19 critères, de plus, elles sont basées sur des vérités scientifiquement démontrées : ces trois axes directeurs suffiront à guider l’intuition des professionnels. En étant orientés plus rapidement, les cas les plus urgents auront davantage de chance de guérison et les cas plus complexes feront des analyses plus poussées.
En réalité, tout un chacun peut initier un travail en réalisant une carte mentale (parfois aussi appelée carte heuristique) : ce schéma pourra servir de guide ou de synthèse d’une découverte. Il est rarement complet mais permet de tracer en quelques minutes les grands axes de la pensée. Le boost nous invite à apprécier notre intuition tout en l’aidant à dépasser ses limites : les biais. En effet, les décisions basées sur une pensée heuristique sont souvent assimilées à des biais cognitifs. Alison Gopnik explique que les bébés se forment à notre monde en calculant des probabilités. En grandissant, nous intégrons peu à peu les informations autour de nous en déduisant des probabilités de notre vécu. Nous nous créons des biais cognitifs sous forme de pensée heuristique, d’intuition, des autoroutes de la pensée pour aboutir plus facilement, au risque parfois d’adopter des comportements qui nous desservent.
Ces heuristiques rapides, lorsqu’elles sont réalisées sur la base de statistiques et probabilités démontrées comme dans un boost, permettent à chacun de prendre des décisions plus rationnelles. Ces boosts pourront prendre plusieurs formes détaillées par Herzog et Hertwig : apprentissage des réelles statistiques liées à une situation, création de règles de séparation financière entre vie privée et vie professionnelle, voire un self-nudge. Ce dernier boost bien précis consiste à observer notre architecture de choix et les biais qui nous causent des tracas. Il s’agit alors de prévoir des nudges soi-même pour parvenir à un meilleur comportement. Dans ce cas, l’adhésion de l’individu est entière. Concrètement, s’imposer une période sans notification et sans appel sur son poste de travail peut être une forme de self-nudge. L’individu boosté s’autorise cette intervention sur son espace de travail pour mieux achever son but.
Une analyse fine de plusieurs nudges à dimensions écologiques est parue en 2023 afin de savoir lesquels étaient les plus efficaces. Cette analyse réalisait une classification des nudges en fonction de deux leviers principaux que sont la faisabilité (comment ?) et la désirabilité (pourquoi ?).
Au sein du levier « faisabilité », il s’agit de jouer sur l’architecture de choix en cadrant l’information, ou en donnant de la visibilité au meilleur choix, ou encore en facilitant l’information. Ainsi, des hôtels asiatiques ont placé un autocollant à un seuil écoresponsable de remplissage en eau des baignoires. Cette première catégorie de nudges verts semble mieux fonctionner que les autres car elle réduirait la distance psychologique à la mise en œuvre d’une action.
Au sein du levier de la désirabilité, se cache entre autres un type de nudge extrêmement connu et décrié qu’est celui de la désirabilité sociale : dévoiler aux yeux de tous sa conduite, en forçant chacun à employer des sacs poubelles transparents par exemple ; ou encore, être comparé à une norme parfois lointaine et vague, comme il a pu être observé sur certaines factures d’électricité décrivant l’écart de consommation d’un foyer à la norme. En dépit d’un effet positif avéré, ces dispositifs sont susceptibles de générer un effet contre-productif. C’est ce que certains chercheurs appellent un effet boomerang : se sentant manipulée, une frange de la population adopte par réaction le comportement non désiré. L’ensemble de ces types de nudges ne permettent pas aux individus de prendre du recul sur leur comportement.
Au contraire, le boost fonctionne sur des cartes mentales et se propose de donner de nouvelles compétences. Il peut s’agir d’améliorer la compréhension de la fixation d’un prix pour un service complexe, par exemple. Certaines formes de boosts peuvent même être déclenchées volontairement par les individus ou bien par un tiers, à l’instar de ceux permettant de développer la motivation pour un apprentissage.
Nudge et boost visent chacun à modifier le système rapide de pensée. Le nudge joue au sein de la prise de décision sur l’action elle-même, alors que le boost reconfigure, via un processus légèrement plus énergivore lors de la découverte, les choix réalisés. S’il faut effectivement choisir l’outil, il s’agit toujours de composer avec les limites de l’esprit humain.
Les effets des nudges semblent ne pas perdurer dans le temps. Ennui, lassitude, détérioration… Les nudges associés à la préservation de l’eau ou de l’énergie, par exemple, ont un effet direct et notable mais qui s’estompe en quelques mois.
Le boost, au contraire, n’a pas toujours d’effet direct sur les choix réalisés. Un temps d’adaptation ou de motivation est toléré entre le moment où un individu rencontre un boost et la mise en place du comportement rationnel et désirable. En revanche, le boost serait plus pérenne dans le temps. Il implique une meilleure compréhension des raisonnements heuristiques de l’individu et suppose un engagement de la part de l’individu boosté.
Les nudges et les boosts fonctionnent différemment mais ont tous deux pour objectif de faciliter les prises de décision rapides et efficaces au quotidien. Il existe encore des zones grises où chacun pourra déterminer ce qui relève du nudge ou du boost. Leurs effets sont souvent positifs, neutres et parfois, contre-productifs, surtout lorsque la logique sous-jacente est proche d’une certaine forme de manipulation. Dans tous les cas, ils ne peuvent suffire à eux-mêmes et doivent être considérés comme des outils possibles, par définition non neutres.
Tugayé Pascale est membre du laboratoire GRM et de l'Association des Doctorants Francophones en Gestion. Elle recevra des financements de la Chaire partenariale l'Eau dans les territoires des Alpes-Maritimes pour ses recherches.
24.04.2026 à 11:48
Álex Aguilar, Profesor de Biología Animal, Universitat de Barcelona

Entre prospérité économique, surexploitation et régulation tardive, près de mille ans de chasse à la baleine ont laissé une empreinte durable sur les sociétés et les littoraux.
Les archives les plus anciennes attestant l’existence d’une pêche à la baleine organisée remontent au XIe siècle au Pays basque. De là, l’activité s’est rapidement étendue aux ports du littoral cantabrique, de la Galice jusqu’au Labourd, puis à l’ensemble de l’Atlantique, atteignant des pays comme le Brésil et l’Islande.
Bien qu’elle soit aujourd’hui presque abandonnée, cette activité a longtemps constitué un secteur très rentable. À tel point que l’ampleur des captures et leur mauvaise gestion ont conduit à son interdiction afin de protéger les cétacés.
Au Pays basque, la pêche se pratiquait à partir de petites embarcations à rame, qui prenaient la mer dès qu’une baleine était repérée. Une fois le cétacé atteint, il était immobilisé à l’aide de harpons lancés à la main, puis achevé à la lance. Le corps était ensuite remorqué jusqu’à la plage pour être exploité.
Par ailleurs, les baleiniers recherchaient activement les petits, sachant que s’ils s’en emparaient, la mère les suivrait jusqu’à des eaux abritées, ce qui facilitait sa capture ultérieure.
Pendant des siècles, les baleines étaient principalement pêchées pour leur lard, dont on tirait l’huile, utilisée pour l’éclairage et la fabrication de savon, essentiel à l’industrie lainière.
Bien que la capture du cétacé comporte des risques — car, aussi paisible soit-il, un animal blessé se retourne toujours contre son attaquant — les bénéfices faisaient vivre des économies locales entières. À tel point qu’une cinquantaine de ports du littoral cantabrique se sont engagés dans cette activité.
À partir du XVIe siècle, les Basques ont étendu cette activité à l’Atlantique, jusqu’à atteindre l’Islande, le Groenland, Terre-Neuve et même le Brésil. Cette expansion n’est pas passée inaperçue et, dès cette époque, d’autres puissances comme la France, le Royaume-Uni et les Pays-Bas se sont lancées à leur tour dans la chasse à la baleine, faisant fortement augmenter les captures à l’échelle mondiale.
Dès la première moitié du XIXe siècle, la chasse à la baleine était pratiquée dans tous les océans du globe et sa rentabilité atteignait des niveaux exceptionnels : les taux de profit annuels se situaient généralement entre 25 % et 50 %, permettant d’amortir rapidement les investissements nécessaires à une expédition.
Le Lagoda, un trois-mâts barque américain de New Bedford (Massachusetts), a ainsi rapporté à ses armateurs, en seulement douze ans, une somme cent vingt fois supérieure à l’investissement initial, avec certains dividendes annuels atteignant 361 %.
Au XXe siècle, la modernisation s’est traduite par l’utilisation de navires en fer équipés de moteurs à vapeur et de canons tirant des harpons de 80 kilos munis de grenades explosives, ce qui a encore accru la létalité et la rentabilité de cette activité. Rentabilité qui dépassait souvent 100 % par an, avant de commencer à diminuer avec l’épuisement progressif des populations de cétacés.
Dans le même temps, l’expérience accumulée par des générations de baleiniers a montré que le rendement exceptionnel des baleines était limité par leur lente reproduction. Logiquement, il aurait fallu adapter les captures à la capacité de renouvellement des populations. Mais l’industrie a fait un autre choix : maximiser les profits, quitte à épuiser rapidement les ressources d’une zone avant de se déplacer ailleurs lorsque les stocks locaux s’effondraient.
Pour permettre cette stratégie, des usines baleinières démontables et transportables ont été mises au point, adaptées à une exploitation intensive et mobile.
La saga familiale norvégienne des Herlofson, qui a introduit la chasse à la baleine moderne sur les côtes espagnoles, en est un bon exemple. Le patriarche, Peter, commence ses activités en Norvège dans les années 1880. En 1896, il installe une première station en Islande, qu’il ferme cinq ans plus tard pour la transférer en 1902 sur l’île de Harris, en Écosse.
Il est ensuite remplacé par son fils Carl, qui déplace en 1921 le centre d’opérations vers le golfe de Cadix, puis en 1925 vers la Galice. En 1928, il s’installe à Terre-Neuve, avant d’opérer en Namibie à partir de 1932, pour finir sa carrière à bord d’un navire-usine en Antarctique. À eux deux, père et fils ont exploité en cinquante ans huit zones de pêche baleinière différentes — soit en moyenne une tous les six ans.
Dans une lettre, Carl exposait clairement sa stratégie : il fallait prélever rapidement « la crème » de chaque caladero (zone de pêche) — autrement dit en tirer le maximum — puis, une fois la zone épuisée, se déplacer vers la suivante.
Ces abus ont profondément transformé la perception publique. La baleine est passée du statut de créature redoutée — pensons à Moby Dick — à celui de symbole de la conservation. En 1946, la Commission baleinière internationale (CBI) a été créée afin de réguler cette activité. Dans les années 1970, la CBI avait déjà protégé de nombreuses populations et encadrait l’exploitation des autres au moyen de quotas stricts. La pêche était enfin sous contrôle.
Cependant, le passé pesait trop lourd et la pression écologiste, très active dans les années 1980, a conduit à l’adoption d’un moratoire sur la chasse commerciale entré en vigueur en 1986, initialement prévu pour durer cinq ans. La mesure a été adoptée de justesse, avec un rôle décisif de l’Espagne, dont le vote a fait basculer le résultat.
Bien que la fin du moratoire ait été envisagée pour 1991, celui-ci a été prolongé indéfiniment en raison de sa forte portée symbolique. Pour beaucoup, l’idée de relancer la chasse à la baleine restait inacceptable. Le Japon, la Norvège et l’Islande, pays aux intérêts baleiniers importants, ont contesté cette décision en faisant valoir que les populations qu’ils exploitaient étaient en bon état — un point appuyé par des études scientifiques — et ont quitté la CBI, reprenant la chasse dans le cadre de quotas nationaux. Aujourd’hui, les deux tiers des captures de baleines ont lieu en dehors de cette organisation, selon des règles fixées par chaque pays.
Une grande partie de ses revenus provenant des cotisations versées par les pays membres — elles-mêmes liées à leur activité baleinière —, la CBI a été contrainte de vendre son siège et d’espacer ses réunions. Paradoxalement, cette organisation, pionnière dans la régulation internationale d’une ressource halieutique, traverse aujourd’hui une profonde crise en raison même de son succès. L’efficacité de son action a été dépassée par l’inertie d’une perception sociale forgée à une époque où l’exploitation des baleines était peu régulée et souvent abusive.
La CBI s’est depuis réinventée en s’intéressant à des enjeux comme le tourisme d’observation des baleines ou les effets de la pollution.
Près de mille ans de pêche à la baleine ont laissé sur le littoral cantabrique une empreinte profonde et bien visible. Les petits ports du nord de la péninsule Ibérique abritent musées, monuments, vestiges de vigies et d’anciennes usines, blasons ornés de motifs baleiniers, ainsi que linteaux, sépultures et pierres tombales décorés de harpons et de scènes de chasse aux cétacés. Un patrimoine historique de premier plan, qui subsiste comme le témoignage d’une activité aujourd’hui disparue.
Álex Aguilar a reçu des financements du Plan Nacional de Investigación no Orientada.