ACCÈS LIBRE UNE Politique International Environnement Technologies Culture
04.09.2025 à 20:04
Volcans de boue et séismes silencieux : quand les ondes d’un séisme ont des effets à très grande distance
Texte intégral (2031 mots)
Les tremblements de terre ne restent jamais isolés : ils peuvent déclencher toute une cascade d’autres phénomènes géologiques, un effet que les chercheurs étudient depuis des décennies. Une nouvelle étude confirme que les fluides, comme l’eau, jouent un rôle majeur dans la résistance de la croûte terrestre aux forces tectoniques à l’origine des séismes.
La Terre ne reste pas immobile après un grand séisme. À proximité de l’épicentre d’un fort séisme, des dégâts importants peuvent être provoqués par les secousses sismiques (destructions de routes ou d’immeubles, par exemple). Et il n’est pas rare d’observer également des glissements de terrain. Le choc principal peut aussi déstabiliser les failles environnantes, et créer ainsi de nouveaux points de rupture, appelés les « répliques ».
Beaucoup plus loin, là où personne ne ressent la moindre secousse, les instruments détectent une augmentation des petits tremblements de terre, surtout dans les régions volcaniques et géothermiques. Récemment, on a aussi pu observer des mouvements le long de zone de subduction, situés à plusieurs milliers de kilomètres de l’épicentre d’un séisme ayant eu lieu quelques minutes avant, interrogeant ainsi sur le lien mécanique entre ces deux phénomènes.
Dans notre article, publié cette semaine dans Science, nous révélons comment les grands tremblements de terre qui ont frappé la Turquie en 2023 ont produit des effets imprévus dans le bassin de Kura en Azerbaijan, à 1 000 kilomètres de l’épicentre : éruptions de volcans de boue (grands édifices faits de boue consolidée à la suite d’éruptions successives), gonflement d’une nappe d’hydrocarbures et séismes lents (également appelés « silencieux », c’est-à-dire sans émissions d’ondes sismiques).
Ces observations nous ont permis de mettre en évidence de manière quasi directe, et c’est bien là la nouveauté de cette étude, le rôle fondamental que jouent les fluides présents dans la croûte terrestre (de l’eau, par exemple) sur la résistance de celle-ci et, par conséquent, sur l’activité sismique.
Des observations inattendues à 1 000 kilomètres des deux séismes turcs
Dans le cadre de sa thèse sur la déformation lente dans le Caucase oriental, notre doctorant, Zaur Bayramov a traité de nombreuses images satellitaires radar de l’Agence spatiale européenne. En les comparant une à une (technique de géophysique appelée interférométrie radar), il a été étonné d’observer un signal le long de plusieurs failles dans la période correspondant aux deux grands séismes de Kahramanmaras, en Turquie, en février 2023.
Grâce à cette compilation d’images satellites et aux enregistrements sismologiques locaux, nous montrons que ces grands séismes ont déclenché, à plus de 1 000 kilomètres de distance, des gonflements et des éruptions de plusieurs dizaines de volcans de boue ainsi que des « séismes lents » sur plusieurs failles : ces glissements ont lieu trop lentement pour émettre eux-mêmes des ondes sismiques.
Que s’est-il passé ?
Sous l’effet du mouvement continu des plaques tectoniques à la surface de la Terre, des forces s’accumulent dans la croûte terrestre. Au sud-est de la Turquie, les plaques arabique et anatolienne se déplacent l’une par rapport à l’autre et la faille est-anatolienne résiste à ce mouvement. La majeure partie du temps, les failles sismiques sont « bloquées », et rien ne se passe… jusqu’au moment où ça lâche.
En février 2023, ce système de failles a brutalement glissé de plusieurs mètres, deux fois en quelques heures. Ce mouvement brutal est comparable au relâchement soudain d’un élastique : lorsqu’il se détend d’un coup, il rebondit dans tous les sens. Dans le cas d’un séisme, des ondes sismiques sont émises dans toutes les directions de l’espace. Typiquement, les secousses sont très fortes et peuvent détruire des bâtiments à proximité de l’épicentre, mais, à 1 000 kilomètres de distance, ces mouvements sont atténués et ne sont plus ressentis par les humains, même si les sismomètres, très sensibles, enregistrent des vibrations.
En 2023, au moment où les ondes atténuées du séisme turc ont traversé le bassin de Kura en Azerbaïdjan, à 1 000 kilomètres de l’épicentre, quelque six minutes après le séisme, nous avons détecté, sur des images satellites, du mouvement sur sept failles tectoniques. Celles-ci ont glissé silencieusement de plusieurs centimètres, sans émettre d’ondes sismiques.

En même temps, une cinquantaine de volcans de boue sont entrés en éruption en crachant de la boue, tandis que d’autres se déformaient.
Nous avons même mesuré le soulèvement du sol de quelques centimètres au-dessus d’un gisement d’hydrocarbures situé à l’aplomb d’une des failles activées.
Jamais une telle accumulation de phénomènes déclenchés par un même séisme n’avait été observée.
Comment un séisme peut-il déclencher de tels phénomènes à distance ?
La concomitance des éruptions de volcans de boue et des glissements silencieux sur les failles met en évidence le rôle des fluides dans ces déclenchements.
Plus précisément, observer ces volcans de boue s’activer et le champ d’hydrocarbures gonfler indique que la pression des fluides dans les roches du sous-sol a augmenté au passage des ondes sismiques. Cet effet est connu, notamment le phénomène appelé « liquéfaction » qui se produit sur les sols saturés en eau, perdant leur stabilité à la suite d’un séisme.
L’augmentation de la pression des fluides est aussi connue pour fragiliser les failles et les conduire à relâcher de la contrainte en glissant. De plus, il est bien établi qu’une pression de fluide élevée favorise un glissement lent sur les failles, qui ne génère pas d’ondes sismiques. Les ondes sismiques, en passant, ont donc fait grimper la pression des fluides dans la croûte, occasionnant à la fois les éruptions de boue et les glissements asismiques sur ces failles.
Cette étude constitue la première observation directe de l’influence des fluides présents dans la croûte sur le déclenchement à distance des séismes lents.
Le rôle des fluides dans la propagation des ondes sismiques sur de grandes distances
Depuis longtemps, les géophysiciens soupçonnaient que les fluides jouent un rôle dans une observation intrigante : comment de simples ondes sismiques, qui génèrent de faibles contraintes de quelques kilopascals, peuvent-elles déclencher des glissements sur des failles pourtant capables de résister à des contraintes bien supérieures, de quelques mégapascals ?
Nos observations apportent la réponse. L’augmentation de pression de fluide peut permettre d’atteindre l’échelle des mégapascals et d’activer les failles présentes dans la croûte saturée en fluides.
Il reste maintenant à généraliser ces observations. Toutes les failles sont-elles baignées de fluides circulant dans les roches de la croûte ? Si oui, quelle est la nature de ces fluides ? Nous savons qu’il y a de l’eau dans la croûte, et particulièrement dans les sédiments de la région du bassin de Kura, mais nos observations montrent que les hydrocarbures peuvent aussi être impliqués.
Des analyses géochimiques suggèrent même que des fluides, comme de l’eau chargée en dioxyde de carbone, pourraient remonter du manteau. La question reste ouverte…
Le projet Évolution spatiale et temporelle de la déformation sur et hors faille – SaTellite est soutenu par l’Agence nationale de la recherche (ANR) qui finance en France la recherche sur projets. L’ANR a pour mission de soutenir et de promouvoir le développement de recherches fondamentales et finalisées dans toutes les disciplines, et de renforcer le dialogue entre science et société. Pour en savoir plus, consultez le site de l’ANR.

Jusqu'à fin 2024, Alessia Maggi a été conseillère en matière de formations universitaires à l'Université Franco-Azerbaijanaise, un partenariat entre l'université de Strasbourg et la Azerbaijan State Oil and Industry University (ASOIU).
Romain Jolivet a été membre de l'Institut Universitaire de France entre 2019 et 2024. Il a reçu des financements de l'ANR ainsi que l'ERC.
Cécile Doubre et Luis Rivera ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur poste universitaire.
03.09.2025 à 16:58
Pourquoi y a-t-il encore des éboulements rocheux alors que des solutions de protection existent ?
Texte intégral (2733 mots)

En montagne, les éboulements sont fréquents. Leurs conséquences peuvent être dramatiques au dessus des routes et des installations humaines, de plus en plus présentes en montagne. Comment nous protéger ?
Le 20 août dernier, un éboulement rocheux dans la descente des Egratz vers Chamonix (Haute-Savoie) sur la RN 205 a causé un accident mortel. Début février 2025, à une semaine des vacances d’hiver, la route nationale 90 était bouchée à l’entrée de la vallée de la Tarentaise (Savoie). Le trafic ferroviaire entre Paris et Milan a été interrompu pendant plus d’un an et demi… à cause d’un éboulement rocheux fin août 2023. Ces évènements nous rappellent que ces phénomènes naturels constituent encore aujourd’hui une forte menace dans les territoires de montagne.
Entre 1900 et 2021, sur le territoire national, on recense 18 éboulements rocheux qui ont fait des victimes. Mais une route coupée peut aussi conduire à des effets que l’on imagine moins spontanément : une rupture dans l’accès aux soins, dans le transport transfrontalier de personnes et de marchandises et aussi, bien sûr, l’accès aux stations de ski – secteur qui représente plus de 10 milliards d’euros de chiffre d’affaires annuel en France.
Comment se protéger des éboulements rocheux ?
Pour protéger les personnes et les biens, des structures de protection « passives » peuvent être mises en œuvre, soit en interceptant les blocs rocheux lors de leur propagation dans la pente, soit en les déviant. Les merlons comme les filets métalliques peuvent servir aux deux actions selon leur conception.
Ainsi les écrans souples de filets sont constitués de nappes de filets déformables maintenues par des poteaux et par des câbles, qui sont fixés au sol par des ancrages. Des systèmes de dissipation d’énergie (appelés « freins ») sont disposés sur les câbles ou au niveau des ancrages pour limiter les efforts dans la structure et dissiper l’énergie cinétique d’impact du bloc.
Les écrans de filets peuvent arrêter des blocs avec une énergie d’impact jusqu’à 12 000 kilojoules, ce qui correspond à des blocs de 15 mètres cubes, soit l’énergie d’un bloc du volume d’un SUV circulant à la vitesse de 90 kilomètres par heure.
Les merlons sont des structures massives en élévation par rapport au terrain naturel, constituées de matériaux de remblai, comme le sol en place, renforcés ou non par différentes technologies (géosynthétique, armature métallique, pneu…).
Selon leur conception, la capacité d’arrêt des merlons peut être supérieure à celle des écrans de filets métalliques, et atteindre plusieurs dizaines de milliers de kilojoules, soit plus de trois à quatre blocs de quinze mètres cubes à 90 kilomètres par heure.

La solution des écrans souples de filets est cependant souvent privilégiée en zone de montagne, car elle nécessite peu d’emprise au sol et peut être installée en forte pente grâce à des hélicoptères.
Comment conçoit-on ces ouvrages de protection ?
Comme tout ouvrage du génie civil, un écran de filets doit être dimensionné. Pour cela, il faut recenser sur le terrain les blocs potentiellement instables et évaluer s’ils sont susceptibles de s’ébouler. Dans un second temps, nous réalisons des simulations numériques pour estimer l’énergie et la hauteur de passage de chaque bloc, afin de définir l’endroit dans la pente où positionner l’ouvrage de protection et avec quelles caractéristiques. Ensuite, un produit existant sur le marché permettant de remplir ces conditions est choisi.
Notons que la capacité d’arrêt de certains produits marqués CE a été testée par des essais d’impact réalisés en grandeur réelle. De plus, après l’installation des structures sur le terrain, des inspections détaillées et un entretien des ouvrages permettent d’assurer le niveau de service attendu pendant la durée de vie de chaque ouvrage, soit au minimum vingt-cinq ans en atmosphère peu corrosive.
La conception d’un écran de filets de protection contre les chutes de blocs est cependant complexe. Elle doit tenir compte d’un comportement dynamique et non linéaire de l’ouvrage sous l’impact d’un bloc. Ce type d’ouvrage favorise de grands déplacements au sein de la nappe de filets, qui limitent la concentration des efforts. Certains composants, essentiellement les freins, se déforment alors de façon irréversible.
Ainsi depuis les années 1970, la communauté scientifique et technique se mobilise pour améliorer la compréhension du comportement de ces ouvrages sous sollicitation dynamique.
Quand les filets ne remplissent pas leur mission
Malgré ces efforts pour améliorer la fiabilité des écrans de filets, ces ouvrages peuvent encore être mis en défaut aujourd’hui.
Par exemple, un éboulement exceptionnel peut dépasser la sollicitation prise en compte lors du dimensionnement. Ce fut le cas lors de l’éboulement déjà cité sur la RN90, pendant lequel trois blocs de plus de 10 mètres cubes ont percuté à grande vitesse, estimée à 28 mètres par seconde, et presque simultanément, un écran de filets neuf de capacité d’arrêt maximale égale à 8 000 kilojoules (c’est-à-dire pouvant arrêter un seul bloc de 8 mètres cubes chutant à plus de 100 kilomètres par heure).
L’impact d’un bloc rocheux de forme tranchante présentant une vitesse de rotation significative ou encore un impact au niveau des câbles de haubanage ou des extrémités de l’ouvrage peuvent être également plus sévères que l’impact dans les conditions des essais en vraie grandeur de certification du produit.

Enfin, des erreurs de montage ou encore le vieillissement de certaines pièces métalliques par corrosion peuvent avoir une incidence sur la capacité d’arrêt de l’ouvrage tout au long de sa durée de vie.
Des enjeux qui évoluent
Les enjeux (bâtiments, infrastructures de transports…) situés dans les fonds de vallée des régions montagneuses sont de plus en plus vulnérables. En effet, les dernières décennies ont vu l’augmentation du trafic et de la pression foncière, en lien notamment avec l’essor du tourisme de montagne. En conséquence, les besoins en ouvrages de protection performants et fiables ne font qu’augmenter.
Des stratégies territoriales de protection doivent donc être mises en place. Mais les coûts élevés de mise en œuvre et d’entretien obligent à définir et à prioriser les actions de sécurisation vis-à-vis du risque rocheux.

Marion Bost a reçu des financements de la Direction Générale de la Prévention des Risques du Ministère de la Transition écologique, de la Biodiversité, de la Forêt, de la Mer et de la Pêche.
Laurent Dubois travaille avec des entreprises de travaux construisant des merlons ou des écrans de filets sur les chantiers et dans le cadre de groupes de travail méthodologiques ou de normalisation.
Marie-Aurélie Chanut a reçu des financements de IREX.
03.09.2025 à 12:38
Maths au quotidien : pourquoi les entreprises dépensent-elles tant en publicité ?
Texte intégral (1473 mots)

Les entreprises dépensent en publicité des montants qui paraissent délirants. Pour comprendre leur raisonnement, petit passage par la théorie des jeux.
–
En 2024, les dépenses publicitaires mondiales sont estimées à plus de 1 000 milliards de dollars — soit l’équivalent d’un tiers du PIB français. En moyenne, les entreprises consacrent près de 10 % de leur chiffre d’affaires au marketing. Dans certains secteurs, comme les start-up ou les SaaS (Software as a Service), ce chiffre peut même grimper jusqu’à 20 %.
Pourquoi une telle frénésie publicitaire ? La réponse immédiate semble évidente : la publicité attire des clients. Mais cette explication est incomplète. En réalité, les entreprises investissent massivement dans la publicité… à cause de leurs concurrents.
La publicité comme jeu de stratégie
En effet, les dépenses publicitaires relèvent d’une situation d’interdépendance : les décisions d’une entreprise affectent non seulement ses propres ventes, mais aussi celles de ses concurrents. Ce type de relation est précisément ce que la théorie des jeux — un champ des mathématiques formalisé au XXe siècle notamment par John von Neumann, Oskar Morgenstern et John Nash — permet d’analyser.
La théorie des jeux étudie les situations où des agents rationnels, appelés des « joueurs » interagissent selon des règles précises, avec des choix stratégiques et des résultats qui dépendent des décisions de chacun.
À lire aussi : L’entrepreneur est-il un joueur de poker ?
Imaginons deux entreprises concurrentes, A et B. Chacune gagne 10 millions d’euros en l’absence de publicité. Chacune peut choisir d’investir ou non dans une publicité qui coûte 2 millions d’euros. Voici les conséquences possibles :
Si les deux investissent, elles ne gagnent que 8 millions chacune (10 — 2).
Si une seule investit, elle capture 5 millions d’euros à l’autre entreprise, qui, elle, n’a pas fait de publicité : elle gagne donc 13 millions (10 — 2 + 5), tandis que l’autre ne gagne que 5 millions (10 — 5).

Cet exemple constitue bien entendu une simplification schématique. Il repose notamment sur l’hypothèse que les entreprises ne peuvent pas conquérir de nouveaux clients par la publicité, ce qui est évidemment inexact. Cet exemple vise uniquement à exposer les conditions nécessaires à la mise en place du point d’intérêt du jeu.
Quelle est la meilleure stratégie pour chacune des entreprises ?
Le choix collectivement optimal serait de ne pas investir du tout : chaque entreprise gagnerait alors 10 millions. Pourtant, ce scénario ne se réalise jamais. C’est le célèbre « dilemme du prisonnier » : une tension entre l’intérêt individuel et l’intérêt collectif.
Quelle que soit la décision du concurrent, chaque entreprise a intérêt à investir dans la publicité. Si B investit, A gagne plus en investissant aussi (8 contre 5). Si B n’investit pas, A gagne encore plus en investissant (13 contre 10) : on dit que l’investissement publicitaire est une « stratégie dominante », c’est-à-dire la meilleure stratégie, quelle que soit la décision du partenaire de jeu.
Ce raisonnement est symétrique pour B. On aboutit ainsi à un équilibre dans lequel les deux entreprises investissent… pour un résultat inférieur à celui d’une coopération.
Il est important de noter que dans ce jeu, la publicité n’a, par hypothèse, pas de valeur intrinsèque. Sa valeur est relative : elle n’existe que par comparaison avec la stratégie du concurrent. Ce mécanisme explique pourquoi les montants investis en publicité peuvent sembler absurdes au premier abord, tout en étant en réalité une décision parfaitement rationnelle — et même optimale, dans un contexte concurrentiel ; même si la publicité ne permet pas d’acquérir de nouveaux clients.
Peut-on sortir de ce piège ?
Dans un cadre statique, sans intervention extérieure, la réponse est non. Même en autorisant les entreprises à se coordonner, chacune aurait trop à gagner en trichant… et l’équilibre coopératif serait donc instable. Par ailleurs, ces coordinations sont souvent illégales, les autorités de la concurrence interdisent, sauf exception, toute collusion entre concurrents.
Trois solutions sont néanmoins envisageables :
Interdire la publicité. Une solution radicale serait d’interdire toute publicité. Cela mettrait fin au dilemme… mais au prix de priver les consommateurs d’une information utile pour leurs choix. La publicité joue en effet un rôle d’information et de différenciation.
Encadrer légalement les engagements. Si les entreprises pouvaient légalement s’engager à limiter leurs dépenses publicitaires — et si un tiers (juge, autorité, etc.) pouvait faire respecter ces engagements — alors l’équilibre coopératif deviendrait atteignable. Autrement dit, les entreprises pourraient s’engager de manière crédible à ne pas investir dans la publicité. En cas de déviation, elles seraient sanctionnées par la loi. C’est l’intervention d’un tiers — ici, l’autorité publique — qui rend possible la contractualisation.
À lire aussi : Est-il temps de réglementer le ciblage publicitaire et les entreprises qui en profitent le plus ?
- Répéter le jeu. Enfin, si l’interaction entre les entreprises se répète dans le temps, il devient possible d’instaurer une forme de coopération : tricher une fois, c’est risquer de perdre la confiance (et donc les profits) à long terme. C’est le principe de la « réciprocité conditionnelle », qui peut conduire à des stratégies coopératives stables dans le temps. Ce mécanisme est celui de la réputation, qui établit un lien entre les comportements présents et les gains futurs.

Antoine Prevet a reçu des financements des mècenes de l'etilab.
03.09.2025 à 12:38
Le principe oublié d’Einstein, ou la naissance de la constante cosmologique
Texte intégral (1809 mots)

La relativité générale d’Einstein est souvent présentée comme une construction théorique guidée par des principes fondamentaux, plus que par l’observation. Le dernier de ces principes, connu sous le nom de « principe de Mach », est aujourd’hui largement tombé dans l’oubli. Pourtant, c’est lui qui a conduit Albert Einstein à introduire dans ses équations la constante cosmologique, aujourd’hui interprétée comme l’énergie sombre, à l’origine de l’accélération de l’expansion de l’Univers.
Le mouvement est-il relatif ou absolu ? Si la question a longtemps animé les débats philosophiques depuis l’Antiquité, c’est surtout à partir du XVIe siècle, avec l’édification des lois de la gravitation, qu’elle a quitté la seule arène des philosophes pour entrer dans celle des astronomes et des physiciens.
Pour Isaac Newton, aucun mouvement ne peut être conçu sans la notion d’un espace rigide et absolu, servant de référence pour définir la trajectoire des objets. À l’opposé, pour Christian Huygens, Gottfried Wilhelm Leibniz et, plus tard, Ernst Mach, ce sont les autres objets qui servent de repères. Dès lors, aucun mouvement ne devrait pouvoir être défini en l’absence totale de matière : ôtez toute référence matérielle, et il devient impossible de dire si un objet est en mouvement ou au repos.
Influencé par Mach, Einstein érigea ce point de vue en principe fondateur de sa théorie de la relativité générale. Il en mentionna l’idée pour la première fois en 1912, puis la qualifia tour à tour d’« hypothèse », de « postulat », avant de finalement l’appeler « principe de Mach » en 1918, en hommage au physicien et philosophe autrichien qui avait nourri sa réflexion.
À première vue, la relativité générale semble en accord avec ce principe, dans la mesure où l’espace n’y est plus la structure rigide et absolue de Newton, mais un objet dynamique influencé par la matière. En effet, dans la théorie d’Einstein, la gravitation n’est pas une force à proprement parler, mais la manifestation de la courbure de l’espace et du temps, induite par la matière : toute source d’énergie ou de masse déforme l’espace-temps, et c’est cette courbure qui gouverne le mouvement des corps.
Néanmoins, Einstein avait conscience que, pour satisfaire pleinement ce principe, il ne suffisait pas que la matière influence la géométrie de l’espace-temps : il fallait qu’elle la détermine entièrement. C’est ce qui le conduisit à modifier ses équations en y introduisant la constante cosmologique – que l’on interprète aujourd’hui comme l’énergie sombre, responsable de l’accélération de l’expansion de l’Univers.
À lire aussi : Pourquoi l’expansion de l’Univers accélère ? Les nouveaux résultats de la collaboration DESI apportent leur pierre à l’édifice
Pourquoi Einstein a introduit la constante cosmologique
Deux problèmes semblaient se poser à Einstein dans la version initiale de sa théorie de la relativité générale, sans cette constante.
Le premier est que ses équations admettent des solutions du vide : elles permettent, en théorie, l’existence d’un espace-temps même en l’absence complète de matière. Cela contredisait directement son « principe de Mach ». Il écrira d’ailleurs en 1918 :
« À mon avis, la théorie de la relativité générale n’est satisfaisante que si elle démontre que les qualités physiques de l’espace sont entièrement déterminées par la matière seule. Par conséquent, aucun espace-temps ne peut exister sans la matière qui le génère. » Albert Einstein, Actes de l’Académie royale des sciences de Prusse, 1918.
Le second problème concernait les conditions aux limites de l’espace-temps, c’est-à-dire, de la structure supposée de l’espace-temps à l’infini. Il semblait nécessaire de les introduire, mais elles étaient soit incompatibles avec son principe, soit conduisaient, pensait-il, à prédire un mouvement des astres lointains qui n’était pas observé. C’est peut-être d’une réinterprétation de cette difficulté qu’est née l’idée, aujourd’hui répandue, selon laquelle Einstein aurait introduit la constante cosmologique pour conformer sa théorie à une vision préconçue d’un Univers statique et donc éternel.
Un Univers fini mais sans bord
Comme il l’explique dans l’article où il introduit la constante cosmologique, celle-ci permet d’éviter le recours à des conditions aux limites problématiques, en autorisant un Univers fini mais sans bord.
Pour se représenter ce qu’est un Univers « fini mais sans bord », on peut penser à la surface d’une sphère. Elle ne possède pas de frontière — on peut y circuler sans jamais atteindre de bord – et pourtant, sa surface est finie (égale à quatre fois π fois le rayon au carré).
À lire aussi : Où est le centre de l’Univers ?
C’est ainsi qu’Einstein a inventé le tout premier modèle physique de l’Univers dans son ensemble ! Il s’agit d’un Univers sphérique, en équilibre, avec une répartition uniforme de matière. Si son modèle est celui d’un Univers statique (c’est-à-dire, qui n’évolue pas avec le temps), il est clair que pour Einstein il ne s’agit que d’une première approximation qui permet de résoudre les équations.
Une impasse théorique
Mais nous le savons aujourd’hui : le modèle d’Einstein ne correspond pas à notre Univers. Qui plus est, il est théoriquement insatisfaisant, car instable : tout écart, même minime, à l’approximation homogène qu’il utilise conduit à prédire sa destruction. Or, notre Univers n’est certainement pas exactement homogène !
Ensuite, il est désormais établi – depuis que l’astronome néerlandais Willem de Sitter l’a démontré – que, même avec une constante cosmologique, la relativité générale admet des solutions dans lesquelles l’espace-temps peut, en théorie, exister sans aucune forme de matière.
De Mach à l’énergie sombre : l’ironique réhabilitation d’une constante
L’introduction de la constante cosmologique échoue donc à rendre la relativité générale compatible avec le principe de Mach — ce qui était, rappelons-le, l’intention initiale d’Einstein en introduisant la constante cosmologique dans ses équations. C’est vraisemblablement pour cette raison qu’Einstein qualifiera plus tard son introduction de « plus grande erreur de sa vie » (des propos relayés par George Gamow dans son autobiographie).
Ce principe oublié a ainsi poussé Einstein à penser l’Univers dans son ensemble, donnant naissance à la toute première solution mathématique d’un Univers en relativité générale – et donc à la cosmologie moderne. Par un enchaînement ironique de l’histoire scientifique, il l’a amené à introduire une constante pour une raison qui, en fin de compte, ne fonctionnera pas – mais dont l’adéquation aux observations sera confirmée des décennies plus tard, en 1998, par l’observation de supernovae lointaines. Cette découverte vaudra à Saul Perlmutter, Brian Schmidt et Adam Riess le prix Nobel de physique en 2011, près d’un siècle après l’élaboration de la théorie d’Einstein.
Le rôle des hypothèses en sciences
La capacité de l’esprit humain à concevoir des principes abstraits qui peuvent dévoiler la structure du réel interroge. Comment une idée a priori, née sans données empiriques, peut-elle conduire à une loi objective du monde ?
Cela s’explique néanmoins simplement : les scientifiques formulent des hypothèses, des principes et des modèles — certains échouent et tombent dans l’oubli, d’autres se révèlent féconds. C’est ce que suggère la belle image du penseur-poète Novalis :
« Les hypothèses sont des filets : seuls ceux qui les jettent attrapent quelque chose ». Novalis, The Disciples at Sais and Other Fragments, Thoughts on Philosophy, Love and Religion, page 68, 1802.
C’est en jetant le sien qu’Einstein a donné naissance à la cosmologie moderne.
Pour aller plus loin : la traduction française de l’article « Les formulations d’Einstein du principe de Mach », écrit par Carl Hoefer et traduit par l’auteur du présent article, est disponible ici.

Olivier Minazzoli ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
03.09.2025 à 12:38
Notre penchant pour l’alcool trouverait son origine chez nos ancêtres, il y a plus de 10 millions d’années
Texte intégral (1598 mots)

L’addiction à l’alcool n’est pas qu’une question de société. C’est aussi une vieille histoire d’évolution, de fruits fermentés et de mutations génétiques.
Des fruits trop mûrs au sol, légèrement gonflés, un peu mous, odorants… et légèrement alcoolisés. Voilà ce que nos ancêtres de la lignée des hominoïdes, aujourd’hui représentée par les grands singes et l’humain, trouvaient souvent dans les forêts tropicales de l’Afrique. Et ce petit goût d’éthanol, ils l’adoraient.
Selon l’hypothèse du « Drunken Monkey » (singe ivre), formulée par Robert Dudley dès l’an 2000, la consommation d’éthanol chez les humains ne viendrait pas d’une dégénérescence culturelle moderne, mais bien d’une pression évolutive ancienne. Des millions d’années avant que l’homme n’invente l’agriculture et la fermentation, nos ancêtres frugivores auraient déjà été amateurs de fruits naturellement fermentés. Et le passage de la cime des arbres au sol avec le glanage de fruits tombés au sol aurait accéléré cette évolution.
Une mutation qui change tout
Une étude publiée en 2014 rapporte qu’il y a environ 10 millions d’années, une mutation dans l’enzyme ADH4 (alcool-déshydrogénase) a permis à nos ancêtres de métaboliser l’éthanol 40 fois plus efficacement. Cette adaptation est survenue précisément chez nos ancêtres de la lignée des hominoïdes (ancêtre commun des humains, chimpanzés et gorilles mais pas chez les orangs-outans).
Pourquoi ? Parce que ceux-ci vivaient dans les hauteurs des arbres, où les fruits ne fermentent pas autant qu’au sol. Les ancêtres des chimpanzés et gorilles, eux, descendaient volontiers glaner les fruits tombés, plus susceptibles d’avoir fermenté sous l’action naturelle des levures. Avoir accès à de nombreux fruits fermentés tout en étant capables de dégrader l’alcool devenait alors un avantage évolutif, cette mutation devenant ainsi un « gain de fonction » permettant de trouver plus facilement de la nourriture riche en calories.
De la même manière que la mutation de l’ADH permettait aux primates de s’adapter pour améliorer leur régime alimentaire, l’être humain s’est aussi adapté plus récemment avec des mutations de l’autre enzyme, l’ALDH, qui dégrade l’acétaldéhyde (produit de dégradation toxique induisant une réaction d’intolérance à l’alcool avec des rougeurs faciales (un « flush »), tachycardie, nausée) en acétate (non toxique). Cette réaction d’intolérance à l’alcool serait censée nous protéger de la consommation d’alcool, une molécule qui avec son métabolite tout aussi toxique peut causer des dégâts sévères pour notre santé.
L’éthanol comme carte au trésor olfactive
L’éthanol émis par les fruits fermentés ne se sent pas seulement de près. Il se diffuse à distance et servait probablement de signal olfactif aux primates pour localiser des ressources énergétiques riches en sucre.
L’éthanol est largement présent dans la nature, principalement par la fermentation des sucres des fruits par les levures. Une étude a rapporté les concentrations d’alcool de différents fruits pas encore tombés au sol mais dont certains étaient trop mûrs. La concentration varie selon les espèces et les environnements : des traces (0,02–0,9 %) ont été mesurées dans des fruits tempérés et subtropicaux comme le sorbier, le figuier sycomore ou le palmier dattier, tandis que dans les zones tropicales humides, particulièrement favorables à la fermentation, des teneurs beaucoup plus élevées (jusqu’à 10 % dans certains fruits de palmiers au Panama) ont été observées dans les fruits trop mûrs. Bien que la plupart des fruits présentent des niveaux faibles (<0,2 % en moyenne), leur consommation répétée peut représenter une source significative d’éthanol pour les animaux frugivores. Cette production naturelle d’alcool s’inscrit dans une relation complexe entre plantes, levures et animaux : les fruits offrent des sucres, les levures colonisent et fermentent, et les animaux attirés contribuent à disperser à la fois les graines et les spores de levures, suggérant une forme de « mutualisme écologique ».
De nombreuses anecdotes circulent sur des animaux « ivres » après avoir consommé des fruits fermentés… Éléphants et babouins en Afrique avec le marula, ou encore un élan en Suède coincé dans un arbre après avoir mangé des pommes fermentées. Toutefois, ces récits restent rarement validés scientifiquement : ni la teneur en éthanol des fruits, ni la présence d’alcool ou de ses métabolites chez les animaux n’ont été mesurées. On sait en revanche que certains mammifères, comme les singes verts introduits aux Caraïbes, n’hésitent pas à subtiliser et consommer les cocktails de fruits alcoolisés laissés sans surveillance par les touristes sur les plages de St Kitts.
Une étude rapporte que des chimpanzés de Bossou en Guinée utilisent des feuilles enroulées comme “éponges” pour boire de la sève de palme fermentée contenant jusqu’à 6 % d’éthanol.
Et ce n’est pas de la picole en cachette : ils boivent en groupe, se passent les feuilles, presque comme un apéritif communautaire. De quoi revisiter nos idées sur l’alcool et le lien social. L’activité de glanage des fruits fermentés au sol et alcoolisée devient alors une motivation sociale, déjà ! Nous n’avons rien inventé.
De nos jours, l’alcool coule à flots, mais nos enzymes n’ont pas suivi
L’évolution nous a donné un foie capable de dégrader environ 7 g d’éthanol par heure. C’est peu face aux cocktails modernes. Autrefois, le volume d’éthanol ingéré était naturellement limité par ce que contenait… un estomac de singe rempli de fruits. Aujourd’hui, on peut boire des dizaines de grammes en quelques gorgées de boissons fortement alcoolisées. Un shot (un “baby”) de whisky ou de spiritueux à 40° et de seulement 3cl seulement contient 10g d’alcool !
Il n’est donc pas étonnant que nous devions faire face au problème de la consommation excessive d’alcool et de l’addiction à l’alcool qui ont de lourdes conséquences sur la santé et nos sociétés. On parle de « mismatch » et de « gueule de bois liée à l’évolution ». Les mutations de nos gènes codant ADH et ALDH n’ont pas encore permis à notre espèce de faire face aux conséquences néfastes de l’alcoolisation excessive.
Pour conclure, notre instinct de boire est ancien, mais les risques sont nouveaux.
Notre attrait pour l’alcool n’est pas une anomalie moderne. C’est un héritage évolutif, un bug de l’époque des forêts humides, où l’éthanol signifiait calories et survie. Mais dans un monde où les alcools sont concentrés, accessibles, omniprésents… ce qui était un avantage est devenu un facteur de risque pour notre santé et un enjeu de santé publique prioritaire.
Pour en savoir plus, le livre de Mickael Naassila « J’arrête de boire sans devenir chiant » aux éditions Solar.

Professeur des Universités, Directeur de l'unité INSERM UMR 1247 le Groupe de Recherche sur l'Alcool & les Pharmacodépendances (GRAP), Chercheur sur l'addiction à l'alcool depuis 1995. membre sénior à l'Institut Universitaire de France en 2025. Auteur de plus 140 articles scientifiques et des ouvrages "Alcool: plaisir ou souffrance" Le Muscadier et "J'arrête de boire sans devenir chiant", SOLAR. Président de la Société Française d'Alcoologie et d'Addictologie (SF2A), de la Société européenne de recherche biomédicale sur l'alcoolisme (ESBRA) et vice-président de la Société internationale de recherche biomédicale sur l'alcoolisme (ISBRA).