08.09.2025 à 12:06
Thierry Colin, Professeur des universités en Sciences de gestion, Université de Lorraine
Benoît Grasser, Vice-président adjoint à la politique scientifique, Université de Lorraine
Les robots collaboratifs, ou cobots, ne remplacent pas seulement les humains : ils peuvent travaillent avec eux. Quel est leur impact sur la division du travail ?
Les robots sont omniprésents dans la production industrielle. Leur diffusion a toujours été au cœur d’enjeux humains, sociaux, économiques et en management, entraînant très tôt de nombreux questionnements.
Une nouvelle interrogation émerge aujourd’hui avec l’apparition des cobots. Capables de travailler non seulement à la place, mais aussi avec les humains au sein des ateliers, les robots collaboratifs sont-ils en train de devenir des collègues comme les autres ? Légers, flexibles, relativement accessibles et conviviaux… sont-ils susceptibles de remettre en cause les codes de la division du travail ?
Nos recherches récentes, basées sur des études de cas comprenant des entretiens et des observations en situation, ont permis de repérer quatre types d’usage des cobots : configuration simultanée, alternée, flexible ou coexistence. Elles rentrent dans le cadre du projet Impact « C-Shift » (Cobots in the Service of Human activity at work) qui vise à étudier l’impact de la mise en œuvre de dispositifs collaboratifs intelligents tels que les cobots dans le cadre des défis de l’industrie du futur.
Le terme cobot est créé par la contraction des termes anglais « collaborative » et « robot ». La paternité en est attribuée à des universitaires états-uniennes qui cherchent à la fois à limiter les troubles musculosquelettiques et à améliorer la productivité dans des usines de production automobile – Ford et General Motors.
Un robot collaboratif est un robot qui peut être installé dans le même espace de travail que les opérateurs humains, sans barrière de protection physique. Ils sont équipés de capteurs et de programmes déclenchant un ralentissement du mouvement ou un arrêt complet si un risque de collision est détecté. Ils sont capables de réaliser la plupart des opérations industrielles – visser, percer, poncer, souder.
Les cobots ne sont pas conçus pour des usages prédéfinis. Ils sont caractérisés avant tout par leur flexibilité. Facilement programmables grâce à des interfaces accessibles sur des tablettes, ils sont faciles à déplacer. Ils peuvent aussi bien mettre des produits cosmétiques dans des cartons, que faire du contrôle qualité à l’aide d’une caméra en bout de chaîne de production ou souder des pièces métalliques.
Les cobots ne sont plus de simples prototypes de laboratoire. Ils sont désormais couramment utilisés dans des usines de toutes tailles et dans divers secteurs – automobile, logistique, santé, agroalimentaire –, bien que leur adoption reste encore loin d’être généralisée. La part des cobots dans les ventes mondiales de robots serait de l’ordre de 3 % et, selon ABI research, le marché des cobots pourrait être multiplié par quatre d’ici 2030.
Les cobots ne visent pas à remplacer les robots traditionnels en raison de plusieurs limitations :
Leur charge utile est réduite : leur légèreté et leur petite taille les empêchent de manipuler des objets lourds.
Leur vitesse d’exécution est volontairement limitée pour garantir la sécurité des humains qui travaillent autour. Cela freine leur productivité et les rend peu adaptés aux productions à très grande échelle.
Installés dans les mêmes espaces que les humains, les cobots soulèvent des problèmes de sécurité lorsqu’ils sont équipés d’outils dangereux – outil coupant ou torche de soudage.
Leur potentiel réside avant tout dans de nouveaux usages et une approche différente de l’automatisation. Ainsi, dans une PME spécialisée dans la tôlerie qui a fait l’objet d’une étude de cas, les soudures sont effectuées par un robot de soudure traditionnel pour les grandes séries récurrentes. Pour les séries de taille moyenne et par des soudeurs pour les petites séries ou des soudures trop complexes, elles sont effectuées par des cobots.
Si par définition les cobots ont la possibilité de travailler dans le même espace que des opérateurs humains, leurs usages ne sont pas nécessairement collaboratifs et nos recherches nous ont permis de distinguer quatre configurations.
À un extrême, les cobots viennent se substituer aux opérateurs pour prendre en charge les gestes les plus pénibles et/ou gagner en productivité. On qualifie cet usage de coexistence, car il n’y a aucune interaction directe avec les humains.
Dans l’industrie automobile, des cobots vissent des pièces sous les véhicules, là où les positions sont particulièrement difficiles pour les opérateurs.
À lire aussi : Comment rendre les robots plus adaptables aux besoins de leurs collaborateurs humains ?
Dans la configuration simultanée, cobots et opérateurs travaillent ensemble en adaptant mutuellement leurs mouvements, côte à côte ou face à face. Si cette configuration est largement réalisable en laboratoire, elle est assez rare en condition réelle. La raison : le temps nécessaire à sa mise au point et sa certification sécurité obligatoire.
Chez un équipementier, le cobot positionne une colonne de direction pour automobile avec précision, évitant le port de charges et les chocs, et l’opérateur effectue des tâches de vissage sur la pièce.
La configuration alternée correspond à une situation où l’opérateur utilise le cobot, mais n’interagit pas directement avec lui. Il le programme pour une série de tâches, et le laisse travailler seul, dans un espace différent. Cette configuration garantit une meilleure sécurité pour l’opérateur humain. Ce dernier optimise la répartition du travail entre ce qu’il confie au cobot et ce qu’il continue de faire lui-même.
Chez un fabricant d’échangeurs thermiques pour la production de gaz industriels, les soudeurs délèguent aux cobots les soudures les plus simples et se concentrent sur des soudures plus complexes ou moins répétitives.
Dans la configuration flexible, la répartition du travail entre humains et cobots évolue au cours du temps, en fonction du plan de charge. Une fois la technologie maîtrisée, les cobots peuvent être réaffectés à différentes activités en fonction des exigences du moment. Le même cobot peut être utilisé pendant une période pour une activité de chargement de machines, puis réoutillé, il peut servir pour du ponçage, puis des opérations de peinture, etc.
L’efficacité réside dans la capacité des opérateurs, des techniciens et des ingénieurs à travailler ensemble pour inventer constamment de nouveaux usages. Cette configuration semble particulièrement adaptée à des PME dans lesquelles les séries sont courtes et variables.
Les cobots font partie d’un vaste mouvement technologique. Le contexte de l’industrie 5.0 et l’utilisation croissante de l’IA permettront aux cobots d’être encore plus adaptables, voire capables d’improvisation. Ils pourront être intégrés dans des « systèmes cyberphysiques de production », c’est-à-dire des systèmes très intégrés dans lesquels l’informatique contrôle directement les outils de production.
Cette intégration n’est pas évidente à ce stade. Si elle est possible, on peut penser que c’est la capacité à « combler les trous » de l’automatisation traditionnelle qui sera dominante, reléguant la flexibilité et l’aspect collaboratif au second plan. Inversement, le recours à l’intelligence artificielle peut aider au développement de configuration flexible misant sur la collaboration au sein des collectifs de travail.
Si ces évolutions technologiques ouvrent de nombreux possibles, elles laissent ouverte la question des usages en contexte réel. Les tendances futures dépendront des choix qui seront faits en termes de division du travail et de compétences.
Les configurations dites coexistence et activité simultanée ont finalement peu d’implications sur l’évolution des compétences ou de modalités de collaboration entre ingénieurs, techniciens et opérateurs. À l’inverse, le choix des configurations flexible ou activité alternée suppose que les opérateurs développent de nouvelles compétences, notamment en programmation, et que de nouvelles formes de collaboration verticales se développent.
En d’autres termes, les cobots redistribuent moins les cartes en matière de collaboration homme-machine qu’ils n’invitent à revoir les logiques de collaborations entre humains au sein des organisations.
Thierry Colin a bénéficié d'une aide de l'Initiative d'Excellence Lorraine (LUE) au titre du programme France 2030, portant la référence ANR-15-IDEX-04-LUE. Il a aussi bénéficié d'une aide de l'ANACT dans le cadre de son AMI "Prospective pour accompagner la transition des systèmes de travail"
Benoît Grasser a bénéficié d'une aide de l'Initiative d'Excellence Lorraine (LUE) au titre du programme France 2030, portant la référence ANR-15-IDEX-04-LUE. Il a aussi bénéficié d'une aide de l'ANACT dans le cadre de son AMI « Prospective pour accompagner la transition des systèmes de travail ».
05.09.2025 à 18:21
Manon Dalaison, Maître de Conférences, Institut de physique du globe de Paris (IPGP)
Un séisme meurtrier a frappé l’Afghanistan le 31 août, suivi par d’autres tremblements de terre. Une géophysicienne très familière de la région nous explique ce que l’on sait.
Le 31 août, un séisme a frappé l’Afghanistan dans les environs de la ville de Kunar et fait plus de 2000 victimes à ce jour. En 2022, un autre séisme meurtrier avait frappé le pays et fait environ 1000 victimes, tandis qu’en 2023, ce sont plus de 4000 personnes qui avaient trouvé la mort.
La région, difficilement accessible par la route, peut sembler isolée, mais ces zones rurales sont plutôt peuplées avec de nombreux villages parsemés le long des cours d’eau. Le village de Kunar est situé à quelques kilomètres de l’épicentre, mais certains hameaux sont encore plus près. L’ampleur des dégâts est aussi liée à la vulnérabilité des constructions en terre et pierres et au fait que la catastrophe ait eu lieu vers minuit heure locale, lorsque les gens sont chez eux.
Ce nouveau séisme a une magnitude Mw 6. Ceci correspond à un séisme de taille modérée sur l’échelle des séismes destructeurs, mais l’énergie libérée lors du séisme est tout de même équivalente à celle de la bombe atomique d’Hiroshima.
L’origine du séisme est particulièrement peu profonde, à 10 kilomètres environ. À cause de cette faible profondeur, les secousses qui atteignent la surface n’ont pas le temps d’être atténuées et sont plus susceptibles de faire des dégâts.
Cette magnitude modérée et cette faible profondeur sont deux caractéristiques que le séisme de Kunar partage avec le séisme de Khost du 22 juin 2022, qui avait eu lieu 220 kilomètres au sud-ouest.
D’un point de vue scientifique, nous sommes dans le « ruban » de déformation tectonique active entre les plaques indiennes et eurasiennes où on trouve une zone de transition entre un mouvement décrochant et un mouvement de compression. Ces mouvements sont à l’origine de fréquents séismes.
En 2022, les scientifiques avaient été assez surpris par le séisme de Khost : celui-ci montrait un mouvement décrochant (coulissant), alors que la région est en compression.
Aujourd’hui, à Kunar, on a un tremblement de terre en compression, qui est conforme à ce que l’on attend dans la région.
Comme souvent, le séisme important du 31 août est suivi d’autres séismes plus petits dont la taille et la fréquence décroissent à mesure que le temps passe. Cette évolution n’est pas une règle, et les exceptions sont nombreuses, mais plutôt une évolution moyenne qui se vérifie sur les centaines de tremblements de terre enregistrés tous les ans.
La région de Kunar se situe dans l’Hindu Kush, région montagneuse du nord-est de l’Afghanistan. Ces montagnes et leur géologie sont le résultat de dizaines de millions d’années de déformation tectonique du fait de la collision des plaques indienne et eurasienne. Les séismes sont les témoins à court terme de la longue histoire géologique.
Ici, les failles actives qui peuvent rompre lors de séismes sont nombreuses, plutôt courtes, et réparties sur des centaines de kilomètres. Elles sont visibles dans le paysage, dévient les cours d’eau, longent les vallées et bordent les montagnes.
Peut-on envisager que ces failles puissent générer à l’avenir des séismes plus grands, et malheureusement plus destructeurs, que ce nouveau séisme de Kunar ?
D’après l’historique des séismes, limité dans le temps par les archives humaines, on sait qu’un plus gros séisme de magnitude équivalente à 7,4 (c’est-à-dire 125 fois plus énergétique qu’un séisme de magnitude 6) a touché la vallée de Kunar en 1842. Ceci étant, il est difficile de savoir si un séisme de magnitude encore plus importante est possible dans la région de Kunar.
Le séisme de Kunar du 31 août 2025, et les répliques qui l’ont suivi, sont des exemples supplémentaires de l’activité tectonique compressive de la région, mal connue du fait des difficultés d’accès et son éloignement des sismomètres, les instruments qui permettent de mesurer les ondes sismiques. L’étude de ces séismes permettra de mieux connaître le tracé des failles actives et d’explorer les conditions physiques qui auraient pu favoriser un tel événement destructeur.
Quoiqu’il en soit, on est clairement dans une zone à risque sismique, où des séismes vont se produire à nouveau. Mais, comme toujours avec le risque sismique, on ne sait pas quand ils vont arriver.
Manon Dalaison a reçu des financements du Programme National de Télédétection Spatiale (PNTS).
04.09.2025 à 20:04
Cécile Doubre, Physicienne du Globe, Université de Strasbourg
Alessia Maggi, Professor of seismology, Université de Strasbourg
Luis Rivera, Professeur Universitaire, Sismologie, Université de Strasbourg
Romain Jolivet, Professeur des Universités, École normale supérieure (ENS) – PSL
Les tremblements de terre ne restent jamais isolés : ils peuvent déclencher toute une cascade d’autres phénomènes géologiques, un effet que les chercheurs étudient depuis des décennies. Une nouvelle étude confirme que les fluides, comme l’eau, jouent un rôle majeur dans la résistance de la croûte terrestre aux forces tectoniques à l’origine des séismes.
La Terre ne reste pas immobile après un grand séisme. À proximité de l’épicentre d’un fort séisme, des dégâts importants peuvent être provoqués par les secousses sismiques (destructions de routes ou d’immeubles, par exemple). Et il n’est pas rare d’observer également des glissements de terrain. Le choc principal peut aussi déstabiliser les failles environnantes, et créer ainsi de nouveaux points de rupture, appelés les « répliques ».
Beaucoup plus loin, là où personne ne ressent la moindre secousse, les instruments détectent une augmentation des petits tremblements de terre, surtout dans les régions volcaniques et géothermiques. Récemment, on a aussi pu observer des mouvements le long de zone de subduction, situés à plusieurs milliers de kilomètres de l’épicentre d’un séisme ayant eu lieu quelques minutes avant, interrogeant ainsi sur le lien mécanique entre ces deux phénomènes.
Dans notre article, publié cette semaine dans Science, nous révélons comment les grands tremblements de terre qui ont frappé la Turquie en 2023 ont produit des effets imprévus dans le bassin de Kura en Azerbaijan, à 1 000 kilomètres de l’épicentre : éruptions de volcans de boue (grands édifices faits de boue consolidée à la suite d’éruptions successives), gonflement d’une nappe d’hydrocarbures et séismes lents (également appelés « silencieux », c’est-à-dire sans émissions d’ondes sismiques).
Ces observations nous ont permis de mettre en évidence de manière quasi directe, et c’est bien là la nouveauté de cette étude, le rôle fondamental que jouent les fluides présents dans la croûte terrestre (de l’eau, par exemple) sur la résistance de celle-ci et, par conséquent, sur l’activité sismique.
Dans le cadre de sa thèse sur la déformation lente dans le Caucase oriental, notre doctorant, Zaur Bayramov a traité de nombreuses images satellitaires radar de l’Agence spatiale européenne. En les comparant une à une (technique de géophysique appelée interférométrie radar), il a été étonné d’observer un signal le long de plusieurs failles dans la période correspondant aux deux grands séismes de Kahramanmaras, en Turquie, en février 2023.
Grâce à cette compilation d’images satellites et aux enregistrements sismologiques locaux, nous montrons que ces grands séismes ont déclenché, à plus de 1 000 kilomètres de distance, des gonflements et des éruptions de plusieurs dizaines de volcans de boue ainsi que des « séismes lents » sur plusieurs failles : ces glissements ont lieu trop lentement pour émettre eux-mêmes des ondes sismiques.
Sous l’effet du mouvement continu des plaques tectoniques à la surface de la Terre, des forces s’accumulent dans la croûte terrestre. Au sud-est de la Turquie, les plaques arabique et anatolienne se déplacent l’une par rapport à l’autre et la faille est-anatolienne résiste à ce mouvement. La majeure partie du temps, les failles sismiques sont « bloquées », et rien ne se passe… jusqu’au moment où ça lâche.
En février 2023, ce système de failles a brutalement glissé de plusieurs mètres, deux fois en quelques heures. Ce mouvement brutal est comparable au relâchement soudain d’un élastique : lorsqu’il se détend d’un coup, il rebondit dans tous les sens. Dans le cas d’un séisme, des ondes sismiques sont émises dans toutes les directions de l’espace. Typiquement, les secousses sont très fortes et peuvent détruire des bâtiments à proximité de l’épicentre, mais, à 1 000 kilomètres de distance, ces mouvements sont atténués et ne sont plus ressentis par les humains, même si les sismomètres, très sensibles, enregistrent des vibrations.
En 2023, au moment où les ondes atténuées du séisme turc ont traversé le bassin de Kura en Azerbaïdjan, à 1 000 kilomètres de l’épicentre, quelque six minutes après le séisme, nous avons détecté, sur des images satellites, du mouvement sur sept failles tectoniques. Celles-ci ont glissé silencieusement de plusieurs centimètres, sans émettre d’ondes sismiques.
En même temps, une cinquantaine de volcans de boue sont entrés en éruption en crachant de la boue, tandis que d’autres se déformaient.
Nous avons même mesuré le soulèvement du sol de quelques centimètres au-dessus d’un gisement d’hydrocarbures situé à l’aplomb d’une des failles activées.
Jamais une telle accumulation de phénomènes déclenchés par un même séisme n’avait été observée.
La concomitance des éruptions de volcans de boue et des glissements silencieux sur les failles met en évidence le rôle des fluides dans ces déclenchements.
Plus précisément, observer ces volcans de boue s’activer et le champ d’hydrocarbures gonfler indique que la pression des fluides dans les roches du sous-sol a augmenté au passage des ondes sismiques. Cet effet est connu, notamment le phénomène appelé « liquéfaction » qui se produit sur les sols saturés en eau, perdant leur stabilité à la suite d’un séisme.
L’augmentation de la pression des fluides est aussi connue pour fragiliser les failles et les conduire à relâcher de la contrainte en glissant. De plus, il est bien établi qu’une pression de fluide élevée favorise un glissement lent sur les failles, qui ne génère pas d’ondes sismiques. Les ondes sismiques, en passant, ont donc fait grimper la pression des fluides dans la croûte, occasionnant à la fois les éruptions de boue et les glissements asismiques sur ces failles.
Cette étude constitue la première observation directe de l’influence des fluides présents dans la croûte sur le déclenchement à distance des séismes lents.
Depuis longtemps, les géophysiciens soupçonnaient que les fluides jouent un rôle dans une observation intrigante : comment de simples ondes sismiques, qui génèrent de faibles contraintes de quelques kilopascals, peuvent-elles déclencher des glissements sur des failles pourtant capables de résister à des contraintes bien supérieures, de quelques mégapascals ?
Nos observations apportent la réponse. L’augmentation de pression de fluide peut permettre d’atteindre l’échelle des mégapascals et d’activer les failles présentes dans la croûte saturée en fluides.
Il reste maintenant à généraliser ces observations. Toutes les failles sont-elles baignées de fluides circulant dans les roches de la croûte ? Si oui, quelle est la nature de ces fluides ? Nous savons qu’il y a de l’eau dans la croûte, et particulièrement dans les sédiments de la région du bassin de Kura, mais nos observations montrent que les hydrocarbures peuvent aussi être impliqués.
Des analyses géochimiques suggèrent même que des fluides, comme de l’eau chargée en dioxyde de carbone, pourraient remonter du manteau. La question reste ouverte…
Le projet Évolution spatiale et temporelle de la déformation sur et hors faille – SaTellite est soutenu par l’Agence nationale de la recherche (ANR) qui finance en France la recherche sur projets. L’ANR a pour mission de soutenir et de promouvoir le développement de recherches fondamentales et finalisées dans toutes les disciplines, et de renforcer le dialogue entre science et société. Pour en savoir plus, consultez le site de l’ANR.
Jusqu'à fin 2024, Alessia Maggi a été conseillère en matière de formations universitaires à l'Université Franco-Azerbaijanaise, un partenariat entre l'université de Strasbourg et la Azerbaijan State Oil and Industry University (ASOIU).
Romain Jolivet a été membre de l'Institut Universitaire de France entre 2019 et 2024. Il a reçu des financements de l'ANR ainsi que l'ERC.
Cécile Doubre et Luis Rivera ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur poste universitaire.
03.09.2025 à 16:58
Marion Bost, Directrice technique Géotechnique, PhD, HDR, experte internationale en mécanique des roches, Cerema
Laurent Dubois, Ingénieur géologue-géotechnicien, Cerema
Marie-Aurélie Chanut, Chercheure en risque rocheux, Cerema
En montagne, les éboulements sont fréquents. Leurs conséquences peuvent être dramatiques au dessus des routes et des installations humaines, de plus en plus présentes en montagne. Comment nous protéger ?
Le 20 août dernier, un éboulement rocheux dans la descente des Egratz vers Chamonix (Haute-Savoie) sur la RN 205 a causé un accident mortel. Début février 2025, à une semaine des vacances d’hiver, la route nationale 90 était bouchée à l’entrée de la vallée de la Tarentaise (Savoie). Le trafic ferroviaire entre Paris et Milan a été interrompu pendant plus d’un an et demi… à cause d’un éboulement rocheux fin août 2023. Ces évènements nous rappellent que ces phénomènes naturels constituent encore aujourd’hui une forte menace dans les territoires de montagne.
Entre 1900 et 2021, sur le territoire national, on recense 18 éboulements rocheux qui ont fait des victimes. Mais une route coupée peut aussi conduire à des effets que l’on imagine moins spontanément : une rupture dans l’accès aux soins, dans le transport transfrontalier de personnes et de marchandises et aussi, bien sûr, l’accès aux stations de ski – secteur qui représente plus de 10 milliards d’euros de chiffre d’affaires annuel en France.
Pour protéger les personnes et les biens, des structures de protection « passives » peuvent être mises en œuvre, soit en interceptant les blocs rocheux lors de leur propagation dans la pente, soit en les déviant. Les merlons comme les filets métalliques peuvent servir aux deux actions selon leur conception.
Ainsi les écrans souples de filets sont constitués de nappes de filets déformables maintenues par des poteaux et par des câbles, qui sont fixés au sol par des ancrages. Des systèmes de dissipation d’énergie (appelés « freins ») sont disposés sur les câbles ou au niveau des ancrages pour limiter les efforts dans la structure et dissiper l’énergie cinétique d’impact du bloc.
Les écrans de filets peuvent arrêter des blocs avec une énergie d’impact jusqu’à 12 000 kilojoules, ce qui correspond à des blocs de 15 mètres cubes, soit l’énergie d’un bloc du volume d’un SUV circulant à la vitesse de 90 kilomètres par heure.
Les merlons sont des structures massives en élévation par rapport au terrain naturel, constituées de matériaux de remblai, comme le sol en place, renforcés ou non par différentes technologies (géosynthétique, armature métallique, pneu…).
Selon leur conception, la capacité d’arrêt des merlons peut être supérieure à celle des écrans de filets métalliques, et atteindre plusieurs dizaines de milliers de kilojoules, soit plus de trois à quatre blocs de quinze mètres cubes à 90 kilomètres par heure.
La solution des écrans souples de filets est cependant souvent privilégiée en zone de montagne, car elle nécessite peu d’emprise au sol et peut être installée en forte pente grâce à des hélicoptères.
Comme tout ouvrage du génie civil, un écran de filets doit être dimensionné. Pour cela, il faut recenser sur le terrain les blocs potentiellement instables et évaluer s’ils sont susceptibles de s’ébouler. Dans un second temps, nous réalisons des simulations numériques pour estimer l’énergie et la hauteur de passage de chaque bloc, afin de définir l’endroit dans la pente où positionner l’ouvrage de protection et avec quelles caractéristiques. Ensuite, un produit existant sur le marché permettant de remplir ces conditions est choisi.
Notons que la capacité d’arrêt de certains produits marqués CE a été testée par des essais d’impact réalisés en grandeur réelle. De plus, après l’installation des structures sur le terrain, des inspections détaillées et un entretien des ouvrages permettent d’assurer le niveau de service attendu pendant la durée de vie de chaque ouvrage, soit au minimum vingt-cinq ans en atmosphère peu corrosive.
La conception d’un écran de filets de protection contre les chutes de blocs est cependant complexe. Elle doit tenir compte d’un comportement dynamique et non linéaire de l’ouvrage sous l’impact d’un bloc. Ce type d’ouvrage favorise de grands déplacements au sein de la nappe de filets, qui limitent la concentration des efforts. Certains composants, essentiellement les freins, se déforment alors de façon irréversible.
Ainsi depuis les années 1970, la communauté scientifique et technique se mobilise pour améliorer la compréhension du comportement de ces ouvrages sous sollicitation dynamique.
Malgré ces efforts pour améliorer la fiabilité des écrans de filets, ces ouvrages peuvent encore être mis en défaut aujourd’hui.
Par exemple, un éboulement exceptionnel peut dépasser la sollicitation prise en compte lors du dimensionnement. Ce fut le cas lors de l’éboulement déjà cité sur la RN90, pendant lequel trois blocs de plus de 10 mètres cubes ont percuté à grande vitesse, estimée à 28 mètres par seconde, et presque simultanément, un écran de filets neuf de capacité d’arrêt maximale égale à 8 000 kilojoules (c’est-à-dire pouvant arrêter un seul bloc de 8 mètres cubes chutant à plus de 100 kilomètres par heure).
L’impact d’un bloc rocheux de forme tranchante présentant une vitesse de rotation significative ou encore un impact au niveau des câbles de haubanage ou des extrémités de l’ouvrage peuvent être également plus sévères que l’impact dans les conditions des essais en vraie grandeur de certification du produit.
Enfin, des erreurs de montage ou encore le vieillissement de certaines pièces métalliques par corrosion peuvent avoir une incidence sur la capacité d’arrêt de l’ouvrage tout au long de sa durée de vie.
Les enjeux (bâtiments, infrastructures de transports…) situés dans les fonds de vallée des régions montagneuses sont de plus en plus vulnérables. En effet, les dernières décennies ont vu l’augmentation du trafic et de la pression foncière, en lien notamment avec l’essor du tourisme de montagne. En conséquence, les besoins en ouvrages de protection performants et fiables ne font qu’augmenter.
Des stratégies territoriales de protection doivent donc être mises en place. Mais les coûts élevés de mise en œuvre et d’entretien obligent à définir et à prioriser les actions de sécurisation vis-à-vis du risque rocheux.
Marion Bost a reçu des financements de la Direction Générale de la Prévention des Risques du Ministère de la Transition écologique, de la Biodiversité, de la Forêt, de la Mer et de la Pêche.
Laurent Dubois travaille avec des entreprises de travaux construisant des merlons ou des écrans de filets sur les chantiers et dans le cadre de groupes de travail méthodologiques ou de normalisation.
Marie-Aurélie Chanut a reçu des financements de IREX.
03.09.2025 à 12:38
Antoine Prevet, Directeur exécutif Chaire etilab, Chercheur en économie, Mines Paris - PSL
Les entreprises dépensent en publicité des montants qui paraissent délirants. Pour comprendre leur raisonnement, petit passage par la théorie des jeux.
–
En 2024, les dépenses publicitaires mondiales sont estimées à plus de 1 000 milliards de dollars — soit l’équivalent d’un tiers du PIB français. En moyenne, les entreprises consacrent près de 10 % de leur chiffre d’affaires au marketing. Dans certains secteurs, comme les start-up ou les SaaS (Software as a Service), ce chiffre peut même grimper jusqu’à 20 %.
Pourquoi une telle frénésie publicitaire ? La réponse immédiate semble évidente : la publicité attire des clients. Mais cette explication est incomplète. En réalité, les entreprises investissent massivement dans la publicité… à cause de leurs concurrents.
En effet, les dépenses publicitaires relèvent d’une situation d’interdépendance : les décisions d’une entreprise affectent non seulement ses propres ventes, mais aussi celles de ses concurrents. Ce type de relation est précisément ce que la théorie des jeux — un champ des mathématiques formalisé au XXe siècle notamment par John von Neumann, Oskar Morgenstern et John Nash — permet d’analyser.
La théorie des jeux étudie les situations où des agents rationnels, appelés des « joueurs » interagissent selon des règles précises, avec des choix stratégiques et des résultats qui dépendent des décisions de chacun.
À lire aussi : L’entrepreneur est-il un joueur de poker ?
Imaginons deux entreprises concurrentes, A et B. Chacune gagne 10 millions d’euros en l’absence de publicité. Chacune peut choisir d’investir ou non dans une publicité qui coûte 2 millions d’euros. Voici les conséquences possibles :
Si les deux investissent, elles ne gagnent que 8 millions chacune (10 — 2).
Si une seule investit, elle capture 5 millions d’euros à l’autre entreprise, qui, elle, n’a pas fait de publicité : elle gagne donc 13 millions (10 — 2 + 5), tandis que l’autre ne gagne que 5 millions (10 — 5).
Cet exemple constitue bien entendu une simplification schématique. Il repose notamment sur l’hypothèse que les entreprises ne peuvent pas conquérir de nouveaux clients par la publicité, ce qui est évidemment inexact. Cet exemple vise uniquement à exposer les conditions nécessaires à la mise en place du point d’intérêt du jeu.
Le choix collectivement optimal serait de ne pas investir du tout : chaque entreprise gagnerait alors 10 millions. Pourtant, ce scénario ne se réalise jamais. C’est le célèbre « dilemme du prisonnier » : une tension entre l’intérêt individuel et l’intérêt collectif.
Quelle que soit la décision du concurrent, chaque entreprise a intérêt à investir dans la publicité. Si B investit, A gagne plus en investissant aussi (8 contre 5). Si B n’investit pas, A gagne encore plus en investissant (13 contre 10) : on dit que l’investissement publicitaire est une « stratégie dominante », c’est-à-dire la meilleure stratégie, quelle que soit la décision du partenaire de jeu.
Ce raisonnement est symétrique pour B. On aboutit ainsi à un équilibre dans lequel les deux entreprises investissent… pour un résultat inférieur à celui d’une coopération.
Il est important de noter que dans ce jeu, la publicité n’a, par hypothèse, pas de valeur intrinsèque. Sa valeur est relative : elle n’existe que par comparaison avec la stratégie du concurrent. Ce mécanisme explique pourquoi les montants investis en publicité peuvent sembler absurdes au premier abord, tout en étant en réalité une décision parfaitement rationnelle — et même optimale, dans un contexte concurrentiel ; même si la publicité ne permet pas d’acquérir de nouveaux clients.
Dans un cadre statique, sans intervention extérieure, la réponse est non. Même en autorisant les entreprises à se coordonner, chacune aurait trop à gagner en trichant… et l’équilibre coopératif serait donc instable. Par ailleurs, ces coordinations sont souvent illégales, les autorités de la concurrence interdisent, sauf exception, toute collusion entre concurrents.
Trois solutions sont néanmoins envisageables :
Interdire la publicité. Une solution radicale serait d’interdire toute publicité. Cela mettrait fin au dilemme… mais au prix de priver les consommateurs d’une information utile pour leurs choix. La publicité joue en effet un rôle d’information et de différenciation.
Encadrer légalement les engagements. Si les entreprises pouvaient légalement s’engager à limiter leurs dépenses publicitaires — et si un tiers (juge, autorité, etc.) pouvait faire respecter ces engagements — alors l’équilibre coopératif deviendrait atteignable. Autrement dit, les entreprises pourraient s’engager de manière crédible à ne pas investir dans la publicité. En cas de déviation, elles seraient sanctionnées par la loi. C’est l’intervention d’un tiers — ici, l’autorité publique — qui rend possible la contractualisation.
À lire aussi : Est-il temps de réglementer le ciblage publicitaire et les entreprises qui en profitent le plus ?
Antoine Prevet a reçu des financements des mècenes de l'etilab.
03.09.2025 à 12:38
Olivier Minazzoli, Astrophysicien, Université Côte d’Azur
La relativité générale d’Einstein est souvent présentée comme une construction théorique guidée par des principes fondamentaux, plus que par l’observation. Le dernier de ces principes, connu sous le nom de « principe de Mach », est aujourd’hui largement tombé dans l’oubli. Pourtant, c’est lui qui a conduit Albert Einstein à introduire dans ses équations la constante cosmologique, aujourd’hui interprétée comme l’énergie sombre, à l’origine de l’accélération de l’expansion de l’Univers.
Le mouvement est-il relatif ou absolu ? Si la question a longtemps animé les débats philosophiques depuis l’Antiquité, c’est surtout à partir du XVIe siècle, avec l’édification des lois de la gravitation, qu’elle a quitté la seule arène des philosophes pour entrer dans celle des astronomes et des physiciens.
Pour Isaac Newton, aucun mouvement ne peut être conçu sans la notion d’un espace rigide et absolu, servant de référence pour définir la trajectoire des objets. À l’opposé, pour Christian Huygens, Gottfried Wilhelm Leibniz et, plus tard, Ernst Mach, ce sont les autres objets qui servent de repères. Dès lors, aucun mouvement ne devrait pouvoir être défini en l’absence totale de matière : ôtez toute référence matérielle, et il devient impossible de dire si un objet est en mouvement ou au repos.
Influencé par Mach, Einstein érigea ce point de vue en principe fondateur de sa théorie de la relativité générale. Il en mentionna l’idée pour la première fois en 1912, puis la qualifia tour à tour d’« hypothèse », de « postulat », avant de finalement l’appeler « principe de Mach » en 1918, en hommage au physicien et philosophe autrichien qui avait nourri sa réflexion.
À première vue, la relativité générale semble en accord avec ce principe, dans la mesure où l’espace n’y est plus la structure rigide et absolue de Newton, mais un objet dynamique influencé par la matière. En effet, dans la théorie d’Einstein, la gravitation n’est pas une force à proprement parler, mais la manifestation de la courbure de l’espace et du temps, induite par la matière : toute source d’énergie ou de masse déforme l’espace-temps, et c’est cette courbure qui gouverne le mouvement des corps.
Néanmoins, Einstein avait conscience que, pour satisfaire pleinement ce principe, il ne suffisait pas que la matière influence la géométrie de l’espace-temps : il fallait qu’elle la détermine entièrement. C’est ce qui le conduisit à modifier ses équations en y introduisant la constante cosmologique – que l’on interprète aujourd’hui comme l’énergie sombre, responsable de l’accélération de l’expansion de l’Univers.
À lire aussi : Pourquoi l’expansion de l’Univers accélère ? Les nouveaux résultats de la collaboration DESI apportent leur pierre à l’édifice
Deux problèmes semblaient se poser à Einstein dans la version initiale de sa théorie de la relativité générale, sans cette constante.
Le premier est que ses équations admettent des solutions du vide : elles permettent, en théorie, l’existence d’un espace-temps même en l’absence complète de matière. Cela contredisait directement son « principe de Mach ». Il écrira d’ailleurs en 1918 :
« À mon avis, la théorie de la relativité générale n’est satisfaisante que si elle démontre que les qualités physiques de l’espace sont entièrement déterminées par la matière seule. Par conséquent, aucun espace-temps ne peut exister sans la matière qui le génère. » Albert Einstein, Actes de l’Académie royale des sciences de Prusse, 1918.
Le second problème concernait les conditions aux limites de l’espace-temps, c’est-à-dire, de la structure supposée de l’espace-temps à l’infini. Il semblait nécessaire de les introduire, mais elles étaient soit incompatibles avec son principe, soit conduisaient, pensait-il, à prédire un mouvement des astres lointains qui n’était pas observé. C’est peut-être d’une réinterprétation de cette difficulté qu’est née l’idée, aujourd’hui répandue, selon laquelle Einstein aurait introduit la constante cosmologique pour conformer sa théorie à une vision préconçue d’un Univers statique et donc éternel.
Comme il l’explique dans l’article où il introduit la constante cosmologique, celle-ci permet d’éviter le recours à des conditions aux limites problématiques, en autorisant un Univers fini mais sans bord.
Pour se représenter ce qu’est un Univers « fini mais sans bord », on peut penser à la surface d’une sphère. Elle ne possède pas de frontière — on peut y circuler sans jamais atteindre de bord – et pourtant, sa surface est finie (égale à quatre fois π fois le rayon au carré).
À lire aussi : Où est le centre de l’Univers ?
C’est ainsi qu’Einstein a inventé le tout premier modèle physique de l’Univers dans son ensemble ! Il s’agit d’un Univers sphérique, en équilibre, avec une répartition uniforme de matière. Si son modèle est celui d’un Univers statique (c’est-à-dire, qui n’évolue pas avec le temps), il est clair que pour Einstein il ne s’agit que d’une première approximation qui permet de résoudre les équations.
Mais nous le savons aujourd’hui : le modèle d’Einstein ne correspond pas à notre Univers. Qui plus est, il est théoriquement insatisfaisant, car instable : tout écart, même minime, à l’approximation homogène qu’il utilise conduit à prédire sa destruction. Or, notre Univers n’est certainement pas exactement homogène !
Ensuite, il est désormais établi – depuis que l’astronome néerlandais Willem de Sitter l’a démontré – que, même avec une constante cosmologique, la relativité générale admet des solutions dans lesquelles l’espace-temps peut, en théorie, exister sans aucune forme de matière.
L’introduction de la constante cosmologique échoue donc à rendre la relativité générale compatible avec le principe de Mach — ce qui était, rappelons-le, l’intention initiale d’Einstein en introduisant la constante cosmologique dans ses équations. C’est vraisemblablement pour cette raison qu’Einstein qualifiera plus tard son introduction de « plus grande erreur de sa vie » (des propos relayés par George Gamow dans son autobiographie).
Ce principe oublié a ainsi poussé Einstein à penser l’Univers dans son ensemble, donnant naissance à la toute première solution mathématique d’un Univers en relativité générale – et donc à la cosmologie moderne. Par un enchaînement ironique de l’histoire scientifique, il l’a amené à introduire une constante pour une raison qui, en fin de compte, ne fonctionnera pas – mais dont l’adéquation aux observations sera confirmée des décennies plus tard, en 1998, par l’observation de supernovae lointaines. Cette découverte vaudra à Saul Perlmutter, Brian Schmidt et Adam Riess le prix Nobel de physique en 2011, près d’un siècle après l’élaboration de la théorie d’Einstein.
La capacité de l’esprit humain à concevoir des principes abstraits qui peuvent dévoiler la structure du réel interroge. Comment une idée a priori, née sans données empiriques, peut-elle conduire à une loi objective du monde ?
Cela s’explique néanmoins simplement : les scientifiques formulent des hypothèses, des principes et des modèles — certains échouent et tombent dans l’oubli, d’autres se révèlent féconds. C’est ce que suggère la belle image du penseur-poète Novalis :
« Les hypothèses sont des filets : seuls ceux qui les jettent attrapent quelque chose ». Novalis, The Disciples at Sais and Other Fragments, Thoughts on Philosophy, Love and Religion, page 68, 1802.
C’est en jetant le sien qu’Einstein a donné naissance à la cosmologie moderne.
Pour aller plus loin : la traduction française de l’article « Les formulations d’Einstein du principe de Mach », écrit par Carl Hoefer et traduit par l’auteur du présent article, est disponible ici.
Olivier Minazzoli ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.