18.03.2026 à 11:32
Pêche récréative et pollution plastique : créer des leurres souples qui disparaissent vraiment
Texte intégral (2415 mots)

Chaque année, des millions de pêcheurs perdent (sans le vouloir) une partie de leur matériel dans l’eau. Parmi les objets les plus souvent « abandonnés » : les leurres souples, petits bouts de plastique très efficaces… mais très persistants.
Mon travail de thèse, mené en collaboration avec l’entreprise FiiiSH, a consisté à développer des formulations à base de PHA capables de réduire la persistance des leurres souples dans l’environnement. La solution la plus prometteuse identifiée à ce jour n’est pas encore assez souple pour un usage pleinement satisfaisant, mais elle montre déjà de forts signes de biodégradation et de non-toxicité. Il reste donc du travail pour atteindre le bon compromis mécanique, mais la piste est sérieuse.
Une pratique massive et des pertes invisibles
La pêche de loisir est un loisir très répandu en France, en mer comme en eau douce. Les estimations institutionnelles évoquent environ 3,8 millions de pratiquants en mer en 2024, et plusieurs millions de cartes de pêche sont délivrées chaque année en eau douce. À cette échelle, même si la grande majorité des pêcheurs adopte de bonnes pratiques, une part de pertes reste inévitable : accrochage sur roches, branches, épaves, casse de ligne, courant, houle… À force de répétitions, un « petit » objet perdu involontairement devient un flux collectif.
Un leurre souple doit « vivre » dans l’eau. Sa nage dépend de sa forme, mais aussi de sa viscoélasticité : trop rigide, il nage mal ; trop mou, il se déchire ; instable, il durcit ou devient poisseux avec le temps. En bref, le matériau doit être à la fois flexible, résistant, stable au stockage et transformable industriellement. C’est un cahier des charges très strict et complexe pour un matériau.
La pollution liée à la pêche est multiple : emballages, fils, plombs, mais aussi fragments de leurres. Un leurre souple ne pèse que quelques grammes : pris isolément, l’impact paraît négligeable. Mais dans des zones très fréquentées (digues, estuaires, embouchures, postes en rivière…), les pertes se concentrent et s’additionnent. On estime qu’un pêcheur perd en moyenne 10 leurres par an, pour environ 15 g par leurre, ce qui donne un ordre de grandeur de cette pollution plastique. Ces chiffres restent toutefois à prendre avec précaution, car ils sont difficiles à mesurer précisément. Avec le temps, les plastiques conventionnels peuvent s’abîmer sous l’effet des UV, de l’abrasion et des contraintes mécaniques, et générer des fragments plus petits : les microplastiques. Dans certains cas, des composés peuvent aussi migrer depuis l’objet en plastique vers l’eau. L’enjeu n’est donc pas seulement esthétique : il touche à la persistance des débris et à leur interaction avec les écosystèmes.
Les PHA : des plastiques produits par des bactéries
Les polyhydroxyalcanoates (PHA) sont une famille de polyesters que certaines bactéries fabriquent naturellement comme réserve de carbone et d’énergie. Industriellement, on retrouve une logique de fermentation : on nourrit des microorganismes avec une source de carbone (par exemple, sucres, huiles), on pilote les conditions pour favoriser l’accumulation de PHA dans les cellules, puis on récupère la biomasse et on extrait/purifie le polymère. On obtient alors une « résine » utilisable en plasturgie, sous forme de granulés. Les PHA sont donc bien des plastiques à part entière. En revanche, dans leur état initial, leurs propriétés sont souvent trop rigides pour des applications comme les leurres souples de pêche, ce qui impose d’ajouter des additifs, notamment des plastifiants, afin d’assouplir la matière.
L’intérêt des PHA est double. D’une part, ils peuvent être biosourcés (selon le procédé et les substrats). D’autre part, leur structure de polyester est favorable à la biodégradation dans certains milieux. Mais ce « peut être biodégradable » est important : tout dépend des conditions et de la formulation finale.
Un plastique biodégradable ne disparaît pas comme un comprimé effervescent. Il ne fond pas au contact de l’eau. La biodégradation est un processus biologique : des microorganismes, via des enzymes, transforment progressivement le matériau en produits simples (CO2, eau, sels minéraux et biomasse en conditions aérobies).
La clé, c’est la conversion finale : un matériau qui ne fait que se fragmenter plus vite peut produire des microplastiques sans réellement être biodégradé. Autre point essentiel : « biodégradable » n’est pas synonyme de « biosourcé ». Un matériau peut être biosourcé sans être biodégradable, et l’inverse. Pour éviter le greenwashing, il faut toujours préciser le milieu (sol, compost, eau douce, mer), la méthode de mesure et l’ordre de grandeur du temps de l’essai dans lequel l’échantillon se dégrade.
Comment transformer un PHA en leurre ?
Le défi est d’obtenir une matière suffisamment souple. Beaucoup de PHA sont naturellement plutôt rigides. Pour approcher la sensation d’un leurre conventionnel, on peut jouer sur la chimie du copolymère, mais aussi sur la formulation : plastifiants compatibles, mélanges, ou architectures internes qui stabilisent la souplesse.
C’est ici que mon travail de recherche s’inscrit, dans le cadre d’une collaboration avec l’entreprise FiiiSH : développer des formulations PHA adaptées à la pêche au leurre souple, en intégrant dès le départ les contraintes industrielles (mise en forme, reproductibilité, stabilité au stockage) et les exigences environnementales. Aujourd’hui, ces travaux ont déjà permis d’identifier plusieurs formulations prometteuses et de les évaluer à l’échelle laboratoire à travers des essais de caractérisation thermique, mécanique et rhéologique (la rhéologie est l’étude de la déformation et de l’écoulement de la matière sous l’effet d’une contrainte appliquée). L’enjeu est désormais de confirmer leur robustesse, leur stabilité dans le temps et leur pertinence pour un usage réaliste en leurre souple.
Même avec un PHA prometteur, tout se joue souvent dans sa plastification. Obtenir un matériau souple ne suffit pas : il faut une souplesse stable et une bonne tenue mécanique. Or la compatibilité entre un PHA et un plastifiant est délicate : un plastifiant non miscible peut provoquer des hétérogénéités qui induisent une déchirure plus facile et une tenue mécanique qui chute. À l’inverse, un plastifiant trop compatible avec la résine peut « trop bien » s’y intégrer : il assouplit tellement le polymère qu’il relâche une partie du réseau d’enchevêtrements, et on obtient alors un matériau certes mou, mais très sensible à la déchirure. Pour se représenter la structure d’un plastique, on peut imaginer un plat de spaghettis bien emmêlés : les « nœuds » formés par les fils de pâte correspondent aux enchevêtrements, ces points d’accroche qui donnent au matériau sa cohésion.
Un petit objet mais une grande preuve à apporter
Rendre un leurre souple biodégradable ne consiste pas à « changer de plastique » dans une fiche technique. C’est un compromis délicat entre performance, stabilité et preuve environnementale. Les PHA offrent une piste crédible, à condition de rester rigoureux sur les mots (« biodégradable » n’est ni « soluble » ni « effervescent ») et sur les mesures. La suite se joue autant en laboratoire qu’en industrie : formulation, mise à l’échelle, transparence sur les compositions et validation dans des scénarios réalistes.
Si cette transition réussit sur un objet aussi exigeant qu’un leurre souple, elle pourrait inspirer d’autres produits exposés à la nature, où l’on ne peut pas éliminer totalement les pertes mais où l’on peut réduire, concrètement, la persistance.
À ce stade, un premier prototype de leurre a déjà vu le jour. Il reste désormais à l’éprouver en conditions réelles de pêche pour juger de sa performance sur le terrain. La solution n’est pas encore totalement aboutie, notamment parce qu’elle doit encore gagner en souplesse, mais elle n’est plus seulement une idée de laboratoire : elle commence déjà à prendre la forme d’un leurre.
Erwan Vasseur a reçu des financements de l'entreprise Fiiish et IRDL (Institut de Recherche Dupuy De Lôme).
18.03.2026 à 09:58
La théorie des cordes a-t-elle été découverte par accident ?
Texte intégral (1709 mots)

Une plongée dans l’histoire de la théorie des cordes, ou quand une solution suggérée pour un problème donné éclaira en réalité un domaine bien plus vaste.
La physique théorique a connu trois grandes révolutions au tournant du XXᵉ siècle : la mécanique quantique et les deux théories de la relativité, restreinte et généralisée. La mécanique quantique décrit l’infiniment petit. La relativité restreinte et sa célèbre formule E = mc² décrivent la physique des objets se déplaçant aux vitesses proches de la lumière. La relativité générale décrit la force de gravité comme provenant de la courbure de l’espace-temps.
Prises ensemble, elles ont bouleversé notre compréhension de l’espace-temps, de la matière, et des interactions fondamentales. Les implications de ce bouleversement ne sont encore aujourd’hui pas totalement comprises.
En effet, on ne sait pas utiliser ce cadre pour décrire certaines situations extrêmes, comme l’espace-temps à l’intérieur des trous noirs, ou au moment du Big Bang – deux situations où les effets quantiques et gravitationnels sont simultanément importants. C’est dans cet entrelacs que réside le mystère central de la « gravité quantique », que la physique moderne cherche à élucider, et pour lequel la théorie des cordes propose un cadre qui unifie relativité générale et physique quantique.
Du point de vue de l’histoire des sciences, un élément remarquable de cette théorie sophistiquée est qu’elle a, en fait, été découverte par hasard, au sein d’un domaine bien différent de la gravité quantique : celui de la physique des particules subatomiques !
Gabriele Veneziano et les particules subatomiques
Genève, fin des années 1960. Gabriele Veneziano a 26 ans, il vient de finir son doctorat de physique nucléaire en Israël et se trouve en visite au CERN. À l’époque, les physiciens théoriciens du monde entier se heurtaient à un problème coriace : la méthode qui avait permis de comprendre les interactions entre électrons et lumière (qu’on appelle aujourd’hui la théorie quantique des champs) semblait ne pas fonctionner pour décrire les interactions entre les autres particules subatomiques.
En particulier, on ne comprenait pas l’interaction nucléaire forte, qui régit les interactions entre les briques élémentaires de la matière : protons, neutrons, etc. Celles-ci forment un véritable zoo de particules qu’on nomme les hadrons.
Une nouvelle approche est alors explorée : le « bootstrap ». Ne pouvant trouver la bonne théorie pour décrire les hadrons individuellement, les physiciens se posèrent la question dans l’autre sens : quelles sont les propriétés générales que doit satisfaire n’importe quelle théorie ? La réponse : au minimum, elle doit satisfaire simultanément aux exigences de la mécanique quantique et de la relativité restreinte.
Cette approche par exemple permet de montrer qu’une interaction fondamentale ne peut excéder une certaine intensité sans briser les lois de la mécanique quantique (un peu comme il existe une vitesse maximale en relativité). En clair : si l’on mélange les lois de la mécanique quantique et celles de la relativité restreinte, tout n’est pas permis, et les lois physiques possibles deviennent fortement contraintes.
C’est dans ce cadre que Gabriele Veneziano proposa en 1968 une fonction mathématique très particulière – la fonction bêta d’Euler – pour modéliser les hadrons et leurs interactions. À ce moment, on ne connaissait pas la théorie qui permettrait d’expliquer d’où sort cette formule : on savait seulement qu’elle satisfaisait, pour la première fois, toutes les propriétés mathématiques recherchées. Son papier eut un succès immédiat, car la formule répondait à de nombreuses questions en même temps.
Sérendipité et théorie des cordes
La sérendipité est souvent idéalisée comme un heureux hasard. Mais, en science, elle prend une forme plus subtile : elle naît de l’interaction entre un contexte de recherche fertile et une capacité à reconnaître qu’une solution trouvée pour un problème donné éclaire en réalité un domaine bien plus vaste.
Le cas de la formule de Veneziano est emblématique. Quelques années après l’article de Veneziano, les physiciens Leonard Susskind, Yoichiro Nambu et Holger Bech Nielsen comprirent (indépendamment) que cette formule décrivait en fait non pas des hadrons mais des « cordes quantiques », c’est-à-dire des objets microscopiques filiformes, qui vibrent à la manière de minuscules cordes de violon.
Et c’est là que ça devient vraiment intéressant.
Les cordes et le… graviton ?
Depuis les années 1970, à mesure que l’on explore cette interprétation, d’autres indices troublants apparaissent. La théorie semble invariablement contenir une particule particulière : le graviton, censé véhiculer la force de gravitation quantique. De plus, elle exige l’existence de dimensions d’espace supplémentaires – un prix qui semble alors trop élevé pour une théorie censée décrire les hadrons !
Et surtout, comment une théorie inventée pour décrire les interactions de la matière à l’intérieur du noyau atomique pouvait-elle contenir une théorie qui décrit tout autre chose – la gravité quantique ?
Comme, à la même époque (autour de 1973), la théorie quantique des champs finit par expliquer les interactions fortes grâce à la découverte de la chromodynamique quantique, et notamment de la liberté asymptotique, le modèle de Veneziano est laissé de côté dans ce contexte.
Mais quelques physiciens visionnaires, comme Joël Scherk et John Schwarz, pressentirent que cette théorie, à cause de son mystérieux graviton, possédait un potentiel unique pour s’attaquer à la gravité quantique.
Dix ans plus tard, en 1984, Michael Green et John Schwarz confirmèrent cette intuition et démontrèrent que la théorie des cordes est bel et bien une véritable théorie de gravité quantique.
On voit donc que la découverte de la théorie des cordes est l’illustration même de la sérendipité : une théorie née d’un certain questionnement éclaire le cœur d’un aspect tout autre de la science.
Gabriele Veneziano lui aussi contribuera notablement au développement de la théorie des cordes, notamment en étudiant les liens entre celle-ci et la structure microscopique de l’espace-temps.
La théorie de cordes aujourd’hui
Aujourd’hui, la théorie des cordes est bien plus qu’une simple théorie candidate de la gravité quantique. Aux côtés de la théorie quantique des champs, elle constitue un cadre conceptuel et mathématique d’une richesse inégalée, capable d’unifier des idées venues de la physique des particules, de la relativité, de la théorie des champs, du chaos et des mathématiques pures et produire des avancées conceptuelles et techniques dans ces domaines.
Par exemple, le modèle de Veneziano et ses généralisations, dont on sait aujourd’hui qu’ils proviennent de la théorie des cordes, exhibent des propriétés mathématiques remarquables liées à la fonction zêta de Riemann. Ces propriétés s’expliquent physiquement par la façon dont deux cordes ouvertes s’attachent pour former une corde fermée.
Plus encore, le programme du « bootstrap », qui avait donné naissance à la théorie des cordes, connaît aujourd’hui une nouvelle vie : grâce à la puissance des ordinateurs modernes et à des idées venues de la théorie des cordes et de la théorie des champs, les physiciens appliquent ces idées pour décrire des phénomènes très divers, allant des transitions de phase à la physique hadronique et même à la gravité quantique.
Mais il reste un mystère fondamental : pourquoi cette théorie, née « par hasard », semble-t-elle si naturellement adaptée à décrire la gravité quantique ? Était-ce vraiment un hasard… ou un indice que la seule façon d’unifier les trois théories qui forment le socle de la physique du XXᵉ siècle est la théorie des cordes ? On pourrait bien avoir une réponse à cette question mathématique dans les années qui viennent.
Piotr Tourkine a reçu des financements de l'Agence Nationale de la Recherche (ANR-22-CE31-0017).
17.03.2026 à 16:33
Yellowstone, merveille géologique : aux frontières du feu, de l’eau et du vivant
Texte intégral (2941 mots)
Le parc national de Yellowstone, aux États-Unis, présente l’un des spectacles géologiques les plus fascinants au monde : geysers en éruption, bassins aux couleurs intenses, terrasses de travertin sculptées par des eaux thermales. Derrière ces paysages se dissimule l’un des systèmes volcaniques les plus actifs de la planète, dont la chaleur souterraine façonne chaque fontaine, chaque couleur, chaque dépôt minéral, et rappelle que la Terre est une planète vivante.
Le parc national de Yellowstone est le plus ancien parc national du monde et est situé dans l’ouest des États-Unis, entre le Wyoming, le Montana et l’Idaho. Inscrit sur la liste du patrimoine mondial de l’Unesco, il est célèbre pour sa faune et ses paysages, mais surtout pour une activité géothermique exceptionnelle, unique par son intensité et sa diversité.
Le parc se situe sur une large caldeira volcanique (c’est-à-dire une vaste dépression circulaire formée par l’effondrement du toit d’une chambre magmatique après une éruption), formée par plusieurs éruptions majeures qui se sont produites il y a 2,1 millions, 1,3 million et environ 640 000 ans. Même en l’absence d’éruptions explosives actuellement, le volcan reste actif : son activité se traduit par une augmentation de température en profondeur et une série de phénomènes hydrothermaux observables en surface.
Une chaudière souterraine toujours en activité
Des réservoirs magmatiques partiellement fondus se situent sous Yellowstone, alimentés par un flux venant du manteau, à grande profondeur. La chaleur émise réchauffe les eaux de pluie et de fonte des neiges qui s’infiltrent dans le sous-sol. Ces eaux peuvent atteindre des températures supérieures à 200 °C tout en restant liquides grâce à la forte pression.
Lorsque les conditions sont réunies, avec un approvisionnement en eau suffisant, des fractures suffisamment étroites et une chaleur stable, l’eau qui devient surchauffée est soudainement expulsée vers la surface : ce phénomène est connu sous le nom de « geyser ». Plus de la moitié des geysers du monde se trouve à Yellowstone, le transformant en un laboratoire naturel pour les géologues.
Le plus célèbre, Old Faithful, entre en éruption toutes les 60 à 90 minutes, projetant une colonne d’eau et de vapeur pouvant dépasser 50 mètres de hauteur. D’autres geysers sont beaucoup moins prévisibles, rappelant que ces systèmes sont fragiles et sensibles à de légères variations de pression ou de circulation de fluides.
Dans des régions géothermiques telles que le Norris Geyser Basin, l’hydrothermalisme n’est pas réparti aléatoirement dans la roche : il est largement guidé par le réseau de fracturation affectant la roche, véritable « route » pour l’eau chaude, qui régule la circulation des fluides et détermine la position des geysers et des sources chaudes. Les études effectuées au niveau du Steamboat Geyser démontrent que même de petites fractures ou de simples pores interconnectés peuvent être suffisants pour expulser rapidement l’eau lors des éruptions.
Le sous-sol ressemble donc moins à un système de conduits bien définis qu’à un milieu complexe, constitué d’un enchevêtrement de fractures et de pores interconnectés et de dimensions variables. Cette organisation contrôle la circulation de l’eau et de la vapeur en profondeur, et conditionne le déclenchement des éruptions hydrothermales, soulignant combien la structuration et la constitution des roches régissent le fonctionnement des systèmes hydrothermaux.
Sources chaudes et travertins : quand la géologie se fait art
Les geysers ne représentent qu’un aspect du spectacle. Les bassins aux couleurs vives sont principalement formés par l’abondance de sources chaudes. Le plus célèbre et plus large à Yellowstone (60 à 90 mètres de large) d’entre eux est Grand Prismatic Spring, il est aussi le plus photographié pour illustrer ces sources chaudes.
À l’inverse de ce que l’on pourrait penser, ces couleurs ne sont pas celles des minéraux, mais celles de micro-organismes extrémophiles. Chaque communauté microbienne, adaptée à une plage de température spécifique, forme autour des bassins de véritables cercles de couleur : les espèces qui prospèrent dans les zones plus froides en périphérie arborent des teintes jaune et orange, tandis que les températures plus élevées au centre favorisent des micro-organismes bleus ou verts. Dans les premiers cas, les couleurs résultent à la fois des pigments caroténoïdes propres aux bactéries, et des oxydes de fer et de manganèse précipités par leur activité métabolique. Ces bactéries et archées doivent ainsi leurs teintes à leurs pigments photosynthétiques (chlorophylles ou caroténoïdes) dont l’expression varie selon les conditions de température et de lumière. Lorsque la température des sources baisse, l’expansion bactérienne s’intensifie.
Des dépôts de travertin peuvent aussi se former à partir de sources abondantes en carbonate de calcium. Le travertin est une roche calcaire poreuse qui se dépose en surface lorsque de l’eau chaude, ayant dissous du CO2 et du carbonate de calcium en profondeur sous l’effet de la pression et de la température, remonte à la surface : en se refroidissant et en se décomprimant, elle libère le CO2 dissout, ce qui provoque la précipitation de calcite.
Cette calcite forme des terrasses et des cascades minérales blanches ou crème, tandis que les oxydes de fer précipités simultanément par l’activité bactérienne leur confèrent leur teinte orange caractéristique ; comme celles de Mammoth Hot Springs, qui se modifient sans cesse en fonction des changements des conditions hydrologiques et de température.
Un volcan sous surveillance : quels dangers ?
Yellowstone est fréquemment décrit comme un « supervolcan », une expression médiatique qui fait référence à des volcans susceptibles de générer des éruptions de très grande ampleur, correspondant à l’émission d’au moins 1 000 km3 de matériaux. Deux des trois grandes éruptions de Yellowstone ont atteint ce seuil, il y a environ 2,1 millions et 640 000 ans. Les chances d’une telle éruption à Yellowstone dans les prochains millénaires sont jugées infimes par les géologues de l’USGS.
Cependant, le parc est le siège d’une activité sismique quasi permanente : chaque année, des milliers de petits séismes témoignent de la circulation des fluides et des ajustements de la croûte. Les scientifiques du service géologique américain, l’USGS, dotés d’un réseau sophistiqué d’instruments, surveillent de près ces signaux pour détecter la plus petite anomalie.
Ainsi, les dangers les plus immédiats à Yellowstone ne relèvent pas d’une éruption dévastatrice, mais plutôt d’explosions hydrothermales locales susceptibles de projeter des roches et des fluides bouillants sur quelques mètres à plusieurs dizaines de mètres autour du point d’émission. Plusieurs incidents illustrent ce risque dans l’histoire récente du parc : une série d’explosions puissantes s’est produite à Excelsior Geyser dans les années 1880–1890, projetant de gros blocs jusqu’à 15 mètres de distance, tandis qu’une explosion notable a eu lieu à Porkchop Geyser en 1989. En juillet 2024, l’explosion à Biscuit Basin a détruit une passerelle touristique, sans faire de blessés alors que l’explosion d’Echinus Geyser il y a quelques jours n’a pas fait de dégâts majeurs.
Par ailleurs, les forêts du parc restent vulnérables aux incendies, dont la fréquence et l’intensité augmentent avec le changement climatique, un facteur de risque distinct de l’activité volcanique, mais tout aussi réel pour les écosystèmes de Yellowstone.
Yellowstone, une leçon de géologie à ciel ouvert
Yellowstone nous rappelle que notre planète est vivante et en constante évolution. Les geysers, les sources thermales et les terrasses minérales qui émerveillent les visiteurs ne sont pas de simples curiosités naturelles : ils sont la manifestation visible de processus profonds, à la frontière entre le manteau terrestre, la croûte, l’eau de surface et même le vivant.
Yellowstone n’est pas une exception : en Islande, l’interaction entre un point chaud et la dorsale médio-atlantique produit des paysages analogues, à l’image du site de Geysir. En Italie, les champs Phlégréens, à l’ouest de Naples, offrent une autre démonstration de la connexion entre volcanisme, fracturation et fluides.
Ces comparaisons montrent que les phénomènes observés à Yellowstone suivent des lois universelles : partout où se rencontrent chaleur, eau et fractures, des phénomènes géologiques se manifestent parfois de façon impressionnante. Devant ces paysages en constante transformation, la géologie ne demeure plus une science abstraite confinée aux laboratoires et aux modélisations. Elle est concrète, perceptible et associée à notre compréhension des mécanismes internes de la Terre.
Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.