LePartisan.info À propos Podcasts Fil web Écologie Blogs REVUES Médias
Souscrire à ce flux
L’expertise universitaire, l’exigence journalistique

▸ Les 50 dernières parutions

18.03.2026 à 18:07

Le réseau portuaire de la Chine se concentre autour des routes les plus risquées de la planète… et ce n’est pas un hasard

Dylan Spencer, Assistant Professor of Criminology, Georgia Southern University

Gohar Petrossian, Professor of Criminal Justice, John Jay College of Criminal Justice

Stephen Pires, Associate Professor of Criminal Justice, Florida International University

Du canal de Panama au détroit de Malacca, les ports liés à des entreprises chinoises se multiplient le long des passages clés du commerce mondial. Et des routes les plus dangereuses…
Texte intégral (2104 mots)

La Chine a pris pied dans plus de 90 ports à travers le monde. Une nouvelle étude montre que ces investissements ne sont pas répartis au hasard : ils se concentrent près des grands goulets d’étranglement du commerce mondial et dans des corridors maritimes exposés à la piraterie.


Fin février 2026, le gouvernement panaméen a pris le contrôle de deux ports du canal de Panama qui étaient exploités depuis deux décennies par un conglomérat hongkongais. Cette décision constitue le dernier épisode d’un long bras de fer juridique, après que la Cour suprême du Panama a annulé les contrats de l’entreprise.

Mais l’affaire dépasse largement le cadre d’un simple différend local. Elle a attiré l’attention des États-Unis et de la Chine, dont la rivalité autour des ports mondiaux et des routes commerciales s’est intensifiée ces dernières années, notamment dans la zone stratégique du canal de Panama, où la présence chinoise a, à plusieurs reprises, suscité l’ire de l’administration Trump.

Des entreprises chinoises possèdent ou exploitent désormais des terminaux dans plus de 90 ports à travers le monde, dont beaucoup figurent parmi les plus fréquentés. Ce réseau s’étend de l’Afrique à l’Europe, en passant par le Moyen-Orient et l’Asie, avec une activité en croissance en Amérique du Sud.

L’ampleur de l’implication chinoise dans les ports à l’étranger a alimenté le débat sur la nature réelle de ces investissements : s’agit-il d’opérations strictement commerciales ou servent-ils des objectifs stratégiques plus larges ?

Une grande partie de ce débat s’est appuyée sur des études de cas et des analyses politiques, notamment dans le cas du canal de Panama. Pourtant, comprendre où se situent ces ports et déterminer s’il existe des caractéristiques communes aux pays qui les accueillent est essentiel, car des perturbations des grandes routes maritimes peuvent se répercuter sur l’ensemble de l’économie mondiale.

Dans une étude récente, nous – chercheurs en sécurité maritime, en infrastructures mondiales et en commerce international – avons constitué la première base de données mondiale des ports liés à des entreprises chinoises. Nous avons ensuite analysé 133 pays côtiers afin de comprendre pourquoi certains accueillent des investissements portuaires chinois tandis que d’autres n’en ont pas.

Nous avons constaté que l’expansion des ports chinois à l’étranger n’est pas aléatoire. Loin d’être principalement déterminés par le climat général des affaires, ces investissements se concentrent près des points d’étranglement maritimes et des corridors maritimes exposés à la piraterie, avec des indices plus modestes suggérant que les pays riches en ressources ont également davantage de chances d’accueillir ces ports.

L’importance des points d’étranglement

Certaines routes maritimes sont plus importantes que d’autres. Le canal de Suez, le détroit d’Ormuz et le détroit de Malacca sont des exemples de points d’étranglement – des passages étroits par lesquels transitent d’énormes volumes du commerce mondial et des flux d’énergie.

Selon nos résultats, les pays situés à proximité de points d’étranglement majeurs ou secondaires, comme le Panama ou ceux bordant le détroit du Pas-de-Calais – dont la France – sont nettement plus susceptibles d’accueillir un port lié à des entreprises chinoises. En termes simples, la proximité avec des goulets d’étranglement essentiels du commerce mondial constitue un fort prédicteur des investissements chinois.

Carte des points d’étranglement
Les points d’étranglement se situent le long de corridors maritimes particulièrement sensibles. Spencer/Christiansen/Pires/Tsai/Gondhali/Petrossian

Cette disposition a une logique économique. La Chine dépend fortement du commerce maritime pour soutenir sa croissance. Or les ports situés près des points d’étranglement se trouvent le long des corridors maritimes les plus sensibles du monde et offrent un accès commercial durable dans des emplacements stratégiques.

Malgré les inquiétudes en Occident, selon lesquelles Pékin développerait des ports à des fins militaires, tous ne constituent pas pour autant des bases navales déguisées.

La plupart des installations liées à des entreprises chinoises sont des terminaux commerciaux. Cependant, des infrastructures commerciales peuvent aussi avoir une valeur stratégique. Ainsi la première base logistique militaire à l’étranger de la Chine, à Djibouti, se trouve à côté du complexe portuaire de Doraleh exploité par… une entreprise chinoise. Un rapport du Congressional Research Service souligne que cette installation soutient les opérations navales et l’accès régional dans l’ouest de l’océan Indien.

Cela ne signifie pas que les autres ports détenus ou exploités par des entreprises chinoises soient des installations militaires. Mais le contrôle de terminaux, de plateformes logistiques et de données sur les chaînes d’approvisionnement peut, avec le temps, influencer les relations économiques et sécuritaires.

Le rôle de la piraterie et des ressources

Les mêmes corridors maritimes dans lesquels Pékin concentre ses investissements portuaires sont aussi des points chauds de la criminalité maritime. Dans une recherche distincte, nous avons montré que les ports maritimes peuvent faciliter la pêche illégale, non déclarée et non réglementée lorsque les mécanismes de contrôle sont faibles. Nos derniers résultats indiquent que les ports liés à des entreprises chinoises sont plus fréquents dans des pays déjà confrontés à la piraterie et à l’insécurité maritime.

Ce chevauchement ne signifie pas que les ports provoquent des activités illicites, mais il montre que ces investissements se produisent souvent dans des environnements maritimes à plus haut risque. L’un des résultats les plus surprenants de notre étude concerne précisément cette relation entre la piraterie et les investissements portuaires.

Entre 1991 et 2018, des milliers d’incidents de piraterie ont été enregistrés dans le monde. Pourtant, au lieu d’éviter les zones à risque, les ports liés à des entreprises chinoises sont plus fréquents dans les pays où les niveaux de piraterie sont les plus élevés.

Pourquoi investir dans des corridors instables ? Parce que la piraterie signale les routes commerciales à la fois vulnérables et précieuses. Investir dans des ports dans des régions comme le golfe de Guinée ou certaines parties de l’Asie du Sud-Est peut aider Pékin à protéger ses intérêts maritimes. En ce sens, la piraterie peut signaler non seulement un risque, mais aussi une opportunité.

Parallèlement, nous avons examiné la richesse en ressources naturelles des pays hôtes à l’aide d’un indicateur incluant les ressources extractives, minières et agricoles. Nous avons trouvé des indices suggérant que les pays disposant de ressources plus abondantes étaient davantage susceptibles d’accueillir au moins un port lié à des entreprises chinoises, mais si cette relation n’apparaissait pas de manière constante dans tous les modèles.

De fait, certaines explications souvent avancées pour expliquer où et pourquoi la Chine investit dans des ports ne résistent pas à notre analyse.

Les indicateurs généraux du climat des affaires et de la gouvernance, tels que la facilité à faire des affaires ou la stabilité institutionnelle, ne sont pas, après examen, des prédicteurs constants de la présence de ports liés à des entreprises chinoises. Cela suggère que la géographie et les facteurs de risque maritimes comptent davantage que les indicateurs économiques ou de gouvernance plus généraux.

Implications plus larges

Quelles que soient les motivations derrière les investissements chinois, leurs effets dépassent le simple cadre du commerce local et de la logistique. Les ports ne sont plus seulement des infrastructures locales. Ils sont devenus des nœuds des chaînes d’approvisionnement mondiales et, de plus en plus, des éléments de la compétition géopolitique. Et si tous les investissements ne traduisent pas une ambition militaire dissimulée, il serait naïf de considérer que tous les projets portuaires sont politiquement neutres.

Les récentes réponses politiques américaines reflètent ces inquiétudes croissantes. Début 2026, la Maison-Blanche a présenté un plan visant à renforcer l’industrie maritime américaine et à réduire la dépendance à l’égard d’infrastructures maritimes contrôlées par des acteurs étrangers. L’administration s’est également penchée de plus près sur l’implication d’entreprises étrangères dans des installations clés de l’hémisphère occidental, notamment des ports liés au canal de Panama.

De telles initiatives suggèrent qu’à Washington, le contrôle des infrastructures maritimes n’est plus considéré comme une simple question commerciale, mais de plus en plus comme un enjeu de sécurité économique et nationale. Et comme le montre la carte des pays accueillant des ports liés à des entreprises chinoises, les investissements de Pékin suivent les routes commerciales les plus stratégiques du monde – non pas par hasard, mais par choix.

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.

PDF

18.03.2026 à 18:06

En France, la gastronomie des Alpes tutoie les sommets

Nathalie Louisgrand, Enseignante-chercheuse, GEM

Magnifiée par de grands chefs depuis le début des années 1990, la cuisine de montagne atteint des sommets.
Texte intégral (1761 mots)
Trois générations à La Bouitte, en Savoie : René Meilleur et son fils Maxime, les deux chefs, et les deux fils de Maxime, Oscar et Calixte, qui travaillent dans la brigade. Site du restaurant La Bouitte

Comment expliquer que les tables étoilées se multiplient dans les stations de haute montagne ? Parallèlement à la nécessité de diversifier les options destinées à une clientèle fortunée dans le contexte du réchauffement climatique (la neige se fait plus rare), cette ascension fulgurante est liée à la revalorisation des recettes et des produits locaux par des chefs particulièrement créatifs et inspirés, depuis une trentaine d’années.


Au cœur des Alpes, à 3 032 mètres d’altitude, la nouvelle saison de « Top Chef » (diffusée sur M6) s’ouvre sur la terrasse du restaurant Le Panoramic qui côtoie le glacier de la Grande Motte. La production de l’émission n’a pas choisi ce décor spectaculaire par hasard : les Alpes sont devenues un lieu emblématique de la haute gastronomie.

En 2026, les départements de l’Isère, de la Savoie et de la Haute-Savoie totalisent 41 restaurants étoilés, contre 139 pour la région Paris-Île de France et 104 pour l’ensemble d’Auvergne-Rhône-Alpes. La station de Courchevel regroupe à elle seule sept établissements distingués par le guide Michelin et totalisant 13 étoiles dont le triple-étoilé 1947 à Cheval Blanc dirigé par le chef Yannick Alléno.

D’autre part, 12 restaurants alpins figurent parmi les 1 000 meilleures tables mondiales selon le classement de référence La Liste. Il apparaît cependant clairement que la haute gastronomie demeure un univers majoritairement masculin puisque que seules 7 % des femmes sont étoilées et aucune n’est distinguée dans les Alpes.

Le triomphe de cette haute gastronomie dans un environnement montagnard aux conditions extrêmes n’avait pourtant rien d’une évidence. Comment expliquer cette incroyable ascension en une trentaine d’années seulement, et par quels mécanismes une cuisine paysanne, initialement rudimentaire, s’est-elle hissée au sommet de l’art culinaire ?

De la cuisine de survie au trio « raclette-fondue-tartiflette »

La cuisine alpine puise sa force dans la nécessité, façonnée par la rudesse du climat. Jusqu’au XXᵉ siècle, elle avait d’abord pour fonction de rassasier après une journée de dur labeur dans un environnement souvent hostile. À haute altitude, l’élevage domine tandis que l’agriculture représente un véritable défi, de nombreuses cultures ne pouvant y prospérer. Tout ce qui parvient à pousser et à se conserver devient alors crucial pour affronter des hivers longs et rigoureux.

Cette cuisine de montagne s’inscrit dans une tradition paysanne, avec des plats économiques et roboratifs, fondés sur l’utilisation de produits locaux tels que les céréales, les pommes de terre, les légumes et les ressources de la cueillette. Le cochon élevé à la ferme fournissait la charcuterie et, contrairement à ce que l’on pourrait croire, le fromage constituait avant tout une source précieuse de revenus pour le foyer et était donc plus souvent vendu que consommé sur place.

À partir du milieu du XXe siècle, avec l’essor du ski et l’apparition des stations de sport d’hiver, les Alpes deviennent un nouvel Eldorado touristique, et l’alimentation locale connaît un premier bouleversement, car il faut désormais rassasier les skieurs affamés. La fondue et la raclette, toutes deux d’origine Suisse, sont alors érigés en emblèmes nationaux. Quant à la célèbre tartiflette, souvent considérée comme un plat traditionnel, elle n’est en réalité qu’une création marketing des années 1980-1990 destinée à relancer les ventes de reblochon, bien qu’elle s’inspire directement de la « péla », un plat paysan savoyard cuit dans une poêle, à base de pommes de terre et de fromage.

Dans le même temps, les restaurants gastronomiques que l’on trouve alors en station sont marqués par un véritable complexe d’infériorité. Certains chefs éprouvent presque une forme de « honte » à l’égard de leurs produits locaux, jugés trop frustes ou insuffisamment valorisant pour figurer sur la carte. À cette époque, la plupart d’entre eux se désintéressent du terroir alentour. Pour répondre aux besoins d’une clientèle urbaine et internationale fortunée, ils calquent leurs offres sur des standards parisiens avec des viandes acheminées depuis Rungis, des homards et des poissons venant de la mer, autant d’ingrédients importés qui relèguent au second plan les richesses abondantes des lacs et des alpages environnants.

Révolution végétale et retour au biotope

La véritable métamorphose de la gastronomie de montagne s’opère au début des années 1990, portée par l’emblématique Marc Veyrat. Son apport majeur tient dans la réhabilitation de la cueillette alpine. Le chef sillonne les alpages et les sous-bois, à la recherche d’herbes sauvages, comme la berce, l’angélique ou la reine-des-prés. Cette « révolution végétale » bouleverse la gastronomie qui devient plus naturelle, plus locale, enracinée dans son environnement.

Parallèlement, Marc Veyrat remet à l’honneur les poissons des lacs alpins, comme la féra ou l’omble chevalier, tout en éduquant peu à peu le palais de sa clientèle. Enfin, sa philosophie rompt avec les codes traditionnels de la cuisine de montagne jugée souvent trop lourde. Il allège les plats en profondeur : moins de crème, moins de gratin, davantage de bouillons et d’infusions. La cuisine gagne alors en lisibilité, en finesse et en élégance.

Veyrat contribue ainsi à l’émergence d’une identité culinaire alpine authentique. Cette approche novatrice sera couronnée en 1995 par l’obtention de trois étoiles au guide Michelin pour l’Auberge de l’Éridan sur les rives du lac d’Annecy.

La démarche du chef savoyard a décomplexé toute une génération de cuisiniers qui, à sa suite, ont décidé de s’engager pleinement dans une haute gastronomie en lien direct avec la nature alpine, attentive au rythme des saisons.

C’est ainsi qu’aujourd’hui une véritable constellation de tables d’exception portent cette identité au plus haut. À Megève, Emmanuel Renaut, chef trois étoiles du Flocon de Sel propose une cuisine entièrement tournée vers la nature, magnifiant poisson du Léman, gibiers et fromages locaux au gré d’une carte en perpétuelle évolution. Sur les rives du lac d’Annecy, Jean Sulpice développe à l’Auberge du père Bise (deux étoiles) un univers à la fois sensible et percutant en étroite collaboration avec artisans, pêcheurs et maraîchers locaux. À Saint-Martin-de-Belleville, la famille Meilleur fait de La Bouitte (deux étoiles) un lieu où le patrimoine savoyard s’élève au rang d’art.

Cette quête de l’excellence s’accompagne d’un véritable défi scientifique : cuisiner en altitude. À 1 500 mètres, la pression atmosphérique, plus faible, fait bouillir l’eau autour de 95 °C, ce qui allonge les temps de cuisson, accélère l’évaporation et rend les pochages délicats. L’air sec accentue le dessèchement des préparations et, en pâtisserie, provoque une dilatation trop rapide des gaz de levure pouvant amener les gâteaux à s’affaisser.

Pour contourner ces contraintes, les chefs alpins ont développé une véritable créativité technique avec des cuissons lentes, braisées, mijotées à l’étouffée, du fumage, ainsi que l’usage de l’autocuiseur pour rétablir une pression stable. Cette maîtrise des lois physiques propres à la montagne est devenue l’un des fondements de la haute cuisine alpine.

Cette concentration exceptionnelle d’étoiles est le fruit d’une alchimie unique entre un territoire d’une immense richesse, l’audace de chefs locaux et une clientèle au fort pouvoir d’achat. Aujourd’hui, le tourisme culinaire est devenu un moteur économique à part entière, et de nombreux visiteurs viennent autant pour l’expérience culinaire que pour le ski.

En réinventant une cuisine de survie paysanne en véritables œuvres d’art, ces chefs ont redéfini la notion de luxe. Ils démontrent que l’excellence contemporaine repose sur l’authenticité, l’ancrage local et un profond respect de la nature. Et la nouvelle vague de jeunes cuisiniers – mais aussi désormais de cheffes à l’image des cheffes pâtissières de montagne Tess Evans-Miallet et Aurélie Collomb-Cler – s’inscrit dans cette lignée, tout en y apportant sa propre sensibilité.

The Conversation

Nathalie Louisgrand ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

18.03.2026 à 14:03

Why Europe’s ‘open’ economy of innovation is exposed to global trade shifts

Regis Coeurderoy, Professor in Strategic Management and Innovation, ESCP Business School

As new targets designed to help the EU economy work towards autonomy are unveiled, Europe’s “old growth” model and its R&D multinationals’ reliance on foreign markets come under review.
Texte intégral (1445 mots)

Last month the European Commission unveiled its new “Made in Europe” targets, tying access to subsidies in clean technology heavy industry and carmaking to local production and stricter conditions on foreign investment.

The objective of the new Industrial Accelerator Act is to strengthen the industrial base and strategic autonomy of the European economy. But its impact on European Research & Development multinationals that have grown in overseas markets should not be underestimated. Evidence shows that Europe is hit harder by external shocks than its rivals because its firms depend more heavily on foreign markets and cross-border supply chains.

Consider, for example, Asia accounted for 41% of German carmaker Mercedes‑Benz in 2025, while UK-headquartered drugmaker AstraZeneca generated about 43% of its 2024 sales in the US.

Such exposure leaves a sizeable chunk of European multinationals particularly sensitive to shifts in trade policy: as protectionist measures proliferate, the backlash can quickly translate into weaker demand, disrupted supply chains and pressure on profits.

This has already become visible as trade tensions with China and the United States have intensified and governments have moved to shield strategic industries from subsidised competition, via the Made in Europe targets.

A historically overseas market-led economy

European groups are often described as global champions; many expand abroad earlier than their American or Asian peers. Part of the reason is structural: Europe’s home market remains less integrated than the US or China. It also reflects a long tradition of building businesses internationally.

American and Asian companies can often scale at home before expanding abroad. European firms rarely have that luxury. Their global reach is a strength, but in a more fragmented world it also creates exposure.

New research I carried out on the world’s largest corporate Research & Development spenders helps explain Europe’s position.

Vying for the top tiers of the global R&D landscape

The global race for innovation is dominated by the Americas and Asia: firms headquartered in Asia-Pacific account for about 37% of the leading R&D multinationals and those in the Americas roughly 36%, compared with about 27% in Europe, the Middle East and Africa.

Bridging the R&D spending gap

The gap is even wider in spending: companies based in the Americas account for about 45% of total corporate R&D investment, compared with roughly 29% in Asia-Pacific and 26% in EMEA.

Yet European firms tend to operate more globally. The research shows only about 26% of EMEA-based firms earn most of their revenues in their home region.

Nearly a third operate globally, roughly twice the share of American or Asian companies. By contrast, about 76% of US firms and 75% of Asia-Pacific firms remain focused mainly on their domestic regions, supported by larger and more integrated home markets.

Navigating the impacts of trade uncertainty

Truly global companies remain rare. Only about 17% of these firms generate balanced sales across the Americas, Europe and Asia-Pacific. Half of them are headquartered in EMEA, compared with roughly a quarter for each in the Americas and Asia-Pacific.

This makes European groups more exposed when trade relations sour. Illustrating this point, German carmaker BMW warned last month that tariffs imposed by the EU, the US and China could wipe around €1 billion from its profits this year, underscoring how quickly geopolitical shifts translate into financial strain for Europe’s multinationals.

If Europe wants to reduce such vulnerability, it should look beyond protectionism. For firms that already operate globally, tighter rules at home could push them to move assets abroad. That would weaken Europe’s own industrial base at the very moment policymakers are trying to strengthen it.

In other words, the end of the liberal trading era may have exposed an Achilles heel in Europe’s economic model. The continent’s multinationals are unusually dependent on markets outside Europe. In a more fragmented world, that creates two clear risks: disruption to global value chains and the gradual relocation of investment and innovation away from Europe itself.

What’s the alternative? Not retreat, but reform

Former European Central Bank President Mario Draghi’s report in 2024 for the European Commission set out an urgent agenda to restore Europe’s competitiveness through deeper single market integration, regulatory reform and investment. It addresses part of the challenge. But Europe must go further, strengthening its own base for research, innovation and industry. That requires action at a European level. Completing the single market is not just about harmonising rules. It is about ensuring that investment, supply chains and innovation remain anchored in Europe.

As ECB President Christine Lagarde warned last year, Europe’s growth model was built for a different world. Heavy reliance on exports once underpinned prosperity. In a more fragmented global economy, it leaves Europe exposed.

The lesson is clear: Europe’s problem is not so much globalisation, but too little regional integration. Until the efforts to create a single market truly pave the way for sound economic foundations, Europe’s multinationals will remain highly globalised and exposed. But such an ambition goes beyond economic goals: it is a political ambition that is at loggerheads with nationalist sentiments to achieve the right level of territorial growth, which would ultimately secure greater independence.


A weekly e-mail in English featuring expertise from scholars and researchers. It provides an introduction to the diversity of research coming out of the continent and considers some of the key issues facing European countries. Get the newsletter!


The Conversation

Regis Coeurderoy ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

18.03.2026 à 11:32

Pêche récréative et pollution plastique : créer des leurres souples qui disparaissent vraiment

Erwan Vasseur, Doctorant en Sciences et technologie industrielles, Université Bretagne Sud (UBS)

Chaque année, des millions de pêcheurs perdent une partie de leur matériel dans l’eau dont les leurres souples, de petits bouts de plastique très efficaces… mais très persistants.
Texte intégral (2413 mots)
Des millions de leurres finissent dans la nature chaque année en France. Verlin Auliane / Unsplash, CC BY-SA

Chaque année, des millions de pêcheurs perdent (sans le vouloir) une partie de leur matériel dans l’eau. Parmi les objets les plus souvent « abandonnés » : les leurres souples, petits bouts de plastique très efficaces… mais très persistants.


Mon travail de thèse, mené en collaboration avec l’entreprise FiiiSH, a consisté à développer des formulations à base de PHA capables de réduire la persistance des leurres souples dans l’environnement. La solution la plus prometteuse identifiée à ce jour n’est pas encore assez souple pour un usage pleinement satisfaisant, mais elle montre déjà de forts signes de biodégradation et de non-toxicité. Il reste donc du travail pour atteindre le bon compromis mécanique, mais la piste est sérieuse.

Une pratique massive et des pertes invisibles

Illustration de la pollution des leurres souples
Illustration de la pollution des leurres souples. Fourni par l'auteur

La pêche de loisir est un loisir très répandu en France, en mer comme en eau douce. Les estimations institutionnelles évoquent environ 3,8 millions de pratiquants en mer en 2024, et plusieurs millions de cartes de pêche sont délivrées chaque année en eau douce. À cette échelle, même si la grande majorité des pêcheurs adopte de bonnes pratiques, une part de pertes reste inévitable : accrochage sur roches, branches, épaves, casse de ligne, courant, houle… À force de répétitions, un « petit » objet perdu involontairement devient un flux collectif.

Illustration de la souplesse d’un leurre souple. Black Minnow FIIISH, Fourni par l'auteur

Un leurre souple doit « vivre » dans l’eau. Sa nage dépend de sa forme, mais aussi de sa viscoélasticité : trop rigide, il nage mal ; trop mou, il se déchire ; instable, il durcit ou devient poisseux avec le temps. En bref, le matériau doit être à la fois flexible, résistant, stable au stockage et transformable industriellement. C’est un cahier des charges très strict et complexe pour un matériau.

La pollution liée à la pêche est multiple : emballages, fils, plombs, mais aussi fragments de leurres. Un leurre souple ne pèse que quelques grammes : pris isolément, l’impact paraît négligeable. Mais dans des zones très fréquentées (digues, estuaires, embouchures, postes en rivière…), les pertes se concentrent et s’additionnent. On estime qu’un pêcheur perd en moyenne 10 leurres par an, pour environ 15 g par leurre, ce qui donne un ordre de grandeur de cette pollution plastique. Ces chiffres restent toutefois à prendre avec précaution, car ils sont difficiles à mesurer précisément. Avec le temps, les plastiques conventionnels peuvent s’abîmer sous l’effet des UV, de l’abrasion et des contraintes mécaniques, et générer des fragments plus petits : les microplastiques. Dans certains cas, des composés peuvent aussi migrer depuis l’objet en plastique vers l’eau. L’enjeu n’est donc pas seulement esthétique : il touche à la persistance des débris et à leur interaction avec les écosystèmes.

Les PHA : des plastiques produits par des bactéries

Les polyhydroxyalcanoates (PHA) sont une famille de polyesters que certaines bactéries fabriquent naturellement comme réserve de carbone et d’énergie. Industriellement, on retrouve une logique de fermentation : on nourrit des microorganismes avec une source de carbone (par exemple, sucres, huiles), on pilote les conditions pour favoriser l’accumulation de PHA dans les cellules, puis on récupère la biomasse et on extrait/purifie le polymère. On obtient alors une « résine » utilisable en plasturgie, sous forme de granulés. Les PHA sont donc bien des plastiques à part entière. En revanche, dans leur état initial, leurs propriétés sont souvent trop rigides pour des applications comme les leurres souples de pêche, ce qui impose d’ajouter des additifs, notamment des plastifiants, afin d’assouplir la matière.

L’intérêt des PHA est double. D’une part, ils peuvent être biosourcés (selon le procédé et les substrats). D’autre part, leur structure de polyester est favorable à la biodégradation dans certains milieux. Mais ce « peut être biodégradable » est important : tout dépend des conditions et de la formulation finale.

Un plastique biodégradable ne disparaît pas comme un comprimé effervescent. Il ne fond pas au contact de l’eau. La biodégradation est un processus biologique : des microorganismes, via des enzymes, transforment progressivement le matériau en produits simples (CO2, eau, sels minéraux et biomasse en conditions aérobies).

La clé, c’est la conversion finale : un matériau qui ne fait que se fragmenter plus vite peut produire des microplastiques sans réellement être biodégradé. Autre point essentiel : « biodégradable » n’est pas synonyme de « biosourcé ». Un matériau peut être biosourcé sans être biodégradable, et l’inverse. Pour éviter le greenwashing, il faut toujours préciser le milieu (sol, compost, eau douce, mer), la méthode de mesure et l’ordre de grandeur du temps de l’essai dans lequel l’échantillon se dégrade.

Comment transformer un PHA en leurre ?

Le défi est d’obtenir une matière suffisamment souple. Beaucoup de PHA sont naturellement plutôt rigides. Pour approcher la sensation d’un leurre conventionnel, on peut jouer sur la chimie du copolymère, mais aussi sur la formulation : plastifiants compatibles, mélanges, ou architectures internes qui stabilisent la souplesse.

C’est ici que mon travail de recherche s’inscrit, dans le cadre d’une collaboration avec l’entreprise FiiiSH : développer des formulations PHA adaptées à la pêche au leurre souple, en intégrant dès le départ les contraintes industrielles (mise en forme, reproductibilité, stabilité au stockage) et les exigences environnementales. Aujourd’hui, ces travaux ont déjà permis d’identifier plusieurs formulations prometteuses et de les évaluer à l’échelle laboratoire à travers des essais de caractérisation thermique, mécanique et rhéologique (la rhéologie est l’étude de la déformation et de l’écoulement de la matière sous l’effet d’une contrainte appliquée). L’enjeu est désormais de confirmer leur robustesse, leur stabilité dans le temps et leur pertinence pour un usage réaliste en leurre souple.

Différence de souplesse entre la matière actuellement utilisée (a) et la matière finale formulée à partir de PHA (b). Fourni par l'auteur

Même avec un PHA prometteur, tout se joue souvent dans sa plastification. Obtenir un matériau souple ne suffit pas : il faut une souplesse stable et une bonne tenue mécanique. Or la compatibilité entre un PHA et un plastifiant est délicate : un plastifiant non miscible peut provoquer des hétérogénéités qui induisent une déchirure plus facile et une tenue mécanique qui chute. À l’inverse, un plastifiant trop compatible avec la résine peut « trop bien » s’y intégrer : il assouplit tellement le polymère qu’il relâche une partie du réseau d’enchevêtrements, et on obtient alors un matériau certes mou, mais très sensible à la déchirure. Pour se représenter la structure d’un plastique, on peut imaginer un plat de spaghettis bien emmêlés : les « nœuds » formés par les fils de pâte correspondent aux enchevêtrements, ces points d’accroche qui donnent au matériau sa cohésion.

Un petit objet mais une grande preuve à apporter

Rendre un leurre souple biodégradable ne consiste pas à « changer de plastique » dans une fiche technique. C’est un compromis délicat entre performance, stabilité et preuve environnementale. Les PHA offrent une piste crédible, à condition de rester rigoureux sur les mots (« biodégradable » n’est ni « soluble » ni « effervescent ») et sur les mesures. La suite se joue autant en laboratoire qu’en industrie : formulation, mise à l’échelle, transparence sur les compositions et validation dans des scénarios réalistes.

Si cette transition réussit sur un objet aussi exigeant qu’un leurre souple, elle pourrait inspirer d’autres produits exposés à la nature, où l’on ne peut pas éliminer totalement les pertes mais où l’on peut réduire, concrètement, la persistance.

À ce stade, un premier prototype de leurre a déjà vu le jour. Il reste désormais à l’éprouver en conditions réelles de pêche pour juger de sa performance sur le terrain. La solution n’est pas encore totalement aboutie, notamment parce qu’elle doit encore gagner en souplesse, mais elle n’est plus seulement une idée de laboratoire : elle commence déjà à prendre la forme d’un leurre.

The Conversation

Erwan Vasseur a reçu des financements de l'entreprise Fiiish et IRDL (Institut de Recherche Dupuy De Lôme).

PDF

18.03.2026 à 09:58

La théorie des cordes a-t-elle été découverte par accident ?

Piotr Tourkine, Physicien théoricien, Université Savoie Mont Blanc

Quand une solution trouvée pour un problème donné éclaire en réalité un domaine bien plus vaste.
Texte intégral (1707 mots)
Gabriele Veneziano au bord du lac d’Annecy (Haute-Savoie), l’été où il mit le doigt par hasard sur une formule qui allait mener à la découverte de la théorie des cordes. G. Veneziano, avec son aimable autorisation, Fourni par l'auteur

Une plongée dans l’histoire de la théorie des cordes, ou quand une solution suggérée pour un problème donné éclaira en réalité un domaine bien plus vaste.


La physique théorique a connu trois grandes révolutions au tournant du XXᵉ siècle : la mécanique quantique et les deux théories de la relativité, restreinte et généralisée. La mécanique quantique décrit l’infiniment petit. La relativité restreinte et sa célèbre formule E = mc² décrivent la physique des objets se déplaçant aux vitesses proches de la lumière. La relativité générale décrit la force de gravité comme provenant de la courbure de l’espace-temps.

Prises ensemble, elles ont bouleversé notre compréhension de l’espace-temps, de la matière, et des interactions fondamentales. Les implications de ce bouleversement ne sont encore aujourd’hui pas totalement comprises.

En effet, on ne sait pas utiliser ce cadre pour décrire certaines situations extrêmes, comme l’espace-temps à l’intérieur des trous noirs, ou au moment du Big Bang – deux situations où les effets quantiques et gravitationnels sont simultanément importants. C’est dans cet entrelacs que réside le mystère central de la « gravité quantique », que la physique moderne cherche à élucider, et pour lequel la théorie des cordes propose un cadre qui unifie relativité générale et physique quantique.

Du point de vue de l’histoire des sciences, un élément remarquable de cette théorie sophistiquée est qu’elle a, en fait, été découverte par hasard, au sein d’un domaine bien différent de la gravité quantique : celui de la physique des particules subatomiques !

Gabriele Veneziano et les particules subatomiques

Genève, fin des années 1960. Gabriele Veneziano a 26 ans, il vient de finir son doctorat de physique nucléaire en Israël et se trouve en visite au CERN. À l’époque, les physiciens théoriciens du monde entier se heurtaient à un problème coriace : la méthode qui avait permis de comprendre les interactions entre électrons et lumière (qu’on appelle aujourd’hui la théorie quantique des champs) semblait ne pas fonctionner pour décrire les interactions entre les autres particules subatomiques.

En particulier, on ne comprenait pas l’interaction nucléaire forte, qui régit les interactions entre les briques élémentaires de la matière : protons, neutrons, etc. Celles-ci forment un véritable zoo de particules qu’on nomme les hadrons.

Une nouvelle approche est alors explorée : le « bootstrap ». Ne pouvant trouver la bonne théorie pour décrire les hadrons individuellement, les physiciens se posèrent la question dans l’autre sens : quelles sont les propriétés générales que doit satisfaire n’importe quelle théorie ? La réponse : au minimum, elle doit satisfaire simultanément aux exigences de la mécanique quantique et de la relativité restreinte.

Cette approche par exemple permet de montrer qu’une interaction fondamentale ne peut excéder une certaine intensité sans briser les lois de la mécanique quantique (un peu comme il existe une vitesse maximale en relativité). En clair : si l’on mélange les lois de la mécanique quantique et celles de la relativité restreinte, tout n’est pas permis, et les lois physiques possibles deviennent fortement contraintes.

C’est dans ce cadre que Gabriele Veneziano proposa en 1968 une fonction mathématique très particulière – la fonction bêta d’Euler – pour modéliser les hadrons et leurs interactions. À ce moment, on ne connaissait pas la théorie qui permettrait d’expliquer d’où sort cette formule : on savait seulement qu’elle satisfaisait, pour la première fois, toutes les propriétés mathématiques recherchées. Son papier eut un succès immédiat, car la formule répondait à de nombreuses questions en même temps.

Sérendipité et théorie des cordes

La sérendipité est souvent idéalisée comme un heureux hasard. Mais, en science, elle prend une forme plus subtile : elle naît de l’interaction entre un contexte de recherche fertile et une capacité à reconnaître qu’une solution trouvée pour un problème donné éclaire en réalité un domaine bien plus vaste.

Le cas de la formule de Veneziano est emblématique. Quelques années après l’article de Veneziano, les physiciens Leonard Susskind, Yoichiro Nambu et Holger Bech Nielsen comprirent (indépendamment) que cette formule décrivait en fait non pas des hadrons mais des « cordes quantiques », c’est-à-dire des objets microscopiques filiformes, qui vibrent à la manière de minuscules cordes de violon.

Et c’est là que ça devient vraiment intéressant.

Les cordes et le… graviton ?

Depuis les années 1970, à mesure que l’on explore cette interprétation, d’autres indices troublants apparaissent. La théorie semble invariablement contenir une particule particulière : le graviton, censé véhiculer la force de gravitation quantique. De plus, elle exige l’existence de dimensions d’espace supplémentaires – un prix qui semble alors trop élevé pour une théorie censée décrire les hadrons !

Et surtout, comment une théorie inventée pour décrire les interactions de la matière à l’intérieur du noyau atomique pouvait-elle contenir une théorie qui décrit tout autre chose – la gravité quantique ?

Comme, à la même époque (autour de 1973), la théorie quantique des champs finit par expliquer les interactions fortes grâce à la découverte de la chromodynamique quantique, et notamment de la liberté asymptotique, le modèle de Veneziano est laissé de côté dans ce contexte.

Mais quelques physiciens visionnaires, comme Joël Scherk et John Schwarz, pressentirent que cette théorie, à cause de son mystérieux graviton, possédait un potentiel unique pour s’attaquer à la gravité quantique.

Dix ans plus tard, en 1984, Michael Green et John Schwarz confirmèrent cette intuition et démontrèrent que la théorie des cordes est bel et bien une véritable théorie de gravité quantique.

On voit donc que la découverte de la théorie des cordes est l’illustration même de la sérendipité : une théorie née d’un certain questionnement éclaire le cœur d’un aspect tout autre de la science.

Gabriele Veneziano lui aussi contribuera notablement au développement de la théorie des cordes, notamment en étudiant les liens entre celle-ci et la structure microscopique de l’espace-temps.

La théorie de cordes aujourd’hui

Aujourd’hui, la théorie des cordes est bien plus qu’une simple théorie candidate de la gravité quantique. Aux côtés de la théorie quantique des champs, elle constitue un cadre conceptuel et mathématique d’une richesse inégalée, capable d’unifier des idées venues de la physique des particules, de la relativité, de la théorie des champs, du chaos et des mathématiques pures et produire des avancées conceptuelles et techniques dans ces domaines.

Par exemple, le modèle de Veneziano et ses généralisations, dont on sait aujourd’hui qu’ils proviennent de la théorie des cordes, exhibent des propriétés mathématiques remarquables liées à la fonction zêta de Riemann. Ces propriétés s’expliquent physiquement par la façon dont deux cordes ouvertes s’attachent pour former une corde fermée.

Plus encore, le programme du « bootstrap », qui avait donné naissance à la théorie des cordes, connaît aujourd’hui une nouvelle vie : grâce à la puissance des ordinateurs modernes et à des idées venues de la théorie des cordes et de la théorie des champs, les physiciens appliquent ces idées pour décrire des phénomènes très divers, allant des transitions de phase à la physique hadronique et même à la gravité quantique.

Mais il reste un mystère fondamental : pourquoi cette théorie, née « par hasard », semble-t-elle si naturellement adaptée à décrire la gravité quantique ? Était-ce vraiment un hasard… ou un indice que la seule façon d’unifier les trois théories qui forment le socle de la physique du XXᵉ siècle est la théorie des cordes ? On pourrait bien avoir une réponse à cette question mathématique dans les années qui viennent.

The Conversation

Piotr Tourkine a reçu des financements de l'Agence Nationale de la Recherche (ANR-22-CE31-0017).

PDF

17.03.2026 à 16:33

Yellowstone, merveille géologique : aux frontières du feu, de l’eau et du vivant

Olivier Pourret, Enseignant-chercheur en géochimie et responsable intégrité scientifique et science ouverte, UniLaSalle

Elodie Pourret-Saillet, Enseignante-chercheuse en géologie structurale, UniLaSalle

Derrière des paysages fascinants se dissimule l’un des systèmes volcaniques les plus actifs de la planète, où se trouvent plus de la moitié des geysers du monde.
Texte intégral (2939 mots)
La Morning Glory Pool du Yellowstone National Park, aux États-Unis. Olivier Pourret, CC BY

Le parc national de Yellowstone, aux États-Unis, présente l’un des spectacles géologiques les plus fascinants au monde : geysers en éruption, bassins aux couleurs intenses, terrasses de travertin sculptées par des eaux thermales. Derrière ces paysages se dissimule l’un des systèmes volcaniques les plus actifs de la planète, dont la chaleur souterraine façonne chaque fontaine, chaque couleur, chaque dépôt minéral, et rappelle que la Terre est une planète vivante.


Le parc national de Yellowstone est le plus ancien parc national du monde et est situé dans l’ouest des États-Unis, entre le Wyoming, le Montana et l’Idaho. Inscrit sur la liste du patrimoine mondial de l’Unesco, il est célèbre pour sa faune et ses paysages, mais surtout pour une activité géothermique exceptionnelle, unique par son intensité et sa diversité.

Le parc se situe sur une large caldeira volcanique (c’est-à-dire une vaste dépression circulaire formée par l’effondrement du toit d’une chambre magmatique après une éruption), formée par plusieurs éruptions majeures qui se sont produites il y a 2,1 millions, 1,3 million et environ 640 000 ans. Même en l’absence d’éruptions explosives actuellement, le volcan reste actif : son activité se traduit par une augmentation de température en profondeur et une série de phénomènes hydrothermaux observables en surface.

L’entrée ouest du parc national de Yellowstone, aux États-Unis. Olivier Pourret, CC BY

Une chaudière souterraine toujours en activité

Des réservoirs magmatiques partiellement fondus se situent sous Yellowstone, alimentés par un flux venant du manteau, à grande profondeur. La chaleur émise réchauffe les eaux de pluie et de fonte des neiges qui s’infiltrent dans le sous-sol. Ces eaux peuvent atteindre des températures supérieures à 200 °C tout en restant liquides grâce à la forte pression.

Lorsque les conditions sont réunies, avec un approvisionnement en eau suffisant, des fractures suffisamment étroites et une chaleur stable, l’eau qui devient surchauffée est soudainement expulsée vers la surface : ce phénomène est connu sous le nom de « geyser ». Plus de la moitié des geysers du monde se trouve à Yellowstone, le transformant en un laboratoire naturel pour les géologues.

Le plus célèbre, Old Faithful, entre en éruption toutes les 60 à 90 minutes, projetant une colonne d’eau et de vapeur pouvant dépasser 50 mètres de hauteur. D’autres geysers sont beaucoup moins prévisibles, rappelant que ces systèmes sont fragiles et sensibles à de légères variations de pression ou de circulation de fluides.

photo d’un grand geyser
Le geyser Old Faithful du Yellowstone National Park, aux États-Unis. Olivier Pourret, CC BY

Dans des régions géothermiques telles que le Norris Geyser Basin, l’hydrothermalisme n’est pas réparti aléatoirement dans la roche : il est largement guidé par le réseau de fracturation affectant la roche, véritable « route » pour l’eau chaude, qui régule la circulation des fluides et détermine la position des geysers et des sources chaudes. Les études effectuées au niveau du Steamboat Geyser démontrent que même de petites fractures ou de simples pores interconnectés peuvent être suffisants pour expulser rapidement l’eau lors des éruptions.

Le sous-sol ressemble donc moins à un système de conduits bien définis qu’à un milieu complexe, constitué d’un enchevêtrement de fractures et de pores interconnectés et de dimensions variables. Cette organisation contrôle la circulation de l’eau et de la vapeur en profondeur, et conditionne le déclenchement des éruptions hydrothermales, soulignant combien la structuration et la constitution des roches régissent le fonctionnement des systèmes hydrothermaux.

Sources chaudes et travertins : quand la géologie se fait art

Les geysers ne représentent qu’un aspect du spectacle. Les bassins aux couleurs vives sont principalement formés par l’abondance de sources chaudes. Le plus célèbre et plus large à Yellowstone (60 à 90 mètres de large) d’entre eux est Grand Prismatic Spring, il est aussi le plus photographié pour illustrer ces sources chaudes.

À l’inverse de ce que l’on pourrait penser, ces couleurs ne sont pas celles des minéraux, mais celles de micro-organismes extrémophiles. Chaque communauté microbienne, adaptée à une plage de température spécifique, forme autour des bassins de véritables cercles de couleur : les espèces qui prospèrent dans les zones plus froides en périphérie arborent des teintes jaune et orange, tandis que les températures plus élevées au centre favorisent des micro-organismes bleus ou verts. Dans les premiers cas, les couleurs résultent à la fois des pigments caroténoïdes propres aux bactéries, et des oxydes de fer et de manganèse précipités par leur activité métabolique. Ces bactéries et archées doivent ainsi leurs teintes à leurs pigments photosynthétiques (chlorophylles ou caroténoïdes) dont l’expression varie selon les conditions de température et de lumière. Lorsque la température des sources baisse, l’expansion bactérienne s’intensifie.

Des dépôts de travertin peuvent aussi se former à partir de sources abondantes en carbonate de calcium. Le travertin est une roche calcaire poreuse qui se dépose en surface lorsque de l’eau chaude, ayant dissous du CO2 et du carbonate de calcium en profondeur sous l’effet de la pression et de la température, remonte à la surface : en se refroidissant et en se décomprimant, elle libère le CO2 dissout, ce qui provoque la précipitation de calcite.

Cette calcite forme des terrasses et des cascades minérales blanches ou crème, tandis que les oxydes de fer précipités simultanément par l’activité bactérienne leur confèrent leur teinte orange caractéristique ; comme celles de Mammoth Hot Springs, qui se modifient sans cesse en fonction des changements des conditions hydrologiques et de température.

Les sources chaudes dites de « Mammoth Hot Springs », au Yellowstone National Park, aux États-Unis. Olivier Pourret, CC BY

Un volcan sous surveillance : quels dangers ?

Yellowstone est fréquemment décrit comme un « supervolcan », une expression médiatique qui fait référence à des volcans susceptibles de générer des éruptions de très grande ampleur, correspondant à l’émission d’au moins 1 000 km3 de matériaux. Deux des trois grandes éruptions de Yellowstone ont atteint ce seuil, il y a environ 2,1 millions et 640 000 ans. Les chances d’une telle éruption à Yellowstone dans les prochains millénaires sont jugées infimes par les géologues de l’USGS.

Cependant, le parc est le siège d’une activité sismique quasi permanente : chaque année, des milliers de petits séismes témoignent de la circulation des fluides et des ajustements de la croûte. Les scientifiques du service géologique américain, l’USGS, dotés d’un réseau sophistiqué d’instruments, surveillent de près ces signaux pour détecter la plus petite anomalie.

Ainsi, les dangers les plus immédiats à Yellowstone ne relèvent pas d’une éruption dévastatrice, mais plutôt d’explosions hydrothermales locales susceptibles de projeter des roches et des fluides bouillants sur quelques mètres à plusieurs dizaines de mètres autour du point d’émission. Plusieurs incidents illustrent ce risque dans l’histoire récente du parc : une série d’explosions puissantes s’est produite à Excelsior Geyser dans les années 1880–1890, projetant de gros blocs jusqu’à 15 mètres de distance, tandis qu’une explosion notable a eu lieu à Porkchop Geyser en 1989. En juillet 2024, l’explosion à Biscuit Basin a détruit une passerelle touristique, sans faire de blessés alors que l’explosion d’Echinus Geyser il y a quelques jours n’a pas fait de dégâts majeurs.

Par ailleurs, les forêts du parc restent vulnérables aux incendies, dont la fréquence et l’intensité augmentent avec le changement climatique, un facteur de risque distinct de l’activité volcanique, mais tout aussi réel pour les écosystèmes de Yellowstone.

Yellowstone, une leçon de géologie à ciel ouvert

Yellowstone nous rappelle que notre planète est vivante et en constante évolution. Les geysers, les sources thermales et les terrasses minérales qui émerveillent les visiteurs ne sont pas de simples curiosités naturelles : ils sont la manifestation visible de processus profonds, à la frontière entre le manteau terrestre, la croûte, l’eau de surface et même le vivant.

Yellowstone n’est pas une exception : en Islande, l’interaction entre un point chaud et la dorsale médio-atlantique produit des paysages analogues, à l’image du site de Geysir. En Italie, les champs Phlégréens, à l’ouest de Naples, offrent une autre démonstration de la connexion entre volcanisme, fracturation et fluides.

Le geyser Geysir, en Islande. Airflore, Flickr, CC BY-NC-ND

Ces comparaisons montrent que les phénomènes observés à Yellowstone suivent des lois universelles : partout où se rencontrent chaleur, eau et fractures, des phénomènes géologiques se manifestent parfois de façon impressionnante. Devant ces paysages en constante transformation, la géologie ne demeure plus une science abstraite confinée aux laboratoires et aux modélisations. Elle est concrète, perceptible et associée à notre compréhension des mécanismes internes de la Terre.

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.

PDF
12 / 50
  GÉNÉRALISTES
Ballast
Fakir
Interstices
Issues
Korii
Lava
La revue des médias
Time [Fr]
Mouais
Multitudes
Positivr
Regards
Slate
Smolny
Socialter
UPMagazine
Le Zéphyr
 
  Idées ‧ Politique ‧ A à F
Accattone
À Contretemps
Alter-éditions
Contre-Attaque
Contretemps
CQFD
Comptoir (Le)
Déferlante (La)
Esprit
Frustration
 
  Idées ‧ Politique ‧ i à z
L'Intimiste
Jef Klak
Lignes de Crêtes
NonFiction
Nouveaux Cahiers du Socialisme
Période
 
  ARTS
L'Autre Quotidien
Villa Albertine
 
  THINK-TANKS
Fondation Copernic
Institut La Boétie
Institut Rousseau
 
  TECH
Dans les algorithmes
Framablog
Gigawatts.fr
Goodtech.info
Quadrature du Net
 
  INTERNATIONAL
Alencontre
Alterinfos
Gauche.Media
CETRI
ESSF
Inprecor
Guitinews
 
  MULTILINGUES
Kedistan
Quatrième Internationale
Viewpoint Magazine
+972 mag
 
  PODCASTS
Arrêt sur Images
Le Diplo
LSD
Thinkerview
🌓