02.04.2026 à 16:05
Bruno Lafitte, Expert data center, Ademe (Agence de la transition écologique)
La France a la volonté d’être une terre d’accueil pour les data centers dans les prochaines décennies. L’Agence de la transition écologique, l’Ademe, a réalisé un travail de prospective à l’horizon 2060 pour évaluer plusieurs scénarios de montée en puissance sur le territoire national de ces infrastructures très gourmandes en énergie et les choix de société qu’ils impliquent. Entretien avec Bruno Lafitte, expert data centers à l’Ademe, qui a coordonné cette étude.
The Conversation : Commençons par l’état des lieux : que sait-on aujourd’hui de la présence des data centers en France, des usages qui en sont faits et de leur consommation électrique totale ?
Bruno Lafitte : Aujourd’hui, l’Ademe recense 352 data centers en activité sur le territoire national. Leur consommation électrique totale représente 10 térawattheurs (TWh) par an, ce qui correspond à l’électricité consommée par environ 10 agglomérations de plus de 100 000 habitants pendant un an.
Cela équivaut à 2,2 % de la consommation annuelle électrique totale du pays. En effet, l’usage du numérique a une matérialité que l’on ne soupçonne pas toujours : des infrastructures énergivores en électricité, en eau pour le refroidissement, sans compter la chaîne de production des serveurs en amont qui charrie également son lot d’impacts environnementaux.
À lire aussi : Les métaux de nos objets connectés, face cachée de l’impact environnemental du numérique
Pourquoi la France souhaite-t-elle être une terre d’accueil pour ces infrastructures ?
B. L. : Il y a aujourd’hui une vraie volonté politique de la France de se placer en leader européen en matière d’accueil de data centers. Cela se traduit déjà par des investissements massifs dans le pays, qui sont facilités par une souplesse administrative. Ce choix repose sur deux grands constats.
L’un tient à l’enjeu crucial de souveraineté numérique : la moitié des usages numériques des Français est actuellement traitée par des data centers situés à l’étranger, et tous les scénarios montrent que cette dépendance augmentera à mesure que les usages s’intensifieront. Au regard des enjeux géopolitiques actuels, relocaliser nos données apparaît crucial.
L’autre est lié à l’avantage majeur dont dispose la France en la matière. Du fait de son mix électrique décarboné et de son électricité largement disponible, mais également de ses normes environnementales, les data centers seront en France mieux encadrés. De ce fait, ils auront des impacts climatiques moindres qu’ailleurs, et en particulier qu’aux États-Unis, où se concentrent aujourd’hui la majorité des data centers dont nous dépendons. (À titre d’exemple, l’intensité carbone de l’électricité française s’élevait, en 2024, à environ 30 gCO₂/kWh, tandis qu’aux États-Unis, celle-ci était en moyenne de 391 gCO₂/kWh en 2019, ndlr.)
Car, en 2050, près de 80 % des usages numériques français feront appel à des data centers basés à l’étranger. Ces usages délocalisés totaliseront 97 % des émissions de gaz à effet de serre du numérique en France.
Que sait-on des perspectives de développement des data centers à horizon 2050 et de leur consommation énergétique ?
B. L. : Avec l’accélération de l’intelligence artificielle générative et, à moyen terme, de la blockchain, les besoins en data centers sont appelés à exploser. Leur typologie va évoluer vers de très grands centres dits « hyperscale », abritant des supercalculateurs très énergivores.
Pour donner un ordre d’idée, les très gros data centers aujourd’hui présents en France représentent 10 mégawatts (MW) de puissance électrique installée. Demain, ils avoisineront plutôt le gigawatt (GW) pour les plus importants – soit 100 fois plus.
Pour évaluer les perspectives en France, nous avons conçu un modèle prospectif, fondé sur le modèle international le plus fiable à ce jour, que nous avons actualisé, le modèle Masanet, qui tient compte du volume des serveurs et de l’évolution à venir de leur efficacité énergétique selon leur modèle type. Ce modèle ouvert sera mis à disposition du grand public.
Dans le scénario tendanciel, qui poursuivrait la trajectoire actuelle, la consommation d’électricité induite par les usages numériques français pourrait progresser d’un facteur de 3,7 d’ici à 2035 pour les data centers installés en France – et même de 4,4, en tenant compte de la consommation des data centers situés à l’étranger.
Dans cette configuration, les usages numériques français entraîneront, à l’horizon 2050, une consommation de 55 TWh par les data centers français – soit l’émission de 1,8 million de tonnes équivalent CO₂ –, et presque 200 TWh par des data centers situés à l’étranger – ce qui correspond à l’émission de plus de 48 millions de tonnes équivalent CO₂. (À titre de comparaison, la consommation d’électricité totale en France atteignait près de 450 TWh en 2024, ndlr.)
À lire aussi : Un data center près de chez soi, bonne ou mauvaise nouvelle ?
Quels défis et risques cela représente-t-il pour nos infrastructures électriques ?
B. L. : Cette évolution pose de nombreux défis territoriaux, environnementaux et socioéconomiques. Aujourd’hui, la France a accès à de l’électricité décarbonée en grande quantité (94 % de sa production, en 2024, ndlr). De ce fait, elle est relativement épargnée par les tensions engendrées par l’implantation de data centers au regard de certains de ses voisins européens.
Toutefois, elle s’est fixée, dans tous les domaines, des ambitions d’électrification (notamment pour la décarbonation de l’économie, ndlr) qui feront augmenter significativement les besoins et la pression sur le réseau électrique. S’y ajoute désormais le développement de data centers, pour répondre à la fois à l’explosion des usages et à la volonté de relocalisation exprimée par la France.
Nous avons pris en compte, dans notre étude, les progrès à venir en matière d’efficacité énergétique, mais ils ne suffiront pas à compenser l’augmentation du volume de données hébergées.
L’éventualité d’une révolution technologique, par exemple liée à l’informatique quantique, n’est certes pas à exclure, mais elle ne garantit pas des économies d’énergie. On sait, par ailleurs, que les innovations technologiques ont toujours amené l’éclosion de nouveaux services conduisant à l’augmentation des usages plutôt qu’à une baisse des consommations.
À lire aussi : Ordinateur quantique : comment progresse ce chantier titanesque en pratique
Quelles options s’offrent à la France pour répondre à sa volonté de souveraineté numérique en accueillant des data centers, tout en se tenant à son objectif de neutralité carbone à l’horizon 2050 ?
B. L. : Dans ce contexte, il s’agit pour la France de faire des choix de société. L’une des options est celle de la sobriété, avec une priorisation des usages numériques et une prise de distance, plus ou moins forte, avec le tout-numérique. Dans le scénario le plus frugal que nous avons envisagé, la puissance installée pour les data centers sur le territoire peut être limitée à seulement 5,7 TWh en 2050, soit 190 000 tonnes équivalent CO₂.
L’autre chemin consiste à miser sur l’innovation pour réduire les émissions de gaz à effet de serre des autres secteurs d’activité et à optimiser la consommation d’énergie du numérique. Notre modèle estime que la puissance installée pour les data centers en France avoisinerait alors les 64 TWh, soit 11 fois plus qu’en optant pour la sobriété. Cela correspondrait à l’émission de 2,15 millions de tonnes équivalent CO₂.
La question centrale ici, qui relève d’un choix citoyen, est celle du rôle que l’on souhaite donner demain au numérique dans notre société sans renoncer à notre objectif de neutralité carbone.
Propos recueillis par Nolwenn Jaumouillé.
Bruno Lafitte ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
02.04.2026 à 16:04
Maxime Menuet, Professeur de sciences économiques, Université Côte d’Azur
Longtemps, la dette a servi à financer la guerre et les crises. Depuis les années 1970, l’endettement des États ne répond plus seulement au financement de ces événements exceptionnels. La dette structure désormais nos économies, nos politiques… et même nos imaginaires. Faut-il libérer la dette de l’idée de péché ? Le peut-on seulement ?
Contrairement à une idée reçue, l’endettement public est un phénomène relativement récent. Il est en effet essentiel de distinguer la dette d’un individu privé, fût-il prince, roi ou empereur, de celle contractée par une société dans son ensemble. Sous l’Ancien Régime, le trésor royal et le trésor du royaume étaient souvent confondus. La dette relevait alors d’un engagement personnel. Cette confusion comptable était même revendiquée par les mercantilistes, qui évaluaient la richesse de la nation à l’aune du trésor personnel du roi.
La véritable naissance de la dette publique coïncide avec celle de l’État-nation moderne, un moment où les individus, en tant que sujets ou citoyens, reconnaissent une entité transcendante – l’État – capable d’émettre des titres de dette en leur nom. Dès l’origine, cet instrument est donc étroitement lié à la confiance dans le pouvoir politique.
À lire aussi : Et si la dette publique servait d’abord à rendre les citoyens plus heureux ?
Pendant longtemps, la dynamique de la dette publique a obéi à un schéma relativement simple : un cycle de guerre et de paix. Les États s’endettaient pour financer des dépenses extraordinaires, en particulier les conflits, puis se désendettaient en période de paix, portés par la croissance économique ou l’inflation. Les exemples sont bien connus : la dette britannique dépasse 150 % du produit intérieur brut (PIB) après les guerres napoléoniennes, tandis que celle de la France excède 200 % à l’issue des deux guerres mondiales.
Depuis les années 1970, une transformation majeure s’opère. Les pays développés s’endettent désormais de manière durable… en temps de paix. Les déficits deviennent structurels, atteignant en moyenne près de 3 % du PIB dans les pays de l’Organisation de coopération et de développement économiques (OCDE).
Cette rupture soulève une question centrale : pourquoi les États continuent-ils de s’endetter en l’absence de chocs exceptionnels, et quelles en sont les conséquences ?
Mes travaux s’attachent précisément à éclairer les origines de cet endettement ainsi que ses effets. Du côté des causes, j’ai montré que l’accumulation de dette publique peut résulter d’inefficacités économiques liées à des conflits sociaux ou à des stratégies politiques. La dette n’est pas seulement un instrument financier : elle peut devenir un levier stratégique pour les gouvernants.
Par exemple, la réputation de compétence d’un responsable politique – notamment sa capacité à « gérer » la dette – n’a de valeur que si le problème persiste. En résolvant totalement la question de la dette aujourd’hui, il priverait en partie son action future de justification. Il existe ainsi une incitation à laisser s’accumuler la dette, plutôt que de la liquider définitivement.
Dans un autre registre, la dette peut également jouer un rôle dans la gestion des tensions sociales internes. Un dirigeant peut avoir intérêt à déplacer le conflit vers l’extérieur – par exemple, vis-à-vis de créanciers internationaux – afin de réduire les divisions internes, notamment en période préélectorale. Ce mécanisme de « diversion » a été observé, par exemple, lors de la crise grecque, lorsque le gouvernement d’Alexis Tsipras a fortement politisé le conflit avec la fameuse « Troïka », contribuant à fédérer le soutien domestique face à une contrainte extérieure.
Au-delà de ses causes, la dette publique transforme en profondeur le fonctionnement des économies. Une idée largement admise, notamment depuis les travaux de Henning Bohn à la fin des années 1990, est que la soutenabilité repose sur la réaction des gouvernements : si ces derniers augmentent les impôts ou réduisent les dépenses lorsque la dette s’accroît, alors sa trajectoire reste maîtrisée.
Mes recherches invitent à nuancer ce diagnostic. En pratique, les gouvernements réagissent moins au stock de dettes qu’à son coût, c’est-à-dire à la charge d’intérêts. Cette distinction est décisive, en particulier dans le contexte actuel où la remontée des taux d’intérêt apparaît difficilement évitable, compte tenu des besoins d’investissements massifs à venir – qu’il s’agisse de la transition énergétique ou du réarmement. Un tel environnement est susceptible de conduire à des politiques budgétaires plus restrictives.
Mais une réaction trop forte peut, paradoxalement, produire l’effet inverse de celui recherché. Elle peut enfermer l’économie dans une dynamique instable, caractérisée par de fortes fluctuations du ratio de dette et une incertitude accrue sur la trajectoire future. C’est ce que j’ai appelé le « péril des règles budgétaires » : vouloir discipliner excessivement la dette peut, en réalité, fragiliser l’économie.
Un exemple extrême en est donné par la Roumanie, alors membre du bloc de l’Est et dotée d’une économie communiste, de Nicolae Ceaușescu. Dans les années 1980, le régime impose une austérité drastique afin de rembourser intégralement la dette extérieure. Si l’objectif est atteint en 1989, le coût économique et social est considérable. Cet épisode illustre qu’une réaction excessive à la dette peut produire des effets profondément déstabilisateurs sur le long terme.
Toutefois, réduire la dette publique à un simple mécanisme contractuel ou à une variable macroéconomique revient à en manquer une dimension essentielle : sa portée morale. Mes travaux récents suggèrent que, depuis les années 1970 au moins, les économies développées sont entrées dans un régime nouveau, où la dette publique dépasse largement sa fonction initiale de financement des déficits.
Elle devient un instrument central de régulation du capitalisme, structurant à la fois les politiques publiques et les anticipations collectives. En ce sens, elle doit être comprise comme un « fait social total », pour reprendre l’expression de Marcel Mauss.
Mais cette centralité ne tient pas uniquement à ses effets économiques ou institutionnels. Elle repose aussi sur les représentations qui lui sont associées.
L’endettement mobilise en effet un imaginaire moral et religieux profondément ancré. Être endetté, c’est être en faute. Dans les traditions abrahamiques, le péché est pensé comme une dette à rembourser – au point que les deux notions se confondent, comme l’énonçait saint Ambroise (339-397) : « Qu’est-ce que la dette, sinon le péché ? » L’obligation de remboursement ne se réduit pas alors à la simple restitution : elle implique une réparation, parfois une expiation, qui excède en valeur la somme initialement due.
Cette articulation entre dette, faute et libération est particulièrement visible dans la tradition biblique. L’une de ses expressions les plus saisissantes est celle du jubilé : tous les cinquante ans, il était prescrit de libérer les esclaves, d’annuler les dettes, de redistribuer les propriétés et de laisser la terre en repos. Cet héritage continue d’inspirer certaines prises de position contemporaines : depuis Jean-Paul II, plusieurs papes – comme ce fut encore le cas en 2024 – ont ainsi appelé à l’annulation des dettes publiques, notamment celles des pays les plus pauvres, à l’occasion des années jubilaires.
À lire aussi : Ce que Michel Aglietta a apporté à l’économie : une discipline enrichie par les sciences sociales
Cet imaginaire n’a pas totalement disparu. Il continue de structurer, souvent implicitement, les discours contemporains sur la dette publique. Celle-ci est fréquemment présentée comme une faute collective, justifiant des politiques de rigueur ou l’impossibilité d’agir. La société endettée devient ainsi une société coupable, sommée de se discipliner. Dans cette perspective, la dette n’est pas seulement un outil économique : elle organise le fonctionnement du capitalisme lui-même. En imposant des obligations dans le temps, elle façonne les comportements – discipline budgétaire, arbitrages politiques –, tout en stabilisant le système et en en limitant les marges de transformation.
Sortir de cette logique suppose de déplacer le regard. Il ne s’agit pas de nier les enjeux économiques de la dette, mais de rompre avec l’idée qu’elle serait d’abord une faute. D’autres imaginaires existent. Avec Felwine Sarr notamment, certaines traditions africaines invitent à penser la dette publique autrement : non comme une culpabilité mais comme un lien, une relation, voire un levier de transformation collective. C’est dans cette direction que s’inscrivent mes travaux actuels.
Cet article est publié en association avec le Cercle des économistes dans le cadre du Prix du meilleur jeune économiste, pour lequel l’auteur était finaliste.
Maxime Menuet a reçu des financements de l'Agence nationale de la recherche au titre du projet SustainDebt (ANR-24-CE26-3350)
02.04.2026 à 16:03
Vincent Amiel, professeur d'histoire et esthétique du cinéma, Université Paris 1 Panthéon-Sorbonne
Frederick Wiseman, disparu le 16 février 2026, à l’âge de 96 ans, était un des plus grands cinéastes documentaires des XXᵉ et XXIᵉ siècles. Il se distingue par la taille et la cohérence de son œuvre, mais aussi par l’intraitable méthode de fabrication de ses films, bien éloignée de l’usage problématique qui peut être fait aujourd’hui des images d’actualité.
Dans l’œuvre de Frederick Wiseman (1930-2026), il faut d’abord retenir une cartographie unique des lieux de pouvoir aux États-Unis (et très accessoirement, le temps de quelques films, en France), officiels ou non, publics ou non : des prisons d’État (Titicut Follies) aux camps d’entraînement militaires (Basic Training), de la police aux services sociaux (Law and Order, Welfare), des écoles de mannequins aux grands magasins (Model, The Store), en passant par les centres de recherche, les universités, etc.
Le schéma est simple : un lieu relativement fermé, suffisamment pour afficher sa logique interne, et une attention particulière pour les moments où s’exposent les règles, les conventions plus ou moins explicites, où se cristallise l’autorité. Il faut voir la professeure de maintien d’une public school à la fin des années 1960 apprendre aux lycéennes à marcher convenablement, comme on leur apprend à prononcer les langues étrangères ; il faut voir l’employée d’un centre d’aide social désorienter définitivement ses interlocuteurs dans les arcanes de l’administration : dans les moindres gestes, dans les compromissions quotidiennes, se transmettent les normes, les interdits, s’établissent les oppressions banales.
Depuis 1967, et jusqu’à aujourd’hui, à raison d’un film par an, le filet jeté sur la société étatsunienne est dense, et ne laisse pas échapper grand-chose. Car si la plupart des films concernent des institutions, surtout les premières années, Wiseman comprend vite que les lieux de décision de l’organisation sociale sont souvent plus diffus, et n’ont pas besoin, pour être efficaces, d’être des organismes officiels.
Ainsi va-t-il consacrer son attention à des amicales de quartier, des syndics d’immeubles (formidable Plublic Housing, dans une banlieue de Chicago), des clubs de sport, et en France à des lieux de création artistiques (l’Opéra de Paris, la Comédie-Française). Sans que cette question de l’autorité, sociale et culturelle, ne soit jamais son propos explicite, et sans que ce thème ne cache jamais l’humanité singulière de chacune des situations filmées, il laisse affleurer au fur et à mesure des séquences (ses films sont souvent longs) les jeux d’influence, les modèles à l’œuvre, les interdits tacites, et, souvent, la violence scandaleuse, révoltante, et pourtant calmement exposée par ses auteurs, de ceux dont le pouvoir est sans bornes, qu’il s’agisse des policiers de Kansas City ou des scientifiques apparemment plus cools d’un centre de recherches en Géorgie.
Raymond Depardon se souviendra de la leçon lorsqu’il filmera, au milieu des années 1980, trois lieux de pouvoir de la société française, à quelques centaines de mètres les uns des autres, autour de l’île de la Cité à Paris : commissariat de police (Faits divers), hôpital psychiatrique (Urgences) et Palais de justice (Délits flagrants).
Mais tout cela ne serait encore pas grand-chose si Wiseman n’avait pas inventé, au fur et à mesure de ses productions, une façon de faire qui, aujourd’hui plus que jamais, donne à ses films une vérité incomparable. À cent lieues des documentaires développés sur les plateformes contemporaines à grands coups de commentaires ampoulés, de musique ronflante et surtout de reconstitutions à but narratif ou spectaculaire, ses films se contentent de l’observation, la plus neutre possible, des travaux et des jours dans le lieu choisi. Dans ses grands principes, sa méthode est celle du cinéma direct (petite équipe de tournage discrète, enregistrement sans intervention et a fortiori sans répétition ou reconstitution, prise de son directe), mais avec trois caractéristiques qui lui sont propres :
L’absence de documentation préalable : à rebours de tout ce que l’on peut enseigner dans les écoles de journalisme, il se renseigne le moins possible sur son sujet, pour être plus réceptif aux observations spontanées, et moins influencé par les a priori qui peuvent circuler à son endroit. La perspicacité de son regard, les angles nouveaux qui sont les siens prouvent l’efficacité du procédé.
La mise en scène par l’écoute : le cinéaste dirige son équipe en prenant lui-même le son, casque sur les oreilles, laissant à d’autres le soin de tenir la caméra, et orientant le regard de celle-ci, et donc du spectateur en fonction de ce qui s’entend plutôt que de ce qui se voit, ou de ce qui s’expose… Là encore, il s’agit de capter ce qui souvent a pu échapper aux autres.
Le montage, qui dure des mois et concerne à chaque fois des dizaines voire des centaines d’heures de rushes (même lorsqu’il s’agissait de pellicule, beaucoup plus chère à utiliser que la vidéo ou le numérique), est le moment où se dessinent des liens, des échos, où se répondent des témoignages, où s’expliquent certaines positions ou actions.
On comprend que ces trois spécificités vont dans le même sens : donner au moment de l’enregistrement lui-même toute sa force, détaché des clichés, des lectures préétablies. C’est la réalité brute, la vérité des attitudes et la spontanéité captée qui décrivent les liens et les forces en présence. Mais cette immédiateté, loin de faire la part belle à l’émotion superficielle, si prisée par ailleurs par les médias, est relue par l’intelligence du montage, sa compréhension synthétique.
C’est le point critique de ce type de documentaires : il permet aux films de Wiseman de dépasser la simple observation, puisqu’il introduit grâce au montage des lignes de sens, des liens de corrélation, entre des faits éparpillés dans le temps ou les lieux. Il met en regard, il permet d’opposer ou de comparer ; en un mot il donne à lire la réalité, en fournissant des axes, et des points d’accroche. Telle question soulevée par un des habitants reviendra sous d’autres formes à plusieurs reprises, tel personnage apparaissant dans une réunion aura un autre rôle dans un autre contexte, etc.
Au moment du montage, le réalisateur met au jour des potentialités, établit des correspondances :
« Je dois avoir une idée, par exemple, de la manière dont les dix premières minutes du film correspondront avec les dix dernières. »
C’est donc une architecture très élaborée, très consciente, que forme ce montage, dans une toute autre perspective que celle d’un choc entre images (qui serait l’héritage du montage soviétique) ou d’une distraction constante imposée par la musique ou les commentaires (à la suite d’un Michael Moore par exemple). C’est le principe adopté en France par Nicolas Philibert (qui a souvent dit sa dette envers Frederick Wiseman) dans le célèbre Être et Avoir, ou dans ses plus récents films sur diverses institutions psychiatriques
La longueur des films, celle des séquences captées sur le vif, sont garantes de la liberté du spectateur, tandis que la lisibilité est pourtant permise par leur construction. C’est le paradoxe exemplaire de cette œuvre. Rien n’est plus trompeur en effet que l’insignifiance d’un reportage sans forme qui ne laisse aucun moyen de comprendre le réel, si ce n’est selon l’idéologie du moment.
Permettre de voir vraiment, c’est permettre de se laisser ballotter par le désordre et la diversité, avant de saisir des lignes de force, de repérer le relief de la réalité, ses failles, ses dynamiques. C’est bien ce que font les films de Wiseman, fournissant au spectateur une matière proliférante (tant de vies, tant de destinées dans Public Housing, tant de facettes du monde qui se construit dans At Berkeley), et lui offrant en plus le cadeau d’une intelligence possible.
Vincent Amiel ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
02.04.2026 à 10:05
Elora Chatain, Doctorante, Inrae
Jean-Nicolas Beisel, Professeur d'écologie a l'École nationale du genie de l'eau et de l'environnement, Université de Strasbourg
Stéphan Jacquet, Directeur de recherche en sciences aquatiques, Inrae
Théo Gonin, Doctorant, Inrae

L’eau du Léman, lac franco-suisse, n’a jamais été aussi limpide, mais ce n’est pas forcément une bonne nouvelle pour le plus grand lac d’Europe occidentale. Derrière cette apparence de carte postale se cache en réalité une invasion silencieuse : celle de la moule quagga, qui filtre massivement l’eau, au risque de bouleverser en profondeur l’équilibre du lac. Des espèces de poissons pourraient être menacées, mais aussi les activités humaines : cette espèce colonise aussi, en effet, les conduites permettant l’approvisionnement en eau.
Depuis 2015, l’eau du Léman, lac frontière entre la France et la Suisse, devient progressivement cristalline. Une aubaine pour les baigneurs : visibilité parfaite, reflets couleur turquoise… un léger air des Maldives en plein cœur de l’Europe !
Mais derrière cette carte postale séduisante se cache une question dérangeante : une eau trop claire est-elle forcément synonyme de bonne santé écologique ? Car ce changement spectaculaire n’est ici pas dû à un miracle naturel, mais en bonne partie à l’action silencieuse d’une minuscule bivalve d’à peine deux centimètres : la moule quagga.
Et si cette transparence nouvelle semble anodine, voire réjouissante, elle est en réalité le symptôme visible d’un bouleversement profond. Car sous la surface du Léman, l’équilibre du lac est en train de se redéfinir autour d’un envahisseur durablement installé. Cela pourrait à terme entraîner le déclin du phytoplancton et des poissons qui en dépendent, ainsi que des proliférations d’algues.
Discrète, cette moule filtre l’eau avec une redoutable efficacité : jusqu’à deux litres d’eau filtrés par jour et par moule. À première vue, cela paraît insignifiant, presque anodin. Mais multipliez ce chiffre par le nombre d’invidivus, en moyenne, 4 000 individus par mètre carré, et vous obtenez une machine biologique de filtration d’une puissance vertigineuse.
Aujourd’hui, c’est une armée silencieuse qui tapisse le fond du Léman et d’autres lacs en Europe et dans le monde, transformant en profondeur son fonctionnement. Car dans un écosystème, aucun changement d’une telle ampleur ne saurait être neutre. Cette filtration massive bouleverse les équilibres biologiques et complique sérieusement la gestion du lac.
De nom scientifique Dreissena rostriformis bugensis, la moule quagga est une espèce exotique envahissante. Elle n’est pas née dans le Léman.
Originaire d’estuaires du bassin pontocaspien et plus précisément du delta du Dniepr, en Ukraine, elle a voyagé malgré elle – ou plutôt grâce et à cause de nous. Transportée dans les eaux de ballast des navires ou accrochée aux coques des bateaux, elle a traversé continents et océans, colonisant les Grands Lacs d’Amérique du Nord dès 1988, bien avant d’atteindre les lacs européens. Elle est morphologiquement et écologiquement proche de la moule zébrée (Dreissena polymorpha), autre espèce invasive bien connue, mais la quagga semble présenter une capacité d’adaptation encore supérieure.
On estime que le Léman a été touché en 2015, le lac voisin du Bourget en 2017. Depuis 2022, l’espèce est aussi signalée dans le lac de Garde, première occurrence au sud des Alpes. Sa présence dans le lac Majeur est désormais fortement suspectée à la suite de la détection de son ADN.
Capable de s’installer durablement, de se reproduire rapidement et de se disperser à grande échelle, la moule quagga ne se contente pas de s’ajouter à l’écosystème : elle le redessine. Elle menace les espèces locales, modifie les équilibres biologiques et impacte directement certaines activités humaines.
À lire aussi : Derrière les invasions biologiques, un remodelage silencieux des écosystèmes
Cette invasion a pourtant commencé à bas bruit. En 2015, un premier individu était observé à la station de Riva-Gare, dans le canton de Vaud en Suisse. Dix ans plus tard, le constat est saisissant : le fond du Léman est recouvert d’un véritable tapis de moules (jusqu’à 18 000 individus par mètre carré), avec une présence observée à des profondeurs supérieures à 150 mètres, bien au-delà de ce que l’humain peut explorer facilement.
Cette expansion fulgurante de la moule quagga dans le Léman s’explique par une nourriture abondante, des courants favorables, l’absence de prédateurs naturels. Toutes les conditions sont réunies pour une colonisation éclair.
D’autant plus que l’espèce ne se laisse pas freiner par les contraintes extrêmes du milieu. Pression élevée, obscurité totale, températures basses ? Cela ne semble pas lui poser problème. Des individus ont été observés à 250 mètres de profondeur, certains atteignant des âges surprenants : plus de dix ans, là où sa longévité moyenne est plutôt de deux ou trois ans à proximité du littoral.
Comment parviennent-elles à survivre dans de telles conditions ? Peuvent-elles s’y reproduire ? À quel rythme ? Autant de questions auxquelles plusieurs équipes de recherche tentent aujourd’hui de répondre.
La moule quagga n’est pas difficile : elle s’installe sur tous les types de fonds. Sédiments divers, cailloux, roches… Même les fonds meubles de vase, limon et sable semblent lui convenir. Elle ne s’arrête toutefois pas aux milieux naturels.
Elle se fixe sur tous les supports disponibles sous l’eau, y compris les structures artificielles. Crépines, conduites et tuyaux de captage d’eau, notamment ceux destinés à la production d’eau potable, deviennent des supports de choix. À terme, ces infrastructures peuvent être partiellement ou totalement obstruées, compromettant l’approvisionnement en eau.
Les acteurs concernés n’ont alors d’autres choix que d’intervenir : nettoyages répétés, désencrassement des installations, ajout de filtres pour empêcher l’aspiration des moules… Autant de mesures indispensables, mais coûteuses. La présence de la moule quagga se traduit ainsi par un surcoût économique non négligeable, payé directement par les gestionnaires et indirectement par la collectivité.
Mais les dégâts causés par la moule quagga ne se limitent pas à une simple invasion de l’espace. Son mode de vie, discret en apparence, agit comme une bombe écologique à retardement pour le lac.
Car la moule quagga est un organisme filtreur redoutablement efficace. En permanence, été comme hiver, elle aspire l’eau du lac et en extrait le plancton grâce à ses branchies. Cela n’a rien d’un détail.
Le phytoplancton, composante végétale du plancton, constitue le socle même de la vie lacustre : sans lui, c’est toute la chaîne alimentaire classique qui vacille. En effet, le phytoplancton nourrit le zooplancton (composante animale du plancton, dont les plus petits représentants peuvent aussi être ingérés par la moule). Or les alevins, ces poissons à peine éclos, dépendent directement de l’abondance du zooplancton pour survivre.
L’exemple des Grands Lacs nord-américains est sans appel. Là-bas, l’arrivée massive de la moule quagga a provoqué l’effondrement des populations de whitefish (ou corégone), un poisson emblématique qui est le pilier économique des pêcheries, tant au niveau local que dans les grands lacs profonds tempérés et froids en général : une catastrophe sociale et écologique.
Pour l’instant, le Léman n’a pas encore connu un tel scénario. Mais l’histoire nous a déjà montré comment cela peut finir.
En filtrant le phytoplancton à très grande échelle, les moules quagga rendent l’eau plus claire et donc plus transparente. À première vue, cela peut sembler positif, presque un argument touristique. Pourtant, cette clarté inhabituelle bouleverse, elle aussi, profondément l’écosystème.
Une eau plus limpide laisse en effet pénétrer la lumière plus profondément, stimulant la croissance des macrophytes, ces plantes aquatiques enracinées. Ces plantes, productrices d’oxygène, zones de nourricerie et de nurserie des poissons, constituent une composante importante du fonctionnement lacustre.
Mais les plantes et le phytoplancton sont en compétition et se disputent les mêmes nutriments. Résultat : plus les macrophytes prolifèrent, plus elles privent le phytoplancton de ressources, accentuant encore son déclin.
Ce cercle vicieux, connu sous le nom de boucle de rétroaction négative, s’autoentretient et verrouille le système dans un nouvel équilibre bien moins favorable à la biodiversité originelle du lac et à son fonctionnement pélagique, c’est-à-dire, dans la colonne d’eau. On parle alors de benthification des lacs (voir encadré ci-dessous).
À lire aussi : Dans l’océan, comment le plancton s’est adapté à son environnement turbulent
La réponse est simple et brutale : parce qu’il est déjà trop tard et la colonisation du mollusque quasi totale. Imaginer son éradication complète du Léman relève aujourd’hui de la fiction, et tenter de le faire risquerait de provoquer un désastre écologique encore plus grave.
La seule option réaliste consiste désormais à apprendre à vivre avec cette espèce, comme c’est souvent le cas avec les espèces exotiques, à mieux comprendre son écophysiologie, à observer l’adaptation des écosystèmes, et surtout, à éviter que l’histoire ne se répète ailleurs. Cela passe par des gestes simples mais cruciaux : rincer soigneusement les coques de bateaux, le matériel de plongée et les équipements de loisirs avant de passer d’un lac ou d’un cours d’eau à un autre.
Car si la moule quagga a déjà gagné la bataille du Léman, la guerre contre sa propagation n’est pas encore perdue pour d’autres lacs. Et il reste à étudier et tester l’ensemble des pistes disponibles pour aider à la conservation des espèces natives du Léman, notamment en travaillant sur la restauration des habitats.
Jean-Nicolas Beisel a reçu des financements de l'ANR (projet QUALAG pour la période 2025-2029).
Stéphan Jacquet a reçu des financements de l'ANR (projet QUALAG pour la période 2025-2029)
Elora Chatain et Théo Gonin ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur poste universitaire.
01.04.2026 à 17:55
Hager Ben Jaffel, Docteure en relations internationales spécialisée dans la sociologie du renseignement et de la sécurité, Institut catholique de Lille (ICL)
Repeated threats to annex Greenland, controversial diplomatic statements, and, more broadly, the antagonistic stance of the American executive toward Europeans point to an unprecedented climate of distrust among transatlantic allies, of which the latest Davos forum provided a revealing example. But what about alliances between intelligence services?
Often perceived as domestic instruments of political power, intelligence services are, in fact, highly internationalised and enjoy significant autonomy in their dealings with foreign counterparts, though this can occasionally be disrupted by political interference.
Cooperation between intelligence services is not new. Some partnerships date back at least to the First World War and are often the result of agreements between services themselves rather than formal decisions by governments. Whether bilateral or multilateral, these alliances underpin a wide range of activities: liaison officers posted abroad, listening stations, participation in international conferences, and routine exchanges of information.
Research in the social sciences has shown how, over time, a dense network of relationships has developed around shared interests. Counterterrorism, nuclear non-proliferation and other perceived imminent threats have provided strong justification for cooperation, including the exchange of data on individuals, organizations or states considered “dangerous.” The widely held belief that sharing information helps prevent attacks has also encouraged the expansion of surveillance mechanisms – often at the expense of robust democratic oversight.
One example is the many partnerships between the National Security Agency (NSA) and several European counterparts. These collaborations have enabled the pooling of advanced technologies – such as artificial intelligence and algorithmic analysis – to collect and process large volumes of private communications. This work also depends on explicit alliances between intelligence agencies and major tech companies, which have become key intermediaries that, willingly or not, make their users’ data available to intelligence services.
The solidarity and trust on display should not obscure the fact that international cooperation remains a space marked by strong rivalries. Services compete to access information, shape priorities and secure an advantageous position in relationships where resources – financial, human, or technical – are unevenly distributed. In this context, espionage between services and other disloyal practices are also part of the game.
These dynamics suggest that intelligence alliances follow a logic of their own rather than unwavering loyalty to political authority. It is in this context that the Danish military intelligence service monitored the communications of several European political leaders on behalf of the NSA. Above all, because they possess in-depth knowledge of the threats facing the world, intelligence services are able to position themselves at the heart of security decision-making, making political leaders dependent on their expertise.
That said, these alliances are not immune to political pressures. Disputes between intelligence services and political leaders have always existed, but the openly hostile attitude of the “reactionary internationale” embodied by the Trump administration and its MAGA supporters has raised concerns about a possible breakdown – or at least a significant weakening of cooperation.
Faced with an unfavourable political context, they are often able to adjust and even turn the situation to their advantage.
Several European intelligence services have thus strengthened their cooperation, even raising the possibility of creating a European Five Eyes – in reference to the Anglosphere intelligence alliance linking Australia, Canada, New Zealand, the United Kingdom and the United States to countries in Europe and Asia.
Others have specifically developed units to better anticipate the unpredictability of the American executive, with tangible effects: staffing in the unit dealing with the United States within France’s DGSE has increased, and the budgets of several European intelligence services are set to rise, benefiting from broader increases in defence spending.
More broadly, history shows that ties between services remain strong even when governments hold divergent positions. In the early 2000s, exchanges between the DGSE and the CIA continued despite disagreements over the war in Iraq.
A more recent example is Brexit, which did not lead to any major rupture in relations between the British police and their European counterparts, who continue to facilitate the flow of intelligence.
As in any relationship, signs of caution, distrust, or even ambivalence can emerge. For example, the British and Danish intelligence services have indicated that they are limiting – but not completely halting – their exchanges with their American counterparts, concerned about the legal implications and, more broadly, the politicisation of US intelligence. Irritated by repeated provocations over Greenland, the Danish military intelligence service went so far as to designate the United States as a national security threat, alongside China and Russia.
Nonetheless, it would be incorrect to assume that, under more normal circumstances, intelligence sharing would happen without any restrictions. Services do not share all their secrets, all the time, with everyone. On the contrary, the restraint shown by some reflects a routine asymmetry in exchanges that persists and can even be heightened during periods of turbulence.
Signs of continuity are evident, underscoring a key reality: intelligence primarily falls under the purview of career professionals, not politicians. Earlier this year, the Davos forum hosted European and Anglo-American intelligence chiefs, including the CIA, in a key meeting to preserve ties with the “Old Continent”.
Concerns among European services are partly linked to Donald Trump’s stated desire to dismantle the “deep state.” While he did follow through on some threats by dismissing personnel within intelligence agencies, these institutions have neither disappeared nor ceased to function. In practice, the executive branch remains dependent on them.
The appointment of controversial figures to lead several agencies, instead of career officials, reflects an effort to align leadership more closely with political and ideological priorities. Current international developments show that intelligence services remain essential to the implementation of foreign policy. Long criticised, the CIA now appears to have returned to favour with the White House, taking advantage of the opportunities offered by the fight against drug trafficking and the conflict in Iran to reaffirm its relevance and legitimacy to political power.
Taken together, these developments highlight the complexity of the relationship between intelligence services and political power – one shaped by both distance and proximity.
A weekly e-mail in English featuring expertise from scholars and researchers. It provides an introduction to the diversity of research coming out of the continent and considers some of the key issues facing European countries. Get the newsletter!
Hager Ben Jaffel ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
01.04.2026 à 17:26
Marwân-al-Qays Bousmah, Chargé de Recherche, Ined (Institut national d'études démographiques)
Annabel Desgrées du Loû, Directrice de recherche, Institut de recherche pour le développement (IRD)
Anne Gosselin, Chargée de recherche en démographie de la santé, Ined (Institut national d'études démographiques)
Flore Gubert, Directrice de recherche, Institut de recherche pour le développement (IRD); Université Paris Dauphine – PSL
Kevin Poperl, Ingénieur d'étude, économie et statistiques, Institut de recherche pour le développement (IRD)
Une étude inédite menée auprès de plus de 1 000 livreurs de plateformes décrit les conditions de travail indignes de cette population sur laquelle les données manquaient. Ces travailleurs sont sur le pont plus de 63 heures par semaine, de six à sept jours sur sept, pour un revenu très inférieur au seuil de pauvreté. Une enquête éclairante à l’heure où la directive européenne sur les travailleurs des plateformes numériques, qui vise à leur apporter davantage de protection, doit être transposée dans le droit français.
Si la silhouette des livreurs à vélo ou en scooter est devenue familière du paysage urbain et si beaucoup de citadins font appel à eux pour déposer leurs repas à domicile, ces travailleurs précaires demeurent en grande partie invisibles dans les enquêtes et les statistiques publiques.
Pourtant, la disponibilité de données de qualité sur les livreurs des plateformes numériques de travail constitue un enjeu majeur. Sur le plan juridique, la transposition en droit français de la directive européenne (UE) 2024/2831 sur l’encadrement juridique du travail de plateforme (qui vise à mieux protéger les travailleurs des plateformes), attendue avant le 2 décembre 2026, rend indispensable une meilleure connaissance de cette population pour éclairer les choix de régulation.
Sur le plan sanitaire, un rapport de l’Anses de mars 2025 faisait état d’une situation alarmante, mais soulignait aussi le manque de données permettant d’appréhender l’état de santé de ces travailleurs et de mettre en place des politiques publiques adaptées.
C’est dans ce contexte qu’a été lancé le projet Santé-Course. Mené par une équipe de recherche interdisciplinaire de l’Institut de recherche pour le développement (IRD) et de l’Institut national d’études démographiques (Ined), des acteurs associatifs travaillant auprès des livreurs (Association de mobilisation et d’accompagnement des livreurs, AMAL ; Collectif pour l’insertion et l’émancipation des livreurs, Ciel ; Maison des livreurs de Bordeaux ; Maison des coursiers de Paris ; Médecins du monde) et un groupe de pairs constitué de livreurs ou d’anciens livreurs, ce projet s’est attaché à documenter les conditions de travail ainsi que l’état de santé physique et mentale des livreurs à partir d’une enquête menée auprès de plus de 1 000 d’entre eux à Paris et à Bordeaux.
L’étude se penche également sur l’exposition aux risques professionnels, les contrôles policiers et les discriminations subies. Dans ce qui suit, nous mettons l’accent sur leur profil et leurs conditions de travail, mais l’intégralité des résultats est consultable ici.
L’essor des plateformes numériques de travail en France remonte à une quinzaine d’années et résulte de la conjonction de deux séries de facteurs : l’adoption de nouvelles normes juridiques (notamment la loi Novelli de 2008 instaurant le statut d’auto-entrepreneur), d’une part, et la généralisation des technologies de l’information et de la communication ainsi que la démocratisation de leur usage, d’autre part. La première a progressivement flexibilisé le marché du travail et ouvert la voie à l’emploi massif de travailleurs indépendants par les plateformes tandis que la seconde a fourni à ces dernières les conditions de leur déploiement à grande échelle.
À lire aussi : Requalifier ou réguler ? Les controverses du dialogue social des travailleurs des plates-formes
Dans le secteur de la livraison de repas, les plateformes numériques jouent un rôle d’intermédiaires entre restaurateurs et clients, et entre restaurateurs et livreurs. Leur fonctionnement repose sur des algorithmes de mise en relation, de tarification et de déconnexion qui leur permettent de piloter une vaste main-d’œuvre statutairement indépendante, sans avoir à recourir aux modes de gestion traditionnels des entreprises.
Quant aux livreurs, leur statut d’auto-entrepreneur les place en dehors du cadre réglementaire de la santé et de la sécurité au travail applicable aux salariés. Leur situation s’apparente à un retour du travail à la tâche, entendu comme une contractualisation mission par mission entre des donneurs d’ordre et des exécutants.
De ce fait, l’ensemble des cotisations ouvrant droit à la protection sociale ainsi que les obligations légales liées à la protection des travailleurs sont transférées du donneur d’ordre vers le travailleur indépendant lui-même. Cette organisation place les livreurs dans une situation de forte précarité et de dépendance économique vis-à-vis des plateformes, lesquelles contrôlent l’accès aux courses ainsi que les modalités de rémunération.
Enquêter auprès des livreurs de plateforme se heurte à plusieurs obstacles méthodologiques, dont le principal est d’ordre administratif : aucun des répertoires recensant les entreprises et leurs établissements implantés en France (Sirene, Sirus ou Sine), habituellement utilisés comme bases de sondage pour tirer les échantillons des enquêtes annuelles d’entreprises, ne permet d’identifier de façon fiable et exhaustive les livreurs de plateforme. Il est donc difficile de connaître avec précision leur nombre total et leur répartition géographique en France, ce qui rend impossible toute approche par échantillonnage traditionnel.
Une autre difficulté est posée par le phénomène de location de compte qui permet à des livreurs d’exercer leur activité sous le compte d’un tiers. Ce phénomène compromet également le recours aux données des plateformes elles-mêmes, lesquelles manquent de transparence (voir le rapport de l’Anses de mars 2025)
Il en résulte que seul un protocole de démarchage direct dans l’espace public ou dans des lieux associatifs est à même de produire des données fiables. C’est le choix fait par l’équipe du projet Santé-Course : aller à la rencontre des livreurs, sur leurs lieux d’attente, à Paris et à Bordeaux.
Ces deux villes ont été retenues parce qu’elles concentrent une part significative de ces travailleurs en France et abritent les structures associatives partenaires du projet. Afin de garantir une bonne représentation de la diversité des situations vécues par les livreurs et, ainsi, d’obtenir des résultats qui reflètent au mieux la réalité de l’ensemble de la population étudiée, un travail préalable de cartographie précise des lieux d’attente et du nombre de livreurs les fréquentant à différents moments de la journée a été effectué par arpentage, qui a ensuite servi de base au déploiement des enquêteurs.
L’enquête a été réalisée au cours du premier semestre 2025, auprès de livreurs de plus de 18 ans, ayant réalisé au moins une livraison via une plateforme numérique au cours du mois précédant l’enquête et en capacité de donner un consentement éclairé. Au total, respectivement 519 et 485 livreurs ont été interrogés à Paris et à Bordeaux.
Les résultats dressent un portrait sociodémographique remarquablement homogène sur plusieurs dimensions. Les livreurs sont quasi exclusivement des hommes (98,9 %), immigrés (97,8 %) et relativement jeunes – leur âge médian est de 30 ans. Leur niveau de diplôme est en revanche hétérogène : si un quart d’entre eux n’a pas dépassé le niveau primaire, près d’un sur cinq a suivi des études supérieures, avec des écarts sensibles entre Paris (28,3 %) et Bordeaux (9,6 %).
La plupart sont arrivés récemment en France (depuis 2020 en médiane) et sont principalement originaires d’Afrique de l’Ouest et d’Asie du Sud à Paris, d’Afrique de l’Ouest et d’Afrique du Nord à Bordeaux. Leur situation administrative est extrêmement fragile : près des deux tiers sont sans titre de séjour.
Cette précarité administrative se double d’un dénuement matériel. La majorité ne dispose pas d’un logement personnel : la colocation et l’hébergement chez des connaissances dominent à Paris, tandis que les foyers et logements collectifs sont plus fréquents à Bordeaux.
Plus préoccupant encore, près de 18 % déclarent vivre dans des conditions de logement instables (hébergement d’urgence, squat ou hôtel social). La précarité alimentaire est tout aussi marquée : près d’un livreur sur deux à Paris (48 %) et plus d’un sur trois à Bordeaux (36,7 %) déclarent avoir passé au moins une journée entière sans manger, par manque d’argent, au cours des douze derniers mois.
Les enquêtés exercent leur activité depuis peu : les trois quarts n’avaient jamais travaillé pour une plateforme de livraison avant 2021, et plus d’un tiers des livreurs parisiens ont démarré en 2024 ou en 2025. Deux plateformes, Uber Eats et Deliveroo, dominent très largement le marché, mais le recours simultané des livreurs à plusieurs applications (ou « multi-apping ») demeure très minoritaire, concernant moins de 2 % d’entre eux.
La dépendance économique vis-à-vis de cette activité est massive : 91 % déclarent que la livraison constitue l’essentiel de leurs revenus, et environ 95 % n’exercent d’autre activité rémunérée ni ne suivent une formation en parallèle. La dépendance au travail de livraison apparaît d’ailleurs largement contrainte : neuf livreurs sans titre de séjour sur dix déclarent qu’ils cesseraient ou réduiraient drastiquement cette activité en cas de régularisation.
Enfin, le phénomène de location de compte est massif : les trois quarts des livreurs travaillent sous le compte d’une tierce personne, une proportion atteignant 81 % à Paris. Ce phénomène, qui découle de la précarité administrative des livreurs dont beaucoup sont sans papiers, brouille considérablement la lecture des statistiques produites par les plateformes et souligne la nécessité d’enquêtes menées directement auprès des travailleurs sur le terrain.
Les livreurs perçoivent en moyenne 1 480 euros bruts par mois, soit 880 euros nets une fois déduits l’ensemble des frais liés à l’activité (incluant les dépenses d’équipement et de carburant, les frais d’assurance, les impôts et, pour les trois quarts d’entre eux, le coût de location du compte qui s’élève en moyenne à 528 euros mensuels et absorbe à lui seul plus d’un tiers du revenu brut).
Le taux horaire brut moyen s’établit à 5,83 euros, soit bien en deçà du smic horaire (11,88 euros, au moment de l’enquête), pour des volumes de travail considérables : en moyenne 63 heures par semaine, six à sept jours sur sept, dix mois par an, et plus encore pour ceux qui louent un compte. À ce rythme, ils parcourent en moyenne plus de 800 kilomètres par mois, un kilométrage vraisemblablement sous-estimé en raison de l’omission de certains trajets dans les données des plateformes.
Ce tableau d’ensemble dessine le portrait d’une population de « working poor », contrainte à une intensité de travail extrême pour dégager un revenu net qui reste très inférieur au seuil de pauvreté (fixé à 1 288 euros nets par mois pour une personne seule).
Les analyses qui seront conduites par notre équipe dans les prochains mois visent à éclairer dans quelle mesure cette situation se répercute sur l’état de santé des livreurs. Plus de la moitié des livreurs interrogés ont déjà eu au moins un accident dans le cadre de leur travail, et 44,8 % d’entre eux estiment que leur état de santé s’est dégradé par rapport au moment où ils ont débuté leur activité de livraison.
Ce projet a bénéficié de financements de l’Agence nationale de la recherche, de l’Institut Convergences Migrations, de la Ville de Paris, de l’Inserm et de l’Institut Paris Public Health de l’Université Paris Cité.
Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.