LePartisan - 470 vues
MEDIAS REVUES BLOGS
URL du flux RSS

▸ les 50 dernières parutions

20.04.2026 à 15:45

L’IA générative, première révolution cognitive de l’histoire du travail

Hugo Spring-Ragain, Doctorant en économie / économie mathématique, Centre d'études diplomatiques et stratégiques (CEDS)
Au-delà des prévisions alarmistes sur l’impact de l’IA sur l’emploi, comment va-t-elle vraiment changer le travail et son contenu ? Comment bien s’adapter à cette mutation ?
Texte intégral (1593 mots)

L’intelligence artificielle ne détruit pas tant des emplois qu’elle modifie profondément les compétences nécessaires pour les accomplir. De cette confusion entre emploi et compétences risquent de naître des erreurs dans les politiques d’accompagnement des mutations en cours.


Chaque grande vague technologique a produit son lot de prédictions contradictoires sur l’emploi. L’intelligence artificielle (IA) ne fait pas exception. Mais avant de savoir combien d’emplois l’IA va créer ou détruire, il faudrait s’accorder sur ce qu’elle automatise réellement. La réponse oblige à distinguer trois notions que le débat public confond régulièrement : l’emploi, la compétence et la tâche.

Les grandes vagues d’automatisation ont suivi une logique remarquablement stable en deux siècles : vapeur, électricité, robotique industrielle ont déplacé les tâches physiques répétitives et épargné le travail cognitif non routinier. Cette régularité empirique a été formalisée par Autor, Levy et Murnane dès 2003 sous le nom d’« hypothèse de polarisation des tâches ».

Une illusion persistante

L’automatisation ronge les emplois intermédiaires, ceux des cols bleus qualifiés et employés de bureau exécutant des tâches routinières, mais épargne les deux extrémités. D’un côté, les tâches manuelles non routinières, comme la plomberie ou les soins, de l’autre, les tâches cognitives non routinières, comme l’analyse, le conseil ou la rédaction experte. Ces dernières constituaient le cœur des professions du tertiaire qualifié, et la conviction s’était solidement installée qu’elles resteraient hors d’atteinte.


À lire aussi : Pourquoi l’IA oblige les entreprises à repenser la valeur du travail


Cette conviction reposait sur une confusion conceptuelle qu’il faut dissiper avant tout. Ce n’est pas l’emploi de juriste ou d’analyste financier qui était protégé, c’est un ensemble de tâches précises qui composaient cet emploi et qui résistaient jusqu’ici à l’automatisation. La distinction entre ces trois niveaux est fondamentale.

Un emploi désigne un poste occupé dans une organisation, avec un contrat, un salaire, une fiche de poste. Une compétence est une capacité cognitive ou technique mobilisable dans plusieurs contextes professionnels. Une tâche est une action précise, délimitable, dont on peut évaluer si elle est ou non automatisable à un coût donné. C’est à ce troisième niveau que se joue réellement la transformation en cours, et c’est précisément ce niveau que le débat public ignore.

Rupture dans la longue histoire du capitalisme industriel

L’IA générative constitue une rupture dans cette longue histoire. Pour la première fois depuis l’industrialisation, les tâches cognitives qualifiées, rédaction, analyse documentaire, synthèse, production de premiers jets, se retrouvent directement exposées. Eloundou, Manning, Mishkin et Rock estiment qu’environ 80 % de la population active états-unienne pourrait voir au moins 10 % de ses tâches affectées par les grands modèles de langage, et que cette exposition croît avec le niveau de salaire. C’est l’exact inverse du schéma observé lors de toutes les vagues précédentes.

Le cadre analytique développé par Acemoglu et Restrepo permet d’aller plus loin. Leur modèle distingue deux effets opposés produits par toute vague d’automatisation :

  • l’effet de déplacement, d’abord : des travailleurs perdent des tâches au bénéfice de la machine, ce qui réduit mécaniquement la demande de travail et pèse sur les salaires des groupes affectés ;

  • l’effet de réintégration, ensuite : l’automatisation produit de nouvelles tâches où la valeur humaine est décisive, générant une demande compensatrice.

L’histoire longue du capitalisme industriel peut se lire comme une succession de ces deux effets, le second finissant généralement par compenser le premier.

Le cas de la traduction permet de voir très concrètement comment déplacement et réintégration se combinent, l’IA générative peut produire en quelques secondes un premier jet dans une autre langue, ce qui déplace une partie du travail auparavant effectué par des traducteurs humains vers la machine. Mais cette automatisation réintègre simultanément d’autres tâches ou renforce leur importance, telles que la vérification des contresens, l’adaptation au contexte culturel, l’harmonisation de la terminologie, le contrôle de la qualité et la validation finale.

Potentiel déséquilibre

Ce qui est préoccupant avec l’IA générative, c’est le déséquilibre potentiel entre ces deux dynamiques. Le déplacement s’opère à une vitesse que les marchés du travail et les institutions de formation peinent à absorber, tandis que la réintégration reste encore largement à construire.

Cependant, le phénomène le plus important n’est pas sectoriel, mais il est interne aux métiers eux-mêmes. Dans ses « Perspectives de l’emploi », l’OCDE met en évidence que les professions les plus exposées à l’IA générative sont précisément celles à forte densité cognitive : finance, droit, conseil, enseignement supérieur. Contrairement aux vagues précédentes qui frappaient les zones rurales et les bassins industriels, l’exposition est désormais plus forte dans les grandes métropoles et chez les travailleurs hautement qualifiés, un renversement géographique et social inédit.

Redistribuer les tâches

Ce renversement se joue concrètement au niveau de la tâche.

Dans un même poste d’analyste financier ou de juriste, certaines tâches migrent vers l’IA (produire un résumé exécutif, générer une première analyse de contrat, synthétiser une revue de littérature), tandis que d’autres se revalorisent mécaniquement : définir le cadre d’analyse pertinent, évaluer la qualité d’un raisonnement automatisé, détecter une erreur factuelle dans un output, assumer la responsabilité juridique ou éthique d’une décision. Ce ne sont pas des emplois qui disparaissent. Ce sont des bouquets de tâches qui se redistribuent entre humains et machines, transformant de l’intérieur ce qu’un employeur attend d’un salarié qualifié.

Cette redistribution des tâches a une implication directe sur les compétences qui seront réellement valorisées dans les années à venir, et elle renverse une partie des évidences habituelles sur la formation professionnelle.

Former les travailleurs à utiliser l’IA au sens instrumental, maîtriser un outil, rédiger des prompts efficaces, s’approprier une interface, est utile à court terme, mais c’est insuffisant si la compétence réellement demandée demain n’est pas de produire avec l’IA, mais de superviser et de critiquer ce qu’elle produit.

Un enjeu de formation

Or, superviser efficacement un output d’IA requiert exactement ce que les formations courtes et techniques peinent à développer : une culture générale solide permettant de détecter une erreur de fond, une capacité argumentative pour évaluer la cohérence d’un raisonnement, une connaissance des biais cognitifs pour identifier les angles morts d’une analyse automatisée. Ce sont des compétences que les sciences de l’éducation regroupent sous le terme de métacompétences : apprendre à apprendre, à exercer un jugement critique, à mobiliser des savoirs dans des situations inédites.

Arte, 2025.

Le paradoxe devient alors le suivant. À mesure que l’IA automatise les tâches routinières de la connaissance, elle valorise précisément ce que les formations généralistes et les cursus de sciences humaines cultivent de longue date et que les débats sur l’employabilité ont eu tendance à déconsidérer au profit de compétences techniques plus immédiatement mesurables.

Non par nostalgie des humanités, mais par logique économique pure. Si la machine produit le texte, l’analyse et la synthèse, la valeur marginale de l’humain réside dans sa capacité à juger si ce texte dit vrai, si cette analyse est pertinente au regard du contexte réel, si cette synthèse sert l’objectif poursuivi.

The Conversation

Hugo Spring-Ragain ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

20.04.2026 à 15:44

« StravaLeaks » : quand les traces numériques deviennent un enjeu de sécurité

Fabrice Lollia, Docteur en sciences de l'information et de la communication, chercheur associé laboratoire DICEN Ile de France, Université Gustave Eiffel
L’affaire « StravaLeaks » montre que, dans un monde saturé d’objets connectés et de données de localisation, les traces numériques sont devenues un enjeu central de sécurité pour les environnements sensibles.
Texte intégral (1609 mots)

L’affaire « StravaLeaks » montre que, dans un monde saturé d’objets connectés et de données de localisation, les traces numériques ordinaires sont devenues un enjeu central de sécurité pour les environnements sensibles. De simples données de déplacement issues d’un footing, enregistrées et partagées par une application publique, ont pu être utilisées pour localiser des navires ou des bases militaires.


Un footing, en apparence, n’a rien de sensible. Pourtant, en mars 2026, une activité enregistrée sur Strava par un militaire français a permis de localiser en temps quasi réel le porte‑avions Charles-de-Gaulle en Méditerranée orientale. Dès 2018, la carte de chaleur mondiale de Strava – une visualisation agrégée des activités publiques enregistrées par ses utilisateurs – avait déjà révélé des bases militaires et des sites sensibles, et des enquêtes plus récentes ont montré que les pratiques sportives de gardes du corps pouvaient trahir des habitudes de déplacement de chefs d’État.

Le problème ne vient pas d’un piratage sophistiqué, mais d’un usage banal de montre connectée, compte public et trace GPS accessible en ligne. Ce cas illustre comment la sécurité d’aujourd’hui ne se limite plus à la protection physique, mais inclut aussi la maîtrise des traces numériques produites par nos comportements les plus ordinaires.

Quand une application déborde de son usage initial

Strava est une application conçue pour suivre et partager des performances sportives. Son usage premier relève du loisir, de la sociabilité numérique et du suivi de soi, non de la documentation d’activités sensibles. C’est pourtant là toute l’ambivalence de ce type d’outils car sans avoir été pensés pour la sécurité, ils peuvent produire des effets très concrets sur elle.

À mesure que les technologies de traçabilité s’installent dans les usages quotidiens, elles cessent d’apparaître comme des dispositifs de contrôle. Elles deviennent des outils familiers, associés au confort ou à l’optimisation des pratiques. Dès lors, une course, un itinéraire répété, un point de départ ou d’arrivée ou une activité enregistrée en mer peuvent révéler bien davantage qu’une simple pratique sportive. Une donnée de performance peut devenir un indice sur une routine, une présence ou une habitude de déplacement.

Le cas Strava n’est d’ailleurs pas isolé. À l’aéroport d’Heathrow (Londres), en 2014, des toilettes connectées ont été testées pour mesurer anonymement leur fréquentation, améliorer le nettoyage et mieux répartir les moyens de maintenance. L’exemple peut sembler éloigné, mais il montre que, au-delà des outils explicitement sécuritaires, des dispositifs connectés collectent eux aussi discrètement des traces numériques sur les comportements des usagers. En ce sens, la vulnérabilité ne naît plus seulement d’une attaque ou d’une fuite volontaire, mais aussi d’usages ordinaires dont les effets de visibilité sont souvent sous-estimés.

La sécurité ne se joue plus seulement sur le terrain

Longtemps, la sécurité a été pensée selon un modèle essentiellement physique. Il fallait protéger une personne, sécuriser un déplacement, contrôler un périmètre, anticiper une menace. Cette logique est toujours d’actualité mais, à l’ère numérique, elle ne suffit plus.

Dans un environnement saturé d’objets connectés, de plateformes et de données de localisation, la vulnérabilité peut désormais naître à la périphérie du dispositif de protection. Elle ne résulte plus forcément d’une intrusion ou d’une action malveillante. Elle peut venir d’un usage mal paramétré, d’une routine numérique non interrogée ou d’un outil utilisé sans conscience de ses effets de visibilité.

La sécurité d’un responsable politique, d’un chef d’entreprise, d’un diplomate ou d’un site sensible dépend donc aussi des traces numériques produites par son environnement humain et technique : assistants, chauffeurs, escortes, collaborateurs, militaires, objets connectés, applications de suivi ou réseaux de partage. Protéger une « personne sensible », une personnalité, aujourd’hui, ce n’est plus seulement protéger son corps ou son itinéraire. C’est aussi protéger l’écosystème informationnel qui l’entoure.

Cette évolution renvoie à une sécurité de plus en plus renforcée par la technologie via les capteurs, les données et les outils de suivi. Mais l’ajout de technologie ne supprime pas la vulnérabilité. C’est justement le problème d’une lecture technosolutionniste qui surestime la complémentarité humain-machine. Elle rappelle au contraire qu’une technologie n’est efficace qu’à condition d’être articulée à l’analyse humaine, à l’expérience de terrain et à une compréhension fine du contexte. Certes, la technologie renforce donc la vigilance, mais elle ne remplace ni le jugement, ni la formation, ni la culture du risque.

La vulnérabilité observée est également organisationnelle, culturelle et humaine. Elle naît d’une forme de non-concordance entre la banalité des usages numériques (courir avec une montre connectée, par exemple) et la sensibilité des environnements dans lesquels elles s’inscrivent (être dans un endroit classifié secret-défense). Un même outil peut être perçu comme un outil de confort ou de performance tout en produisant des effets d’exposition importants.

Former devient donc aussi important qu’équiper dans la mesure où il ne s’agit pas seulement d’interdire certains usages, mais plutôt de faire comprendre comment une trace numérique par définition invisible peut, par agrégation et recoupement, devenir une information sensible. La sécurité ne se joue donc plus dans le contrôle des outils, mais dans l’intelligence des pratiques.

Réintégrer l’humain au centre de la doctrine de sécurité

L’un des principaux enseignements de ces affaires est qu’aucune technologie ne protège à elle seule. Une application, une montre connectée ou un dispositif de géolocalisation ne sont ni bons ni mauvais en soi. Comme le montre la recherche, tout dépend du cadre dans lequel ils sont utilisés, des règles qui les entourent et de la capacité des acteurs à en comprendre les effets. Raison pour laquelle la réponse ne peut pas être juste « technique ».

Elle suppose aussi une doctrine d’usage, une formation adaptée et une culture sécuritaire partagée. À l’inverse la traçabilité peut aussi renforcer la protection, mais elle ne remplace ni l’analyse humaine, ni l’appréciation du contexte, ni les méthodes classiques de sécurité.

Autrement dit, la sécurité des environnements sensibles repose sur une complémentarité entre l’outil et l’humain. Il ne suffit pas de déployer des dispositifs ; encore faut-il que les utilisateurs comprennent ce qu’ils produisent, ce qu’ils exposent et les conséquences possibles de leurs usages entre une possible surveillance et une souveillance, c’est-à-dire une forme plus discrète de captation des traces intégrées aux gestes ordinaires et parfois à peine perçue par ceux qui y participent.

Dans le cas Strava, l’enjeu n’est donc pas seulement de mieux paramétrer une application. Il est de construire une culture du risque numérique, capable d’intégrer les gestes les plus ordinaires à la réflexion sécuritaire.

Ce que la recherche nous enseigne en lien avec ces cas est que la vraie leçon de ces affaires est peut-être là : dans un monde connecté, la menace ne réside pas seulement dans ce que l’on cherche à cacher, mais aussi dans ce que l’on produit sans y penser.

Ces affaires dites « StravaLeaks » montrent que la traçabilité numérique, loin d’être un simple confort d’usage, peut devenir un enjeu de sûreté dès lors qu’elle s’inscrit dans un environnement sensible. Protéger, aujourd’hui, ce n’est plus seulement verrouiller un périmètre ou escorter une personnalité. C’est aussi apprendre à gouverner les traces que produisent les usages les plus ordinaires.

The Conversation

Fabrice Lollia ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

20.04.2026 à 15:43

Directive européenne sur les sols : pourquoi les suivis par ADN environnemental ne suffiront pas

Mickaël Hedde, Directeur de recherche, Inrae
Antonio Bispo, Inrae
Claire Chenu, Enseignante chercheure à AgroParisTech, science du sol, biogéochimie, matières organiques, Inrae
Flavien Poinçot, Expert au CSTI-RNEST, Acta
Jérôme Cortet, Professeur, Université Paul Valéry – Montpellier III
Une nouvelle directive européenne adoptée fin 2025 prévoit d’évaluer la santé des sols grâce à l’ADN environnemental. Une approche utile, mais insuffisante.
Texte intégral (2484 mots)

La directive européenne sur la surveillance des sols, adoptée par l’Union européenne fin 2025, ambitionne de parvenir à des sols en bonne santé d’ici à 2050. Ces derniers se situent, en effet, au carrefour de multiples enjeux : climat, biodiversité, alimentation, etc. Oui, mais avec quels outils de mesure ? Le texte décidé à Bruxelles n’impose, pour l’heure, que l’approche fondée sur l’ADN environnemental. La France dispose pourtant d’une forte expérience de mesure de la qualité des sols, qui pourrait être avantageusement mise à profit : les meilleurs outils de suivi sont ceux qui intègrent de façon simultanée plusieurs approches complémentaires.


Depuis novembre 2025, la Directive européenne sur la surveillance et la résilience des sols impose aux États membres d’évaluer régulièrement la biodiversité des sols. Pour la partie biologique, la directive prévoit le suivi, tous les six ans, de la diversité microbienne des sols (bactéries et champignons) à partir de l’ADN environnemental (ADNe).

Or, si l’ADNe constitue un outil puissant pour détecter la biodiversité à grande échelle, il est insuffisant, à lui seul, pour interpréter les changements observés et en identifier les causes. En effet, les communautés bactériennes et fongiques ne représentent qu’une partie de la biodiversité des sols, qui inclut également de nombreux organismes aux rôles écologiques cruciaux et variés.

Le fonctionnement des sols repose également sur l’abondance, la biomasse et l’activité des organismes vivants, dimensions qui ne peuvent être évaluées par la seule détection moléculaire. Une approche graduée combinant plusieurs protocoles complémentaires est donc nécessaire pour produire des indicateurs robustes et utiles pour l’action publique.

L’expérience française, notamment à travers le réseau de mesure de la qualité des sols (RMQS) et le GIS Sol, constitue, à ce titre, un référentiel d’interprétation des résultats et un cadre opérationnel déjà éprouvé pour la surveillance de la biodiversité des sols. Celui-ci pourrait avantageusement compléter le socle prévu par la législation européenne.

L’ADN environnemental, nécessaire mais pas suffisant

L’ADNe est une approche moléculaire et, à ce titre, présente des avantages en matière de surveillance environnementale : détection large – et a priori standardisée – de la biodiversité, forte comparabilité spatiale et temporelle… De telles méthodes constituent un outil particulièrement efficace pour détecter des changements dans la composition des communautés biologiques.

Cependant, les signatures moléculaires issues de l’ADNe ne permettent pas toujours d’identifier correctement les taxons présents dans les sols. Elles peuvent présenter des biais de représentativité. Elles sont, de plus, souvent peu corrélées à d’autres caractéristiques biologiques essentielles pour caractériser la biodiversité et le fonctionnement des sols, telles que l’abondance des organismes, leur biomasse, leur structure démographique ou encore leurs activités. Elles offriront donc une vision incomplète – voire parfois déformée – de la santé des sols.

Or, au-delà de la simple détection de changements de diversité, les dispositifs de surveillance doivent également permettre d’interpréter ces évolutions, c’est-à-dire, comprendre ce qu’elles impliquent pour la fonctionnalité de sols, par exemple pour l’agriculture, et d’en identifier les causes. C’est cela qui permettra d’évaluer l’efficacité des politiques publiques et des pratiques de gestion. Dans ce contexte, réduire la complexité biologique et écologique des sols à cette unique composante comporte un risque lié à ses difficultés d’interprétation.

La directive prévoit toutefois que les États membres puissent compléter les indicateurs obligatoires par d’autres indicateurs biologiques dans leurs dispositifs nationaux de surveillance, ouvrant ainsi la possibilité d’approches plus intégrées.

Un outil d’aide à la décision publique

La surveillance de l’environnement poursuit deux objectifs distincts et complémentaires : détecter des changements de l’état des écosystèmes et attribuer ces changements à des pressions environnementales, des usages des sols ou des pratiques de gestion. Ces deux dimensions sont étroitement liées par les processus biologiques et écologiques qui structurent le fonctionnement des écosystèmes.

Au-delà de leur portée scientifique, les indicateurs utilisés pour le suivi de la biodiversité des sols constituent un outil d’aide à la décision publique. Il ne s’agit pas seulement d’identifier les dynamiques des communautés biologiques, mais aussi d’en comprendre les causes. Cela concerne donc aussi, et d’abord, les décideurs publics. Il s’agit d’orienter les pratiques d’aménagement et de gestion durable, d’identifier les situations de dégradation, de mener des politiques pour remédier et de pouvoir en évaluer l’efficacité.

Un dispositif de surveillance qui se limiterait à la détection de changements de la biodiversité des sols sans permettre leur interprétation et leur attribution aux pressions environnementales offrirait une base limitée pour l’évaluation des politiques publiques et la mise en œuvre de stratégies de gestion adaptées.

La biodiversité ne se résume pas au seul nombre de taxons

Les fonctions écologiques du sol – telles que la régulation de l’eau et des contaminants, la fourniture des nutriments, le stockage de carbone, l’entretien de la structure ou le support de la biodiversité elle-même – ne sont pas des états statiques, mais des processus dynamiques. Elles reposent sur l’activité des organismes vivants, leur biomasse et leurs caractéristiques fonctionnelles (physiologie, comportement) ainsi que leurs interactions (compétition, symbiose, parasitisme). Elles s’expriment par des flux et des vitesses de renouvellement plutôt que par de simples stocks.

Dans ce cadre, les approches moléculaires fournissent une information précieuse sur la présence d’organismes, mais ne permettent pas, à elles seules, d’évaluer ces processus dynamiques ni leur intensité. Une interprétation correcte du fonctionnement des sols nécessite donc des mesures complémentaires ainsi que des référentiels d’interprétation permettant de relier les indicateurs biologiques aux différents contextes d’usage des sols et aux conditions environnementales.

Les données ADNe sont de plus en plus utilisées pour développer de nouvelles approches, par exemple celles fondées sur les réseaux d’interactions, qui permettent de représenter l’organisation des communautés biologiques du sol. Lorsque ces réseaux sont construits uniquement à partir de données de présence ou de co-occurrence, ils reflètent surtout le partage de conditions écologiques ou de niches environnementales par différentes espèces.

Cela ne fournit alors que des informations indirectes sur les activités biologiques à l’œuvre et sur les flux de matière et d’énergie, qui déterminent pourtant aussi le fonctionnement des sols. L’interprétation écologique nécessite des informations complémentaires, notamment sur l’abondance ou la biomasse des organismes. C’est ainsi que l’on peut relier les communautés biologiques aux processus écologiques qui soutiennent les fonctions du sol.

Une approche graduée et complémentaire

Afin de concilier efficacité opérationnelle et pertinence écologique, le suivi de la biodiversité des sols gagne à combiner plusieurs types d’approches, chacune apportant une information spécifique sur l’état et le fonctionnement des communautés biologiques.

Les approches fondées sur l’ADNe permettent une détection large et standardisée de la biodiversité microbienne, et pourraient être étendues à d’autres organismes comme les invertébrés.

D’autres méthodes reposent sur l’observation directe des organismes de la faune du sol, l’estimation de leur abondance ou de leur biomasse, ou encore l’analyse de leurs caractéristiques fonctionnelles. Elles apportent des informations essentielles sur la structure biologique et le rôle écologique des communautés du sol.

Ces approches ne doivent pas être considérées comme mutuellement exclusives, mais comme des outils complémentaires. Elles permettent de relier la composition des communautés biologiques (structure taxonomique et fonctionnelle) aux processus écologiques qui soutiennent les fonctions des sols. Leur combinaison est, à ce titre, particulièrement intéressante pour construire une stratégie de suivi présentant différents niveaux d’information.

Cette logique de complémentarité est déjà mise en œuvre dans certains dispositifs de suivi existants. Par exemple, dans le cadre du réseau français de surveillance des sols (RMQS) ou encore dans l’observatoire de biodiversité de montagne Orchamp. Ces approches n’ont pas vocation à être déployées partout, mais leur combinaison est indispensable pour interpréter correctement l’état et l’évolution de la biodiversité des sols.

Nos recommandations pour une mise en œuvre de la directive à l’échelle nationale

Préserver la capacité à comprendre, expliquer et agir suppose de reconnaître que la complexité biologique des sols appelle une diversité maîtrisée des approches de suivi.

Avec le soutien du GIS Sol, la France figure parmi les nations à la pointe du suivi de la biodiversité des sols. Elle a éprouvé cette approche, combinant plusieurs protocoles au sein du RMQS, depuis plusieurs années. Cette expérience, rare à l’échelle européenne, doit constituer la base sur laquelle construire le futur réseau national de surveillance des sols.

La directive prévoit, au-delà des indicateurs obligatoires, la possibilité pour les États membres de compléter leurs dispositifs par des indicateurs optionnels. Cette flexibilité offre l’opportunité de mettre en place un système de surveillance capable non seulement de détecter des tendances d’évolution de la biodiversité des sols, mais aussi d’en interpréter les causes et les possibilités de remédiation. Cela permet enfin d’évaluer les implications pour les politiques publiques.

Dans cette perspective, plusieurs principes devraient guider la déclinaison nationale de la directive européenne :

  • Ne pas restreindre la surveillance nationale de la biodiversité des sols à une mesure unique issue de l’ADNe, qui limite notre capacité à interpréter les changements observés.

  • Mettre en œuvre une combinaison de mesures complémentaires, permettant de relier la détection de la biodiversité à la structure des communautés et aux processus écologiques qui soutiennent les fonctions des sols, avec l’appui des des protocoles et des mesures qui seront développés dans les PEPR Dynabiod et SolsVivants.

  • Développer des référentiels d’interprétation ouverts et des cadres d’analyse permettant d’évaluer si les variations observées sont significatives, afin de relier les indicateurs biologiques aux usages des sols et aux pressions environnementales.

  • Tirer parti des dispositifs existants, notamment du RMQS soutenu par le GIS Sol, afin de garantir la cohérence, la comparabilité et la robustesse scientifique du futur système national de surveillance.


Cet article est une production conjointe du RMQS Biodiversité, des PEPR SolsVivants et Dynabiod et du RNEST, représentés par les co-auteurs. Ont également contribué à l’élaboration de ce document : Apolline Auclerc, Nolwenn Bougon, Miriam Buitrago, Philippe Hinsinger, Claudy Jolivet, Antoine Lévêque, Gwenaël Magne, Florence Maunoury-Danger, Jérôme Mathieu, Christian Mougin, Laurent Palka, Benjamin Pauget, Guénola Pérès, Sophie Pouzenc, Sophie Raous, Claire Salomon, Marie-Françoise Slack, Wilfried Thuiller, Cécile Villenave, Quentin Vincent.

The Conversation

Mickaël Hedde a reçu des financements de différents organismes français (OFB, ANR, ADEME) et de l'Union Européen (Horizon Europe) pour mener ses recherches au sein de l'INRAE.

Antonio Bispo est directeur de l'unité de recherche INRAE Info&Sols basée à Orléans. Il a reçu des financements de différents organismes français (Ministères, OFB, ANR, ADEME, Région Centre Val de Loire) et de l'Union Européen (Horizon Europe) pour mener ses recherches. L'unité de recherche pilote, pour le compte du GIS Sol (www.gissol.fr), les programmes nationaux d'inventaire et de surveillance des sols, elle gère également le système national d'information sur les sols.

Claire Chenu est membre de l'Association Française pour l'Etude des Sols (AFES), membre correspondant de l'Académie d'Agriculture et membre de l'Académie des Technologies. Elle co-préside le Comité Scientifique, Technique et d'Innovation du Réseau National d'Expertise Scientifique et Technique sur les Sols (CSTI RNEST). Elle a reçu des financements Européens (en particulier European Joint Programme SOIL) pour mener des recherches au sein d'INRAE et AgroParisTech

Flavien Poincot est ingénieur à l'Acta qui accompagne, anime et représentante le réseau des 19 instituts techniques agricoles, organismes de recherche appliquée travaillant pour l’ensemble des productions agricoles, animales et végétales.

Jérôme Cortet est membre de la Société française d’Écologie Évolution (SFE2) et de l'Association française pour l’Étude du Sol (AFES). Il co-préside actuellement le Comité Scientifique Technique et d'Innovation du Réseau National d'Expertise Scientifique et Technique sur les Sols (CSTI RNEST). Il a reçu des financements de différents organismes français (ANR, ADEME, Région Occitanie) pour mener ses recherches au sein du Centre d’Écologie Fonctionnelle et Évolutive, laboratoire rattaché à l'Université de Montpellier Paul-Valéry

3 / 50

 

  GÉNÉRALISTES
Ballast
Fakir
Interstices
Issues
Korii
Lava
La revue des médias
Time [Fr]
Mouais
Multitudes
Positivr
Regards
Slate
Smolny
Socialter
UPMagazine
Le Zéphyr
 
  Idées ‧ Politique ‧ A à F
Accattone
À Contretemps
Alter-éditions
Contre-Attaque
Contretemps
CQFD
Comptoir (Le)
Déferlante (La)
Esprit
Frustration
 
  Idées ‧ Politique ‧ i à z
L'Intimiste
Jef Klak
Lignes de Crêtes
NonFiction
Nouveaux Cahiers du Socialisme
Période
 
  ARTS
L'Autre Quotidien
Villa Albertine
 
  THINK-TANKS
Fondation Copernic
Institut La Boétie
Institut Rousseau
 
  TECH
Dans les algorithmes
Framablog
Gigawatts.fr
Goodtech.info
Quadrature du Net
 
  INTERNATIONAL
Alencontre
Alterinfos
Gauche.Media
CETRI
ESSF
Inprecor
Guitinews
 
  MULTILINGUES
Kedistan
Quatrième Internationale
Viewpoint Magazine
+972 mag
 
  PODCASTS
Arrêt sur Images
Le Diplo
LSD
Thinkerview
🌞