LePartisan.info À propos Podcasts Fil web Écologie Blogs Revues Médias
Statium Blog
Souscrire à ce FLUX

STATIUM

Christophe MASUTTI

Hospitalier, (H)ac(k)tiviste, libriste, administrateur de Framasoft.

▸ les 155 dernières parutions

07.03.2023 à 01:00

Pour un web désencombré

Et si nous nous mettions en quête d’une low-technicisation du web ? Cela implique de faire le tri entre le superflu et le nécessaire… donc d’ouvrir un espace de discussion avant que d’autres s’en emparent et nous façonnent un web à leur image où se concentreraient les pouvoirs. Nous voulons un web en commun qui respecte les communs. Ce billet est une modeste tentative pour amorcer un débat.


– Ton blog est tout moche, c’est normal ?

– Il n’est pas moche, son contenu est structuré à peu près correctement selon les préconisations standards HTML et avec une feuille de style minimaliste.

– oui, mais pourquoi ? il n’était déjà pas bien joli, joli auparavant…

– Parce que le web est encombré, cela a un coût environnemental non négligeable et la présentation tend à prévaloir sur les contenus en sacrifiant le sens et la pertinence de ceux-ci. À ma mesure, j’essaie de participer à un web plus léger.

– Et tu penses qu’il y a tant de monde pour lire ta prose que cela fera une différence ?

– non, d’ailleurs tu peux aller voir ailleurs, si cela ne te plaît pas.


Oui, je sais : low-tech, low-num, ces mouvements sont au goût du jour et il est de bon ton d’y participer au moins de loin, à titre individuel ou collectif. Ce que vous lisez n’est qu’un blog personnel mais il me semble intéressant d’y émettre tout de même une réflexion à ce propos.

Avant de devenir un argument, l’urgence climatique et environnementale est d’abord le constat d’une crise factuelle qui concerne tous les secteurs d’activités de productions et d’usages. Nos pratiques numériques, et tout particulièrement l’inaction face au capitalisme des plateformes, contribue pour une part significative au gaspillage énergétique de l’humanité (et cette partie de l’humanité la plus nantie) et cela a des répercutions extrêmement néfastes sur l’environnement et le changement climatique. Il est crucial et urgent aujourd’hui de prendre non seulement du recul mais agir de manière assez stricte pour limiter ce gaspillage. Si toutefois nous voulons maintenir un semblant d’activité numérique à l’avenir, il va falloir créer des espaces communs de réflexion et d’action avant de se voir imposer des règles qui finiront, comme d’habitude, par concentrer les pouvoirs en concentrant les technologies au bénéfice de ceux qui en auront les moyens.

S’il doit y avoir un nouvel ordre numérique, il doit être issu d’une logique d’action collective qui procède de deux mouvements complémentaires : la réappropriation collective des technologies de communication (la lutte contre les plateformes monopolistes et le capitalisme de surveillance) et l’élaboration d’espaces communs d’échanges et d’expérimentation pour élaborer collectivement nos choix, ce que nous voulons et ne voulons pas, le nécessaire et le superflu. Ces espaces sont supportés par le logiciel libre et le mouvement des communs numériques, par l’éducation populaire et les capacités des groupes à exercer des échanges et des relations démocratiques. Cela suppose deux engagements : préfigurer le monde numérique que nous voulons pour demain et lutter plus ou moins durement contre l’accaparement des moyens de production et des conditions d’échanges communicationnels.

Une fois cela dit… ce ne sont que des mots. Ils ont un intérêt, toutefois : ils placent la critique des technologies dans un débat politique qui transcende la seule action individuelle. Alors, oui, réfléchir à l’encombrement du web aujourd’hui, ce n’est pas une tendance luddite ou rétrograde pour nous « faire revenir » au web des années 1990, c’est une réflexion qui engage notre rapport aux communications et aux contenus web pour que l’innovation soit aussi un choix de vie responsable.

Pour ce qui suit, je ne pourrai ici parler que de mon expérience personnelle, celle d’un utilisateur, d’abord, et celle d’un tout petit créateur de contenus. J’ai quelques sites web amateurs à mon actif et je m’amuse avec les réseaux en général. Et si je suis aussi un grand nostalgique des vieux gros ordinateurs des années 1960, c’est surtout à cause de mon travail d’historien, mais cette partie de l’histoire des machines et des réseaux est aussi un socle sur lequel on peut construire des représentations intéressantes des activités numériques.

État des lieux

Le web, c’est quoi ? Wikipédia nous le dit très bien : « un système hypertexte public fonctionnant sur Internet ». On y accède avec un client HTTP, le plus souvent un navigateur qui permet d’afficher des « pages web ». On peut évaluer le web d’aujourd’hui avec au moins deux points de comparaison : avant HTTP & HTML, et après.

Le point de rupture se situe donc entre 1991 et 1992. En 1991, la définition originale de HTTP version 0.9 par T. Berners-Lee était surtout une présentation succincte et à visée technique tandis qu’en 1992, le mémo HTTP 2 est une présentation beaucoup plus aboutie et concrète. Pour en comprendre la portée, T. Berners-Lee explique pourquoi les systèmes d’information doivent évoluer vers HTTP :

« Les systèmes d’information utiles exigent plus de fonctionnalités que la simple collecte, notamment la recherche, la mise à jour frontale et le traitement des annotations. Ce protocole permet d’utiliser un ensemble ouvert de méthodes (…). »

En 1996, T. Berners-Lee n’est cette fois pas seul pour rédiger la RFC 1945 et dans l’introduction la même phrase est reprise. C’est la même chose en 1999, etc.

Pourquoi est-ce si important ? Il ne faudrait surtout pas croire qu’avant 1991, les réseaux n’avaient pas de quoi structurer des contenus et les diffuser avec des applicatifs tout à fait sérieux. Qu’il s’agisse du vénérable Telex ou du plus moderne Teletex des années 1980, l’accès aux contenus sur les réseaux était tout à fait praticable, surtout après l’arrivée des premiers terminaux à écran. Pour ce qui concerne la création de contenus textuels, il y avait déjà l’ancêtre du HTML : le SGML (Standard Generalized Markup Language), un langage de balisage créé en 1969 et standardisé (ISO) qui vise à produire des textes structurés avec des styles, et donc accessible parfaitement via n’importe quel protocole pourvu qu’on s’entende sur la nature du document (la définition de la nature du document ou DTD). Donc de ce point de vue, SGML, HTML, XML sont des balisages similaires et dont les principes remontent à l’âge d’or des réseaux.

Qu’apporte le HTTP, dans ce cas ? d’abord le support des en-têtes des documents dans un format lui-même standardisé (MIME), ensuite, au fil des améliorations, ce sont surtout les notions de requêtes multiples et de négociation entre client et serveur qui sont importantes : savoir quels types de contenus sont « requêtés » et envoyés et depuis quel serveur (l’adresse de l’hôte). Viennent enfin plus récemment les spécifications pour le transfert sécurisé (HTTPS).

En d’autres termes, même si vous n’avez pas bien compris les paragraphes précédents, ce n’est pas grave. Voici l’essentiel : HTTP est un protocole de communication ouvert qui permet de trimballer plusieurs types de contenus et, au fur et à mesure de l’évolution de HTTP dans l’histoire, on ne s’est pas limité à la seule transmission de documents « texte » en HTML mais on a favorisé l’interactivité tels l’édition de pages web ou quelques applicatifs (Webdav, Cardav, Caldav), et surtout les scripts qui permettent de trimballer toujours plus de contenus multimédias.

Toute cette évolution est basée sur un principe : s’entendre sur des protocoles communs et ouverts de manière à échanger toujours plus de contenus différents quel que soit l’ordinateur et le langage de l’utilisateur. Le World Wide Web devait et doit toujours être un espace en commun (même si ce principe est fortement remis en question par certains gouvernements). Par définition, aucune limite pratique n’a été décrétée et c’est heureux : la multiplication des échanges est fondamentalement quelque chose de positif.

Par contre, deux critiques doivent absolument être entendues. La première est classique : le web est en grande partie devenu dépendant de quelques grandes entreprises qui en concentrent l’essentiel et exercent par conséquent un pouvoir exorbitant (avec la connivence des gouvernements) sur le bon usage de ce commun et par conséquent sur l’accès égalitaire à l’information et la liberté d’expression. Tim Berners Lee a lui-même publiquement dénoncé ce fait qui a détourné le web de sa vocation initiale.

L’autre critique est complémentaire à la première : l’abus de contenus, de présentation de contenus et de pompage de données a rendu le web carrément encombré. Entre la publicité, l’économie de l’attention, le streaming, les images : il est devenu de plus en plus difficile de se livrer à la première vocation du web : chercher, trouver et lire des contenus pertinents. L’évolution du poids des pages web est un indicateur fondamental pour se rendre compte à quel point, malgré l’augmentation de la rapidité de nos connexions, notre manière de créer des contenus est devenue délétère pour l’environnement comme pour la pertinence de ces contenus. La publicité joue évidemment un rôle prépondérant dans cet effet (voir Pärsinnen et al, 2018). Mais le plus alarmant à mes yeux, c’est le rapport entre le contenu HTML d’une page et son poids : en 2020, le contenu HTML d’une page web en 2020 pèse environ 1,3% du poids de la page. Cela signifie que la structure et le contenu informatif sont littéralement noyés dans une masse de données secondaires. Et parmi ces données secondaires, je soutiens que la grande majorité est parfaitement inutile.

Critique des contenus

Si de nombreuses voix s’élèvent depuis des années au sujet du capitalisme de surveillance, la question de la sobriété du web est plus délicate. Que sommes-nous prêts à sacrifier au nom d’une plus grande sobriété du web tout en cherchant à optimiser les contenus et leurs diffusion égalitaire et libre ? Après avoir été pendant des années biberonnés aux médias sociaux et au streaming vidéo sans prendre en compte leurs enjeux environnementaux et socio-psychologiques, que sommes-nous prêt à abandonner au profit d’un web plus efficace et sobre ?

J’avais déjà montré dans un article précédent à quel point les médias sociaux sont loin d’être des espaces démocratiques, en particulier parce qu’ils mettent sur le même niveau des contenus n’ayant aucun rapport entre eux pour générer de l’économie de l’attention. Ainsi un documentaire fouillé et sérieux est situé au même niveau qu’un néo-fasciste qui débagoule dans sa cuisine, un billet de blog équivaut à un article journalistique, et tous les articles journalistiques finissent par se ressembler… tout cela parce que la présentation de ces contenus est très souvent la même, en fin de compte. Les multinationales du web et en particulier le moteur de recherche Google, ont créé un écosystème calibré, optimisé pour le référencement concurrentiel, qui promeut la forme au détriment du fond. Les jugements de valeurs, les contenus caricaturaux et courts, les punchlines, les images-choc, seront toujours plus valorisés que les longs commentaires, articles ou vidéos qui analysent les faits, font un travail conceptuel ou vulgarisent des connaissances complexes.

Première remarque. Il ne faut pas individualiser la responsabilité. Ça, c’est qui a tendance à nous transformer en ayatollahs du tri de déchets ménagers au prix de tensions et d’engueulades familiales mémorables tandis que l’usine d’à-côté achète du droit à polluer. Je ne dis pas qu’il ne faut pas trier ses déchets (il le faut !), mais cela n’a pas de sens si on ne l’inclut pas dans le cadre plus général de notre rapport collectif à la consommation et aux communs naturels. L’analogie avec le web, c’est qu’en plus de chercher à trier le nécessaire du superflu, réfléchir à la manière dont nous communiquons et échangeons des informations conditionne aussi la réflexion collective sur ce nécessaire et ce superflu, dans la mesure où nos échanges passent en très grande partie par le web lui-même. Donc un web plus sobre ne signifie pas un web moins efficace : au contraire, comme on le verra plus loin avec la question de la structuration des contenus, gagner en efficacité c’est aussi chercher à gagner des espaces de débats et d’échanges. Le désencombrement du web est une optimisation.

Seconde remarque. Il faut comprendre tout ce que peuvent ressentir les utilisateurs pour qui les conditions d’accessibilité sont mises en jeu aujourd’hui. Le web est de plus en plus exclusif alors qu’il est censé être inclusif. La pression du « tout numérique » poussé par les politiques publiques, rend de nombreux services désormais inaccessibles. Ce n’est pas que de l’illectronisme, c’est aussi une question d’exclusion sociale (cf. Granjon, 2004, Alberola et al., 2016, Defenseur de droits, 2022). Mais dans beaucoup de cas, ce sont les usages et les « codes » qui sont en jeu : la manière de présenter des contenus, de la symbolique des icônes à la notion de menus et autres variations esthétiques, tout cela fait qu’il est souvent décourageant pour un néophyte de tenter d’y trouver de l’information pertinente. Par exemple, cliquer sur un lien sans voir exactement où il renvoie, parfois sur la même page, parfois dans un autre onglet du navigateur, parfois pour télécharger un document (qui aurait très bien pu être affiché en HTML), parfois pour écrire un courriel (mailto:), tout cela a quelque chose de déroutant pour une personne qui n’est pas habituée aux usages. Cette accessibilité est en outre un sujet de premier plan pour les malvoyants : les pages web brillent de mille feux mais la persistance à vouloir absolument présenter des contenus avec forces effets stylistiques rend extrêmement difficile la recherche d’information. Si je veux naviguer en mode texte (ou avoir une lecture audio) sur une page web aujourd’hui, je dois sacrifier l’accès à certaines informations et me contenter d’un web de second choix. Cela ne devrait pas être le cas.

Troisième remarque. Beaucoup de déclarations sur le web se réclament du mouvement low-tech et dénoncent les usages énergivores pour mieux démontrer comment des technologies sobres permettent de lutter contre le gaspillage. Oui, on peut toujours héberger son serveur web chez soi sur un petit Raspberry pour quelque Kwh. Si ce serveur sert à héberger des contenus intéressants avec un public significatif, oui il peut être considéré comme une bonne pratique, quoique toujours dépendante des infrastructures du web, du fournisseur de service aux câbles sous-marins intercontinentaux et les fermes de serveurs des moteurs de recherche. Oui, nous avons besoin d’un web low-tech, sans aucun doute. Mais ces dispositifs doivent absolument s’accompagner d’une critique des contenus eux-mêmes : est-il pertinent de continuer à publier sur des dispositifs low-tech tout ce qu’on publiait auparavant sur Youtube, Snapchat et Instagram ? Avouez qu’il a pas mal de déchets à envisager, non ? est-il pertinent, même sur un serveur low-tech, de continuer à publier des sites web et des blogs bourrés de traceurs, de pub, de mise en formes, de polices de caractères, d’images à vocation purement communicative (c’est-à-dire sans valeur ajoutée quant au fond du propos), et des appels de fichiers vidéos sur des plateformes externes ?

Critique des techniques

Un web low-tech s’accompagne d’une réflexion sur les usages et n’est rien sans cela. Comme le montre Low Tech Magazine, la réflexion doit être back-end et front-end. Il ont d’ailleurs décrit un très bon exemple de démarche dans cet article :

« Internet n’est pas une entité autonome. Sa consommation grandissante d’énergie est la résultante de décisions prises par des développeurs logiciels, des concepteurs de site internet, des départements marketing, des annonceurs et des utilisateurs d’internet. Avec un site internet poids plume alimenté par l’énergie solaire et déconnecté du réseau, nous voulons démontrer que d’autres décisions peuvent être prises. »

Est-ce que la légèreté d’un site web pourrait pallier la lourdeur de son hébergement ? En d’autres termes vaut-il la peine de construire des sites web épurés (comme cette page de blog que vous êtes en train consulter) si, par derrière, l’hébergement est assuré dans un silo de serveur (comme ce blog). À bien y réfléchir, je ne sais pas vraiment. Je pense que tout dépend des pratiques. Mon blog utilise Hugo via une instance Gitlab : il s’agit de générer des pages web statiques aussi légères que possibles, ce qui permet de diminuer drastiquement la charge serveur, le temps de connexion et le téléchargement. Si je devais me servir encore d’un RaspebbryPi derrière ma box internet, il me faudrait acheter ce petit dispositif dont l’essentiel de la technologie mobilise des ressources à la production et à l’achat. Compte-tenu de la fréquence de mes visiteurs (peu nombreux), je doute sincèrement du gain environnemental de l’opération (en fait je vais expérimenter la chose en recyclant un RaspebbryPi mais cela fera toujours un dispositif supplémentaire dont le coût énergétique est largement supérieur au coût énergétique de quelques pages sobres chez un hébergeur existant).

Donc oui, même si des sites web dépendent d’infrastructures physiques coûteuses pour l’environnement, le fait de construire des pages web légères participe d’un mouvement permettant – sans pour autant pallier les contraintes physique – de désencombrer le web et le rendre :

  • plus durable : diminuer cet encombrement implique plus de légèreté dans les transactions,
  • plus résilient : la construction de pages web désencombrées suppose une structuration de contenus qui fait la part belle à la pertinence et à la recherche d’information, c’est-à-dire les premières fonctionnalités du web, au lieu de surcharger avec des contenus non nécessaires, soumis aux effets de mode et aux aléas des technologies disponibles,
  • plus lisible : certaines techniques peu coûteuses permettent de faire le lien entre structure et contenu (par exemple les microformats, comme nous le verrons plus loin).

Nous ne pouvons pas aller chercher des solutions pérennes en nous précipitant dans une course en avant technologique, pas plus que la croissance technologique n’est censée être le remède contre le changement climatique (produire de lourdes berlines high-tech avec un moteur électrique ne fait que déplacer le problème des ressources disponibles et de leur exploitation). Le solutionnisme n’est pas avare de recettes. Pour rendre des sites web plus économes, nous pourrions envisager encore d’autres dispositifs de l’informatique personnelle, par exemple sur le modèle des liseuses électroniques pour les livres, une sorte de tablette low tech qui donne accès au strict minimum en mode texte essentiellement… un dispositif de plus. Ou bien « encore une appli », sur un autre dispositif encore… et sous prétexte d’alléger le web on alourdi alors les dispositifs physiques mobilisés. Nous pourrions aussi imaginer un surplus de monitoring que par exemple les fournisseurs d’accès pourraient assumer en nous fournissant un web plus léger en modifiant les contenus que nous recevons. Seulement rajouter une couche entre client et fournisseur a ses limites : d’une part cela reviendrait à créer un web inégalitaire et non neutre1 (un retraitement des données qui pose des questions de censure, de sécurité et va à l’encontre de la libre circulation des informations), et d’autre part cela créerait une surcouche technologique dont l’impact économique et énergétique ne serait pas un gain. Enfin, nous pourrions aussi imaginer des logiciels qui permettent d’alléger la lecture elle-même en adaptant le contenu téléchargé, tel le navigateur Browsh, mais est-ce à l’utilisateur de mobiliser de la puissance de calcul pour corriger ce qui ne devrait pas l’être ? Cela me fait penser à tous ces sur-emballages carton des produits alimentaires que nous devons consciencieusement plier et trier au bon soin des services publics qui nous en débarrassent moyennant des hausses d’impôts locaux : nous devrions au contraire les faire bouffer aux distributeurs.

Vers la fin des années 1950, les dispositifs informatiques, ordinateurs et réseaux, ont été fabriqués industriellement, exploités et vendus dans le but initial de rationaliser les processus de production. En tant que systèmes d’information, ce fut leur seconde révolution informatique, celle qui fit sortir les ordinateurs du laboratoire, de la haute ingénierie et du bricolage savant vers les entreprises et ensuite l’informatique domestique. Les réseaux à portée de tous dans les années 1980 puis le web à partir des années 1990 répondent à une vision new age du village global révisé à la sauce de la société de consommation, mais aussi à la généralisation des moyens de communication, de création et de partage de l’information et des connaissances (le rêve d’un système d’information global de Ted Nelson). Peu à peu la convivialité a laissé place à l’automonomie de ces dispositifs techniques en accroissant la complexité des usages, en déportant les fonctionnalités des services existants sur la responsabilité individuelle (on peut parler des nombreuses tâches administratives qui désormais nous échoient dans la numérisation forcée des services publics).

Délaissant la probité et la convivialité, tout en nous submergeant, la croissance des services numériques est désormais incompatible avec notre avenir climatique commun. Dès lors, plutôt que de poursuivre cette croissance, on peut se diriger vers une reconfiguration de la logique d’ingénierie. C’est ce que propose Stéphane Crozat dans une réflexion sur l'« informatique modeste » :

« L’idée d’une démarche de low-technicisation consiste donc à minimiser le domaine d’application de la technique d’une part et de minimiser sa complexité d’autre part. On cherche d’abord ce qui peut ne pas être construit et ce qui peut être mobilisé de plus simple sinon. C’est en cela une inversion de la fonction de l’ingénieur moderne dont le métier est d’abord de construire des machines toujours plus performantes. »

Une informatique modeste n’est pas un repli technophobe. Il s’agit de proposer une alternative low-tech en redéfinissant les objectifs, à commencer par la limitation du surplus matériel et logiciel qu’engendre la course à la croissance au détriment de la convivialité et des fonctionnalités. Dans une logique de croissance, l’intérêt des fonctionnalités est in fine envisagé du point de vue du profit2 alors qu’il devrait être envisagé du double point de vue par rapport à l’existant et par rapport à l’intérêt collectif (dans lequel on intègre la disponibilité des ressources naturelles et matérielles).

Suivant cette idée, vouloir un web désencombré invite à repenser non seulement le transport des informations (les protocoles) mais aussi la nature des contenus. La réflexion sur le besoin et la nécessité implique une révision des contenus et de leur présentation.

Principes du web désencombré

Tout le monde ne peut/veut pas monter un serveur basse consommation chez soi et ce n’est pas forcément pertinent si la nécessité oblige à faire face à une charge serveur importante et une haute disponibilité. L’essentiel, avec des dispositifs du genre (par exemple, on peut citer la FreedomBox), c’est de comprendre que non seulement il passent par la case logiciels libres, mais aussi que les dispositifs doivent être adaptés aux objectifs (éviter la course en avant technologique, cf. plus haut). La sobriété numérique passe par la discussion et le consensus.

Outre les aspects techniques d’un serveur low-tech, il est donc crucial aujourd’hui de s’interroger sur la manière dont nous voulons présenter des contenus de manière à désencombrer le web et clarifier nos usages. Rappel : HTTP et HTML sont les bases autour desquelles se greffent les contenus, par conséquent il s’agit de les structurer convenablement, c’est-à-dire faire passer le fond avant la forme. J’émets donc ici quelques idées, avec beaucoup de redondance. Exprès !. Ce sont des directions potentielles dont le but est surtout de chercher à ouvrir une discussion sur la manière dont nous devrions structurer le web. En gros : mettons-nous à la recherche d’une politique éditoriale du web désencombré.

Liberté

Il n’y a aucune obligation à suivre les préceptes d’un web désencombré3. Il faudrait néanmoins que chacun en comprenne le sens et qu’on puisse ouvrir la possibilité d’un « réseau » désencombré où l’on reconnaîtrait chaque page par son caractère numériquement sobre. On pourrait proposer un manifeste de la communauté du web désencombré.

  • Recommandation : un web désencombré est d’abord une réflexion critique sur les technologies web et sur la manière de structurer les contenus.

Inspiration : Fuckcss et Gemini

En mettant de côté leur aspect volontairement provocateur, on peut s’inspirer des pages suivantes désormais bien connues : This is a motherfucking website. et This is still a motherfucking website. Même si elles contiennent des scripts Google analytics (!).

Elles ont le mérite de démontrer qu’un site web n’a vraiment pas besoin de surcharge CSS. La seconde version propose une négociation relative au confort de lecture : elle démontre qu’un strict minimum de style doit être d’abord pensé pour rendre plus accessible l’information sans pour autant imposer une typographie. La relative austérité de ces pages n’est en réalité due qu’à la feuille de style par défaut du navigateur (allez voir par ici sur Firefox : resource://gre-resources/).

C’est pourquoi une amélioration notable des navigateurs pourrait s’inspirer à son tour de la créativité des créateurs des différents navigateurs utilisés pour le protocole Gemini, comme Lagrange et les autres.

En effet que montre Gemini ? Qu’en s’inspirant d’un protocole comme Gopher (aussi ancien que HTTP) qui permet de présenter des documents dans une grande sobriété (esthétique et énergétique), il est possible de déporter correctement leur présentation sur les fonctionnalités du navigateur et par conséquent rendre leur consultation esthétique, agréable et fonctionnelle en travaillant la chose en local.

Pour moi, Gemini est d’abord une preuve de concept, tant dans le processus de création de contenus4 que dans la consultation. Même si le Geminispace reste confidentiel et réservé à quelques connaisseurs, l’utilisation est néanmoins très simple, même si elle implique forcément un changement d’habitudes. Je pense que, sur ce modèle, un web désencombré devrait s’inspirer d’un protocole et d’un langage déjà forts anciens (HTTP et HTML) mais en les utilisant dans leurs « versions » originelles. Il m’est d’avis que si les navigateurs créés pour Gemini acceptaient à la fois du Gopher/Gemini et du HTML « scrict » (je le met entre guillemets car il n’a plus cours), nous pourrions surfer de manière très intéressante avec des fonctionnalités très créatives. Un piste pourrait être le navigateur HTML Lynx, qui utilise une coloration syntaxique intéressante.

Les contenus textuels : structuration

La sobriété numérique ne doit pas être comprise comme un « retour aux sources ». D’une part ces « sources » sont toujours présentes : le HTML est une évolution de l’ancien SGML. D’autre part s’adosser à l’existant implique ici en réalité un usage correct des langages de structuration de contenus. Par exemple, utiliser correctement les éléments HTML revient à optimiser la recherche et la visibilité de l’information. Il faut donc éviter que des éléments HTML soient utilisés pour ce qu’il ne sont pas. Par exemple, faire systématiquement des liens dans des <button> et/ou dans des <form>.

Écrire pour le web est devenu une activité à part entière, entièrement dédiée à l’optimisation des résultats des moteurs de recherche, si bien que les contenus ainsi rédigés sont ni plus ni moins que des bons contenus googlisés ! Si d’autres moteurs de recherche plus axés sur des types de structures de pages voyaient le jour, il serait beaucoup plus intéressant de publier des contenus (voir ci-dessous la question des microformats). Écrire pour le web devrait donc en premier lieu avoir pour seul souci la bonne structuration du contenu indépendamment de la manière dont les robots d’une multinationale pourraient le lire. Les mots-clé, les descriptions, les titres doivent être honnêtes et en accord avec le contenu, il ne doivent pas créer de faux indices de pertinence pour être mieux référencés dans des bases de données.

Par défaut, la conception de contenus web doit se concentrer sur toutes possibilités de structuration de contenu du HTML dans la version en cours, et les exploiter au mieux. En d’autres termes, les styles ne doivent pas chercher à pallier les soi-disant manques du HTML ou orienter la compréhension des contenus.

  • Recommandation : Bien que HTML 5 n’ai pas de variante stricte, il faudrait s’inspirer des anciennes variantes HTML strict pour réaliser des pages web. Ceci est l’orientation, pas le but. Cette épuration permet de construire des documents clairs et bien structurés qui pourront être lisibles pour ce qu’ils sont et non ce qu’ils paraissent, avec tout type de navigateur.
  • Recommandation : les feuilles de styles devraient être réduites au minimum nécessaire en fonction du contenu, elles doivent être ad hoc. Si le contenu évolue pour intégrer de nouveaux types de contenus, la feuille de style évolue avec. La feuille de style ne doit pas encombrer5.
  • Recommandation : utiliser à bon escient les en-têtes HTML. Les balises meta doivent être les plus exhaustives possibles tout en restant honnêtes. Le web désencombré est un web de confiance. Les mots-clés, les descriptions, etc. doivent refléter exactement le document et non être rédigés à des fins de SEO « concurrentielle » et marketing.

Une piste : améliorer les navigateurs

Une piste de réflexion pourrait consister à améliorer les fonctionnalités des navigateurs pour leur permettre d’afficher de bons styles (modifiables par l’utilisateur) en fonction du type de page consulté. Cette fonction existe en partie, par exemple sur Firefox qui propose un « mode lecture » ou bien, dans les paramètres de Firefox la section apparence, ou encore certains plugins qui proposent de remplacer des styles. Cette fonction pourrait être étendue selon le type de page (correctement déclarée dans les balises d’en-tête, par exemple dans la balise <meta name="description" ) et qui respecterait les préceptes d’un web désencombré.

En effet, si on considère un instant les template/CSS proposés pour les CMS les plus courants (par les communautés d’utilisateurs ou par les sites officiels), quelle typologie trouve-t-on ? Un blog, un journal (ou autre site de news), un site de commerce de détail, un site web d’entreprise, un CV, un portfolio. Le reste, ce sont les web designer qui s’en occupent pour construire des présentations sur mesure. Si nous partons de cette typologie, voici 6 feuilles de styles qui pourraient être choisies par défaut par le navigateur. En poussant le curseur un peu plus loin, il n’y aurait même plus besoin de feuille de style à télécharger avec le document, c’est le navigateur qui se chargerait de proposer une présentation du contenu (et l’utilisateur pourrait choisir). L’idée, ici, consiste à déporter la présentation sur le navigateur, c’est-à-dire travailler en local pour décharger les serveurs d’informations qui seraient superflues.

Plus besoin de télécharger des polices de caractère, plus besoin d’imposer ses goûts et ses couleurs. Bien sûr, il ne devrait pas y avoir d’obligation : c’est l’utilisateur qui devrait pouvoir choisir s’il accepte ou non de consulter le site avec la proposition de style du créateur.

Recommandation : les feuilles de style ne devraient être que des propositions qui permettent de jouer sur la présentation de contenus HTML bien structurés. L’utilisateur devrait pouvoir choisir ou non le style proposé, consulter uniquement en mode texte, ou consulter selon le style qu’il pourra appliquer automatiquement ou non par son navigateur. En l’absence d’un tel choix, par défaut, les styles doivent être réduits à presque rien.

Tout n’est pas mauvais dans les styles

Les feuilles de styles sont des amies : elles permettent de rendre plus agréable la lecture, elle embellissent le web, permettent la créativité, et si la typographie est maîtrisée elles apportent du confort.

Mais elles ont un côté obscur  :

  • la tendance à l’uniformisation : paradoxalement, la créativité est persona non grata sur bien des sites web. Les sites d’actualités, de commerce de détail, et même les sites d’entreprises se ressemblent beaucoup, seules les couleurs et les logos changent. Qui parle encore de visibilité sur le web ? Cela tient pour beaucoup aux CMS (systèmes de gestion de contenus) : même s’il permettent à leurs utilisateurs de créer des CSS sur mesure, l’organisation des pages qu’ils proposent par défaut impliquent souvent une uniformisation des contenus et donc des styles qui se ressemblent.
  • la volonté d’imposer un affichage, une présentation des contenus, sans réelle valeur ajoutée. Pourquoi vouloir absolument proposer des couleurs ou des images qui n’apportent rien de plus au contenu ? Un site qui ne joue que sur les feuilles de style pour afficher un menu, ou mettre en exergue des contenus sera très difficilement lisible sur un navigateur en mode texte, ou en utilisant le mode lecture du navigateur, et surtout c’est la plupart du temps une cause d’inaccessibilité pour les personnes malvoyantes. Les styles doivent n’être que des propositions qui visent à faciliter la lecture par rapport aux feuilles de style par défaut des navigateurs (on l’a déjà dit plus haut, d’accord).
  • la multiplication des requêtes : par exemple, imposer à l’utilisateur de télécharger des polices de caractères (qui en plus sont souvent hébergées par des multinationales qui en profitent pour surveiller), ou imposer une image de fond, des animations,… Les styles ont tendance à alourdir les pages web, souvent inutilement du point de vue du fonds comme du point de vue de la forme.

Pour autant, les styles ne sont pas tous bons à jeter par la fenêtre. On peut penser par exemple à utiliser les microformats. Ces derniers cherchent à combler le fossé entre la structure et la signification grâce à des classes qui sont comprises directement par le navigateur. Par exemple, un microformat qui est prometteur, c’est citation. Avec les bons effets de styles, celui-ci pourrait permettre d’identifier et de travailler les bibliographies sur le web un peut à la manière d’un bibtex géant ! Cela aurait un certain panache et compléterait aisément l’élément HTML <cite> souvent peu ou mal employé.

  • Recommandation : on devrait pouvoir écrire ce qu’on veut, comme on veut, sans être conditionné par des styles.
  • Recommandation : utiliser et promouvoir les microformats permettrait d’optimiser la recherche, la lecture et la compréhension des informations.

Les contenus multimédias

Par défaut, aucune image, aucun son, aucune vidéo ne devrait être téléchargé si l’utilisateur n’en a pas fait explicitement la demande.

Pour les mêmes raisons d’accessibilité mentionnées plus haut, on bannira les icônes et autres images ayant vocation à remplacer de l’information par une iconographie dont les clés de compréhension ne sont de toute façon pas connues de tous.

Il y a un statut particulier du contenu multimédia lorsqu’il vise à illustrer un propos : dans un article, une vignette ne dépassant pas une dizaine de kilo-octets pourrait être proposée dans l’élément HTML figure avec un lien vers l’illustration en plus haute définition soit dans l’élément caption soit directement sur la vignette (à la manière du web des années 1990).

Pour les contenus textuels, une image devrait uniquement avoir pour objectif d’illustrer un propos (mais dans une démarche artistique, une image est en soi le propos).

Un site ayant la vocation de diffuser exclusivement des contenus multimédia doit en assumer le coût énergétique et d’accessibilité tout en structurant correctement ces contenus pour les décrire avec soin. Par exemple, pour les vidéos, on pourra utiliser Peertube (monter une instance ou partager une instance avec d’autres personnes) et proposer par défaut une visualisation en basse définition tout en soignant le sommaire des vidéos.

  • Recommandation : il ne devrait pas y avoir de recommandation particulière pour la présentation des contenus multimédias étant donné que le coût énergétique de leur distribution est connu pour être particulièrement dispendieux. Il appartient à chacun de proposer de tels contenus en connaissance de cause et, le cas échéant, utiliser des formats libres, des logiciels libres et des services de distribution libres comme Peertube pour le son et la vidéo, par exemple).
  • Recommandation : en revanche, un web désencombré commence par se débarrasser du superflu : par défaut, aucune image, aucun son, aucune vidéo ne devrait être téléchargé si l’utilisateur n’en a pas fait explicitement la demande.

Sécurité et confidentialité : pas de javascript, pas de cookies

Le web désencombré est par nature un web sécuritaire. Il noue une chaîne de confiance entre le créateur de contenu et l’utilisateur.

Par conséquent, il n’y a aucune place pour la captation de données utilisateur à des fins de mesure d’audience ou publicitaire. Cela se concrétise notamment par l’interdiction par défaut de code javascript dans les pages HTML et par le refus par défaut de n’importe quel cookie. Cependant…

La manque de confiance dans la navigation web a aujourd’hui atteint un tel stade que certains utilisateurs désactivent complètement le javascript dans leur navigateur, surtout pour des raisons de sécurité. C’est dommage, car l’intention première d’imaginer un web interactif s’en trouve contrecarrée.

Cela dit, un utilisateur est forcément par défaut un utilisateur sans javascript : il faut toujours télécharger le script avant de l’exécuter. Or, tous les navigateurs (surtout en mode texte) ne permettent pas d’exécuter ces scripts. Par conséquent, pour un web désencombré, l’utilisation de javascript devrait être exceptionnelle et réservée à des sites interactifs spécialisés (par exemple un site qui permet une application javascript en ligne). A priori, lire un blog, une vitrine d’entreprise, un article de news ou consulter une base documentaire ne devrait pas nécessiter de scripts.

Concernant les cookies et autres traceurs, le web d’aujourd’hui est dans un tel état que les utilisateurs doivent s’en prémunir (même avec les obligations du RGPD), en installant des plugins tels Ublock Origin ou Privacy Badger. Là encore, un web désencombré ne peut admettre l’utilisation de cookies qui ne soient pas a minima strictement conforme au RGPD et dont la fiabilité est vérifiable.

En d’autres termes, l’utilisation de cookies tiers devrait être interdite pour un web de confiance et désencombré. La CNIL a publié à cet effet quelques moyens de lutter contre ce fléau… mais certains ne manquent pas d’imagination pour contourner tous ces dispositifs.

  • Recommandation : structurer correctement des pages web et les proposer au téléchargement ne devrait nécessiter par défaut aucun cookie ni script. Le web désencombré ne peut donc concerner directement les sites spécialisés qui, pour des raisons d’identification ou de fonctionnement ont besoin de ces dispositifs. Dans ce cas, c’est à eux de trouver des solutions pour une éco-conception web plus efficace. L’essentiel est de veiller à ce que les sites soient les plus légers possibles, les plus sécurisés possible, les plus respectueux possible. Des outils de lutte sont à disposition.
  • Recommandation : dans de très nombreux cas, les cookies (first party) sont nécessaires (par exemple pour un sondage via un formulaire), ce qui lève la convention par défaut citée ci-dessus. Un web désencombré ne peut donc être un web avec des cookies tiers, c’est une limitation volontaire et non négociable. Même remarque avec les scripts.

Pour aller plus loin

C. Bonamy et al, Je code : les bonnes pratiques en éco-conception de service numérique à destination des développeurs de logiciels, URL].

S. Crozat, Low-technicisation du numérique, Conférence, URL.

—, « Vers une ataraxie numérique : low-technicisation et convivialité » in Prendre soin de l’informatique et des générations, hommage à Bernard Stiegler, FYP Éditions, 2021. Texte lisible sur le blog de l’auteur, URL.

Collectif GreenIT, Conception numérique responsable URL ; les fiches Bonnes Pratiques

Fondation Mozilla, HTML (HyperText Markup Language), URL.

Pikselkraft, Bibliographie sur l’éco-conception web et les sites Low Tech, URL.

Mission interministérielle numérique responsable, Référentiel général d’écoconception de services numériques (RGESN), URL.

J. Keith, Resilient Web Design, URL.

Wiki des microformats, URL.


  1. Il y a eu et il y aura encore beaucoup de projets dans ce style, visant à promouvoir l’accès à Internet pour tous et dans des conditions difficiles tout en réduisant le web à quelques services aux mains des grandes entreprises. Une illustration est le projet Internet.org promu par Facebook au nom de la connectivité pour tous. ↩︎

  2. Avoir des smartphones dont la fonction de photographie est toujours plus performante n’a pour autre objectif que de créer un discours marketing pour gagner des parts de marché car l’intérêt réel pour les utilisateurs est marginal. L’interêt collectif est alors laissé de côté : prendre des photos ou des vidéos très haute définition engendre le besoin d’une connectivité toujours plus performante pour les partager, or ne serait-il pas plus pertinent de se poser d’abord la question de la pertinence des contenus multimédia haute définition si leur utilisation se fait pour l’essentiel sur des petits écrans ? Si par défaut le partage de contenus multimédia se faisait en basse définition ou de manière systématiquement plus économe en ressources matérielles et en bande passante, le marché des smartphones disposant de capteurs vidéos et photos s’en trouverait radicalement changé. ↩︎

  3. Vous noterez par la même occasion que la page que vous êtes en train de lire ne correspond pas vraiment à ces recommandations. Cela va s’améliorer au fur et à mesure de l’avancement de mes connaissances à ce sujet. ↩︎

  4. Après tout, on crée des pages Gemini dans un pseudo-markdown et le markdown est déjà largement utilisé pour créer des pages HTML. Le processus de création est très similaire de ce point de vue. ↩︎

  5. Pour être plus explicite, si votre contenu ne propose aucun tableau, il n’est pas utile d’imposer le téléchargement de styles pour des tableaux ; si vos titres sont suffisamment clairs et explicites, il n’est pas utile de les mettre en couleur et imposer vos goûts ; si les navigateurs ont tous désormais un mode lecture nuit/sombre/clair, il est alors inutile de s’occuper de cela dans une feuille de style ; etc. ↩︎

04.02.2023 à 01:00

Toute la France se tient sage... toute ?

Il y a des torchons qu’on ne devrait pas signer et d’autres qui méritent franchement d’être brûlés. La « France qui se tient sage » est un concept qui a fait du chemin et il est vrai que bien peu l’ont vu venir. Il se décline aujourd’hui dans le monde associatif mais aussi – on en parle moins – dans le monde académique.

Des associations qui se tiennent sages

En 2020, dans le cadre de la lutte contre le « séparatisme », l’argumentaire était judicieusement choisi. Surfant sur la vague des attentats (notamment celui de Samuel Paty) se revendiquant d’un certain islam, et sur celle de l’angoisse d’un monde en guerre et de l’écho trop large laissé aux discours de haine dans les médias, la lutte contre le séparatisme visait à prémunir la société française contre les tentatives anti-démocratiques de groupes identifiés souhaitant imposer leur propre ordre social. Ordres religieux, s’il en est, ou bien ordres néofascistes, bref, la Loi confortant le respect des principes de la République (dite « Loi séparatisme ») nous a été vendue comme un bouclier républicain. En particulier des dispositions ont été prises pour que toute association profitant des bienfaits institutionnels (versement de subventions ou commodités municipales) tout en livrant discours et actes à l’encontre de l’ordre républicain se verrait dissoute ou au moins largement contrecarrée dans ses projets.

On peut s’interroger néanmoins. L’arsenal juridique n’était-il pas suffisant ? Et dans la surenchère d’amendements appelant à la censure de tous côtés, on pouvait déjà se douter que le gouvernement était désormais tombé dans le piège anti-démocratique grossièrement tendu : ordonner le lissage des discours, l’obligation au silence (des fonctionnaires, par exemple), contraindre la censure à tout bout de champ dans les médias… le front des atteintes aux libertés (surtout d’expression) marquait une avancée majeure, ajoutées au déjà très nombreuses mesures liberticides prises depuis le début des années 2000.

Le 31 décembre 2021, un décret mettait alors en place le Contrat d’engagement républicain (CER) à destination des associations qui bénéficient d’un agrément officiel ou de subventions publiques (au sens large : il s’agit aussi de commodités en nature qu’une collectivité locale pourrait mettre à disposition). Ce CER n’a pas fait couler beaucoup d’encre à sa sortie, et pour cause : les conséquences n’était pas évidentes à concevoir pour le grand public. Tout au plus pouvait-on se demander pourquoi il était pertinent de le signer pour toutes les associations qui sont déjà placées sous la loi de 1901 (ou sous le code civil local d’Alsace-Moselle). Après tout, celles accusées de séparatisme tombaient déjà sous le coup de la loi. Par exemple, pourquoi l’association des Joyeux Randonneurs de Chimoux-sur-la-Fluette, dont les liens avec le fascisme ou l’intégrisme religieux sont a priori inexistants, devait se voir contrainte de signer ce CER pour avoir le droit de demander à la municipalité quelques menus subsides pour l’organisation de la marche populaire annuelle ?

Réponse : parce que l’égalité est républicaine. Soit ce CER est signé par tout le monde soit personne. D’accord. Et le silence fut brisé par quelques acteurs de qui, eux, l’avaient lu attentivement, ce contrat. Il y eut Le Mouvement Associatif qui dès le 3 janvier 2022 publie un communiqué de presse et pointe les dangers de ce CER. On note par exemple pour une association l’obligation de surveillance des actions de ses membres, ou encore le fait que les « dirigeants » d’une association engagent la responsabilité de l’ensemble de l’association. Comprendre : si l’un d’entre vous fait le mariole, c’est toute l’asso qui en subit les conséquences (privé de subvention, na!).

Puis s’enclenche un mouvement général, comme le 02 févier 2022 cet appel de la Ligue des Droits de l’Homme. Enfin L.A. Coalition fut au premier plan contre le CER dès les premiers débats sur la loi séparatisme. Créé dès 2019 afin de « proposer des stratégies de riposte contre les répressions subies par le secteur associatif », L.A. Coalition montre combien sont nombreuses les entraves judiciaires ou administratives dressées dans le seul but de nuire aux libertés associatives, surtout lorsqu’elles sont teintés de militantisme… alors même qu’elles sont la matière première de la démocratie en France. L.A. Coalition illustre la contradiction notoire entre le discours gouvernemental prétendant défendre la République et la voix du peuple profondément attaché aux valeurs démocratiques. Elle se fait ainsi le thermomètre de l'illibéralisme en France.

Lorsque les associations s’emparent de sujets de société tels l’écologie, les questions de genre, l’économie, les migration, la pauvreté, ou oeuvrent plus généralement pour une société plus juste et solidaire, elles sont désormais amenées à engager une lutte à l’encontre des institutions qui, jusqu’à présent, leur garantissait un cadre d’action démocratique et juridique.

Mais cette lutte dépasse assez largement le cadre des actions associatives. En effet, le CER n’a pas pour seul objet de contraindre les citoyens à la censure. Il sert aussi à court-circuiter les cadres de l’action publique locale, surtout si les collectivités locales sont dirigées par des élus qui ne sont pas du même bord politique que la majorité présidentielle. C’est que qu’illustre notamment l’affaire d’Alternatiba Poitiers qui s’est vue (ainsi que d’autres associations) mettre en cause par le préfet de la Vienne en raison d’un atelier de formation à la désobéissance civile lors d’un évènement « Village des alternatives ». Invoquant le CER contre le concept même de désobéissance civile, le préfet Jean-Marie Girier (macroniste notoire) a obligé la mairie de Poitiers (dont le maire est EELV) à ne pas subventionner l’évènement. Il reçu aussitôt l’appui du Ministre de l’Intérieur (l’affaire est devant la justice). La France des droits et libertés contre la France de l’ordre au pouvoir, tel est l’essence même du CER.

Des scientifiques qui se tiennent sages

On ne peut pas s’empêcher de rapprocher le CER du dernier avatar du genre : le serment doctoral.

Qu’est-ce que c’est ? Il s’agit d’un serment d’intégrité scientifique rendu obligatoire pour tout nouveau docteur et stipulé dans L’arrêté du 26 août 2022 modifiant l’arrêté du 25 mai 2016 fixant le cadre national de la formation et les modalités conduisant à la délivrance du diplôme national de doctorat. L’office français de l’intégrité scientifique (OFIS) en a fait une fiche pratique.

Voici le texte (Art. 19b de l’arrêté) :

« En présence de mes pairs.

Parvenu(e) à l’issue de mon doctorat en [xxx], et ayant ainsi pratiqué, dans ma quête du savoir, l’exercice d’une recherche scientifique exigeante, en cultivant la rigueur intellectuelle, la réflexivité éthique et dans le respect des principes de l’intégrité scientifique, je m’engage, pour ce qui dépendra de moi, dans la suite de ma carrière professionnelle quel qu’en soit le secteur ou le domaine d’activité, à maintenir une conduite intègre dans mon rapport au savoir, mes méthodes et mes résultats. »

On notera que sous son apparente simplicité, le texte se divise en deux : ce que le doctorant a fait jusqu’à présent et ce que le nouveau docteur fera à l’avenir (même s’il quitte le monde académique car le grade de docteur valide compétences et savoirs d’un individu et non d’une fonction). Autrement dit, le serment est censé garantir « l’intégrité » du docteur, alors même que l’obtention du diplôme validé par des (désormais) pairs était déjà censé sanctionner cette intégrité.

Là encore, tout comme avec le CER, il y a une volonté de court-circuiter des acteurs institutionnels (ici les professeurs et l’Université qui valident le doctorat) qui sont désormais réputés ne plus être en mesure de détecter la fraude ou même de garantir les sciences contre les manipulations d’informations, de données et les arguments fallacieux (on pense évidemment aux informations douteuses qui ont circulé lors de l’épisode COVID). On peut aussi s’interroger sur la représentation de la Science que cela implique : une Science figée, obéissant à un ordre moral qui l’empêcherait d’évoluer à ses frontières, là où justement les sciences ont toujours évolué, souvent à l’encontre du pouvoir qu’il soit politique, religieux ou moral.

Plusieurs sections CNU (Conseil National des Universités) sont actuellement en train de réfléchir à l’adoption de motions à l’encontre de ce serment. Ainsi la section 22 (Histoire) a récemment publié sa motion: « Elle appelle les Écoles doctorales et la communauté universitaire dans son ensemble à résister collectivement, par tous les moyens possibles, à l’introduction de ce serment ». L’argument principal est que ce serment introduit un contrôle moral de la recherche. Ce en quoi la communauté universitaire a tout à fait raison de s’y opposer.

On peut aussi comparer ce serment avec un autre bien connu, le serment d’Hippocrate. Après tout, les médecins prêtent déjà un serment, pourquoi n’en serait-il pas de même pour tous les docteurs ?

Hé bien pour deux raisons :

  • Parce que le serment d’Hippocrate n’est pas défini par un arrêté et encore moins dicté par le législateur. Il s’agit d’un serment traditionnel dont la valeur symbolique n’est pas feinte : il est hautement moral et à ce titre n’a pas de rapport juridique avec le pouvoir.
  • Il engage le médecin dans une voie de responsabilité vis-à-vis de ses pairs et surtout des patients qu’il est amené à soigner. Il appartient au Conseil de l’Ordre des médecins : c’est une affaire entre médecins et patients d’abord et entre médecins et médecins ensuite.

Reprenons les termes du serment doctoral imposé par le gouvernement : « je m’engage, pour ce qui dépendra de moi, dans la suite de ma carrière professionnelle quel qu’en soit le secteur ou le domaine d’activité, à maintenir une conduite intègre dans mon rapport au savoir, mes méthodes et mes résultats. »

Question : qui est censé juger de l’intégrité de la conduite ? Les pairs ? Ce n’est pas stipulé, alors que c’est clair dans le serment d’Hippocrate de l’Ordre des Médecins, dernier paragraphe :

« Que les hommes et mes confrères m’accordent leur estime si je suis fidèle à mes promesses ; que je sois déshonoré(e) et méprisé(e) si j’y manque. »

Le « serment doctoral » stipule seulement qu’il est prêté « en présence de mes pairs », la belle affaire. Il est évident selon moi que l’intégrité scientifique d’un chercheur sera à l’avenir évaluée moralement par les institutions et non par les pairs. Cette tendance à la fongibilité entre morale et droit dans nos institutions républicaines est tout à fait malsaine.

Parlons des scandales pharmaceutiques. Parlons des scandales environnementaux. Si demain un chercheur ayant signé ce serment utilise son savoir et ses méthodes pour démontrer les conséquences néfastes (tant environnementales que sociales) d’un engagement gouvernemental dans l’ouverture d’une mine de charbon comme celle de Hambach en Allemagne, à votre avis : pourra-t-il toujours dans son laboratoire essayer de prétendre à quelques subventions pour des recherches (même n’ayant aucun rapport avec son engagement personnel contre la mine) ? En fait, sur le sujet climatique, la question de l’engagement des chercheurs est brûlante : ce qu’on veut surtout éviter c’est le profil du chercheur militant, car on ne sait jamais, il pourrait avoir raison…

Là encore le militantisme et la démocratie sont mises en cause de manière frontale par le gouvernement.

Après avoir bien transformé la dynamique de la recherche française en la noyant sous l’évaluation et la logique de projet, il est normal de faire en sorte que les chercheurs, tout comme les associations, puissent enfin rentrer dans le rang : c’est une France qui se tient sage. Le concept a fait du chemin.

03.09.2022 à 02:00

Bifurquer avant l’impact : l’impasse du capitalisme de surveillance

La chaleur de l’été ne nous fait pas oublier que nous traversons une crise dont les racines sont bien profondes. Pendant que nos forêts crament, que des oligarques jouent aux petits soldats à nos portes, et vu que je n’avais que cela à faire, je lisais quelques auteurs, ceux dont on ne parle que rarement mais qui sont Ô combien indispensables. Tout cela raisonnait si bien que, le temps de digérer un peu à l’ombre, j’ai tissé quelques liens avec mon sujet de prédilection, la surveillance et les ordinateurs. Et puis voilà, paf, le déclic. Dans mes archives, ces mots de Sébastien Broca en 2019 : « inscrire le capitalisme de surveillance dans une histoire plus large ». Mais oui, c’est là dessus qu’il faut insister, bien sûr. On s’y remet.

Je vous livre donc ici quelques réflexions qui, si elles sont encore loin d’être pleinement abouties, permettront peut-être à certains lecteurs d’appréhender les luttes sociales qui nous attendent ces prochains mois. Alimentons, alimentons, on n’est plus à une étincelle près.

(Article paru dans le Framablog le 29/08/2022)

Table des matières


Le capitalisme de surveillance est un mode d’être du capitalisme aujourd’hui dominant l’ensemble des institutions économiques et politiques. Il mobilise toutes les technologies de monitoring social et d’analyse de données dans le but de consolider les intérêts capitalistes à l’encontre des individus qui se voient spoliés de leur vie privée, de leurs droits et du sens de leur travail. L’exemple des entreprises-plateformes comme Uber est une illustration de cette triple spoliation des travailleurs comme des consommateurs. L’hégémonie d’Uber dans ce secteur d’activité s’est imposée, comme tout capitalisme hégémonique, avec la complicité des décideurs politiques. Cette complicité s’explique par la dénégation des contradictions du capitalisme et la contraction des politiques sur des catégories anciennes largement dépassées. Que les décideurs y adhèrent ou non, le discours public reste campé sur une idée de la production de valeur qui n’a plus grand-chose de commun avec la réalité de l’économie sur-financiarisée.

Il est donc important d’analyser le capitalisme de surveillance à travers les critiques du capitalisme et des technologies afin de comprendre, d’une part pourquoi les stratégies hégémoniques des multinationales de l’économie numérique ne sont pas une perversion du capitalisme mais une conséquence logique de la jonction historique entre technologie et finance, et d’autre part que toute régulation cherchant à maintenir le statu quo d’un soi-disant « bon » capitalisme est vouée à l’échec. Reste à explorer comment nous pouvons produire de nouveaux imaginaires économiques et retrouver un rapport aux technologies qui soit émancipateur et générateur de libertés.

Situer le capitalisme de surveillance dans une histoire critique du capitalisme

Dans la Monthly Review en 2014, ceux qui forgèrent l’expression capitalisme de surveillance inscrivaient cette dernière dans une critique du capitalisme monopoliste américain depuis la fin de la Seconde Guerre Mondiale. En effet, lorsqu’on le ramène à l’histoire longue, qui ne se réduit pas aux vingt dernières années de développement des plus grandes plateformes numériques mondiales, on constate que le capitalisme de surveillance est issu des trois grands axes de la dynamique capitaliste de la seconde moitié du XXᵉ siècle. Pour John B. Foster et Robert W. McChesney, la surveillance cristallise les intérêts de marché de l’économie qui soutient le complexe militaro-industriel sur le plan géopolitique, la finance, et le marketing de consommation, c’est-à-dire un impérialisme sur le marché extérieur (guerre et actionnariat), ce qui favorise en retour la dynamique du marché intérieur reposant sur le crédit et la consommation. Ce système impérialiste fonctionne sur une logique de connivence avec les entreprises depuis plus de soixante ans et a instauré la surveillance (de l’espionnage de la Guerre Froide à l’apparition de l’activité de courtage de données) comme le nouveau gros bâton du capitalisme.

Plus récemment, dans une interview pour LVSL, E. Morozov ne dit pas autre chose lorsqu’il affirme qu’aujourd’hui l’enjeu des Big Tech aux États-Unis se résume à la concurrence entre les secteurs d’activités technologiques sur le marché intérieur et « la volonté de maintenir le statut hégémonique des États-Unis dans le système financier international ».

Avancées technologiques et choix sociaux

Une autre manière encore de situer le capitalisme de surveillance sur une histoire longue consiste à partir du rôle de l’émergence de la microélectronique (ou ce que j’appelle l’informatisation des organisations) à travers une critique radicale du capitalisme. C’est sur les écrits de Robert Kurz (et les autres membres du groupe Krisis) qu’il faut cette fois se pencher, notamment son travail sur les catégories du capitalisme.

Ici on s’intéresse à la microélectronique en tant que troisième révolution industrielle. Sur ce point, comme je le fais dans mon livre, je préfère maintenir mon approche en parlant de l’informatisation des organisations, car il s’agit surtout de la transformation des processus de production et pas tellement des innovations techniques en tant que telles. Si en effet on se concentre sur ce dernier aspect de la microélectronique, on risque d’induire un rapport mécanique entre l’avancement technique et la transformation capitaliste, alors que ce rapport est d’abord le résultat de choix sociaux plus ou moins imposés par des jeux de pouvoirs (politique, financier, managérial, etc.). Nous y reviendrons : il est important de garder cela en tête car l’objet de la lutte sociale consiste à prendre la main sur ces choix pour toutes les meilleures raisons du monde, à commencer par notre rapport à l’environnement et aux techniques.

Pour expliquer, je vais devoir simplifier à l’extrême la pensée de R. Kurz et faire des raccourcis. Je m’en excuse par avance. R. Kurz s’oppose à l’idée de la cyclicité des crises du capitalisme. Au contraire ce dernier relève d’une dynamique historique, qui va toujours de l’avant, jusqu’à son effondrement. On peut alors considérer que la succession des crises ont été surmontées par le capitalisme en changeant le rapport structurel de la production. Il en va ainsi pour l’industrialisation du XIXᵉ siècle, le fordisme (industrialisation moderne), la sur-industrialisation des années 1930, le marché de consommation des années 1950, ou de la financiarisation de l’économie à partir des années 1970. Pour R. Kurz, ces transformations successives sont en réalité une course en avant vers la contradiction interne du capitalisme, son impossibilité à renouveler indéfiniment ses processus d’accumulation sans compter sur les compensations des pertes de capital, qu’elles soient assurées par les banques centrales qui produisent des liquidités (keynésianisme) ou par le marché financier lui-même remplaçant les banques centrales (le néolibéralisme qui crée toujours plus de dettes). Cette course en avant connaît une limite indépassable, une « borne interne » qui a fini par être franchie, celle du travail abstrait (le travail socialement nécessaire à la production, créant de la valeur d’échange) qui perd peu à peu son sens de critère de valeur marchande.

Cette critique de la valeur peut être vue de deux manières qui se rejoignent. La première est amenée par Roswitha Scholz et repose sur l’idée que la valeur comme rapport social déterminant la logique marchande n’a jamais été critiquée à l’aune tout à fait pratique de la reproduction de la force de travail, à savoir les activités qu’on détermine comme exclusivement féminines (faire le ménage, faire à manger, élever les enfants, etc.) et sont dissociées de la valeur. Or, cette tendance phallocrate du capitalisme (comme de la critique marxiste/socialiste qui n’a jamais voulu l’intégrer) rend cette conception autonome de la valeur complètement illusoire. La seconde approche situe dans l’histoire la fragilité du travail abstrait qui dépend finalement des processus de production. Or, au tournant des années 1970 et 1980, la révolution informatique (la microélectronique) est à l’origine d’une rationalisation pour ainsi dire fulgurante de l’ensemble des processus de production en très peu de temps et de manière mondialisée. Il devient alors plus rentable de rationaliser le travail que de conquérir de nouveaux espaces pour l’accumulation de capital. Le régime d’accumulation atteint sa limite et tout se rabat sur les marchés financiers et le capital fictif. Comme le dit R. Kurz dans Vies et mort du capitalisme1 :

C’est le plus souvent, et non sans raison, la troisième révolution industrielle (la microélectronique) qui est désignée comme la cause profonde de la nouvelle crise mondiale. Pour la première fois dans l’histoire du capitalisme, en effet, les potentiels de rationalisation dépassent les possibilités d’une expansion des marchés.

Non seulement il y a la perte de sens du travail (la rationalisation à des échelles inédites) mais aussi une rupture radicale avec les catégories du capitalisme qui jusque-là reposaient surtout sur la valeur marchande substantiellement liée au travail abstrait (qui lui-même n’intégrait pas de toute façon ses propres conditions de reproduction).

Très voisins, les travaux d’Ernst Lohoff et de Norbert Trenkle questionnent la surfinanciarisation de l’économie dans La grande dévalorisation2. Pour eux, c’est la forme même de la richesse capitaliste qui est en question. Ils en viennent aux mêmes considérations concernant l’informatisation de la société. La troisième révolution industrielle a créé un rétrécissement de la production de valeur. La microélectronique (entendue cette fois en tant que description de dispositifs techniques) a permis l’avancée de beaucoup de produits innovants mais l’innovation dans les processus de production qu’elle a induits a été beaucoup plus forte et attractive, c’est-à-dire beaucoup plus rentable : on a préféré produire avec toujours moins de temps de travail, et ce temps de travail a fini par devenir une variable de rentabilité au lieu d’être une production de valeur.

Si bien qu’on est arrivé à ce qui, selon Marx, est une incompatibilité avec le capitalisme : l’homme finit par se situer en dehors du processus de production. Du moins, il tend à l’être dans nos économies occidentales. Et ce fut pourtant une sorte d’utopie formulée par les capitalistes eux-mêmes dans les années 1960. Alors que les industries commençaient à s’informatiser, le rêve cybernéticien d’une production sans travailleurs était en plein essor. Chez les plus techno-optimistes on s’interrogeait davantage à propos des répercussions de la transformation des processus de production sur l’homme qu’à propos de leur impact sur la dynamique capitaliste. La transformation « cybernétique » des processus de production ne faisait pas vraiment l’objet de discussion tant la technologie était à l’évidence une marche continue vers une nouvelle société. Par exemple, pour un sociologue comme George Simpson3, au « stade 3 » de l’automatisation (lorsque les machines n’ont plus besoin d’intervention humaine directe pour fonctionner et produire), l’homme perd le sens de son travail, bien que libéré de la charge physique, et « le système industriel devient un système à boutons-poussoirs ». Que l’automatisation des processus de production (et aussi des systèmes décisionnels) fasse l’objet d’une critique ou non, ce qui a toujours été questionné, ce sont les répercussions sur l’organisation sociale et le constat que le travail n’a jamais été aussi peu émancipateur alors qu’on en attendait l’inverse4.

La surveillance comme catégorie du capitalisme

Revenons maintenant au capitalisme de surveillance. D’une part, son appellation de capitalisme devient quelque peu discutable puisqu’en effet il n’est pas possible de le désincarner de la dynamique capitaliste elle-même. C’est pour cela qu’il faut préciser qu’il s’agit surtout d’une expression initialement forgée pour les besoins méthodiques de son approche. Par contre, ce que j’ai essayé de souligner sans jamais le dire de cette manière, c’est que la surveillance est devenue une catégorie du capitalisme en tant qu’elle est une tentative de pallier la perte de substance du travail abstrait pour chercher de la valeur marchande dans deux directions :

  • la rationalisation à l’extrême des processus productifs qu’on voit émerger dans l’économie de plateformes, de l’esclavagisme moderne des travailleurs du clic à l’ubérisation de beaucoup de secteurs productifs de services, voire aussi industriels (on pense à Tesla). Une involution du travail qui en retour se paie sur l’actionnariat tout aussi extrême de ces mêmes plateformes dont les capacités d’investissement réel sont quasi-nulles.
  • L’autre direction est née du processus même de l’informatisation des organisations dès le début, comme je l’ai montré à propos de l’histoire d’Axciom, à savoir l’extraction et le courtage de données qui pillent littéralement nos vies privées et dissocient cette fois la force de travail elle-même du rapport social qu’elle implique puisque c’est dans nos intimités que la plus-value est recherchée. La financiarisation de ces entreprises est d’autant plus évidente que leurs besoins d’investissement sont quasiment nuls. Quant à leurs innovations (le travail des bases de données) elles sont depuis longtemps éprouvées et reposent aussi sur le modèle de plateforme mentionné ci-dessus.

Mais alors, dans cette configuration, on a plutôt l’impression qu’on ne fait que placer l’homme au centre de la production et non en dehors ou presque en dehors. Il en va ainsi des livreurs d’Uber, du travail à la tâche, des contrats de chantiers adaptés à la Recherche et à l’Enseignement, et surtout, surtout, nous sommes nous-mêmes producteurs des données dont se nourrit abondamment l’industrie numérique.

On comprend que, par exemple, certains ont cru intelligent de tenter de remettre l’homme dans le circuit de production en basant leur raisonnement sur l’idée de la propriété des données personnelles et de la « liberté d’entreprendre ». En réalité la configuration du travail à l’ère des plateformes est le degré zéro de la production de valeur : les données n’ont de valeur qu’une fois travaillées, concaténées, inférées, calculées, recoupées, stockées (dans une base), etc. En soi, même si elles sont échangeables sur un marché, il faut encore les rendre rentables et pour cela il y a de l’Intelligence Artificielle et des travailleurs du clic. Les seconds ne sont que du temps de travail volatile (il produit de la valeur en tant que travail salarié, mais si peu qu’il en devient négligeable au profit de la rationalisation structurelle), tandis que l’IA a pour objectif de démontrer la rentabilité de l’achat d’un jeu de données sur le marché (une sorte de travail mort-vivant5 qu’on incorporerait directement à la marchandisation). Et la boucle est bouclée : cette rentabilité se mesure à l’aune de la rationalisation des processus de production, ce qui génère de l’actionnariat et une tendance au renforcement des monopoles. Pour le reste, afin d’assurer les conditions de permanence du capitalisme (il faut bien des travailleurs pour assurer un minimum de salubrité de la structure, c’est-à-dire maintenir un minimum de production de valeur), deux choses :

  • on maintient en place quelques industries dont tout le jeu mondialisé consiste à être de plus en plus rationalisées pour coûter moins cher et rapporter plus, ce qui accroît les inégalités et la pauvreté (et plus on est pauvre, plus on est exploité),
  • on vend du rêve en faisant croire que le marché de produits innovants (concrets) est en soi producteur de valeur (alors que s’accroît la pauvreté) : des voitures Tesla, des services par abonnement, de l’école à distance, un métavers… du vent.

Réguler le capitalisme ne suffit pas

Pour l’individu comme pour les entreprises sous perfusion technologique, l’attrait matériel du capitalisme est tel qu’il est extrêmement difficile de s’en détacher. G. Orwell avait (comme on peut s’y attendre de la part d’un esprit si brillant) déjà remarqué cette indécrottable attraction dans Le Quai de Wigan : l’adoration de la technique et le conformisme polluent toute critique entendable du capitalisme. Tant que le capitalisme maintiendra la double illusion d’une production concrète et d’un travail émancipateur, sans remettre en cause le fait que ce sont bien les produits financiers qui représentent l’essentiel du PIB mondial6, les catégories trop anciennes avec lesquelles nous pensons le capitalisme ne nous permettront pas de franchir le pas d’une critique radicale de ses effets écocides et destructeurs de libertés.

Faudrait-il donc s’en accommoder ? La plus importante mise en perspective critique des mécanismes du capitalisme de surveillance, celle qui a placé son auteure Shoshana Zuboff au-devant de la scène ces trois dernières années, n’a jamais convaincu personne par les solutions qu’elle propose.

Premièrement parce qu’elle circonscrit le capitalisme de surveillance à la mise en œuvre par les GAFAM de solutions de rentabilité actionnariale en allant extraire le minerai de données personnelles afin d’en tirer de la valeur marchande. Le fait est qu’en réalité ce modèle économique de valorisation des données n’est absolument pas nouveau, il est né avec les ordinateurs dont c’est la principale raison d’être (vendables). Par conséquent ces firmes n’ont créé de valeur qu’à la marge de leurs activités principales (le courtage de données), par exemple en fournissant des services dont le Web aurait très bien pu se passer. Sauf peut-être la fonction de moteur de recherche, nonobstant la situation de monopole qu’elle a engendrée au détriment de la concurrence, ce qui n’est que le reflet de l’effet pervers du monopole et de la financiarisation de ces firmes, à savoir tuer la concurrence, s’approprier (financièrement) des entreprises innovantes, et tuer toute dynamique diversifiée d’innovation.

Deuxièmement, les solutions proposées reposent exclusivement sur la régulation des ces monstres capitalistes. On renoue alors avec d’anciennes visions, celles d’un libéralisme garant des équilibres capitalistes, mais cette fois presque exclusivement du côté du droit : c’est mal de priver les individus de leur vie privée, donc il faut plus de régulation dans les pratiques. On n’est pas loin de renouer avec la vieille idée de l’ethos protestant à l’origine du capitalisme moderne selon Max Weber : la recherche de profit est un bien, il s’accomplit par le travail et le don de soi à l’entreprise. La paix de nos âmes ne peut donc avoir lieu sans le capitalisme. C’est ce que cristallise Milton Friedman dans une de ses célèbres affirmations : « la responsabilité sociale des entreprises est de maximiser leurs profits »7. Si le capitalisme est un dispositif géant générateur de profit, il n’est ni moral ni immoral, c’est son usage, sa destination qui l’est. Par conséquent, ce serait à l’État d’agir en assumant les conséquences d’un mauvais usage qu’en feraient les capitalistes.

Contradiction : le capitalisme n’est pas un simple dispositif, il est à la fois marché, organisation, choix collectifs, et choix individuels. Son extension dans nos vies privées est le résultat du choix de la rationalisation toujours plus drastique des conditions de rentabilité. Dans les années 1980, les économistes néoclassiques croyaient fortement au triptyque gagnant investissement – accroissement de main d’œuvre – progrès technique. Sauf que même l’un des plus connus des économistes américains, Robert Solow, a dû se rendre à une évidence, un « paradoxe » qu’il soulevait après avoir admis que « la révolution technologique [de l’informatique] s’est accompagnée partout d’un ralentissement de la croissance de la productivité, et non d’une augmentation ». Il conclut : « Vous pouvez voir l’ère informatique partout, sauf dans les statistiques de la productivité »8. Pour Solow, croyant encore au vieux monde de la croissance « productrice », ce n’était qu’une question de temps, mais pour l’économie capitaliste, c’était surtout l’urgence de se tourner vers des solutions beaucoup plus rapides : l’actionnariat (et la rationalisation rentable des process) et la valorisation quasi-immédiate de tout ce qui pouvait être valorisable sur le marché le plus facile possible, celui des services, celui qui nécessite le moins d’investissements.

La volonté d’aller dans le mur

Le capitalisme à l’ère numérique n’a pas créé de stagnation, il est structurellement destructeur. Il n’a pas créé de défaut d’investissement, il est avant tout un choix réfléchi, la volonté d’aller droit dans le mur en espérant faire partie des élus qui pourront changer de voiture avant l’impact. Dans cette hyper-concurrence qui est devenue essentiellement financière, la seule manière d’envisager la victoire est de fabriquer des monopoles. C’est là que la fatuité de la régulation se remarque le plus. Un récent article de Michael Kwet9 résume très bien la situation. On peut le citer longuement :

Les défenseurs de la législation antitrust affirment que les monopoles faussent un système capitaliste idéal et que ce qu’il faut, c’est un terrain de jeu égal pour que tout le monde puisse se faire concurrence. Pourtant, la concurrence n’est bonne que pour ceux qui ont des ressources à mettre en concurrence. Plus de la moitié de la population mondiale vit avec moins de 7,40 dollars [7,16 euros] par jour, et personne ne s’arrête pour demander comment ils seront “compétitifs” sur le “marché concurrentiel” envisagé par les défenseurs occidentaux de l’antitrust. C’est d’autant plus décourageant pour les pays à revenu faible ou intermédiaire que l’internet est largement sans frontières.

À un niveau plus large […] les défenseurs de l’antitrust ignorent la division globalement inégale du travail et de l’échange de biens et de services qui a été approfondie par la numérisation de l’économie mondiale. Des entreprises comme Google, Amazon, Meta, Apple, Microsoft, Netflix, Nvidia, Intel, AMD et bien d’autres sont parvenues à leur taille hégémonique parce qu’elles possèdent la propriété intellectuelle et les moyens de calcul utilisés dans le monde entier. Les penseurs antitrust, en particulier ceux des États-Unis, finissent par occulter systématiquement la réalité de l’impérialisme américain dans le secteur des technologies numériques, et donc leur impact non seulement aux États-Unis, mais aussi en Europe et dans les pays du Sud.

Les initiatives antitrust européennes ne sont pas meilleures. Là-bas, les décideurs politiques qui s’insurgent contre les maux des grandes entreprises technologiques tentent discrètement de créer leurs propres géants technologiques.

Dans la critique mainstream du capitalisme de surveillance, une autre erreur s’est révélée, en plus de celle qui consiste à persister dans la défense d’un imaginaire capitaliste. C’est celle de voir dans l’État et son pouvoir de régulation un défenseur de la démocratie. C’est d’abord une erreur de principe : dans un régime capitaliste monopoliste, l’État assure l’hégémonie des entreprises de son cru et fait passer sous l’expression démocratie libérale (ou libertés) ce qui favorise l’émergence de situations de domination. Pour lutter contre, il y a une urgence dans notre actualité économique : la logique des start-up tout autant que celle de la « propriété intellectuelle » doivent laisser place à l’expérimentation collective de gouvernance de biens communs de la connaissance et des techniques (nous en parlerons plus loin). Ensuite, c’est une erreur pratique comme l’illustrent les affaires de lobbying et de pantouflage dans le petit monde des décideurs politiques. Une illustration parmi des centaines : les récents Uber Files démontrant, entre autres, les accords passés entre le président Emmanuel Macron et les dirigeants d’Uber (voir sur le site Le Monde).

Situer ces enjeux dans un contexte historique aussi général suppose de longs développements, rarement simples à exposer. Oui, il s’agit d’une critique du capitalisme, et oui cette critique peut être plus ou moins radicale selon que l’on se place dans un héritage marxiste, marxien ou de la critique de la valeur, ou que l’on demeure persuadé qu’un capitalisme plus respectueux, moins « féodal » pourrait advenir. Sans doute qu’un mirage subsiste, celui de croire qu’autant de bienfaits issus du capitalisme suffisent à le dédouaner de l’usage dévoyé des technologies. « Sans le capitalisme nous en serions encore à nous éclairer à la bougie…» En d’autres termes, il y aurait un progrès indiscutable à l’aune duquel les technologies de surveillance pourraient être jugées. Vraiment ?

Situer le capitalisme de surveillance dans notre rapport à la technique

C’est un poncif : les technologies de surveillance ont été développées dans une logique de profit. Il s’agit des technologies dont l’objectif est de créer des données exploitables à partir de nos vies privées, à des fins de contrôle ou purement mercantiles (ce qui revient au même puisque les technologies de contrôle sont possédées par des firmes qui achètent des données).

Or, il est temps de mettre fin à l’erreur répandue qui consiste à considérer que les technologies de surveillance sont un mal qui pervertit le capitalisme censé être le moteur de la démocratie libérale. Ceci conduit à penser que seule une régulation bien menée par l’État dans le but de restaurer les vertus du « bon » capitalisme serait salutaire tant nos vies privées sont sur-exploitées et nos libertés érodées. Tel est le credo de Shoshana Zuboff et avec elle bon nombre de décideurs politiques.

Croire qu’il y a de bons et de mauvais usages

L’erreur est exactement celle que dénonçait en son temps Jacques Ellul. C’est celle qui consiste à vouloir absolument attribuer une valeur à l’usage de la technique. Le bon usage serait celui qui pousse à respecter la vie privée, et le mauvais usage celui qui tend à l’inverse. Or, il n’y a d’usage technique que technique. Il n’y a qu’un usage de la bombe atomique, celui de faire boum (ou pas si elle est mal utilisée). Le choix de développer la bombe est, lui, par contre, un choix qui fait intervenir des enjeux de pouvoir et de valeurs.

Au tout début des années 1970, à l’époque où se développaient les techniques d’exploitation des bases de données et le courtage de données, c’est ce qu’ont montré James Martin et Adrian Norman pour ce qui concerne les systèmes informatiques10 : à partir du moment où un système est informatisé, la quantification est la seule manière de décrire le monde. Ceci est valable y compris pour les systèmes décisionnels. Le paradoxe que pointaient ces auteurs montrait que le traitement de l’information dans un système décisionnel – par exemple dans n’importe quelle organisation économique, comme une entreprise – devait avoir pour objectif de rationaliser les procédures et les décisions en utilisant une quantité finie de données pour en produire une quantité réduite aux éléments les plus stratégiques, or, l’informatisation suppose un choix optimum parmi une grande variété d’arbres décisionnels et donc un besoin croissant de données, une quantité tendant vers l’infini.

Martin et Norman illustraient ce qu’avait affirmé Jacques Ellul vingt ans auparavant : la technique et sa logique de développement seraient autonomes. Bien que discutable, cette hypothèse montre au moins une chose : dans un monde capitaliste, tout l’enjeu consisterait comme au rugby à transformer l’essai, c’est-à-dire voir dans le développement des techniques autant d’opportunités de profit et non pas d’investissements productifs. Les choix se posent alors en termes d’anti-productivité concrète. Dans le monde des bases de données et leur exploitation la double question qui s’est posée de 1970 à aujourd’hui est de savoir si nous sommes capables d’engranger plus ou moins de données et comment leur attribuer une valeur marchande.

Le reste n’est que sophismes : l’usine entièrement automatisée des rêves cybernéticiens les plus fous, les boules de cristal des statistiques électorales, les données de recouvrement bancaires et le crédit à la consommation, les analyses marketing et la consommation de masse, jusqu’à la smart city de la Silicon Valley et ses voitures autonomes (et ses aspirateurs espions)… la justification de la surveillance et de l’extraction de données repose sur l’idée d’un progrès social, d’un bon usage des technologies, et d’une neutralité des choix technologiques. Et il y a un paralogisme. Si l’on ne pense l’économie qu’en termes capitalistes et libéraux, cette neutralité est un postulat qui ne peut être remis en cause qu’à l’aune d’un jugement de valeur : il y aurait des bons et des mauvais usages des technologies, et c’est à l’État d’assurer le rôle minimal de les arbitrer au regard de la loi. Nul ne remet alors en question les choix eux-mêmes, nul ne remet en question l’hégémonie des entreprises qui nous couvrent de leurs « bienfaits » au prix de quelques « négligeables » écarts de conduite, nul ne remet en question l’exploitation de nos vies privées (un mal devenu nécessaire) et l’on préfère nous demander notre consentement plus ou moins éclairé, plus ou moins obligé.

La technologie n’est pas autonome

Cependant, comme nous le verrons vers la fin de ce texte, les études en sociologie des sciences montrent en fait qu’il n’y a pas d’autonomie de la technique. Sciences, technologies et société s’abreuvent mutuellement entre les usages, les expérimentations et tous ces interstices épistémiques d’appropriation des techniques, de désapprentissage, de renouvellement, de détournements, et d’expression des besoins pour de nouvelles innovations qui seront à leur tour appropriées, modifiées, transformées, etc. En réalité l’hypothèse de l’autonomie de la technique a surtout servi au capitalisme pour suivre une course à l’innovation qui ne saurait être remise en question, comme une loi naturelle qui justifie en soi la mise sur le marché de nouvelles technologies et au besoin faire croire en leur utilité. Tel est le fond de commerce du transhumanisme et son « économie des promesses ».

L’erreur consiste à prêter le flanc au solutionnisme technologique (le même qui nous fait croire que des caméras de surveillance sont un remède à la délinquance, ou qu’il faut construire des grosses berlines sur batteries pour ne plus polluer) et à se laisser abreuver des discours néolibéraux qui, parce qu’il faut bien rentabiliser ces promesses par de la marchandisation des données – qui est elle-même une promesse pour l’actionnariat –, nous habituent petit à petit à être surveillés. Pour se dépêtrer de cela, la critique du capitalisme de surveillance doit être une critique radicale du capitalisme et du néolibéralisme car la lutte contre la surveillance ne peut être décorrélée de la prise en compte des injustices sociales et économiques dont ils sont les causes pratiques et idéologiques.

Je vois venir les lecteurs inquiets. Oui, j’ai placé ce terme de néolibéralisme sans prévenir. C’est mettre la charrue avant les bœufs mais c’est parfois nécessaire. Pour mieux comprendre, il suffit de définir ce qu’est le néolibéralisme. C’est l’idéologie appelée en Allemagne ordolibéralisme, si l’on veut, c’est-à-dire l’idée que le laissez-faire a démontré son erreur historique (les crises successives de 1929, 1972, 2008, ou la crise permanente), et que par conséquent l’État a fait son grand retour dans le marché au service du capital, comme le principal organisateur de l’espace de compétition capitaliste et le dépositaire du droit qui érige la propriété et le profit au titre de seules valeurs acceptables. Que des contrats, plus de discussion, there is no alternative, comme disait la Margaret. Donc partant de cette définition, à tous les niveaux organisationnels, celui des institutions de l’État comme celui des organisations du capital, la surveillance est à la fois outil de contrôle et de génération de profit (dans les limites démontrées par R. Kurz, à savoir : pas sans compter presque exclusivement sur l’actionnariat et les produits financiers, cf. plus haut).

Le choix du « monitoring »

La course en avant des technologies de surveillance est donc le résultat d’un choix. Il n’y a pas de bon ou de mauvais usage de la surveillance électronique : elle est faite pour récolter des données. Le choix en question c’est celui de n’avoir vu dans ces données qu’un objet marchand. Peu importe les bienfaits que cela a pu produire pour l’individu, ils ne sont visibles que sur un court terme. Par exemple les nombreuses applications de suivi social que nous utilisons nous divertissent et rendent parfois quelque service, mais comme le dit David Lyon dans The Culture of Surveillance, elle ne font que nous faire accepter passivement les règles du monitoring et du tri social que les États comme les multinationales mettent en œuvre.

Il n’y a pas de différence de nature entre la surveillance des multinationales et la surveillance par l’État : ce sont les multinationales qui déterminent les règles du jeu de la surveillance et l’État entérine ces règles et absorbe les conditions de l’exercice de la surveillance au détriment de sa souveraineté. C’est une constante bien comprise, qu’il s’agisse des aspects techniques de la surveillance sur lesquels les Big Tech exercent une hégémonie qui en retour sert les intérêts d’un ou plusieurs États (surtout les États-Unis aujourd’hui), ou qu’il s’agisse du droit que les Big Tech tendent à modifier en leur faveur soit par le jeu des lobbies soit par le jeu des accords internationaux (tout comme récemment le nouvel accord entre l’Europe et les États-Unis sur les transferts transatlantiques de données, qui vient contrecarrer les effets d’annonce de la Commission Européenne).

Quels espaces de liberté dans ce monde technologique ?

Avec l’apparition des ordinateurs et des réseaux, de nombreuses propositions ont vu le jour. Depuis les années 1970, si l’on suit le développement des différents mouvements de contestation sociale à travers le monde, l’informatique et les réseaux ont souvent été plébiscités comme des solutions techniques aux défauts des démocraties. De nombreux exemples d’initiatives structurantes pour les réseaux informatiques et les usages des ordinateurs se sont alors vus détournés de leurs fonctions premières. On peut citer le World Wide Web tel que conçu par Tim Berners Lee, lui même suivant les traces du monde hypertextuel de Ted Nelson et son projet Xanadu. Pourquoi ce design de l’internet des services s’est-il trouvé à ce point sclérosé par la surveillance ? Pour deux raisons : 1/ on n’échappe pas (jamais) au développement technique de la surveillance (les ordinateurs ont été faits et vendus pour cela et le sont toujours11) et 2/ parce qu’il y a des intérêts de pouvoir en jeu, policiers et économiques, celui de contrôler les communications. Un autre exemple : le partage des programmes informatiques. Comme chacun le sait, il fut un temps où la création d’un programme et sa distribution n’étaient pas assujettis aux contraintes de la marchandisation et de la propriété intellectuelle. Cela permettait aux utilisateurs de machines de partager non seulement des programmes mais des connaissances et des nouveaux usages, faisant du code un bien commun. Sous l’impulsion de personnages comme Bill Gates, tout cela a changé au milieu des années 1970 et l’industrie du logiciel est née. Cela eut deux conséquences, négative et positive. Négative parce que les utilisateurs perdaient absolument toute maîtrise de la machine informatique, et toute possibilité d’innovation solidaire, au profit des intérêts d’entreprises qui devinrent très vite des multinationales. Positive néanmoins, car, grâce à l’initiative de quelques hackers, dont Richard Stallman, une alternative fut trouvée grâce au logiciel libre et la licence publique générale et ses variantes copyleft qui sanctuarisent le partage du code. Ce partage relève d’un paradigme qui ne concerne plus seulement le code, mais toute activité intellectuelle dont le produit peut être partagé, assurant leur liberté de partage aux utilisateurs finaux et la possibilité de créer des communs de la connaissance.

Alors que nous vivons dans un monde submergé de technologies, nous aurions en quelque sorte gagné quelques espaces de liberté d’usage technique. Mais il y a alors comme un paradoxe.

À l’instar de Jacques Ellul, pour qui l’autonomie de la technique implique une aliénation de l’homme à celle-ci, beaucoup d’auteurs se sont inquiétés du fait que les artefacts techniques configurent par eux-mêmes les actions humaines. Qu’on postule ou pas une autonomie de la technique, son caractère aliénant reste un fait. Mais il ne s’agit pas de n’importe quels artefacts. Nous ne parlons pas d’un tournevis ou d’un marteau, ou encore d’un silex taillé. Il s’agit des systèmes techniques, c’est-à-dire des dispositifs qu’on peut qualifier de socio-techniques qui font intervenir l’homme comme opérateur d’un ensemble d’actions techniques par la technique. En quelque sorte, nous perdons l’initiative et les actions envisagées tendent à la conformité avec le dispositif technique et non plus uniquement à notre volonté. Typiquement, les ordinateurs dans les entreprises à la fin des années 1960 ont été utilisés pour créer des systèmes d’information, et c’est à travers ces systèmes techniques que l’action de l’homme se voit configurée, modelée, déterminée, entre ce qui est possible et ce qui ne l’est pas. Dans son article « Do artefacts have politics ? », Langdon Winner s’en inquiétait à juste titre : nos objectifs et le sens de nos actions sont conditionnés par la technique. Cette dernière n’est jamais neutre, elle peut même provoquer une perte de sens de l’action, par exemple chez le travailleur à la chaîne ou le cadre qui non seulement peuvent être noyés dans une organisation du travail trop grande, mais aussi parce que l’automatisation de la production et de la décision les prive de toute initiative (et de responsabilité).

La tentation du luddisme

Pour lutter contre cette perte de sens, des choix sont envisageables. Le premier consiste à lutter contre la technique. En évacuant la complexité qu’il y a à penser qu’un mouvement réfractaire au développement technique puisse aboutir à une société plus libre, on peut certes imaginer des fronts luddites en certains secteurs choisis. Par exemple, tel fut le choix du CLODO dans la France des années 1980, prétendant lutter contre l’envahissement informatique dans la société. Concernant la surveillance, on peut dire qu’au terme d’un processus de plus de 50 ans, elle a gagné toutes les sphères socio-économiques grâce au développement technologique. Un front (néo-)luddite peut sembler justifié tant cette surveillance remet en cause très largement nos libertés et toutes les valeurs positives que l’on oppose généralement au capitalisme : solidarité et partage, notamment.

Pour autant, est-ce que la lutte contre le capitalisme de surveillance doit passer par la négation de la technique ? Il est assez évident que toute forme d’action directe qui s’oppose en bloc à la technique perd sa crédibilité en ce qu’elle ne fait que proposer un fantasme passéiste ou provoquer des réactions de retrait qui n’ont souvent rien de constructif. C’est une critique souvent faite à l’anarcho-primitivisme qui, lorsqu’il ne se contente pas d’opposer une critique éclairée de la technique (et des processus qui ont conduit à la création de l’État) en vient parfois à verser dans la technophobie. C’est une réaction aussi compréhensible que contrainte tant l’envahissement technologique et ses discours ont quelque chose de suffoquant. En oubliant cette question de l’autonomie de la technique, je suis personnellement tout à fait convaincu par l’analyse de J. Ellul selon laquelle nous sommes à la fois accolés et dépendants d’un système technique. En tant que système il est devenu structurellement nécessaire aux organisations (qu’elles soient anarchistes ou non) au moins pour communiquer, alors que le système capitaliste, lui, ne nous est pas nécessaire mais imposé par des jeux de pouvoirs. Une réaction plus constructive consiste donc à orienter les choix technologiques, là où l’action directe peut prendre un sens tout à fait pertinent.

Prenons un exemple qui pourrait paraître trivial mais qui s’est révélé particulièrement crucial lors des périodes de confinement que nous avons subies en raison de l’épidémie Covid. Qu’il s’agisse des entreprises ou des institutions publiques, toutes ont entamé dans l’urgence une course en avant vers les solutions de visio-conférence dans l’optique de tâcher de reproduire une forme présentielle du travail de bureau. La visio-conférence suscite un flux de données bien plus important que la voix seule, et par ailleurs la transmission vocale est un ensemble de techniques déjà fort éprouvées depuis plus d’un siècle. Que s’est-il produit ? Les multinationales se sont empressées de vendre leurs produits et pomper toujours plus de données personnelles, tandis que les limites pratiques de la visio-conférence se sont révélées : dans la plupart des cas, réaliser une réunion « filmée » n’apporte strictement rien de plus à l’efficacité d’une conférence vocale. Dans la plupart des cas, d’ailleurs, afin d’économiser de la bande passante (croit-on), la pratique courante consiste à éteindre sa caméra pendant la réunion. Où sont les gains de productivité tant annoncés par les GAFAM ? Au lieu de cela, il y a en réalité un détournement des usages, et même des actes de résistance du quotidien (surtout lorsqu’il s’agit de surveiller les salariés à distance).

Les choix technologiques doivent être collectifs

Une critique des techniques pourrait donc consister à d’abord faire le point sur nos besoins et en prenant en compte l’urgence climatique et environnementale dans laquelle nous sommes (depuis des décennies). Elle pourrait aussi consister à prendre le contrepoint des discours solutionnistes qui tendent à justifier le développement de techniques le plus souvent inutiles en pratique mais toujours plus contraignantes quant au limites éthiques vers lesquelles elles nous poussent. Les choix technologiques doivent donc d’abord être des choix collectifs, dont l’assentiment se mesure en fonction de l’économie énergétique et de l’acceptabilité éthique de la trajectoire choisie. On peut revenir à une technologie ancienne et éprouvée et s’en contenter parce qu’elle est efficace et on peut refuser une technologie parce qu’elle n’est pas un bon choix dans l’intérêt collectif. Et par collectif, j’entends l’ensemble des relations inter-humaines et des relations environnementales dont dépendent les premières.

Les attitudes de retraits par rapports aux technologies, le refus systématique des usages, sont rarement bénéfiques et ne constituent que rarement une démarche critique. Ils sont une réaction tout à fait compréhensible du fait que la politique a petit à petit déserté les lieux de production (pour ce qu’il en reste). On le constate dans le désistement progressif du syndicalisme ces 30 ou 40 dernières années et par le fait que la critique socialiste (ou « de gauche ») a été incapable d’intégrer la crise du capitalisme de la fin du XXᵉ siècle. Pire, en se transformant en un centre réactionnaire, cette gauche a créé une technocratie de la gestion aux ordres du néolibéralisme : autoritarisme et pansements sociaux pour calmer la révolte qui gronde. Dès lors, de désillusions en désillusions, dans la grande cage concurrentielle de la rareté du travail rémunéré (rentable) quelle place peut-il y avoir pour une critique des techniques et de la surveillance ? Peut-on demander sérieusement de réfléchir à son usage de Whatsapp à une infirmière qui a déjà toutes les difficultés du monde à concilier la garde de ses enfants, les heures supplémentaires (parfois non payées) à l’hôpital, le rythme harassant du cycle des gardes, les heures de transports en commun et par dessus le marché, le travail domestique censé assurer les conditions de reproduction du travail abstrait ? Alors oui, dans ces conditions où le management du travail n’est devenu qu’une affaire de rationalisation rentable, les dispositifs techniques ne font pas l’objet d’usages réfléchis ou raisonnés, il font toujours l’objet d’un usage opportuniste : je n’utilise pas Whatsapp parce que j’aime Facebook ou que je me fiche de savoir ce que deviennent mes données personnelles, j’utilise Whatsapp parce que c’est le moyen que j’ai trouvé pour converser avec mes enfants et m’assurer qu’ils sont bien rentrés à la maison après l’école.

Low tech et action directe

En revanche, un retrait que je pourrais qualifier de technophobe et donc un minimum réfléchi, laisse entier le problème pour les autres. La solidarité nous oblige à créer des espaces politiques où justement technologie et capitalisme peuvent faire l’objet d’une critique et surtout d’une mise en pratique. Le mouvement Low Tech me semble être l’un des meilleurs choix. C’est en substance la thèse que défend Uri Gordon (« L’anarchisme et les politiques techniques ») en voyant dans les possibilités de coopérations solidaires et de choix collectivement réfléchis, une forme d’éthique de l’action directe.

Je le suivrai sur ce point et en étendant davantage le spectre de l’action directe. Premièrement parce que si le techno-capitalisme aujourd’hui procède par privation de libertés et de politique, il n’implique pas forcément l’idée que nous ne soyons que des sujets soumis à ce jeu de manière inconditionnelle. C’est une tendance qu’on peut constater dans la plupart des critiques du pouvoir : ne voir l’individu que comme une entité dont la substance n’est pas discutée, simplement soumis ou non soumis, contraint ou non contraint, privé de liberté ou disposant de liberté, etc. Or il y a tout un ensemble d’espaces de résistance conscients ou non conscients chez tout individu, ce que Michel de Certeau appelait des tactiques du quotidien12. Il ne s’agit pas de stratégies où volonté et pouvoir se conjuguent, mais des mouvements « sur le fait », des alternatives multiples mises en œuvre sans chercher à organiser cet espace de résistance. Ce sont des espaces féconds, faits d’expérimentations et d’innovations, et parfois même configurent les techniques elles-mêmes dans la différence entre la conception initiale et l’usage final à grande échelle. Par exemple, les ordinateurs et leurs systèmes d’exploitations peuvent ainsi être tantôt les instruments de la surveillance et tantôt des instruments de résistance, en particulier lorsqu’ils utilisent des logiciels libres. Des apprentissages ont lieu et cette fois ils dépassent l’individu, ils sont collectifs et ils intègrent des connaissances en commun.

En d’autres termes, chaque artefact et chaque système technique est socialement digéré, ce qui en retour produit des interactions et détermine des motivations et des objectifs qui peuvent s’avérer très différents de ceux en fonction desquels les dispositifs ont été créés. Ce processus est ce que Sheila Jasanoff appelle un processus de coproduction épistémique et normatif13 : sciences et techniques influencent la société en offrant un cadre tantôt limitatif, tantôt créatif, ce qui en retour favorise des usages et des besoins qui conditionnent les trajectoires scientifiques et technologiques. Il est par conséquent primordial de situer l’action directe sur ce créneau de la coproduction en favorisant les expériences tactiques individuelles et collectives qui permettent de déterminer des choix stratégiques dans l’orientation technologique de la société. Dit en des mots plus simples : si la décision politique n’est plus suffisante pour garantir un cadre normatif qui reflète les choix collectifs, alors ce sont les collectifs qui doivent pouvoir créer des stratégies et au besoin les imposer par un rapport de force.

Créer des espaces d’expérimentations utopiques

Les hackers ne produisent pas des logiciels libres par pur amour d’autrui et par pure solidarité : même si ces intentions peuvent être présentes (et je ne connais pas de libristes qui ne soient pas animés de tels sentiments), la production de logiciel libre (ou open source) est d’abord faite pour créer de la valeur. On crée du logiciel libre parce que collectivement on est capable d’administrer et valoriser le bien commun qu’est le code libre, à commencer par tout un appareillage juridique comme les licences libres. Il en va de même pour toutes les productions libres qui emportent avec elles un idéal technologique : l’émancipation, l’activité libre que représente le travail du code libre (qui n’est la propriété de personne). Même si cela n’exempte pas de se placer dans un rapport entre patron (propriétaire des moyens de production) et salarié, car il y a des entreprises spécialisées dans le Libre, il reste que le Libre crée des espaces d’équilibres économiques qui se situent en dehors de l’impasse capitaliste. La rentabilité et l’utilité se situent presque exclusivement sur un plan social, ce qui explique l’aspect très bigarré des modèles d’organisations économiques du Libre, entre associations, fondations, coopératives…

L’effet collatéral du Libre est aussi de créer toujours davantage d’espaces de libertés numériques, cette fois en dehors du capitalisme de surveillance et ses pratiques d’extraction. Cela va des pratiques de chiffrement des correspondances à l’utilisation de logiciels dédiés explicitement aux luttes démocratiques à travers le monde. Cela a le mérite de créer des communautés plus ou moins fédérées ou archipélisées, qui mettent en pratique ou du moins sous expérimentation l’alliance entre les technologies de communication et l’action directe, au service de l’émancipation sociale.

Il ne s’agit pas de promettre un grand soir et ce n’est certes pas avec des expériences qui se complaisent dans la marginalité que l’on peut bouleverser le capitalisme. Il ne s’agit plus de proposer des alternatives (qui fait un détour lorsqu’on peut se contenter du droit chemin?) mais des raisons d’agir. Le capitalisme est désuet. Dans ses soubresauts (qui pourraient bien nous mener à la guerre et la ruine), on ressort l’argument du bon sens, on cherche le consentement de tous malgré l’expérience que chacun fait de l’exploitation et de la domination. Au besoin, les capitalistes se montrent autoritaires et frappent. Mais que montrent les expériences d’émancipation sociales ? Que nous pouvons créer un ordre fait de partage et d’altruisme, de participation et de coopération, et que cela est parfaitement viable, sans eux, sur d’autres modèles plus cohérents14. En d’autres termes, lutter contre la domination capitaliste, c’est d’abord démontrer par les actes que d’autres solutions existent et sans chercher à les inclure au forceps dans ce système dominant. Au contraire, il y a une forme d’héroïsme à ne pas chercher à tordre le droit si ce dernier ne permet pas une émancipation franche et durable du capitalisme. Si le droit ne convient pas, il faut prendre le gauche.

La lutte pour les libertés numériques et l’application des principes du Libre permettent de proposer une sortie positive du capitalisme destructeur. Néanmoins on n’échappera pas à la dure réalité des faits. Par exemple que l’essentiel des « tuyaux » des transmissions numériques (comme les câbles sous-marins) appartiennent aux multinationales du numérique et assurent ainsi l’un des plus écrasants rapports de domination de l’histoire. Pourtant, on peut imaginer des expériences utopiques, comme celle du Chaos Computer Club, en 2012, consistant à créer un Internet hors censure via un réseau de satellite amateur.

L’important est de créer des espaces d’expérimentation utopiques, parce qu’ils démontrent tôt ou tard la possibilité d’une solution, il sont préfiguratifs15. Devant la décision politique au service du capital, la lutte pour un réseau d’échanges libres ne pourra certes pas se passer d’un rapport de force mais encore moins de nouveaux imaginaires. Car, finalement, ce que crée la crise du capitalisme, c’est la conscience de son écocide, de son injustice, de son esclavagisme technologique. Reste l’espoir, première motivation de l’action.



  1. R. Kurz, Vies et mort du capitalisme, Nouvelles Éditions Ligne, 2011, p. 37. ↩︎

  2. Ernst Lohoff et Norbert Trenkle, La grande dévalorisation. Pourquoi la spéculation et la dette de l’État ne sont pas les causes de la crise, Paris, Post-éditions, 2014. ↩︎

  3. Georges Simpson, « Western Man under Automation », International Journal of Comparative Sociology, num. 5, 1964, pp. 199-207. ↩︎

  4. Comme le dit Moishe Postone dans son article « Repenser Le Capital à la lumière des Grundrisse » : « La transformation radicale du processus de production mentionnée plus haut n’est pas le résultat quasi-automatique du développement rapide des savoirs techniques et scientifique et de leurs applications. C’est plutôt une possibilité qui naît d’une contradiction sociale intrinsèque croissante. Bien que la course du développement capitaliste génère la possibilité d’une structure nouvelle et émancipatrice du travail social, sa réalisation générale est impossible dans le capitalisme. » ↩︎

  5. Là je reprends une catégorie marxiste. Marx appelle le (résultat du -) travail mort ce qui a besoin de travail productif. Par exemple, une matière comme le blé récolté est le résultat d’un travail déjà passé, il lui faut un travail vivant (celui du meunier) pour devenir matière productive. Pour ce qui concerne l’extraction de données, il faut comprendre que l’automatisation de cette extraction, le stockage, le travail de la donnée et la marchandisation sont un seul et même mouvement (on ne marchande pas des jeux de données « en l’air », ils correspondent à des commandes sur une marché tendu). Les données ne sont pas vraiment une matière première, elles ne sont pas non plus un investissement, mais une forme insaisissable du travail à la fois matière première et système technique. ↩︎

  6. On peut distinguer entre économie réelle et économie financière. Voir cette étude de François Morin, juste avant le crack de 2008. François Morin, « Le nouveau mur de l’argent », Nouvelles Fondations, num. 3-4, 2007, p. 30-35. ↩︎

  7. The New York Times Magazine, 13 septembre 1970. ↩︎

  8. Robert Solow, « We’d better watch out », New York Times Book Review, 12 juillet 1987, page 36. ↩︎

  9. Mike Kwet, « Digital Ecosocialism Breaking the power of Big Tech » (ROAR Magazine), trad. Fr. Louis Derrac, sous le titre « Écosocialisme numérique – Briser le pouvoir des Big Tech », parue sur Framablog.org. ↩︎

  10. James Martin et Adrian R. D. Norman, The Computerized Society. An Appraisal of the Impact of Computers on Society over the next 15 Years, Englewood Cliffs, Prentice-Hall, 1970, p. 522. ↩︎

  11. c’est ce que je tâche de montrer dans une partie de mon livre Affaires privées. Aux sources du capitalisme de surveillance : pourquoi fabriquer et acheter des ordinateurs ? Si les entreprises sont passées à l’informatique c’est pour améliorer la production et c’est aussi pourquoi le courtage de données s’est développé. ↩︎

  12. Sur les « tactiques numériques », on pourra lire avec profit l’article de Beatrice Latini et Jules Rostand, « La libre navigation. Michel de Certeau à l’épreuve du numérique », Esprit, 2022/1-2 (Janvier-Février), p. 109-117. ↩︎

  13. Sheila Jasanoff, « Ordering Knowledge, Ordering Society », dans S. Jasanoff (éd.), States of knowledge. The co-production of science and social order, Londres, Routledge, 2004, pp. 13-45. ↩︎

  14. Sur ce point on peut lire avec intérêt ce texte de Ralph Miliband, « Comment lutter contre l’hégémonie capitaliste ? », paru initialement en 1990 et traduit sur le site Contretemps. ↩︎

  15. Voir David Graeber, et Alexie Doucet, Comme si nous étions déjà libres, Montréal, Lux éditeur, 2014. La préfiguration est l’« idée selon laquelle la forme organisationnelle qu’adopte un groupe doit incarner le type de société qu’il veut créer ». Voir aussi Marianne Maeckelbergh, « Doing is Believing: Prefiguration as Strategic Practice in the Alterglobalization Movement », Social Movement Studies, vol. 10, num. 1, 2011, pp. 1‑20. ↩︎

11.06.2022 à 02:00

Qu'est-ce que le radicalisme ?

« Le pouvoir n’admet jamais son propre extrémisme, sa propre violence, son propre chaos, sa propre destruction, son propre désordre. Le désordre de l’inégalité, le chaos de la dépossession, la destruction des communautés et des relations traditionnelles ou indigènes – l’extermination de la vie, de la planète elle-même. Ce sont de véritables comportements extrémistes. » (Jeff Shantz)

Avant propos

Je propose dans ce billet une traduction d’un texte de 2013 écrit par Jeff Shantz. Les travaux de ce dernier appartiennent au courant de la criminologie anarchiste (voir ici ou ). Pour faire (très) court, il s’agit de s’interroger sur les causes de la criminalité et de la violence à partir d’une critique des actions de l’État et leurs effets néfastes (y compris la violence d’État).

Pour être tout à fait clair ici, je ne partage pas d’un bloc l’approche de la criminologie anarchiste, à cause des achoppements logiques auxquels elle doit se confronter. En particulier le fait qu’un mouvement de violence peut certes aller chercher ses causes dans un enchaînement d’effets du pouvoir institutionnel, il n’en demeure pas moins que, en tant qu’historien, il m’est difficile de ne jamais fouiller qu’à un seul endroit. Je crois qu’il y a toujours un faisceaux de causalités, toutes plus ou moins explicables, avec des déséquilibres qui peuvent faire attribuer l’essentiel à une partie plutôt qu’une autre. La criminologie anarchiste remet assez abruptement en cause la théorie du contrat social (surtout dans son rapport droit/crime/pouvoir), ce qui est plutôt sain. Mais si le pouvoir institutionnel est bien entendu en charge de lourdes responsabilités dans la révolte légitime (en particulier dans un contexte néolibéral autoritaire où la violence est la seule réponse faite au peuple), tous les mouvements de résistance font toujours face, à un moment ou un autre, à leurs propres contradictions, c’est humain. C’est ce qui justement les fait grandir et leur donne leur force et d’autant plus de légitimité, ou au contraire contribue à leur extinction (qu’on peut certes attribuer à l’une ou l’autre stratégie de pouvoir, bref…).

D’ailleurs, c’est justement l’un des objets de ce texte à propos du radicalisme. C’est un avertissement aux mouvements de résistance qui ne comprennent pas, d’une part, que le radicalisme est une méthode et, d’autre part, que son emploi galvaudé est une stratégie de défense (et d’offensive) du capital, en particulier via la communication et l’exercice du pouvoir médiatique. En cela il vise assez juste. En tout cas, c’est à garder en tête lorsque, sur un plateau TV, on interroge toujours : « Mais… vous condamnez ces violences de la part des ces jeunes radicalisés ? »

Plaidoyer pour le radicalisme

Par Jeff Shantz

— Article paru dans la revue Radical Criminology, num. 2, 2013, Éditorial (source), Licence CC By-Nc-Nd. Traduit avec l’aimable autorisation de l’auteur.


Aujourd’hui, peu de termes ou d’idées sont autant galvaudés, déformés, diminués ou dénaturés que « radical » ou « radicalisme ». Cela n’est sans doute pas très surprenant, étant donné que nous vivons une période d’expansion des luttes contre l’État et le capital, l’oppression et l’exploitation, dans de nombreux contextes mondiaux. Dans de tels contextes, la question du radicalisme, des moyens efficaces pour vaincre le pouvoir (ou étouffer la résistance) devient urgente. Les enjeux sont élevés, les possibilités d’alternatives réelles sont avancées et combattues. Dans de tels contextes, les militants et les universitaires doivent non seulement comprendre le radicalisme de manière appropriée, mais aussi défendre (et faire progresser) les approches radicales du changement social et de la justice sociale.

La première utilisation connue du terme radical remonte au XIVe siècle, 1350-1400 ; le moyen anglais venant du latin tardif rādīcālis, avoir des racines1. Il est également défini comme étant très différent de ce qui est habituel ou traditionnel. Le terme radical signifie simplement de ou allant vers les racines ou l’origine. Rigoureux. En clair, cela signifie aller à la racine d’un problème.

Le radicalisme est une perspective, une orientation dans le monde. Ce n’est pas, comme on le prétend souvent à tort, une stratégie. Être radical, c’est creuser sous la surface des certitudes, des explications trop faciles, des réponses insatisfaisantes et des panacées qui se présentent comme des solutions aux problèmes. Le radicalisme conteste et s’oppose aux définitions du statu quo - il refuse les justifications intéressées que fournissent l’autorité et le pouvoir.

Plutôt qu’un ensemble d’idées ou d’actions, il s’agit d’une approche cruciale de la vie. Comme l’a suggéré l’analyste existentialiste marxiste Erich Fromm dans un contexte de lutte antérieure :

En premier lieu, cette approche peut être caractérisée par la devise : de omnibus dubitandum ; tout doit être mis en doute, en particulier les concepts idéologiques qui sont quasiment partagés par tous et qui sont devenus par conséquent des axiomes incontournables du sens commun… Le doute radical est un processus ; un processus de libération de la pensée idolâtre ; un élargissement de la conscience, de la vision imaginative et créative de nos opportunités et possibilités. L’approche radicale ne se déploie pas dans le vide. Elle ne part pas de rien, elle part des racines. (1971, vii)

Comme c’est le cas pour la plupart des opinions et des pratiques dans la société capitaliste de classes, il y a deux approches distinctes du radicalisme, deux significations. Selon la première, celle qui consiste à aller aux racines – à la source des problèmes –, la nature du capital doit être comprise, abordée, affrontée – vaincue. Mettre fin à la violence du capital ne peut se faire qu’en mettant fin aux processus essentiels à son existence : l’exploitation, l’expropriation, la dépossession, le profit, l’extraction, l’appropriation des biens communs, de la nature. Et comment y parvenir ? Le capital et les États savent – ils comprennent. Voilà qui explique la reconnaissance des actes décrits plus haut – reconnus, précisément, comme radicaux.

Le radicalisme, vu d’en bas, est sociologique (et devrait être criminologique, bien que la criminologie soit parfois à la traîne). Il exprime cette ouverture sur le monde que C. Wright Mills appelle l’imagination sociologique (1959). Le radicalisme dans son sens premier relie l’histoire, l’économie, la politique, la géographie, la culture, en cherchant à aller au-delà des réponses faciles, rigidifiées de façon irréfléchie en tant que « sens commun » (qui n’est souvent ni commun ni sensé). Il creuse sous les conventions et le statu quo. Pour Fromm :

« Douter », dans ce sens, ne traduit pas l’incapacité psychologique de parvenir à des décisions ou à des convictions, comme c’est le cas dans le doute obsessionnel, mais la propension et la capacité à remettre en question de manière critique toutes les hypothèses et institutions qui sont devenues des idoles au nom du bon sens, de la logique et de ce qui est supposé être « naturel ». (1971, viii)

Plus encore, le radicalisme ne cherche ni se conforte dans le moralisme artificiel véhiculé par le pouvoir – par l’État et le capital. Une approche radicale n’accepte pas le faux moralisme qui définit la légitimité des actions en fonction de leur admissibilité pour les détenteurs du pouvoir ou les élites (la loi et l’ordre, les droits de l’État, les droits de propriété, et ainsi de suite). Comme l’a dit Fromm :

Cette remise en question radicale n’est possible que si l’on ne considère pas comme acquis les concepts de la société dans laquelle on vit ou même de toute une période historique – comme la culture occidentale depuis la Renaissance – et si, en outre, on élargit le périmètre de sa conscience et on pénètre dans les aspects inconscients de sa pensée. Le doute radical est un acte de dévoilement et de découverte ; c’est la prise de conscience que l’empereur est nu, et que ses splendides vêtements ne sont que le produit de son fantasme. (1971, viii)

Enfreindre la loi (des États, de la propriété) peut être tout à fait juste et raisonnable. De même que faire respecter la loi peut être (est, par définition) un acte de reconnaissance des systèmes d’injustice et de violence. Les affamés n’ont pas besoin de justifier leurs efforts pour se nourrir. Les démunis n’ont pas besoin d’expliquer leurs efforts pour se loger. Les personnes brutalisées n’ont pas besoin de demander la permission de mettre fin à la brutalité. Si leurs efforts sont radicaux – car ils savent que cela signifie de vraies solutions à de vrais problèmes – alors, qu’il en soit ainsi.

D’autre part, il y a la définition hégémonique revendiquée par le capital (et ses serviteurs étatiques). Dans cette vision, déformée par le prisme du pouvoir, le radicalisme est un mot pour dire extrémisme (chaos, désordre, violence, irrationalité). La résistance de la classe ouvrière, les mouvements sociaux, les luttes indigènes, les soulèvements paysans, les actions directes et les insurrections dans les centres urbains – toute opposition qui conteste (ou même remet en question) les relations de propriété, les systèmes de commandement et de contrôle, l’exploitation du travail, le vol des ressources communes par des intérêts privés – sont définis par l’État et le capital comme du radicalisme, par lequel ils entendent l’extrémisme, et de plus en plus, le terrorisme.

Tous les moyens de contrôle de l’autorité de l’État sont déployés pour juguler ou éradiquer ce radicalisme – c’est en grande partie la raison pour laquelle la police moderne, les systèmes de justice pénale et les prisons, ainsi que l’armée moderne, ont été créés, perfectionnés et renforcés. En outre, les pratiques « douces » de l’État et du capital, telles que les industries de la psy, qui ont longtemps inclus la rébellion parmi les maladies nécessitant un diagnostic et un traitement2, sont moins remarquées Comme le suggère Ivan Illich, théoricien de la pédagogie radicale : « Le véritable témoignage d’une profonde non-conformité suscite la plus féroce violence à son encontre » (1971, 16). C’est le cas dans le contexte actuel des luttes sociales, et de la répression déployée par l’État et le capital pour étouffer toute résistance significative (et effrayer les soutiens mous).

Pourtant, les opinions et les pratiques visées par cette construction du radicalisme sont tout bonnement celles qui défient et contestent les États et le capital et proposent des relations sociales alternatives. Même lorsque ces mouvements ne font pas ou peu de mal à qui que ce soit, même lorsqu’ils sont explicitement non-violents (comme dans les occupations des lieux de travail, les grèves, les revendications territoriales des indigènes), le pouvoir présente ces activités comme radicales et extrêmes (et, par association, violentes). C’est en réalité parce que de telles activités font planer le spectre de la première compréhension du radicalisme – celui qui vient d’en bas – celui qui parle des perspectives des opprimés et des exploités. Cette définition est, en fait, fidèle aux racines du mot et cohérente avec sa signification.

L’accusation de radicalisme par les détenteurs du pouvoir, la question du radicalisme elle-même, devient toujours plus importante dans les périodes de lutte accrue. C’est à ces moments que le capital étatique a quelque chose à craindre. Les efforts visant à s’attaquer aux racines ne sont plus relégués aux marges du discours social, mais ce que le pouvoir cherche à faire, c’est le ramener dans un lieu de contrôle et de réglementation. Dans les périodes de calme, la question du radicalisme est moins souvent posée. Cela en dit long sur la nature des débats au sujet du radicalisme.

Le radicalisme au sens premier n’est pas une réaction spontanée aux conditions sociales. Pour Illich, il faut apprendre à distinguer « entre la fureur destructrice et la revendication de formes radicalement nouvelles » (1971, 122). Là où il démolit, il démolit pour construire. Il faut « distinguer entre la foule aliénée et la protestation profonde » (1971, 122-123). Dans la perspective de Fromm :

Le doute radical signifie questionner, il ne signifie pas nécessairement nier. Il est facile de nier en posant simplement le contraire de ce qui existe ; le doute radical est dialectique dans la mesure où il appréhende le déroulement des oppositions et vise une nouvelle synthèse qui nie et affirme. (1971, viii)

Comme l’a suggéré l’anarchiste Mikhaïl Bakounine, la passion de détruire est aussi une passion créatrice.

Les problèmes d’extrémisme, introduits par les détenteurs du pouvoir pour servir leur pouvoir, sont une diversion, un faux-fuyant pour ainsi dire. Les actes supposés extrêmes ou scandaleux ne sont pas nécessairement radicaux, comme le suggèrent les médias de masse qui les traitent souvent comme des synonymes. Les actes extrêmes (et il faudrait en dire plus sur ce terme trompeur) qui ne parviennent pas à s’attaquer aux racines des relations entre l’État et le capital, comme les actes de violence malavisés contre des civils, ne sont pas radicaux. Ils ne s’attaquent pas aux racines de l’exploitation capitaliste (même si la frustration liée à l’exploitation les engendre). Les actes qui servent uniquement à renforcer les relations de répression ou à légitimer les initiatives de l’État ne sont pas radicaux.

En même temps, certains actes extrêmes sont radicaux. Ces actes doivent être jugés au regard de leur impact réel sur le pouvoir capitaliste d’État, sur les institutions d’exploitation et d’oppression.

Dans le cadre du capitalisme d’État, l’extrémisme est vidé de son sens. Dans un système fondé et subsistant sur le meurtre de masse, le génocide et l’écocide comme réalités quotidiennes de son existence, les concepts de l’extrémisme deviennent non pertinents, insensés. En particulier lorsqu’ils sont utilisés de manière triviale, désinvolte, pour décrire des actes mineurs d’opposition ou de résistance, voire de désespoir. Dans ce cadre également, la question de la violence (dans une société fondée et étayée par des actes quotidiens d’extrême violence) ou de la non-violence est une construction factice (favorable au pouvoir qui légitime sa propre violence ou fait passer pour non-violents des actes violents comme l’exploitation), un jeu truqué.

Le pouvoir n’admet jamais son propre extrémisme, sa propre violence, son propre chaos, sa propre destruction, son propre désordre. Le désordre de l’inégalité, le chaos de la dépossession, la destruction des communautés et des relations traditionnelles ou indigènes – l’extermination de la vie, de la planète elle-même. Ce sont de véritables comportements extrémistes. Ils sont, en fait, endémiques à l’exercice du pouvoir dans les sociétés capitalistes étatiques.

La destruction d’écosystèmes entiers pour le profit de quelques-uns est un acte férocement « rationnel » (contre l’irrationalité des approches radicales visant à mettre fin à ces ravages). L’extinction de communautés entières – le génocide des peuples – pour obtenir des terres et des ressources est une action indiciblement extrême, en termes écologiques et humains. Pourtant, le pouvoir n’identifie jamais ces actes comme étant radicaux – il s’agit toujours d’une simple réalité de la vie, du coût des affaires, d’un effet secondaire du progrès inévitable, d’un résultat malheureux de l’histoire (dont personne n’est responsable).

Et il ne s’agit même pas des extrêmes, ni de rares dérives du capitalisme – ce sont les actes fondateurs de l’être du capital –, ils sont la nature du capital. La conquête coloniale, par exemple, n’est pas un effet secondaire regrettable ou un excès du capitalisme – c’est sa possibilité même, son essence.

Les militants qui ne parviennent pas à aller à la racine des problèmes sociaux ou écologiques – qui ne comprennent pas ce que signifie le radicalisme d’en bas pour la résistance – peuvent être, et sont généralement, trop facilement enrôlés par le capital étatique dans le chœur dominant qui assaille et condamne, qui calomnie et dénigre le radicalisme. Nous le voyons dans le cas des mouvements de mondialisation alternative où certains activistes, revendiquant la désobéissance civile non-violente (DCNV) de manière anhistorique, sans contexte, comme s’il s’agissait d’une sorte d’objet fétiche, se joignent ensuite à la police, aux politiciens, aux firmes et aux médias de masse pour condamner l’action directe, les blocages, les occupations de rue, les barricades ou, bien sûr, les dommages infligés à la propriété, comme étant trop radicaux – en tant qu’actes de violence. Les voix des activistes anti-radicaux deviennent une composante de la délégitimation de la résistance elle-même, un aspect clé du maintien du pouvoir et de l’inégalité.

De tels désaveux publics à l’endroit de la résistance servent à justifier, excuser et maintenir la violence très réelle qui est le capital. Les approches, y compris celles des activistes, qui condamnent la résistance, y compris par exemple la résistance armée, ne font que donner les moyens d’excuser et de justifier la violence continuelle et extensible (elle s’étend toujours en l’absence d’une réelle opposition) du capital étatique.

La survie n’est pas un crime. La survie n’est jamais radicale. L’exploitation est toujours un crime (ou devrait l’être). L’exploitation n’est jamais que la norme des relations sociales capitalistes.

Les détenteurs du pouvoir chercheront toujours à discréditer ou à délégitimer la résistance à leurs privilèges. Le recours à des termes chargés (mal compris et mal interprétés par les détenteurs du pouvoir) comme le radicalisme sera une tactique à cet égard. On peut suivre la reconstruction du terme « terreur » pour voir un exemple de ces processus. Le terme « terreur » était initialement utilisé pour désigner la violence d’État déployée contre toute personne considérée comme une menace pour l’autorité instituée, pour l’État (Badiou 2011, 17). Ce n’est que plus tard – comme résultat de la lutte hégémonique – que la terreur en est venue (pour les détenteurs du pouvoir étatique) à désigner les actions des civils – même les actions contre l’État.

Et cela fonctionne souvent. Il est certain que cela a joué un rôle dans l’atténuation ou l’adoucissement des potentiels des mouvements alternatifs à la mondialisation, comme cela a été le cas dans les périodes de lutte précédentes. En cela, ces activistes anti-radicaux soutiennent inévitablement le pouvoir et l’autorité de l’État capitaliste et renforcent l’injustice.

Toutefois, nous devons également être optimistes. L’accusation de radicalisme venant d’en haut (affirmée de manière superficielle) est aussi un appel à l’aide de la part du pouvoir. C’est un appel du pouvoir aux secteurs non engagés, le milieu mou, pour qu’ils se démarquent des secteurs résistants et se rangent du côté du pouvoir (États et capital) pour réaffirmer le statu quo (ou étendre les relations et les pratiques qu’ils trouvent bénéfiques, un nouveau statu quo de privilèges) – les conditions de la conquête et de l’exploitation.

Le radicalisme (ou l’extrémisme, ou le terrorisme) est la méthode utilisée par le pouvoir pour réprimer l’agitation en attirant le public vers les intérêts dominants. En ce sens, il reflète un certain désespoir de la part des puissants – un désespoir dont il faut profiter, et non pas en faire le jeu ou le minimiser.

Dans les périodes de recrudescence des luttes de masse, la question du radicalisme se pose inévitablement. C’est dans ces moments qu’une orientation radicale brise les limites de la légitimation hégémonique – en proposant de nouvelles interrogations, de meilleures réponses et de réelles alternatives. S’opposer au radicalisme, c’est s’opposer à la pensée elle-même. S’opposer au radicalisme, c’est accepter les conditions fixées par le pouvoir, c’est se limiter à ce que le pouvoir permet.

L’anti-radicalisme est intrinsèquement élitiste et anti-démocratique. Il part du principe que tout le monde, quel que soit son statut, a accès aux canaux de prise de décision politique et économique, et peut participer de manière significative à la satisfaction des besoins personnels ou collectifs. Il ne tient pas compte des vastes segments de la population qui sont exclus des décisions qui ont le plus d’impact sur leur vie, ni de l’accès inégal aux ressources collectives qui nécessitent, qui exigent, des changements radicaux.

Les activistes, ainsi que les sociologues et les criminologues, doivent défendre le radicalisme d’en bas comme une orientation nécessaire pour lutter contre l’injustice, l’exploitation et l’oppression et pour des relations sociales alternatives. Les actions doivent être évaluées non pas en fonction d’un cadre moral légal établi et renforcé par le capital étatique (pour son propre bénéfice). Elles doivent être évaluées en fonction de leur impact réel sur la fin (ou l’accélération de la fin) de l’injustice, de l’exploitation et de l’oppression, et sur l’affaiblissement du capital étatique. Comme Martin Luther King l’a suggéré, une émeute est simplement le langage de ceux qui ne sont pas entendus.

La morale bien-pensante et la référence à l’autorité légale, en reprenant les voix du capital étatique, est pour les activistes une abdication de la responsabilité sociale. Pour les sociologues et les criminologues, c’est un renoncement à l’imagination sociologique qui, en mettant l’accent sur la recherche des racines des problèmes, a toujours été radicale (au sens non hégémonique du terme). Les penseurs et les acteurs critiques de tous bords doivent défendre ce radicalisme. Ils doivent devenir eux-mêmes radicaux.

Les débats devraient se concentrer sur l’efficacité des approches et des pratiques pour s’attaquer aux racines des problèmes sociaux, pour déraciner le pouvoir. Ils ne devraient pas être centrés sur la conformité à la loi ou à la moralité bourgeoise. Ils ne devraient pas être limités par le manque d’imagination des participants ou par le sentiment que le meilleur des mondes est celui que le pouvoir a proposé.

Encore une fois, le radicalisme n’est pas une tactique, un acte, ou un événement. Ce n’est pas une question d’extrêmes, dans un monde qui considère comme indiscutable que les extrêmes sont effroyables. C’est une orientation du monde. Les caractéristiques du radicalisme sont déterminées par, et dans, des contextes spécifiques. C’est le cas aujourd’hui pour les mobilisations de masse, voire des soulèvements populaires contre les offensives d’austérité étatiques au service du capitalisme néolibéral. Le radicalisme menace toujours de déborder les tentatives de le contenir. C’est parce qu’il fait progresser la compréhension – il met en évidence l’injustice sociale – qu’il est par nature re-productif. Il est, en termes actuels, viral.

Jeff Shantz, Salt Spring Island, été 2013

Bibliographie

Badiou, Alain. 2011. Polemics. London: Verso

Fromm, Erich. 1971. « Introduction ». Celebration of Awareness: A Call for Institutional Revolution. New York: Doubleday Anchor

Illich, Ivan. 1971. Celebration of Awareness: A Call for Institutional Revolution. New York: Doubleday Anchor

Mills, C. Wright. 1959. The Sociological Imagination. London: Oxford University Press.

Rimke, Heidi. 2011. « The Pathological Approach to Crime: Individually Based Theories ». In Criminology: Critical Canadian Perspectives, ed. Kirsten Kramar. Toronto: Pearson Education Canada, 78–92.

—. 2003 « Constituting Transgressive Interiorities: C19th Psychiatric Readings of Morally Mad Bodies ». In Violence and the Body: Race, Gender and the State, ed. A. Arturo. Indiana: Indiana University Press, 403–28.

Notes


  1. NdT : le terme vient effectivement du latin tardif, comme mentionné par A. Blaise dans son dictionnaire du latin chrétien, dont voici la définition complète : « qui tient à la racine, premier, fondamental » dérivé de radix, -icis « racine, origine première ». ↩︎

  2. Pour une analyse plus approfondie de cette question, voir le travail en cours de Heidi Rimke (2011, 2003). ↩︎

07.06.2022 à 02:00

Scott Scale 950 : premières impressions

Application directe de mon billet précédent sur les VTT dans les Hautes Vosges, je vous propose le court retour d’expérience d’une première prise en main d’un VTT Scott Scale 950 édition 2022.

Le choix

Ce VTT fut commandé en fin 2021 (oui, oui!). Le temps de livraison des cycles s’est trouvé excessivement allongé en général ces deux dernières années. Les raisons sont connues. La mondialisation des échanges a rendu les flux largement dépendants de quelques grands pays producteurs de matières premières. La pénurie de celles-ci associée à la désorganisation de la production en raison du Covid ont crée des effets dominos dans beaucoup de filières. Dans le secteur Mountain Bike, si votre choix est spécifique et que ne pouvez pas vous contenter de ce qui se trouve déjà en stock magasin, il faut vous armer de patience.

Or donc, j’avais commandé un Scott Scale 950. Pourquoi ce choix ? D’abord parce que je suis habitué à cette fameuse marque Suisse, mais aussi parce que, depuis 2005, la gamme Scale n’a cessé de s’améliorer et a fini par devenir une référence. Peu de marques ont cette capacité de pouvoir allier la contrainte de qualité imposée en compétition et décliner toute une gamme sur une si longue période (16 ans !). D’autres marques ont certes su mobiliser leurs capacités industrielles pour décliner des modèles très célèbres et de bonne qualité. La différence avec les vélos Scale, c’est le large choix de matériaux et d’équipements à travers toute la gamme. Au regard des attentes du cycliste, c’est là que le bât peut blesser : trop bas de gamme, le vélo perd tout son intérêt, trop haut, il devient cher et c’est vers d’autres marques qu’on doit se tourner pour un modèle équivalent et plus abordable.

Le Scott Scale 950 édition 2022 présentait pour moi plusieurs avantages :

  • semi-rigide. Après plusieurs années en tout-suspendu pour le cross-country, il me fallait néanmoins un semi-rigide à la hauteur de mes attentes et de mes chemins (très variés, du plus technique en montée comme en descente, jusqu’aux chemins forestiers larges pour travailler l’endurance).
  • la géométrie. Cadre, angles, haubans et direction, tout est fait pour allier la maniabilité, l’agilité et la nervosité. Sur les premiers modèles d’entrée de gamme, selon la morphologie du cycliste, on sent déjà bien la différence par rapport à des géométries moins travaillées pour le rendement (je pense à Lapierre, mais bon… il ne faut pas nourrir le troll). Pour moi, cette géométrie est juste ce qu’il me fallait mais à condition…
  • … d’avoir un choix d’équipements à la hauteur (Shimano et Syncros pour l’essentiel). Et là c’est tout un équilibre qu’il faut choisir, entre des coûts raisonnables pour l’entretien (changement de pièces, surtout la transmission), l’évolution de l’équipement, la fiabilité.

Aujourd’hui, le Scale 950 a pour ainsi dire renoué avec la géométrie sportive de départ, tout en utilisant des matériaux de grande qualité. En comparant le 950 (cadre aluminium ultra-léger) avec le 930 et le 940 (cadre carbone), la différence de poids est respectivement de +400 grammes et de -200 grammes (!!). Si on considère un instant la rigidité et la relative fragilité du carbone (surtout du carbone entrée de gamme) par rapport à la souplesse de l’aluminium, on peut désormais se poser franchement la question de l’intérêt de vouloir absolument du carbone. Mon choix a donc porté sur l’aluminium, d’autant plus que l’équipement (transmission, freins) du 950 est excellent. Pour le prix, il y avait 100 et 200 euros de différence : la comparaison ne se résume donc pas à une question de portefeuille.

Scott Scale 950, 2022

Première impression

Le débutant VTT peut très bien acheter ce modèle d’emblée, mais il faut savoir que la première impression est celle d’une assez grande exigence. Autant l’ensemble est extrêmement maniable, même avec peu d’expérience de pilotage, autant le rendement en terme de rapport énergie / vitesse est assez exceptionnel. Les plus sportifs trouvent vraiment leur compte avec ce VTT que l’on peut pousser assez loin dans ses capacités. S’il s’agit d’un premier VTT, c’est un peu dommage de ne pas pouvoir en profiter pleinement grâce à un bon pilotage, autant acheter un Scale plus bas de gamme, ou un Aspect (pour rester chez Scott) et moins cher quitte à changer plus tard.

Pour illustrer : sur un tronçon de parcours chronométré de 10 km / 400 Md+, habituellement emprunté avec d’autres VTT (en particulier mon – désormais – ancien Scott Spark), j’ai gratté 5 minutes sur mon temps habituel (même condition climatique et de terrain). Cela tient à deux choses : la légèreté et le rendement. On peut certes y associer l’excitation de la nouveauté, mais… 5 minutes, tout de même ! Tout le rendement qu’on a en moins dans un tout suspendu (même en rigidifiant les amortisseurs) est récupéré. Et non, bien évidemment, je ne parle pas des tout-suspendus à 10.000 euros, hein ?

Et la descente ? Et bien, j’ai largement confirmé mon expérience selon laquelle, pour la plupart des sentiers des montagnes vosgiennes, équiper un bon semi-rigide de roues 29 pouces est largement suffisant. La différence s’est fait à peine sentir, y compris grâce à la souplesse de l’aluminium. Certains obstacles, peu nombreux, ne sont évidemment pas pris de la même manière qu’avec un tout-suspendu1. Autrement dit : si on veut garder la même vitesse en présence d’obstacles, le Scott Scale fait parfaitement le job à condition de savoir bien piloter. C’est là qu’un débutant aura sans doute plus de difficulté, en montée comme en descente, surtout en présence de racines ou de gros dévers.

En revanche, un petit bémol pour Scott qui équipe les roues d’emblée avec des pneus Rekon Race : très valables sur terrains secs, ils sont très peu fiables dès qu’il y a de l’humidité. Or, m’étant concocté un parcours avec des terrains très variés pour ce premier test, je sais déjà qu’à la première occasion, je changerai les pneus.

Matériel

Il n’y a pas grand chose à dire sur l’équipement de ce VTT. Comme Scott sait le faire, le blocage triple position de la fourche est un atout non négligeable car il permet d’adapter la fourche au type de terrain. Mais là rien de nouveau.

Rien d’exceptionnel non plus concernant la transmission : mono-plateau (32), cassette arrière 12 vitesses (10-51), dérailleur Shimano Deore XT… Cette transmission fait vraiment le job, à voir sur la durée. Avantage de ces composants : ils sont connus, fiables, et les changer ne coûte pas un bras. On pourra monter en gamme à l’usage mais a priori je n’en vois pas la nécessité.

Les autres équipement Syncros, célèbres chez Scott, sont tout à fait classiques aussi. Petit plus pour la selle Belcarra que j’ai trouvée vraiment confortable. Mais là aussi, il faut l’envisager sur la durée : il y a mieux en matière de selle.

Quant aux freins, je réserve une mention spéciale : ils sont vraiment bons. Pourtant il s’agit des Shimano MT501 qui sont certes typés sportifs, mais ne figurent pas en haut de podium. Je pense que tout simplement l’innovation en la matière a rendu ces systèmes de freins de plus en plus performants : qu’il s’agisse du mordant ou de la souplesse des leviers, après quelques essais, on trouve très vite le point d’accroche qui permet de doser efficacement le freinage.

Un point important : les pédales. Bien sûr elles ne sont pas fournies mais sur un tel VTT les pédales automatiques ou semi-automatiques me semblent indispensables. Pour l’heure, j’ai reporté les pédales plates de mon ancien VTT, j’attends avec impatience de pouvoir tester des semi-automatiques magnétiques (marque Magped).

Esthétique

Et pour finir, je ne peux pas m’abstenir de mentionner l’aspect esthétique général de mon nouveau bijou… couleur émeraude chatoyant à l’aspect mat, associée à un beige que l’on trouve sur la selle et le choix des pneus. L’élégance de la géométrie associée à ces choix de couleurs (un peu kitsch peut-être) donne un ensemble très « smart ».

Pour autant Scott n’a pas oublié quelques points essentiels : les bases arrières sont enfin complètement protégées, en particulier du côté transmission avec une protection caoutchouc de bonne facture. Idem à l’avant du tube diagonal, un revêtement anti-adhérence présentant le nom de la marque, est censé protéger cette partie du cadre. Là, par contre, il faut voir sur la durée : cela semble protéger contre les salissures, mais pas forcément contre les pierres, donc je crois qu’un bon coup de film polyuréthane devra s’imposer tout de même.

Conclusion

Le Scott Scale 950 est un excellent compromis entre la randonnée sportive et la recherche de performance. Dédié au Cross-country, il est dédié aux sorties rythmées. La relance en haut de côte n’est plus vraiment un problème. Le pilotage est assez nerveux, ce qui fait que je le déconseille aux débutants : on se laisse vite griser par la vitesse indépendamment du terrain (le 29 pouce fait son effet) mais gare au freinage tardif ! Le choix des pneus est donc crucial selon votre géographie et les Rekon Race fournis par défaut ne feront certainement pas l’unanimité.

Notes


  1. Ce que j’ai surtout remarqué, c’est que le tout-suspendu permet de jouer avec les obstacles, quitte à corriger des erreurs de pilotage, alors qu’en semi-rigide l’erreur se pardonne moins. Autrement dit, les sensations de pilotage sont beaucoup plus authentiques. Il y a toujours un côté snob à mentionner ce genre de choses, mais je comprends les pratiquants qui souhaitent parfois revenir à des « fondamentaux ». ↩︎

22.04.2022 à 02:00

Guide de survie du vététiste débutant en moyenne montagne

Voici un long billet dont j’ai remis la rédaction depuis bien trop longtemps. Il s’adresse aux grands débutants en VTT qui souhaitent s’y mettre. S’agissant de réflexions tirées de mon expérience personnelle dans les Vosges, il faut considérer que je m’adresse essentiellement aux débutants vététistes en moyenne montagne. Quatre grands thèmes sont abordés : la pratique du VTT, le choix d’un premier VTT, l’équipement et l’entretien.

Table des matières

Il faut parfois s’accrocher pour ne pas se perdre parmi les différentes appellations qui désignent les pratiques du VTT. Ce n’est pas qu’elles soient nombreuses, c’est surtout qu’elles sont parfois utilisées de manière indifférenciée. Ainsi, certains sites ou vendeurs vous conseilleront exclusivement un VTT tout-suspendu pour la pratique du All Mountain, tandis que d’autres vous diront que le semi-rigide comme le tout suspendu conviennent, car il ne s’agit que de randonnée sportive, soit du Cross country…

Les pratiques du VTT

Nommer la pratique que l’on souhaite avoir, c’est aussi conditionner le choix du matériel et donc son achat. Mon avis personnel, c’est que certains sites internet ont tendance à pousser le choix d’un VTT tout suspendu alors que le client débutant en est encore à se questionner sur les équipements de freins et transmission. En contraste, je n’ai encore jamais vu un bon vendeur dans un magasin de cycles soutenir mordicus que le client devrait obligatoirement choisir un type de VTT plutôt qu’un autre : le conseil doit être technique et comparatif dans une même gamme, mais la pratique appartient au pratiquant.

C’est pour cela qu’il faut d’abord réfléchir à la pratique que l’on souhaite. Il faut pouvoir faire confiance au vendeur et à ses conseils, mais auparavant il faut aussi savoir lui communiquer vos attentes. Il ne peut pas les deviner si vous ne savez pas répondre à ses questions ou si vous répondez sans réellement savoir ce que vous voulez.

Nous reviendrons plus loin sur l’éternelle question du choix entre un tout-suspendu et un semi-rigide.

Mais c’est quoi « le VTT » ?

Comme son nom l’indique en français, il s’agit de « vélo tout terrain ». En anglais, il s’agit de vélo de montagne (Mountain Bike). Bien que la version anglophone ai longtemps eu cours, je trouve que la version francophone est bien mieux adaptée : on peut utiliser un VTT sur chemin de campagne dans les collines sous-vosgiennes comme sur les pires aiguilles des Alpes. L’essentiel est que cela puisse rouler sur tous les terrains (il paraît que certains en font en Bretagne, c’est tout dire).

La seule chose que vous tâchez d’éviter, c’est la route, le bitume. Premièrement parce que vous risquez de vous y ennuyer en ayant l’impression de ne pas avancer. Deuxièmement parce que vos pneus et la géométrie d’un VTT ne sont pas faits pour cela.

Il y a plusieurs manières d’aborder le VTT. La première, c’est la petite promenade du dimanche sur des chemins de terre. C’est plus tranquille que sur la route, pas de voiture. Si tel est votre souhait, je ne pense pas qu’il soit utile de lire plus loin. Vous achetez un VTT assez bas prix (en dessous 500 euros, c’est tout à fait envisageable). Si vous en prenez soin, il saura vous durer. Mais un VTT ne sera peut-être pas votre choix le plus éclairé : il existe des vélos « tout chemin » (VTC) qui seront sans doute plus appropriés et, à l’occasion, vous permettront de faire des randonnées plus longues et plus confortables en alternant voies communales et pistes cyclables1.

La seconde et principale manière d’envisager le VTT, c’est le sport. De part sa géométrie, un VTT est d’abord un vélo sportif. Tout comme l’est celle du vélo de route (de course). Et comme toute discipline sportive, cela nécessite un entraînement régulier.

Le VTT n’a certes pas le monopole de la difficulté en sport, mais il faut reconnaître que ce n’est pas une discipline très simple. D’abord, il y a un aspect matériel à prendre en compte. Et surtout, il faut acquérir de l’endurance et de l’aisance de pilotage. Débuter le VTT comme sport vous engage à envisager quelques séances un peu décourageantes et ingrates devant les terrains accidentés et les montées interminables. Mais dès le début vous y trouverez beaucoup de plaisir et de satisfaction pour les distances et le dénivelé accomplis.

Simplement, essayez de choisir des circuits avec des points de vue, donnez-vous des objectifs, et ne présumez pas de vos forces. Soyez conscient·e de votre niveau. Si vous êtes blême en haut des marches et des racines, ou si vous avez le cœur en dehors de sa boîte au milieu d’une côte trop raide, il n’y aucune honte à descendre du vélo et faire quelques pas. Ne vous inquiétez pas, de toute façon, vous descendrez de vélo plus souvent que vous ne le croyez :)

Puisque nous parlons de sport, c’est l’occasion de rappeler quelques principes :

  • la régularité : la météo ne doit pas être une excuse pour ne pas rouler. C’est désagréable, certes, mais un petit coup de froid ne fait pas de mal. Par contre, n’oubliez pas les descentes, n’allez pas vous transformer en glaçon. J’ai coutume de ne pas sortir le VTT en dessous 5 degrés à moins d’un grand soleil. Mais vous trouverez toujours quelques givré·es pour le faire quand même. La grosse pluie, en revanche, il vaut mieux l’éviter : le vélo est tout terrain, mais la transmission et les suspensions prennent cher lorsqu’il y a trop d’humidité (et gare au nettoyage).
  • la mixité : le VTT est un sport, mais il ne doit pas vous empêcher d’en faire d’autres. La course à pied est un excellent complément pour travailler l’endurance. La natation vous aidera à obtenir plus de gainage (et aussi de l’endurance) tout en préservant vos articulations. Et chaque matin, un peu de musculation (sangle abdominale et pompes) pour améliorer votre pilotage, votre équilibre et résister aux longues sorties.
  • mon conseil : si une sortie VTT est votre seule pratique sportive de la semaine, vous risquez de ne pas beaucoup progresser. Essayez, lorsque viennent les beaux jours, de faire au moins deux sorties par semaine, une courte une longue, et alternez avec de l’endurance et du gainage. En hiver, si vous ne sortez pas le VTT du week-end à cause de la météo, faites une séance de trail à la place, au moins deux heures, pour garder le « coffre ».
  • en fonction de votre pratique (voir les sections suivantes), votre entraînement ne sera pas le même. Si vous vous lancez dans l’Enduro, je vous conseille de faire pas mal de musculation. Pour le Cross country, privilégiez le cardio.

Ces considérations étant exposées, intéressons-nous désormais aux différentes pratiques du VTT.

All mountain

C’est l’expression-valise pour dire « randonnée sportive sur chemins mixtes ». Par chemins mixtes, j’entends aussi bien des sentiers qui nécessitent un peu de pilotage technique (en descente comme en montée) et des grands chemins forestiers, le tout avec une certaine technicité des sentiers.

Et vous allez demander : n’est-ce pas justement la définition du VTT ? Et bien si, justement. Cette expression est selon moi purement issue du marketing, en particulier sur les sites de vente en ligne de matériel sportif. Si on multiplie les appellations de pratiques, on multiplie par conséquent les choix possibles.

Si je vous disais par exemple qu’un VTT tout-suspendu est essentiellement fait pour la descente, vous hésiteriez à juste titre car pour la plupart des gens, descendre des sentiers en vélo est forcément dangereux. Or, il a bien fallu multiplier les ventes de VTT tout-suspendus en les adaptant à ces personnes qui veulent un tel VTT sans pour autant se lancer dans la discipline Enduro. J’exagère à peine : le tout-suspendu a largement gagné le créneau du Cross country, mais comme je vais l’expliquer plus loin, c’est à certaines conditions seulement que ce choix doit être fait, et il est nullement obligatoire.

En fait, il n’y a que deux grandes pratiques de VTT, elles sont citées dans les sections suivantes. Et le choix d’un VTT tout suspendu ou semi-rigide est surtout un choix relatif à la manière de pratiquer et à l’investissement financier.

En moyenne montagne, pour un débutant, il n’y aura pas de grande différence entre un VTT semi-rigide 29 pouces et un tout-suspendu. Pour tout dire, on peut aimer le tout-suspendu parce que dans les grands chemins forestiers, on ressent moins de vibrations, et dans certains sentiers en descente on peut parfois engager un peu mieux des dénivelés… inattendus (parfois l’erreur de pilotage peu être plus facilement corrigée). Mais on aime aussi le semi-rigide car il est beaucoup plus nerveux en montée, il est plus léger, il est plus précis en pilotage dans beaucoup de situation, et les sensations sont plus authentiques. Bref, c’est en pratiquant que l’on se forge une opinion.

Pour résumer à propos du All Mountain :

  • ce n’est pas une pratique précise,
  • souvent employé comme un argument de vente,
  • c’est plutôt du Cross country.
Sans commentaire.

Enduro et DH (DownHill):

Là, c’est du sérieux. Ces pratiques concernent essentiellement la descente. Je les mets dans le même sac car ce n’est pas vraiment l’objet de ce billet. DH et Enduro sont des courses chronométrées. Les épreuves d’Enduro (comprendre au sens de endurance) durent parfois une dizaine de minutes et s’étalent sur plusieurs jours. Le VTT Enduro peut être utilisé en montée comme en descente (même si, forcément, ce ne sera pas une bête de course en montée, hein?), il est aussi réputé très solide car il faut tenir le choc, justement, sur la durée. La pratique DH est encore plus spécialisée, avec du matériel hyper modifié. Bref, si vous voulez faire comme dans les superbes vidéos Redbull et quitter le sol pour le meilleur (ou pour le pire), cette pratique est faite pour vous. Achetez-vous aussi une caméra, histoire de garder des souvenirs.

Dans les Vosges, plusieurs groupes de vététistes ont aménagé des circuits dédiés, plus ou moins réglementaires. On peut citer celui du côté de Barr, qui est en fait un ancien spot de championnat, me suis-je laissé entendre. Ce sont eux qu’on accuse souvent de dégrader les sols, mais ce n’est pas toujours vrai. Je connais certains spots où la roche côtoie le chemin bien solide et il n’y a pas vraiment de problème. Mais il existe aussi des Bike Park (par exemple celui du Lac Blanc). Si vous voulez tester, je préconise de vous y rendre.

Autre point important : ne vous prenez pas pour un·e champion·ne. L’Enduro ne s’improvise pas, et ce n’est pas parce que vous avez un VTT tout-suspendu que vous pouvez, du jour au lendemain, prendre un élan inconsidéré. Le pilotage, cela s’apprend ! Avec un groupe d’ami·es on peut facilement chercher à impressionner les copain·es. Croyez-moi, après 30 ans de pratique2 : le seul résultat vraiment impressionnant quand on se plante, c’est celui de l’hélitreuillage :)

VTT Enduro -- Nissan DH Cup in Bouillon - 53, by Nathan. F, CC BY-NC-SA 2.0.

Cross country

On nomme cette pratique aussi X-Country ou, plus court, XC. C’est la pratique la plus répandue et présente aux jeux olympiques : une course de rapidité, en somme, sur des terrains variés, quelle que soit la météo.

Au niveau du grand public, ce qui distingue les pratiquants, ce sera la vitesse, l’allure, le rythme. On oscille entre la randonnée, la randonnée sportive et l’entraînement marathon. En moyenne montagne, la grande variété des terrains offre la possibilité d’élaborer des circuits adaptés à toutes les phases de l’entraînement, y compris de longues distances.

À la différence de l’Enduro, le Cross country ne cherche pas à jouer avec le terrain mais optimiser le pilotage pour une trace fluide et rapide. L’endurance du cycliste est ainsi mise à l’épreuve, mais cela n’empêche nullement de considérer le Cross country comme un excellent moyen de se déplacer sportivement dans la montagne et en profiter pour admirer le paysage et les sites d’intérêt. C’est d’ailleurs l’essentiel pour la plupart des pratiquants.

Évidemment, si vous voulez progresser, c’est l’entraînement qui fera la différence (comme pour l’Enduro).

Cette variété au niveau de la pratique comme au niveau du pilotage conditionne le choix de votre monture. Et ce sont sans doute les seuls critères qui devraient présider ce choix, en plus de votre condition physique et l’analyse de votre niveau.

VTT Cross country (course) - 2012 Absa Cape Epic Prologue at Meerendal by mikkelz, CC BY-NC-SA 2.0.

Choisir votre type de VTT

J’ai bien conscience qu’en abordant ce chapitre, je risque de m’attirer les foudres des plus spécialistes d’entre nous. Je précise donc une nouvelle fois que je m’adresse au débutant vététiste dans les Vosges (et plus généralement en moyenne montagne) d’après mon expérience personnelle. C’est tout.

Quand j’étais jeune…

Au risque de passer pour un vieux briscard, voici quelques éléments de contexte.

Je vous invite tout d’abord à regarder quelques vidéos qui traînent sur les zinternets à propos de Gary Fischer. Ce dernier, pionnier du Mountain Bike californien était aussi concepteur et chef d’entreprise (la marque Gary Fischer, disparue vers 2010, rachetée par Trek). Il faut voir dans cette vidéo ce qu’on peut faire avec un vieux biclou 29 pouces sans suspension, en descendant des chemins en jeans, chemise et gants de chantier… tout cela pour vous dire (vous rappeler ?) que ce qui fait le bon vététiste, c’est avant tout les cuissots et le pilotage. Indépendamment de sa qualité et sa robustesse, le matériel, lui, sera toujours secondaire.

Cette première leçon venue du fond des âges du VTT (les années 1970) vaut bien un fromage. Pour ce qui me concerne, j’ai commencé exactement en 1989 avec un Gary Fischer Advance. Caractéristiques : freins V-brake, roues 29 pouces, tout rigide, selle rembourrée… Et avec ce VTT, j’ai roulé 5 ans dans tous les chemins autour de la Vallée des Lacs (Hautes Vosges), sur le granit mouillé comme sur l’herbe sèche des crêtes vosgiennes. Une excellente école pour le pilotage. Ma conclusion est que les VTT d’aujourd’hui, équipés de freins à disques, de jeux de transmission high-tech, de cadres à géométrie confortable, sont certes beaucoup plus sûrs qu’à l’époque, mais présentent aussi un très large choix en termes d’équipement, ce qui rend assez difficile le choix d’un premier achat.

Par conséquent la pression est très forte, pour un débutant : comment bien investir son argent dans un VTT s’il ignore encore sa pratique réelle, la fréquence de ses entraînements, les conditions de ses sorties, les chemins qu’il empruntera ?

VTT Gary Fisher ProCaliber 1991.

Louer un VTT puis investir (ou pas)

Si vous n’avez jamais fait de VTT, bien évidemment : n’achetez rien pour l’instant. Trouvez un loueur de VTT3 et partez faire un tour quelques heures avec une personne déjà pratiquante (et qui essaiera de ne pas vous dégoûter en étant pédagogique et patiente). Faites cela plusieurs fois de suite. Les quelques euros que vous aurez alors dépensé dans la location d’un VTT seront vite amortis parce que vous aurez une idée beaucoup plus précise de la discipline.

Une fois que vous le sentez, commencez à vous intéresser à l’achat de votre premier VTT. J’ai bien dit : le « premier » VTT. Parce qu’il y en aura d’autres.

Bien sûr votre capacité d’investissement dépend de la largeur de votre portefeuille. Mais s’il s’agit de votre premier VTT, c’est aussi le VTT :

  • avec lequel vous allez commettre des erreurs,
  • avec lequel vous allez affiner votre pratique, celle qui vous conduira à acheter votre second VTT,
  • avec lequel vous aller apprendre comment s’entretient un VTT au quotidien et même changer des équipements complets.

Et comme c’est votre premier choix, et il y a des chances qu’il ne vous corresponde pas à l’usage (quelle que soit la qualité du conseil du vendeur).

Il y a plusieurs stratégies possibles.

La première consiste à investir pour un VTT de milieu de gamme que vous roulerez un à deux ans. Si la pratique vous plaît et que vous pensez pouvoir investir plus sérieusement, vous pourrez alors revendre ce premier VTT et racheter un VTT plus haut de gamme et cette fois avec de la pratique et une meilleure connaissance du matériel. Pour revendre ce VTT, l’important est de bien en prendre soin. C’est autant d’argent que vous pourrez sauvegarder le moment venu.

La seconde, consiste à acheter un VTT entrée de gamme pour le revendre une bouchée de pain par la suite ou le convertir pour un autre usage en le « transformant » en vélo de ville ou tout chemin. À condition de planifier cela à l’avance. Vous achetez ensuite un VTT plus haut de gamme.

La troisième consiste à acheter d’emblée un VTT haut de gamme chez un constructeur disposant de beaucoup de choix dans une même gamme. Explications : au sein d’une même gamme vous trouvez les mêmes cadres mais un équipement de transmission, freins et suspension plus ou moins haut de gamme. Plutôt que de taper directement dans le must de l’équipement, vous pouvez choisir un équipement moins bon, et le faire évoluer dans le temps, par exemple au fur et à mesure des changements de pièces. Cela vous coûtera in fine plus cher, mais la dépense restera progressive.

La quatrième, enfin, la plus simple : vous êtes absolument sûr·e de votre choix. Vous avez assez d’argent et vous investissez pour un VTT censé vous durer longtemps, donc vous mettez le paquet. Attention toutefois, on ne compte plus le nombre de VTT de ce genre qui croupissent au fond des garages dans l’espoir d’une hypothétique remontada de la motivation…

Mon conseil serait le suivant. Il est très difficile, lorsqu’on débute, de bien différencier les constructeurs entre eux. Pour prendre quatre exemples : Giant, Scott, Lapierre, Trek. Chacun a breveté des géométries de cadre très différentes et qui changent selon les gammes. Rendez-vous dans les magasins et les démonstrations. Prenez votre temps et chaque fois que vous le pouvez, essayez les vélos à votre taille.

Pour un premier VTT, je pense qu’il faut éviter d’acheter en ligne sans avoir d’abord essayé, au moins être monté sur le vélo en compagnie d’un vendeur avisé qui saura vous dire si votre position est correcte. Il m’arrive parfois de voir des géants sur des vélos trop petits pour eux bien qu’ils indiquent la bonne taille dans la grille des correspondances du constructeur. La longueur de vos bras et votre port de tête sont tout sauf standardisés. De même il peut s’avérer parfois nécessaire de changer la potence ou le guidon… un essai de 5 minutes peut vous donner une bonne impression alors qu’une sortie de 3 heures vous en donnera une toute différente.

Pour conclure, pour un grand débutant, je préconise un achat d’abord entrée de gamme à revendre ou à recycler ensuite. La raison est que, à ce stade, vous n’êtes tout simplement pas sûr·e de pratiquer assez régulièrement le VTT sur plusieurs années.

Mais attention, lorsque j’écris « entrée » de gamme, je n’écris pas « bas » de gamme au sens péjoratif du terme ! Aux tarifs actuels, il faut compter entre 800 et 1.000 euros pour un VTT entrée de gamme qui puisse être assez qualifié pour une pratique sportive. On est loin du VTT Décat' à 400 euros. Pourquoi ? parce que, quelle que soit votre premier choix, il y a un niveau d’équipement en dessous duquel il ne faudra pas descendre. Mes préconisations minimales seraient :

  • fourche à suspension air,
  • roues / jantes 29 pouces compatible tubeless,
  • transmission Shimano Deore (ou équivalent Sram, cf plus loin),
  • de bon pneus type Maxxis Forekaster ou Rekon Race (ou équivalent, mais vous pouvez les changer facilement si besoin).

Si vous avez cela sur le vélo, c’est un VTT qui devrait vous durer assez longtemps pour un coût d’entretien modique (changement de pièces) ou plus onéreux si vous upgradez le tout.

Cadre aluminium ou carbone ?

On peut dire beaucoup sur l’avantage du carbone. Le point le plus évident est la légèreté (mais c’est aussi plus fragile).

Mais attention : les cadres aluminium pour un VTT aux alentours de 1.000 euros s’avèrent de très bonne qualité et assez légers surtout si on n’alourdit pas en tout-suspendu. Dans le haut du panier en aluminium, parfois mieux vaut acheter un bon cadre aluminium qu’un cadre carbone bas de gamme qui percera à la première pierre projetée par votre roue avant.

La question du poids, pour un premier VTT, me semble une question hors de propos. En effet, si vous achetez un VTT suivant les préconisations minimales ci-dessus, la différence avec d’autres VTT plus chers se mesure à 2 kg près (davantage si vous prenez un tout-suspendu). Or, ce qui fait la différence à votre niveau de pratique, ce sont surtout vos jambes : contentez-vous déjà de pédaler, vous optimiserez en perdant déjà du poids vous-même et en prenant de la masse musculaire.

L’autre point à l’avantage du carbone est sa rigidité. Cela implique une meilleure transmission de l’énergie… mais franchement quand vous en serez à comparer l’alu et le carbone selon ces critères là, vous n’aurez pas vraiment besoin de conseils.

Tout suspendu ou semi-rigide (hardtrail) ?

C’est l’éternelle question qui hante tous les magazines et autres sites marchands.

En toute objectivité, les VTT tout-suspendus d’aujourd’hui offrent des performances très intéressantes et ont réussi à perdre une grande partie du poids qui leur était reproché il y a quelques années (ils ne sont pas poids plume pour autant).

Il ne faut cependant pas s’accrocher aux catégories avancées par certains sites. D’aucun soutiennent que pour le All Mountain (je rappelle que cela ne correspond à aucune pratique précise) il vous faut du tout-suspendu sinon rien.

Il faut se poser la question : selon ma pratique, qu’est-ce qui va guider mon choix ?

Pour l’Enduro (ou le DH), je pense que la réponse va de soi : suspensions avant et arrière à grands débattements. Notons tout de même qu’il existe des fans d’Enduro en hardtrail. Là, je pense qu’il faut essayer avant d’en parler.

Pour le Cross country, cela se discute. Les suspensions des VTT tout-suspendus destinés au Cross country ont des débattements bien plus faibles que pour l’Enduro et sont vraiment destinés à cette pratique. De plus lorsqu’on regarde les championnats de cross-country depuis ces 5 dernières années, on y voit en majorité des VTT tout-suspendus… mais en carbone, avec le dernier cri de la technologie, bref… chers, très chers.

Dans cette pratique, et pour la moyenne montagne, le tout-suspendu offre une meilleure adhérence/propulsion en « collant » la roue arrière au sol, et un meilleur confort en descente avec, peut-être, un sentiment de sécurité. D’un autre côté, les chemins de moyenne montagne praticables en Cross country n’offrent que très rarement l’occasion d’éprouver significativement tout le jeu de suspension. La raison est qu’en choisissant des roues 29 pouces, l’essentiel est déjà « amorti ».

N’achetez pas un tout-suspendu si votre seule raison est de vous assurer de passer sur tous les sentiers en moyenne montagne (dans les Alpes, c’est différent). En fait, en moyenne montagne, les sentiers trop techniques sont peu nombreux, représentent très peu de kilomètres comparé au reste et de toute façon vous ne les emprunterez pas. D’après mon expérience vosgienne, si cela passe en tout-suspendu, cela passe aussi en semi-rigide. Le tout-suspendu n’est pas « plus tout-terrain » que le semi-rigide. Ce n’est pas le bon critère.

La combinaison 29 pouces + tout-suspendu pour du Cross country dans les Vosges me semble revenir à surjouer l’équipement par rapport au besoin réel.

Donc le besoin se fera vraiment sentir en fonction de votre pratique du Cross country : si vous voulez vraiment aller à fond en descendant les sentiers vosgiens, peut-être qu’un tout-suspendu vous conviendra. Et s’il est assez léger pour une randonnée de 4 ou 5 heures, vous gagnerez sans doute en confort. Par contre, cela représente un investissement conséquent. Un tout-suspendu pour du Cross country, cela veut dire que vous allez rechercher la légèreté et comme les suspensions ne sont jamais légères (sauf dans le très haut de gamme), vous allez devoir vous intéresser de près aux cadres en carbone.

Personnellement, mon VTT date de 2017, c’est un tout-suspendu, cadre aluminium. Il est lourd, même si l’aluminium utilisé est allégé. Par contre, sa solidité a fait que je n’en ai jamais eu à me plaindre. Ce que j’ai constaté néanmoins : il n’est pas très utile par rapport aux chemins que j’emprunte (et j’emprunte vraiment beaucoup de chemins différents). J’ai donc commandé un VTT semi-rigide pour le remplacer (à la date de rédaction de ce billet, j’attends la livraison).

Si vous choisissez un tout-suspendu pour pratiquer le Cross country, soyez aussi conscient·e de plusieurs choses :

  1. l’entretien se fait tous les ans ou tous les deux ans pour changer tous les roulements des articulations du VTT (renseignez-vous sur les prix ou apprenez à le faire vous-mêmes),
  2. la suspension arrière nécessite une attention particulière et il est conseillé de faire réviser l’ensemble tous les ans (idem, renseignez-vous sur les prix),
  3. il vaut mieux acheter un cadre carbone si vous voulez un tout-suspendu sans quoi, c’est un char d’assaut que vous allez devoir trimballer en montée. ce qui fait qu’en prenant un carbone de bonne qualité, votre VTT sera assez cher. Pour un premier achat, je le déconseille donc. Par contre à vous de voir si vous en avez le portefeuille et l’envie :)

Un dernier point à propos desVTT tout-suspendus : la tige de selle télescopique. Effectivement, c’est un outil qui peut s’avérer pratique car, en descente très engagée, baisser la selle en un coup de pouce depuis le guidon peut vous permettre de vous donner des airs d’Enduro. Mais n’oubliez pas, là encore : cela alourdi le vélo (et les selles sur tige télescopique on toujours du jeu, source d’inconfort à la longue).

Exemple de VTT semi-rigide - Mountain Bike, by Stephen Ransom Photography, CC BY-NC-SA 2.0.

VTT à assistance électrique ?

Le débat ressemble à troll. Il y a quelques années, à l’apparition des VTT-AE, il y eu une impression d’affrontement entre les pro et les anti-, soit entre ceux pour qui faire du VTT est synonyme d’effort sportif et ceux pour qui le VTT-AE reviendrait à faire du vélomoteur en forêt.

Sauf que le débat ne se pose pas en ces termes (outre le prix d’un VAE de bonne facture) :

  1. Le VTT-AE peut être pratiqué sportivement : au lieu de partir pour une randonnée de 40 km et 1200 m de dénivelé, vous en faites le double et voilà tout. L’assistance vous permet de monter des « coups de cul » que de toute façon vous auriez fini par monter à pied ou alors très fatigué. On comprend surtout que le VTT-AE est plus que bienvenu en haute montagne.
  2. Mais pour beaucoup de personnes le VTT-AE revient effectivement à jouer les touristes en pensant que le pilotage est à la portée de n’importe qui. Or, avec un VTT-AE de 25 kg, plus d’un amateur inexpérimenté fini par se viander dans un dévers.
  3. En revanche, pour les personnes qui autrement ne feraient pas de VTT parce qu’elles ne sont pas sportives, ou encore à cause de la vieillesse ou du surpoids, et si elles restent prudentes sur des chemins sans difficulté, le VAE offre l’opportunité de rouler au grand air sans le stress des voitures sur la route. Et c’est plutôt une bonne chose.
  4. Reste un problème tout de même, valable pour tout vélo électrique : les batteries et les filières de recyclage, la pollution que cela suppose, y compris dans les composants électroniques. Pour du vélo urbain (vélotaff) le compromis peut être atteint par l’effet de substitution à l’automobile (c’est un grand débat). Mais pour du loisir, c’est en raison de cet aspect du VTT AE que je conseillerais plutôt, lorsqu’on est en pleine possession de ses moyens physiques, de pédaler sur des VTT « musculaires ».

L’équipement

En tant que débutant·e, vous risquez d’être dérouté par les contraintes d’équipement qui s’imposent à vous. Que ce soit l’équipement du pratiquant ou celui du VTT, il est important de faire un point.

Pour le vététiste

Le·a vététiste doit toujours s’interroger sur ce qui le relie au vélo et son rapport à l’environnement et le climat. Essayons de faire le tour.

Les vêtements

Ne soyez pas radin·e sur ce point. Revêtir un bon cycliste (long et chaud en hiver, court en été) est votre première préoccupation : de bonne qualité il vous évitera les effets désagréables des frottements après une sortie longue. Une grande enseigne bleue fort connue en vend de très bons, il ne faut pas hésiter à aller y faire un tour. C’est de même valable pour les vestes chaudes d’hiver.

Cuissard ou short ? En été, c’est une question que je qualifierais surtout d’esthétique. Bien sûr dans les deux cas, vous vous aviserez d’avoir un chamois en fond de culotte, c’est primordial. Ensuite, le confort d’un cuissard est relatif à la quantité de tissu, là où le short pourrait être la cause de frottements désagréables. En revanche, pour des sorties longues je conseille le cuissard, sans hésitation, en particulier pour ses qualités compressives.

Votre garde-robe embarquée devra toujours prévoir un coupe-vent pluie : il vous évitera de prendre froid dans les descentes et vous protégera des intempéries.

Pour ce qui concerne les gants : les gants longs sont préconisés en VTT (ne pas mettre de mitaines), avec coussinets sur la paume. Il en existe pour l’hiver et pour l’été. Prenez du solide : il arrive souvent de poser les mains au sol, sur de la pierre, sur des troncs d’arbre, dégager des ronces… c’est tout-terrain, l’on vous dit…

Le casque

Pas de débat : il est obligatoire. Prenez du haut de gamme systématiquement, avec visière, système de répartition d’onde de choc, spécialisé VTT (les casques pour vélo de route ne conviennent pas). Essayez votre casque en magasin et voyez s’il vous est confortable : on ne peut pas tout acheter en ligne…

Casque VTT - Mountain Bike Helmet, by Noah J Katz, CC BY-NC-SA 2.0.

Autres protections corporelles

Lunettes : c’est nécessaire. Pour plusieurs raisons :

  • protection de vos yeux (ronces, branches, projections diverses),
  • teinte jaune (pas trop foncée à cause des sous-bois) : tous les opticiens vous diront que cette teinte permet d’accentuer les contrastes, donc mieux voir les reliefs,
  • verres interchangeables : une paire jaune, une paire blanc (pour la pluie, et lorsqu’il n’y a pas assez de soleil)
  • si vous avez besoin de correction de vue, allez voir votre opticien pour acheter une paire de lunettes pour le VTT (il y a deux ou trois grandes marques fort connues pour le sport : Demetz, Julbo, Bollé…
  • les lunettes doivent être profilées : même si ce n’est pas à la mode :)

Protection armure : laissez cela aux descendeurs en Enduro/DH. Ell·eux en ont vraiment besoin. Pour le cross country, il faut voyager léger.

Pour votre dos, si vous avez un sac à dos avec poche à eau, vous n’en n’avez pas vraiment besoin, mais certains sacs disposent une plaque de protection, si cela peut vous rassurer.

En accidentologie VTT, les études (comme celle-ci) portent le plus souvent sur la pratique Enduro/DH, on comprend pourquoi : c’est celle qui présente le plus de prise de risques. Là, ce sont les blessures sur le haut du corps qui sont les plus courantes, particulièrement les épaules (fracture clavicule, typiquement). Mais aussi : fractures poignets, coudes et épaules… Le port du casque a largement amoindri la fréquence des dommages à la tête, ce n’est même plus un sujet de débat.

On peut raisonnablement penser que la pratique du Cross country présente beaucoup moins d’accidents graves, mais statistiquement, comme il s’agit de la pratique la plus répandue, la fréquence des visites aux urgences est tout sauf négligeable. Les fractures sur le haut du corps et membres supérieurs sont là aussi les plus courantes.

Pour simplifier, les accidents en Cross country sont moins dépendantes du terrain qu’en Enduro. Cette pratique n’est pas moins dangereuse que le roller, le vélo de route ou le skate-board. Par contre ces éléments font la différence : l’erreur de pilotage, le matériel peu soigné et mal vérifié, le degré de prise de risque. Notons aussi qu’en Cross country on trouvera plus de blessures musculaires et tendineuses, inhérentes aux pratiques sportives d’endurance lorsqu’on pousse le corps un peu trop loin.

Sac a dos ou grosse banane ?

Le choix se discute.

Dans un sac à dos vous trimballez votre poche à eau, votre coupe vent, éventuellement un surplus de vêtement, quelques outils, votre téléphone portable, vos papiers, une ou deux barres céréale.

Ce sac à dos doit bouger le moins possible. Regardez la marque Evoc, qui présente d’excellentes performances (mais ce n’est pas la seule).

Mais on peut opter pour la grosse banane selon cet adage : c’est le vélo qui doit porter, pas le dos. C’est un bon argument. Dès lors votre eau se trouvera sur votre cadre dans deux gourdes, vous aurez un petit sac à outils sous la selle, et tâchez de répartir le reste dans la banane (chez Evoc aussi, il y en a des très bien).

Les outils et trousse d’urgence

Pour être autonome, en solo ou en groupe, il vous faut :

  • chambre à air de rechange (sauf si vous êtes en tubeless)
  • une petite pompe
  • une bombe « anti-crevaison » : oui, je sais… mais il m’est arrivé de crever deux fois de suite, alors bon…
  • deux démonte-pneu (attention avec ça si vous êtes en chambre à air : entraînez-vous à changer une chambre à air)
  • kit de réparation tubeless avec mèches (si vous êtes en tubeless, donc),
  • un multi-outils avec dérive-chaîne (utile si vous cassez la chaîne)
  • deux colliers de serrage : pratique si vous devez attacher quelque chose (par exemple : vous cassez un rayon, vous l’attachez au rayon voisin pour les kilomètres qui vous restent)
  • 50 cm de fil de fer (utile pour plein de choses)
  • une trousse de premiers soins : une couverture de survie, pansements et compresses (dont au moins deux larges), antiseptique en fioles, bande adhésive, etc.
Un couple de multi-outils très pratiques - Multitool and Hex Toolset, by dvanzuijlekom, CC BY-SA 2.0.

La gestion de l’eau, la bouffe

L’hydratation, c’est obligatoire. Tout comme pour la course à pied, vous ne pouvez pas faire de sortie de plus d’une heure sans emporter avec vous suffisamment d’eau… et la boire ! Combien de litres par heure ? c’est variable : en fonction de votre poids, de la météo et de l’effort, vous devrez boire plus ou moins. Par contre, une chose est valable pour tout le monde : buvez avant d’avoir soif, anticipez la déshydratation. Boire trop peu est synonyme de moins d’apport au système musculaire (notamment de sodium) et par conséquent une baisse de performance, des risques de crampes, en plus de risques de problèmes rénaux ou de vessie si vous perdrez trop d’eau.

Comment savoir si on s’hydrate assez ? buvez tout le temps, beaucoup avant la sortie, beaucoup après et beaucoup pendant. Mon repère à moi, c’est avoir envie de pisser au moins une fois durant une sortie de trois heures, mais ce n’est pas une règle absolue.

Cela dit, faut-il pour autant se surcharger en flotte ? non. Surtout si vous portez votre eau dans une poche dans le sac à dos. Il est inutile d’emporter trois litres : si besoin, vous pouvez toujours remplir vos contenants en chemin (prévoir une étape avec point d’eau). Emporter 1,5 litres me semble un bon compromis en Cross country moyenne montagne et s’il fait très chaud, monter à 2 litres, ce sera suffisant.

Poche style Camelback avec tuyau ou bidon sur le cadre ?

Personnellement, je n’ai jamais été un grand fan des porte-bidons : on a tendance à se déséquilibrer pour aller chercher le bidon, le porter en bouche et le remettre, alors qu’un tuyau bien ajusté sur la bretelle du sac à dos permet un accès direct. Ceci sans compter le risque de perdre le bidon, justement, à cause des obstacles du terrain.

Le contre-argument, c’est qu’en utilisant un porte-bidon, c’est le vélo qui porte, pas le cycliste. C’est-à-dire autant de poids en moins sur le dos.

Concernant les apports nutritionnels, là non plus je n’ai pas vraiment de conseil à donner. Mon sentiment est que si vous mangez correctement et équilibré (même avec quelques excès de temps en temps), votre besoin nutritionnel durant l’effort d’une longue sortie ne devrait pas être conséquent. Il faut toujours emporter avec soi une ou deux barres céréales ou de la pâte de fruit, ou bien quelques fruits secs, selon ses goûts.

Rien ne vous oblige à les manger. En tout cas, ne vous précipitez pas sur les produits miracles vendus en pharmacie ou dans les magasins de sport, et encore moins sur les barres céréales des rayons confiserie du supermarché : ces produits contiennent généralement trop de sodium, des huiles saturées, trop de sucres transformés, et pour certains des nutriments parfaitement inutiles si vous avez déjà une alimentation saine au quotidien.

Si vous aimez les barres céréales, achetez des barres dont la composition est la plus simple possible ou bien faites-les vous-mêmes avec des produits sains que vous aurez sélectionné au préalable. Les recettes ne manquent pas sur les z’internetz. Après quelques essais, vous obtiendrez d’excellents résultats.

Les pédales

Devez-vous choisir les pédales automatiques, semi-automatiques, les pédales plates ?

Quelque soit votre achat, votre VTT sera livré avec une paire de pédales bas de gamme : tout le monde change les pédales de toute façon. Mais vous pouvez rouler avec dans un premier temps. C’est pourquoi cette section concernant les pédales est située dans l’équipement du vététiste : prolongements des pieds, elles conditionnent le contact avec le vélo, tout comme la selle.

Pour le débutant, je préconise les pédales plates (avec les picots). Attention aux tibias avec les retours de pédales involontaires. Comptez une cinquantaine d’euros pour une paire solide de marque connue. Protèges-tibias ? c’est lourd et inconfortable, donc non : faites attention, c’est tout.

Pédales automatiques : il faut un peu d’entraînement sans quoi votre appréhension causera votre chute. Cependant, si vous voulez faire du Cross country et gagner en rendement tout en maîtrisant votre vélo, c’est le modèle de pédales à utiliser.

Sur le marché il existe des pédales dites semi-automatiques. Elles se présentent soit sous la forme d’une pédale recto attache automatique et verso pédale plate, soit avec un recto aimant recto et verso pédale plate. Ces modèles permettent de laisser les pieds libres dans les descentes ou les passages difficiles. En théorie, du moins. Par contre j’ai été séduit par les pédales automatiques à aimant : elles ont moins de pouvoir de traction que les pédales automatiques classiques (si on tire trop, le pied se décroche), mais c’est ce qui fait leur intérêt : permettre un décrochage très rapide et donc plus sécurisant. J’aurais du mal à m’en passer aujourd’hui.

En matière de pédale, il n’y a pas d’obligation. Là encore, c’est votre pratique qui en décidera. J’ai un faible pour les pédales plates, même si j’ai moins de rendement. En revanche, en compétition Cross country, les pédales automatiques sont la règle.

Pédale plate et pédale automatique - bike pedal, by postbear and by torisan3500, CC BY-NC-SA 2.0.

Les chaussures

Elles dépendent de vos pédales ! Mais sachez aussi choisir une paire qui vous permette de marcher. Pour le Cross country, les chaussures typiques sont assez rigides, proches de celles utilisée en vélo de route, mais pour plus de confort, choisissez des chaussures plus appropriées à la randonnée VTT, un peu moins rigides et plus polyvalentes.

Gardez à l’esprit qu’une paire de chaussures trop étroites ou trop justes :

  • empêchent la circulation sanguine dans vos pieds : on a tendance à se crisper un peu en descente et à l’appui,
  • empêchent de mettre des chaussettes chaudes en hiver.

La selle

La selle est le contact quasi permanent entre votre postérieur et le VTT. À ce titre, elle ne doit pas être négligée. Si, dans un premier temps, la selle fournie avec votre vélo saura vous contenter, c’est à la longue que vous constaterez que, même si vous avez correctement réglé sa hauteur, quelques désagréments peuvent subsister, notamment les irritations.

En gros, il existe des selles arrondies et des selles plus plates. Les arrondies limiteront les irritation en cas de sorties longues distance. Certaines selles disposent aussi d’un canal central plus ou moins prononcé, voire parfois complètement évidé : c’est pour limiter la pression sur le périnée.

Quant à la largeur de la selle, elle doit être relative à votre morphologie. Que vous soyez homme ou femme, large ou étroit, c’est à vous de voir.

Mon conseil : préférez les selles arrondies et veillez à ce qu’elles ne soient pas trop larges, sans quoi une gêne au pédalage va s’installer.

Pour le VTT

La transmission

Le groupe de transmission regroupe tous les éléments qui transmettent l’énergie musculaire (ou électrique) au vélo. Un groupe de transmission est composé de dérailleurs, cassette, pédalier (boîtier, plateaux, manivelles, pédales), chaîne. On peut compter aussi les manettes (ou commandes) de vitesses et les câbles.

Pour choisir un groupe de transmission plutôt qu’un autre, il faut avoir de l’expérience. En effet, selon votre niveau, un groupe 1x11 (mono-plateau et 11 pignons) demandera plus ou moins d’efforts pour entraîner la machine par rapport à un 1x12.

Aujourd’hui le mono-plateau a le vent en poupe. Et il présente un double avantage : moins d’entretien et plus de légèreté. Là-dessus vous pourrez à la longue opter pour des cassettes différentes.

Image promotionnelle Shimano Deore XT - 1x11.

Et non, ce n’est pas parce que vous avez un mono-plateau que vous avez moins de vitesses : en double plateau vous avez la plupart du temps une cassette 10 pignons arrangés de 11 à 36 dents (on dit 10 x 11-36) mais en mono-plateau vous avez par exemple une cassette à 11 x 10-42 ou une cassette à 12 x 10-51. En clair : à l’arrière, le dernier pignon de votre cassette est juste énorme. Donc la plage de « choix » de vitesse n’est guère moins grande mais l’avantage est que vous n’avez plus à veiller à ne pas croiser la chaîne (il ne faut jamais mettre un couple grand plateau - petit pignon si on a plusieurs plateaux).

Pour un premier achat, je préconise pas moins que le couple mono-plateau et 12 vitesses. Sinon, les doubles plateaux à l’avant peuvent encore séduire.

En termes de marques, vous avez grosso-modo l’essentiel du choix entre Shimano et Sram qui se partagent l’essentiel du marché VTT. Là encore, si vous débutez, choisir entre les deux ne consiste pas à trouver le meilleur point de performance, mais comprendre ce qui distingue les groupes entre eux, chez Shimano comme chez Sram. Pour faire simple, dans les deux marques, il y a une hiérarchie. À une ou deux exceptions près les marques sont incompatibles entre elles. Et entre les groupes au sein d’une même marque, il y a des tableaux de correspondances et c’est normal : vous ne pouvez pas tout mélanger, plateaux, pignons chaîne et manettes de vitesses.

Alors comment vous y retrouver ? Lorsqu’on achète un VTT, celui-ci est fourni avec un groupe de transmission donné. Pour juger du prix de votre vélo, au sein d’une même gamme, il faut aussi se demander avec quel niveau d’équipement il est fourni. Notez aussi que plus vous montez en gamme, plus les changements de pièces seront chers, pensez-y avant d’opter systématiquement pour le plus cher.

Le tableau suivant sera peut-être démodé au moment où vous le lirez, cependant, je pense que pour l’essentiel on s’y retrouve. Notez que en mets pas les shifteur électroniques ni les groupes spécialisés descente. Je me concentre sur le Cross country.

Niveau Shimano Sram
1 XTR XX1
2 XT (Deore XT) X01, X1
3 SLX GX, X9
4 Deore X7, NX
5 Alivio X5
6 Acera X4
7 Altus X3
8 Tourney

Les freins

En matière de freinage, le choix ne doit pas être pris à la légère. Évidemment, les systèmes de freins dédiés à l’Enduro seront extrêmement puissants, la notion de dosage passant plutôt au second plan (même si elle est très utile), tandis que pour le Cross country c’est la fiabilité sur la durée du freinage qui sera recherchée. Mais la pratique n’est pas l’essentiel : votre poids et le terrain sont des données tout aussi essentielles et c’est fonction de cela que vous allez juger si vos freins vous conviennent ou pas.

Lorsque vous allez acheter votre nouveau VTT, si c’est le premier, il va falloir faire confiance au vendeur. Un système de freinage va du levier aux plaquettes en passant par l’étrier, les durites et les disques. Tous ces composants ont leur importance dans l’efficacité et le ressenti.

Par exemple, s’il y a de fortes chances que votre premier VTT soit équipé de plaquettes de frein organiques, sachez qu’il en existe plusieurs variétés sur le marché, avec des caractéristiques différentes, de celles qui glacent dès le premier usage à celles qui entament méchamment votre disque.

Si vous vous reportez au tableau des groupes de transmission ci-dessus, les noms des groupes de frein sont les mêmes et obéissent plus ou moins à la même hiérarchie. Cela dit, en fonction des années et des séries, on peut trouver par exemple chez Shimano des freins Deore qui valent très largement la gamme supérieure. Encore une fois c’est fonction de l’expérience que vous pourrez vous faire une idée précise. Bien sûr, le bas de gamme… reste le bas de gamme.

Attention : si vous vous renseignez sur des sites internet spécialisés (c’est une bonne chose) veillez à noter la date de rédaction des comparatifs. Shimano et Sram sortent très régulièrement des nouvelles séries et vous risquez de vous y perdre. Mon conseil serait de voir d’abord, sur le VTT que vous voulez acheter quels types de freins sont proposés, puis vous renseigner sur leurs caractéristiques par la suite. Enfin, n’oubliez pas : des freins, cela se change si vraiment ils ne vous conviennent pas.

Les pneus

Alors là… pas moyen de s’entendre sur une loi précise dans le choix des pneus, que vous soyez en chambre à air ou en tubeless : c’est le terrain et la météo qui font la différence. Mes conseils sont les suivants :

  • analysez les terrains que vous avez l’habitude de fréquenter (si vous êtes dans les Hautes Vosges avec du granit mouillé, votre choix en sera pas le même que dans les Vosges du Nord avec du gré sableux, et bonne chance à ceux qui sont entre les deux)
  • ne soyez pas chiche (même si le prix d’un pneu n’est pas un gage) : de bons pneus (et un gonflage correct) conditionnent absolument votre tenue de route. C’est comme en voiture.
  • il n’y a aucune obligation à avoir les mêmes pneus à l’avant et à l’arrière : contacts, grip, adhérence, dureté de la gomme, tout cela joue.

Lors de votre premier achat, le VTT sera livré avec un jeu de pneus semblables avant et arrière. Usez-les… mais analysez votre besoin. Ensuite rendez-vous sur les sites de vente en ligne et regardez les descriptifs, ou allez chez votre vendeur et posez-lui la question.

Personnellement, je suis resté depuis les 6 dernières années avec la même référence de pneus qu’à l’achat de mon VTT, des Maxxis Forekaster. Le fabriquant écrit : « adapté à une pratique Cross country agressive et pour le All Mountain »… comme cela ne veut pas dire grand chose, je prétends simplement que ce type de pneus typé Cross country est plutôt adapté aux terrains vosgiens côté Alsace. Je vois souvent cette marque d’ailleurs chez les autres vététistes. Si vous êtes plutôt côté granit, ce ne sera pas forcément votre premier choix car je trouve qu’ils peinent un peu en traction sur du pierreux humide. C’est du ressenti personnel, pas une loi universelle.

Les suspensions

À quoi servent les suspensions, à l’avant comme à l’arrière ? Non, elles ne sont pas faites pour sauver votre popotin des dégâts d’une réception un peu rude. Leur premier rôle consiste à optimiser le contact de votre roue avec le sol, donc favoriser le contrôle de votre VTT. Pour ce qui concerne les fourches (avant), le second rôle consiste à absorber les chocs pour vos bras (et aussi votre dos) et faciliter le pilotage.

Le réglage des suspensions, notamment en fonction de votre poids, est très important. Il s’agit de régler correctement la détente (le retour de la suspension à sa position initiale). Trop molle vous n’absorbez rien et vous risquez de l’abîmer, trop raide, autant rouler en tout rigide. Par ailleurs, si vous enfoncez trop, vous perdez en rendement de pédalage.

C’est pourquoi la plupart des VTT disposent d’un système de blocage de suspension, à l’avant comme à l’arrière. Je vous conseille vivement de choisir un système de blocage situé sur le guidon, beaucoup plus pratique, surtout si vous oubliez de débloquer votre suspension après avoir entamé votre descente.

Pour la pratique du Cross country, comme je l’ai affirmé plus haut, choisir un semi-rigide est sans doute le meilleur choix pour un premier VTT (et cela reste pertinent même si ce n’est pas votre premier VTT). Les suspensions pour cette pratique sont généralement faites pour un débattement beaucoup plus faible que pour l’Enduro. Généralement on parle de 90 à 120 mm de débattement. Avoir plus de débattement ne me semble pas très utile (en Eduro, on peut monter à 200 mm de débattement).

De même, on recherchera la légèreté. Donc il vaut mieux rechercher une fourche avec un système à air (ressort pneumatique) bien que certaines fourches avec ressort hélicoïdal peuvent s’avérer tout à fait pertinentes, bien que plus lourdes (on ne parle pas non plus d’une différence de 20 kg, hein?).

Suspension VTT = amortisseur (hydraulique) + ressort (hélicoïdal ou à air).

Donc si nous résumons :

  • Ressort pneumatique (air) : légèreté, ajustement progressif au poids du pilote, moins sensible aux petits chocs,
  • ressort hélicoïdal : il faut changer le ressort s’il est trop raide, plus lourd, sensation de raideur sur petits chocs

Dans les deux cas, ces fourches font très bien leur travail à moins de choisir du trop bas de gamme, évidemment. Et n’oubliez pas : tout comme le reste, une fourche peut se changer, et il en existe des centaines de modèles… à tous les prix. Débuter avec une marque ? allez, je vous conseille Rockshox et Fox, vous trouverez dans ces marques des gammes assez étendues pour ajuster votre besoin à votre portefeuille (j’aime beaucoup les Fox racing 32, très classique, mais comme elle n’est pas trop chère, la changer pose moins de problème).

Ha oui, pour les suspensions arrières si vous tenez au tout-suspendu, c’est le même combat.

La petite sonnette

Hé oui, on l’oublie parfois, mais elle est très utile surtout lorsqu’on fréquente des sentiers de randonnée où il est difficile de contourner les marcheurs. Dans tous les cas : patientez le temps que les marcheurs réalisent votre présence, soyez très courtois et remerciez.

Il peut cependant être utile de signaler votre présence par un petit coup de sonnette. Le choix du son est important : trop bruyant, il sera perçu comme une agression (nous ne sommes pas sur une piste cyclable en centre urbain). Il existe des petites sonnettes légères en forme d’anneau à placer à peu près n’importe où sur le guidon pour plus de facilité (regardez la marque Knog Oi). Elles produisent un tintement cristallin et assez aigu pour passer au-dessus du vent et de la voix, sans être désagréable.

Garde-boue, protections de cadre

Est-ce absolument nécessaire ? non. La première chose à éviter, dans le choix d’un garde-boue avant ou arrière, c’est essayer de composer entre l’encombrement et l’intérêt réel de cet équipement. Vous avez un VTT pour faire du sport, et oui c’est une activité salissante. Ne cherchez pas à éviter la boue, vous n’y arriverez pas.

Néanmoins, on peut essayer de limiter les projections dans le visage (et il peut s’agir parfois de cocottes de pins et de petites pierres) ainsi que dans le bas du dos. Pour cela, je préconise les garde-boue souples à fixer avec des colliers de serrage, sous la selle pour l’arrière et sur la fourche pour l’avant. ils n’alourdiront pas le VTT et limiteront les projections autant que faire se peut. C’est surtout le garde boue avant qui est important : si vous roulez assez vite sur un terrain très humide, vous pourrez comprendre plus facilement.

Enfin, ce type de garde-boue ne coûte pas cher, on le remplace facilement, on peut aussi le découper si les dimensions ne conviennent pas.

Une autre protection concerne le cadre, si on veut le protéger des projections de pierres, notamment sur le bas du tube diagonal. Il existe des façades à fixer sur le tube, mais c’est une protection encombrante plutôt destinée aux pratiques de descentes, là où le risque de taper fortement le cadre est évident. Pour les petites projections qui pourtant à la longue abîment la peinture, il existe des films transparents qui jouent parfaitement ce rôle.

De la même manière, si votre VTT ne dispose pas déjà d’une protection, il peut être utile d’en mettre sur la base arrière côté transmission, là où la chaîne est parfois amenée à taper la peinture.

Toutefois certains VTT disposent maintenant de protection déjà en place, là où parfois, à la place de la peinture, un revêtement rugueux est posé dès l’usine. Cela n’empêche pas de rajouter un peu de film protecteur à certains endroits stratégiques si besoin, par exemple sur les côtés de la fourche avant.

Je préconise d’éviter les adhésifs, à cause de la colle. Cette dernière peut ne pas tenir et faire des traces inesthétiques. À la place (mais assez cher) il existe des films transparents en polyuréthane. La pose est extrêmement facile :

  • bien nettoyer et dégraisser le cadre avec de l’eau savonneuse,
  • découper soigneusement la bande aux dimensions voulues et appliquer avec un peu d’eau tout en prenant soin de ne pas faire de bulles.

Ce type de film ne garanti pas les gros chocs : il s’agit de protéger la peinture en ajoutant une sur-couche solide très discrète. Ce matériau résiste très bien à l’humidité. La marque Clearprotect est connue.

Garde-boue souple sur fourche - image by vikapproved, CC BY-NC 2.0.

Commencez à pédaler

Je pourrais ici commencer une longue section sur l’art et la manière de débuter le VTT en pratique. Pour simplifier, je dirais : pédalez d’abord. Si vous avez pris la décision d’acheter un VTT, il y a de fortes chances que vous ayez essayé au moins une fois que vous avez été séduit·e.

Néanmoins voici quelques conseils pour ne pas se mettre en difficulté dès le début et pouvoir progresser.

Réglez votre posture

Beaucoup de vidéos proposent des tutoriels pour régler correctement votre position sur le VTT. Celle-ci donne d’assez bons conseils, simples à mettre en œuvre.

  1. La hauteur de selle peut se régler facilement : une fois en selle, placez la plante du pied sur la pédale position basse, votre jambe doit être légèrement pliée. Trop pliée, votre selle est trop basse et vous allez vous faire mal aux genoux, trop haute, bobo le poum. Si vous y tenez, la solution mathématique est la suivante : soit EJ la hauteur de votre entrejambe du talon au périnée (pensez à vos chaussures !), et soit HS la hauteur de selle (du milieu de l’axe du pédalier jusqu’au creux de la selle) : HS = EJ x 0,885 (ou 0,875, cela varie).
  2. À moins d’avoir une tige de selle télescopique (gadget dont l’utilité se discute en Cross country), si vous ne vous sentez pas à l’aise en cas de descente un peu raide, sachez vous arrêter pour abaisser votre selle et la re-régler ensuite. Si votre tige de selle n’a pas de traits de graduation, faites une marque au feutre (quitte à la refaire régulièrement), mais ne l’abîmez pas.
  3. L’avancée de la selle : cela se règle au centimètre près et sur les longues distances, on sent bien la différence. Votre VTT a une certaine géométrie, mais l’avancée horizontale de la selle va favoriser ou défavoriser votre puissance de pédalage. Très peu, bien sûr, mais l’amplitude, une fois changée, va aussi conditionner votre confort. Donc, il faut essayer… Une méthode consiste à utiliser un fil à plomb : votre pied en position de pédalage (cf. ci-dessous), placez le fil à plomb sur pointe de votre genou, le fil doit passer par l’axe central de la pédale.
  4. Placer son pied sur la pédale : l’avant du pied est sur la pédale, et non pas la plante du pied. Plus exactement la bosse à la base du gros orteil (l’articulation métatarso-phalangienne) doit se situer au niveau de l’axe de la pédale (ceci est valable pour tous les types de vélo, pédales automatiques ou pas).
  5. D’autres éléments peuvent se régler et dépendent beaucoup de votre morphologie : la longueur de la potence, la largeur du cintre. Mais dans un premier temps, contentez-vous du matériel tel quel : vous en jugerez à l’usage.
  6. Votre posture ne se détermine pas seulement matériellement : c’est aussi à vous d’adopter une bonne posture : épaules relâchées, ne vous crispez pas en serrant trop fort votre guidon (même en haut d’une descente), en forte montée sachez descendre vos coudes (ne les écartez pas), si vous n’avez pas de pédales automatiques (à régler correctement elles aussi !) sachez conserver vos pieds dans l’axe du vélo (et n’écartez pas les genoux), votre pédalage doit laisser l’axe de vos genoux parfaitement droit et parallèle au vélo. Bref, au début vous devrez penser très activement à votre posture.
  7. Vos poignées doivent toujours avoir un grip correct (surveillez l’état de vos poignées : trop sales, le grip est moins bon). Surtout en descente, vous saisissez vos poignées en laissant deux doigts (index et majeur) sur les leviers de freins, de chaque côté. Donc pensez aussi à relever ou abaisser ces leviers en fonction de votre morphologie. Le pouce doit servir à passer les vitesses sur les shifteurs. Ne roulez pas avec des gants de ski, même en hiver…

Les parcours et la performance

S’il peut sembler plus commode de toujours sortir dans un coin de montagne que l’on connaît bien, essayez de varier le plus possible. Vous ne progresserez pas si vous arpentez toujours les mêmes chemins, c’est-à-dire ceux qui vous semblent faciles aujourd’hui. Pour progresser, la nature de vos parcours doit être pensée.

Surtout en Cross country il n’est pas utile de toujours faire des sorties très longues. Certes, on en revient fort satisfait, et on en prend plein la vue, mais même si vous essayez de les faire toujours un peu plus vite, vous vous retrouverez assez vite au taquet. C’est comme la course à pied : parfois il faut savoir passer par des phases plus spécialisées, chronomètre en main, faire du fractionné, etc. En VTT, le fractionné existe aussi, de même la technicité du pilotage (en descente comme en montée), l’endurance sur des parcours pénibles avec des montées bien longues et régulières pour travailler le « foncier », etc.

Mon conseil : si vous débutez, avec deux sorties par semaine, essayer d’alterner une longue, une courte. Pour la sortie longue, faites-vous plaisir : points de vue, vieux châteaux, endroits insolites, faites du tourisme et recherchez le fun. Pour les sorties courtes, trouvez-vous deux ou trois terrains de jeu, même si vous passez deux fois au même endroit, et lancez-vous des défis. L’idéal est de trouver un parcours où vous aurez deux ou trois types de difficultés à affronter : à vous de voir sur quels points vous devez progresser.

Qu’est-ce qu’une sortie longue, qu’est-ce qu’une sortie courte ? il s’agit surtout du temps passé à VTT. On mesure une sortie à la fois en kilomètres et en dénivelé (d’où l’intérêt d’utiliser un GPS, ou au moins un appli sur smartphone). Faire 23 km avec 1000 m de dénivelé cumulé (d+), c’est déjà de la bonne grosse sortie pour un débutant. Cela me semble même déjà trop. Dans les Vosges il faut partir d’en bas côté Alsace, mais c’est assez faisable tout de même.

Donc n’ayez pas les yeux plus gros que le ventre. Essayez au début de faire des sorties de 20 à 25 km avec un max de 600 à 700 m d+. Ensuite sur le même dénivelé, rallongez le kilométrage, puis ensuite augmentez le dénivelé. Ce n’est pas forcément utile de le rappeler, mais cela va mieux en le disant : allez-y progressivement.

Avec les copain·es : les sorties à plusieurs, c’est super. Être seul dans la forêt, cela a un côté peu rassurant, surtout dans les descentes un peu techniques. Par contre, si vous roulez avec des personnes d’un niveau plus avancé, c’est bien pour progresser à la seule condition de ne pas le faire tout le temps et de rappeler à vos collègues de savoir respecter votre rythme : en effet, si vous êtes toujours en sur-régime (au seuil anaérobie), avec le cœur en dehors de sa boîte à chaque montée, ou si la sortie est trop longue pour vous, d’une part vous allez finir la sortie avec des jambes en coton et au bout de votre vie en jurant que jamais plus…, et d’autre part, le plus important, vous risquez de vous blesser (tendinite ou autre blessure musculaire) voire de solliciter trop votre système cardiaque et subir un malaise voire plus grave encore.

Enfin, trop de fatigue nuit au pilotage et vous savez quoi ? quand on roule en montagne, le parcours se termine le plus souvent par une descente. Le faire en état de trop grande fatigue réduit votre attention et vos réflexes, et augmente drastiquement le risque de chute.

Inutile d’ajouter que la fatigue gagne aussi si on ne dort pas assez. Alors, profitez de vos nuits, et cessez de vous coucher tard : un bon entraînement sportif s’accomplit aussi par le repos. Concernant les repas : mangez équilibré, ne vous empiffrez pas de pâtes (c’est une légende : les sucres lents se trouvent aussi dans d’autres aliments), respectez aussi votre rythme digestif. Plutôt que de chercher des régimes plus ou moins fiables, faites surtout preuve de bon sens.

Et, pour palier les éventuels risques cardiaques, si vous avez passé vos 40 bougies, je conseille vivement de faire un bilan cardiaque avec test d’effort (demandez-en un à votre médecin traitant), il permettra de déceler un éventuel souci et prendre des mesures adéquates.

Ha oui, dernier point : ne recherchez pas la performance. Laissez-cela aux sportifs de profession. D’abord, faites-vous plaisir. Votre performance, ce sera celle que vous constaterez à votre mesure : vous n’avez de compte à rendre à personne et encore une fois, il n’y a aucune honte à descendre du vélo lorsque la montée est trop dure ou si vous ne sentez pas ce petit passage de descente.

Les randos VTT organisées

Elsass Bike, Trace vosgienne, randonnées diverses organisées par des comités cyclistes locaux : tous ces événements sont des occasions de découvrir des circuits dans une ambiance sympathique et détendue. Généralement, ces randonnées sont organisées en plusieurs parcours de niveau, proposent des points de ravitaillement et se terminent avec une bonne bière au bar de l’amicale.

N’hésitez pas à vous inscrire à de tels évènements, il y en a sans doute près de chez vous. Vous y rencontrez d’autres cyclistes et vous pouvez y aller en famille. Il ne s’agit pas de courses proprement dites, pas besoin de faire partie d’un club ou d’être inscrit à la FFC. Les circuits sont balisés, les départs sont échelonnés (il y a quand même une heure limite et comme c’est en été, il est mieux de partir tôt) et vous faites le parcours à votre rythme. Gros avantage : vous n’avez qu’à suivre le balisage.

Pour des évènements comme la Trace Vosgienne VTT, par exemple, c’est un mixte. Il y a une partie course (un départ collectif et des gagnant·es) et une partie randonnée sans chrono. À vous de choisir : vous pouvez très bien faire le marathon tout en vous fichant du chrono, mais il va falloir tout de même dépoter un peu.

Vous pouvez vous fixer ces rendez-vous annuels comme des objectifs. Choisissez la rando qui vous paraît difficile (mais pas impossible) et préparez-vous pour la réaliser sans temps chrono, mais dans de bonnes conditions. Vous pourrez-vous dire que l’année prochaine, vous ferez la rando du niveau supérieur.

Une autre opportunité consiste à rejoindre une association de vététistes, ou un club cycliste qui possède une section VTT. Même certaines antennes du Club Vosgien possèdent une section VTT. Là aussi renseignez-vous près de chez vous. C’est la garantie de sortir à plusieurs et émuler une dynamique de motivation qu’on n’a pas forcément en solo. Et puis, à fréquenter des plus expérimentés que soit, on apprend toujours des choses…

L’entretien général

Si vous voulez faire durer votre VTT, son entretien après chaque sortie est une étape obligatoire. L’entretien concerne le nettoyage, le changement de certaines pièces et la révision générale.

Ne pas faire

Pour nettoyer votre VTT après une sortie boueuse, n’utilisez jamais – entendez-vous ? – jamais ! de nettoyeur haute pression. Si vraiment vous tenez à projeter de l’eau avec un tuyau, utilisez votre tuyau de jardin avec jet diffus.

Autre chose à ne pas faire : huiler la transmission sans l’avoir nettoyée auparavant. C’est le meilleur moyen pour tout encrasser et user prématurément les toutes les pièces.

Et n’utilisez pas non plus de combinés lubrifiant / nettoyant tout-en-un pour votre transmission. Cette dernière se soigne, se bichonne : elle ne mérite pas de traitement à la va-vite (cf. plus loin).

Et vous aurez compris : l’entretien d’un VTT, ce n’est pas seulement le garder à peu près propre, c’est vérifier les pièces et leur usure, prévenir la casse, et donc rouler dans des conditions de sécurité acceptables.

Nettoyage

Si vous revenez d’une sortie très humide, passez un coup de chiffon sec sur la chaîne, épongez ce que vous pouvez sur la transmission, passez un coup de jet d’eau ou un coup de brosse sur le cadre pour ôter le plus « épais » et laissez sécher pour revenir terminer ensuite.

Une fois sec, prenez une brosse et un pinceau plat rigide : la brosse pour ôter la terre collée, le pinceau pour aller dans les recoins (du genre : le dérailleur arrière).

Le cadre d’un VTT se nettoie à l’eau. On peut éventuellement ajouter un petit peu de liquide vaisselle dans la bassine, mais c’est tout. Cela dit, comme vous aurez débarrassé votre VTT de la terre avec une bonne vieille brosse, une microfibre humide fait très bien l’affaire pour la majorité des composants : vous n’aurez pas à attendre le séchage avant de passer à la transmission.

La transmission et les lubrifiants

La durabilité et le besoin de nettoyage de votre transmission dépend énormément du lubrifiant que vous utilisez.

Sur le marché vous trouverez beaucoup de lubrifiants huile adaptés aux conditions météo, mais qui attirent plus ou moins de saletés, avec du téflon ou sans téflon, etc. Il y a même de fortes chance que le premier conseil qu’on puisse vous donner est d’utiliser ce genre de produit.

Lubrifier à l’huile a pour caractéristique de coller la poussière et le sable, et d’user prématurément les dents de vos plateaux, pignons et galets. De plus il faut savoir utiliser la bonne huile en fonction des conditions météo (conditions sèches, conditions humides). Pour le vélo de route, par définition moins sujet à la boue et au sable, l’huile sera sans doute le lubrifiant le plus simple à l’usage.

Pour le VTT, rien ne vaut le lubrifiant à la cire. La cire a pour avantage d’enrober les pièces et empêche vraiment la poussière et le sable d’y adhérer. Les frottements des pièces entre elles est largement atténué ce qui prolonge indéniablement la durée de vie de votre transmission.

Si on a longtemps considéré que les lubrifiants cire étaient sensibles aux conditions humides, les nouvelles formules n’ont plus vraiment ce défaut. En revanche, si un lubrifiant huile peut être appliqué juste avant de pédaler, il vous faudra attendre deux ou trois heures de séchage après avoir appliqué un lubrifiant cire. Ce lubrifiant est composé d’eau et de particules de céramique (il est souvent de couleur blanche), et il pénètre vraiment les moindre espaces entre les composants de la chaîne.

L’autre avantage de la cire, c’est le nettoyage. Même au retour d’une sortie bien boueuse, vous pourrez simplement passer un coup de chiffon sur la chaîne (prenez la chaîne à pleine main avec un chiffon et frottez) et entre les pignons. Alors qu’une huile vous obligerait à dégraisser la transmission.

À propos de dégraissage : la première fois que vous appliquez un lubrifiant cire, et si le lubrifiant précédent était à l’huile, un dégraissage en détail est nécessaire, suivit de trois applications du lubrifiant cire espacées de deux à trois heures.

Enfin, il n’est pas toujours utile de re-lubrifier à chaque fois : l’avantage de la cire, c’est que si les conditions sont bien sèches, et si vous n’avez pas trop sali votre transmission, on peut enchaîner deux sorties sans appliquer le lubrifiant, ou alors un tout petit coup pour la forme (mais toujours après vous être assuré qu’il ne subsiste pas de terre sur la chaîne, donc coup de chiffon, toujours). Vous pouvez aussi réserver un pinceau pour votre chaîne et les pignons, histoire de frotter doucement, y compris entre les maillons.

Changer les pièces de votre transmission

C’est le sujet épineux : quand sait-on qu’il faut changer les pièces ? et si c’est le cas, que doit-on changer ?

Si votre chaîne se met à sauter, c’est soit un défaut de réglage soit une usure qu’il faut d’urgence corriger :

  • la chaîne qui devient trop lâche,
  • des dents des pignons ou des plateaux qui deviennent pointues et ne retiennent plus la chaîne correctement.

Si c’est le cas, je déconseille de changer la chaîne seule, ou les plateaux ou les pignons seuls : c’est un ensemble. Tout au plus on peut changer les galets d’entraînement du dérailleur, mais généralement on les change en même temps que le reste. Pourquoi ? parce que votre chaîne s’est adaptée aux autres éléments d’entraînement et inversement.

Donc : les dents pointues, c’est le signe d’usure à reconnaître. Ne cherchez pas à utiliser les indicateurs d’usure de chaîne. Je lis parfois qu’il est conseillé de changer la chaîne régulièrement… bof : une chaîne de VTT est solide, et à moins de vraiment la maltraiter (changer de vitesses, cela s’apprend) mieux vaut user l’ensemble et changer le tout lorsqu’il le faut. Bien sûr si vous cassez la chaîne, il faut la changer : si elle est neuve et qu’elle saute, c’est qu’il faut aussi changer le reste car l’usure était déjà là.

Concernant les autres pièces de votre transmission, l’élément qu’il peut vous arriver de changer, c’est le boîtier de pédalier. La cause est soit l’usure, soit des chocs dans le pédalier (par exemple, la pierre qu’on n’a pas vue et qui tape une manivelle verticalement) qui font prendre du jeu au boîtier.

Le faire soi-même ? en théorie, si vous êtes bricoleur·se, vous pouvez changer tout un groupe. Mais si vous débutez, contentez-vous dans un premier temps de diagnostiquer, puis faites un tour chez votre revendeur·se : iel a les bons outils, les bonnes pièces et le savoir-faire.

Système de frein

Oui, il faut s’assurer que vos plaquettes ne sont pas encrassées par la boue. Par contre faites bien attention à ne pas projeter de lubrifiant ou n’importe quel corps gras sur vos plaquettes ou le disque de frein.

Pour prévenir les accidents, vérifiez :

  • l’état d’usure des plaquettes : n’attendez pas de freiner sur l’armature pour faire des étincelles et amuser la galerie. Tout ce que vous risquez c’est abîmer votre disque et surtout vous casser le nez parce que vos freins ne sont plus efficaces. Les plaquettes se changent régulièrement : après chaque sortie, vérifiez-les.
  • votre disque de frein : est-il trop usé ? des rails se sont formés ? il faut le changer. Si vous venez de changer les plaquettes et que vous vous apercevez qu’elles rayent profondément votre disque, c’est qu’elles ne conviennent pas.

Quand purger les freins hydrauliques ? Ce n’est pas une opération à faire régulièrement mais lorsque qu’on constate que des bulles d’air sont présentes dans le système :

  • à l’arrêt votre levier de frein est très lâche,
  • lors d’une descente, le frein chauffe et pourtant vous devez pomper pour retrouver de la prise.

Remplacement des plaquettes et des disques : ces opérations peuvent être faites par vous même. En revanche, pour une bonne purge, je conseille plutôt d’aller voir un·e spécialiste.

Les suspensions

L’entretien complet de ces pièces se fait par un·e professionnel·le. D’ailleurs, certains revendeur·ses les envoient dans un centre spécialisé où l’on peut démonter les suspensions, procèder à une vidange, changer les joints et vérifier les pièces. Certains grand·es bricoleur·ses parviennent à le faire iels-mêmes mais honnêtement, je trouve que ce genre d’opération est très pénible.

Si l’on lit attentivement les modes d’emploi des suspensions, certains préconisent un entretien complet annuel voire tous les six mois. Un tel entretien coûte entre 100 et 150 euros par suspension et très franchement, à moins de vouloir y passer le prix d’une fourche neuve, il n’y a pas grand intérêt à faire une entretien complet tous les ans. Si vous prenez soin de votre matériel, une fourche rempli parfaitement son rôle des années durant, cependant, pour en garantir l’efficacité, pensez régulièrement à sa révision selon le rythme de vos sorties à l’année. Donc tous les ans ou tous les deux ans : au-delà, c’est que vous sortez peu.

On distingue :

  • la révision : tous les ans ou deux ans : vidange, vérification, nettoyage (à faire soi-même ou chez un professionnel),
  • l’entretien complet : idem + changement des joints, tous les ans ou deux ans (plutôt chez un professionnel).

Conseil : alternez :) et si vous loupez une séquence, ça ira quand même si vous prenez soin de votre matériel, rassurez-vous.

Enfin, n’oubliez pas : les suspension avec ressort à air… cela se regonfle. Si vous perdez de l’air (cherchez la raison si vous en perdez trop), non seulement votre suspension ne sera plus réglée correctement (surtout en fonction de votre poids) mais aussi elle va s’user davantage vu que vous mettez à l’épreuve les matériaux. Si vous n’avez pas de pompe haute pression manuelle (cela vaut entre 20 et 40 euros), passez chez votre revendeur·se : il faut 30 secondes pour rajouter un peu d’air.

Autres dispositifs

La caisse à outils

Même si vous ne bricolez pas jusqu’à être capable de démonter et remonter chaque pièce de votre VTT, votre caisse à outil devra néanmoins comporter quelques éléments essentiels. La liste suivante n’est pas exhaustive mais elle vous permettra de survivre :

  • les outils que vous embarquez lors de vos sorties,
  • outils classiques : tous les outils que vous avez déjà à la maison, dont un jeu de clé allen (en T si possible) et au moins une petite pince coupante,
  • une clé à pédales (pour changer les pédales),
  • pompe à haute pression (pour suspension),
  • pompe à pied avec manomètre,
  • un pied d’atelier (ou si c’est trop encombrant pour vous, un simple pied béquille à crochets qui puisse vous permettre de soulever la roue arrière lorsque vous bricolez),
  • un dérive chaîne,
  • une pince attache rapide.

Pour le reste, si vous voulez changer votre groupe de transmission, votre système de frein, ou vos suspensions, il y a des outils spécifiques à se procurer avant de faire quoi que ce soit. Et n’oubliez pas : il y a un début à tout, mais quand on n’a jamais fait… on n’a jamais fait. Donc faites vous accompagner, c’est mieux.

Préparer ses sorties et se repérer

À moins de connaître parfaitement les moindres sentiers sur des centaines de kilomètres carrés, vous devriez embarquer au moins une carte IGN lorsque vous sortez rouler.

Il y a deux manières d’envisager une sortie. La première, surtout s’il s’agit de vos premières sorties, c’est de partir comme vous le feriez en randonnée pédestre, avec une bonne carte, puis improviser votre parcours en vous fixant des objectifs et en suivant le balisage. C’est une bonne manière de découvrir le pays. En revanche, à moins d’avoir déjà pas mal de pratique, méfiez-vous de l’improvisation qui risque de vous amener à emprunter des chemins trop difficiles par rapport à votre niveau.

C’est votre niveau que, justement, vous allez pouvoir améliorer si vous surveillez vos distances et vos dénivelés. De même, si vous préparez correctement un parcours, vous pouvez plus facilement veiller à ne pas présumer de vos forces.

Donc la seconde manière d’envisager vos sorties, c’est de manipuler un peu de matériel numérique.

Première solution. Préparez votre parcours en vous rendant par exemple sur Geoportail, ou encore VTTRack. La cartographie IGN est la plus appropriée pour préparer correctement une sortie pleine nature. Mais si vous pensez pouvoir vous satisfaire des cartes issues du projet OpenStreetMap (dont les couches OpenTopoMap, présentant les courbes de dénivelé), vous pouvez vous rendre sur le projet Umap ou utiliser un logiciel comme Viking ou QMapShack sous GNU/Linux (voyez ci-dessous pour une utilisation de QMapShack avec les cartes IGN).

Tracez le parcours grosso-modo avec l’outil de calcul de distance, mémorisez les principaux points de passage et prenez une carte « papier » qui vous servira à vous repérer sur place (astuce : au lieu de prendre toute une carte, faites des photocopie couleurs des lieux que vous fréquentez, et utilisez une pochette plastique : sortir la carte directement depuis la poche arrière est moins contraignant que sortir une grande carte du sac à dos, la déplier, la replier…),

Seconde solution. Préparez votre parcours avec un logiciel qui permet de réaliser un tracé que vous pourrez ensuite importer sur un dispositif GPS que vous embarquez sur votre VTT (ou votre smartphone dans une poche facile d’accès). C’est de loin la solution la plus courante mais elle nécessite encore un achat, celui du GPS (c’est tellement pratique, aussi…). Notez qu’on ne compte plus le nombre d’écrans de smartphone cassés à force de le sortir et le ranger pour se repérer. Vous pouvez aussi avoir un support pour smartphone au guidon : c’est très bien sur route, mais en VTT quand ça secoue trop fort ou si vous tombez, votre smartphone risque de prendre cher (alors que les dispositifs GPS sont petits et peu encombrants au guidon).

Dans les deux cas, regardez-bien les distances, les dénivelés et identifiez les points difficiles.

Ma pratique personnelle est la suivante :

  1. Un dispositif GPS embarqué sur le vélo (Garmin de la gamme Edge et son support guidon),
  2. n’ayant jamais trouvé mieux que la cartographie IGN pour nos contrées, il est difficile de trouver un logiciel libre qui utilise efficacement cette cartographie pour tracer des parcours de manière fiable et en exporter des traces utilisables sur une dispositifs GPS. J’ai donc opté pour Iphigénie qui permet, outre l’application du téléphone portable, d’avoir un logiciel pour PC (y compris sous GNU/Linux) avec lequel on peut créer des traces et les exporter en différents formats (j’utilise le GPX). Le logiciel est payant une fois, puis un abonnement à la cartographie pour quelques euros par an.
  3. Une fois le GPX créé, j’uploade sur le site de Garmin (qui se gave de mes données personnelles, aaargh!) et je balance le tout sur mon appli smartphone qui, couplée à mon dispositif GPS me permettra d’y uploader la trace afin d’être utilisable sur le vélo lors de la sortie.

QMapShack et cartes IGN

Si vous ne voulez pas investir dans un abonnement de carte et si vous pouvez vous contenter de tracer des parcours à main levée, voici une prise en main rapide de QMapShack pour l’utiliser avec les cartes IGN.

  • installez QMapShack (dans les dépôts des principales distributions GNU/Linux), et lancez le logiciel,
  • Allez dans Fichier > Configurer les répertoires des cartes, cliquez sur « Au secours, je veux des cartes… »
  • choisir (et/ou créer) un répertoire où vos cartes seront enregistrés : en fait il s’agira d’y mettre les scripts ci-dessous, mais par défaut le logiciel y fera apparaître les scripts pour les fonds de cartes OSM (déjà pas si mal),
  • fermez QMapShack,
  • pour utiliser IGN TOPO : ouvrez un fichier texte et copier-coller le contenu ci-dessous et enregistrez-le en lui donnant l’extension .tms.
<TMS>
<Layer idx="0">
<Title>IGN TOPO</Title>
<MinZoomLevel>1</MinZoomLevel>
<MaxZoomLevel>18</MaxZoomLevel>
<ServerUrl>https://wxs.ign.fr/pratique/
geoportail/tms/1.0.0/GEOGRAPHICALGRIDSYSTEMS.PLANIGNV2
/%1/%2/%3.png</ServerUrl>
</Layer>
<Copyright> Map data: Plan IGN V2, licence ouverte
Etalab v2.0</Copyright>
</TMS>
  • Pour utiliser IGN Scan 25 (avec le copyright du Club Vosgien), c’est le script ci-dessous qu’il faut utiliser, puis enregistrer au format .tms
<TMS>
<Layer idx="0">
<Title>IGN SCAN 25</Title>
<MinZoomLevel>1</MinZoomLevel>
<MaxZoomLevel>18</MaxZoomLevel>
<ServerUrl>https://wxs.ign.fr/Votreclef/
geoportail/tms/1.0.0/GEOGRAPHICALGRIDSYSTEMS.MAPS
/%1/%2/%3.jpeg</ServerUrl>
</Layer>
<Copyright> © IGN – 2022 – Copie et reproduction
interdite</Copyright>
</TMS>

  • Notez qu’il n’y a pas de clé (il faudra remplacer Votreclef) par la clé que vous obtiendrez en vous inscrivant sur le site Geoservices, vous y choisirez toute l’offre du site pour un usage privé. Une fois inscrit, allez dans Mon espace > Mes clés de services web. Créez une clé, copiez-la, et collez-la à la place de VotreClef dans le script ci-dessus.
  • Vous pouvez rouvrir QMapShack et activer vos cartes.

Nettoyer sur place

Et pour finir, je reviens de nouveau sur la question du nettoyage. Si vous vous déplacez en voiture avec votre VTT ou si vous habitez en appartement, un petit matériel pourra vous être utile : un nettoyeur mobile. Il s’agit d’une petite station sur batteries, avec une contenance de 5 à 10 litres. Le jet d’eau n’est pas haute pression. La marque Kärcher en produit à prix raisonnable.

Utilité : si vous revenez d’une sortie très boueuse, avant de charger le VTT sur votre porte-vélo ou dans la voiture, passez-lui un coup de flotte avec cet outil. Idem si vous habitez en appartement, descendez sur le parking : vous pourrez nettoyer votre vélo sans encrasser votre balcon. Prenez aussi toujours une ou deux brosses avec vous pour enlever le plus gros avant de fignoler à la maison.

Notes

  1. L’autre option est d’acheter un vélo dit « Gravel », assez à la mode en ce moment : pour dire vite il s’agit d’un vélo de course (donc sportif) avec un cadre et des roues adaptés aux chemins forestiers peu accidentés. ↩︎

  2. À vrai dire, entre les études, la vie familiale et la pratique du trail, je n’ai pas fait que du VTT durant toutes ces années. ↩︎

  3. Non, je n’incite personne à emprunter le VTT d’un·e ami·e. Parce qu’il n’est pas conseillé de prêter son VTT chéri à un·e débutant·e, alors que la location, hein, on sait ce qu’on fait avec ce matériel… ↩︎

12 / 155
 Persos A à L
Mona CHOLLET
Anna COLIN-LEBEDEV
Julien DEVAUREIX
Cory DOCTOROW
EDUC.POP.FR
Michel GOYA
Hubert GUILLAUD
Gérard FILOCHE
Alain GRANDJEAN
Hacking-Social
Samuel HAYAT
Dana HILLIOT
François HOUSTE
Tagrawla INEQQIQI
Infiltrés (les)
Clément JEANNEAU
Paul JORION
Frédéric LORDON
LePartisan.info
 
 Persos M à Z
Henri MALER
Christophe MASUTTI
Romain MIELCAREK
Richard MONVOISIN
Corinne MOREL-DARLEUX
Timothée PARRIQUE
Emmanuel PONT
Nicos SMYRNAIOS
VisionsCarto
Yannis YOULOUNTAS
Michaël ZEMMOUR
 
  Numérique
Binaire [Blogs Le Monde]
Christophe DESCHAMPS
Louis DERRAC
Olivier ERTZSCHEID
Olivier EZRATY
Framablog
Francis PISANI
Pixel de Tracking
Irénée RÉGNAULD
Nicolas VIVANT
 
  Collectifs
Arguments
Bondy Blog
Dérivation
Dissidences
Mr Mondialisation
Palim Psao
Paris-Luttes.info
ROJAVA Info
 
  Créatifs / Art / Fiction
Nicole ESTEROLLE
Julien HERVIEUX
Alessandro PIGNOCCHI
XKCD
🌓