Hospitalier, (H)ac(k)tiviste, libriste, administrateur de Framasoft.
18.11.2024 à 01:00
Moi aussi je peux écrire un livre sur l'IA
Chez Framasoft, on se torture les méninges. Alors quand on parle d’Intelligence Artificielle, on préfère essayer de gratter un peu sous la surface pour comprendre ce qui se trame. Comme le marronnier éditorial du moment est l’IA dans tous ses états, je me suis dis que finalement, moi aussi…
C’est un petit projet, comme ça en passant. Il ne prétend par faire un tour exhaustif de ce qu’on entend exactement par « apprentissage automatique », mais au moins il m’a donné l’opportunité de réviser mes cours sur les dérivées… ha, ha !
Majpeulsia : Moi aussi je peux écrire un livre sur l’IA !
Ma manière à moi de comprendre des concepts, c’est d’en écrire des pages. J’ai pensé que cela pouvait éventuellement profiter à tout le monde. En premier lieu les copaing•nes de Framasoft mais pas que…
L’objectif consiste à développer les concepts techniques de l’apprentisage automatique et les enjeux du moment autour de cela. Pourquoi faire ? par exemple, lorsque l’Open Source Initiative a sorti a sorti sa définition d’une IA open source (voir mon billet précédent sur ce blog), il a été aussitôt question du statut des données d’entraînement. Mais… c’est quoi des données d’entraînement ? et surtout comment entraîne-t-on une IA ?
Vous allez me dire : ok, quand je conduis une voiture, je n’ai pas besoin de connaître la théorie du moteur à explosion. Oui, certes, mais connaître un peu de mécanique, c’est aussi assurer un minimum de sécurité. Alors, voilà, c’est ce minimum que je propose.
Cela se présente sous la forme d’un MKDocs à cette adresse (j’ai pas pris la peine d’un nom de domaine), et les sources sont ici. Le travail est lancé et il sera toujours en cours :)
Bonne lecture !
02.11.2024 à 01:00
Que serait une IA libre ?
Fin octobre 2024, l’OSI a publié sa définition d’une IA open source. Ce faisant, elle remet en question les concepts d’ouverture et de partage. Il devient urgent d’imaginer ce que devrait être une IA libre. Je propose ici un court texte en réaction à cette publication. Sans doute vais-je un peu trop vite, mais je pense qu’il y a une petite urgence, là.
Nous savons que la définition d’un logiciel libre implique un ouverture et un accès complet au code. Il ne peut y avoir de faux-semblant : le code doit être lisible, il doit être accessible, et tout programmeur devrait pouvoir l’utiliser, le modifier et partager cette version modifiée. C’est encore mieux si la licence libre qui accompagne le programme est dite copyleft, c’est-à-dire qu’elle oblige tout partage du code à adopter la même licence.
Dans le domaine de l’IA, cela se complique un peu. D’abord, ce qu’on appelle « une IA » est un système composé :
- le code qui permet de structurer le réseau neuronal. Par exemple un programme écrit en Python.
- les paramètres : ce sont les poids qui agissent dans le réseau et déterminent les connexions qui dessinent le modèle d’IA. On peut aussi y adjoindre les biais qui sont utilisés volontairement pour affiner le rôle les poids.
Donc pour définir la licence d’un système d’IA, il faut qu’elle porte non seulement sur le code mais aussi sur les paramètres.
Fin octobre 2024, l’Open Source Initiative (l’OSI) a donné sa définition (1.0) de ce qu’est une IA open source. Elle indique bien cette importance donnée aux paramètres. On constate de même que pour la première fois dans l’histoire du logiciel libre ou open source, une licence d’un système porte à la fois sur du code et sur les paramètres qui permettent d’obtenir une manière particulière de faire tourner ce code.
Or, nous savons aussi qu’un système d’IA n’est rien (ou beaucoup moins) sans son entraînement. L’OSI a donc naturellement pensé à ces données d’entraînement, c’est-à-dire les jeux de données d’entrées et de sortie qui ont servi à paramétrer le système. Ainsi, la définition de l’OSI nous donne une liste des « informations suffisamment détaillées » requises au sujet de ces données d’entrainement.
Dans un article intitulé « L’IA Open Source existe-t-elle vraiment ? », Tante nous explique que cette définition de l’OSI nous embarque dans un régime d’exception problématique car le niveau de détail déclaré « suffisant » risque bien de ne jamais l’être. Par exemple on de dit pas qu’un code open source serait suffisamment ouvert : il est ouvert ou il ne l’est pas. C’est non seulement une question pratique (ai-je accès au code pour pouvoir l’inspecter et le modifier ?) mais aussi de confiance : irai-je faire tourner un programme si certains éléments, même décrits, me restent cachés ? En admettant que je puisse modifier les parties ouvertes du programme, puis-je repartager un tel programme contenant une boîte noire à laquelle personne ne peut avoir accès ?
De surcroît, la définition de l’OSI nous indique :
- que pour « les données d’entraînement qui ne sont pas partageables », il suffirait de les décrire ;
- que l’objectif de ce partage, à défaut de reproduire exactement le même système, consiste à obtenir un système seulement « similaire ».
Ainsi en cherchant à définir l’ouverture des systèmes d’IA, l’OSI cherche à modifier la conception même de ce qu’est l’ouverture. L’idée n’est plus de partager un commun numérique, mais de partager une méthode pour en reproduire un équivalent. Cette concession faite aux producteurs de systèmes d’IA déclarés open source implique un net recul par rapport aux avancées des dernières années au sujet des communs numériques. Là où l’ouverture du code pouvait servir de modèle pour partager toutes sortes d’oeuvres et ainsi contribuer au partage de la connaissance et de l’art, voici qu’un commun numérique n’a plus besoin d’être partagé dans son intégralité et peut même contenir ou dépendre d’éléments non ouverts et non accessibles (pourvu qu’ils soient « décrits »).
L’ouverture se distinguerait alors du partage. On tolèrerait des éléments rivaux dans les communs numériques, là où normalement tout partage implique l’enrichissement mutuel par l’abondance qu’implique ce partage. L’OSI conçoit alors l’ouverture des systèmes d’IA comme une sorte de partage inaboutit, un mieux-que-rien laissé dans le pot commun sans réel avantage. Sans l’intégralité des données d’entraînement, non seulement le système n’est plus le même mais encore faut il trouver les ressources suffisantes ailleurs pour en obtenir une alternative de niveau équivalent.
A contrario, un système d’IA libre devrait être fondé :
- sur du code libre,
- sur des données d’entraînement libres et accessibles à tous (elles peuvent être elles-mêmes sous licence libre ou dans le domaine public),
- sur des algorithmes d’entraînement libres (bon, c’est des maths normalement), publiés et accessibles,
- et le tout, pour mieux faire, sous Copyleft.
Mais ce n’est pas tout, il faut que les données soit décrites ainsi que la manière de les utiliser (l’étiquetage, par exemple). En effet, que les données soient libres n’est pas en soi suffisant. Tout dépend de l’usage : si j’entraîne une IA sur des données libres ou publiques il faut encore les évaluer. Par exemple si elles ne contiennent que des contenus racistes le résultat sera très différent que si je l’entraine sur des contenus dont on a évalué la teneur et que cette évaluation ai dûment été renseignée. Ici se joue la confiance dans le système et plus seulement la licence !
La question n’est pas de savoir s’il est aujourd’hui possible de réunir tous ces points. La question est de savoir ce que nous voulons réellement avec les systèmes d’IA.
Par ailleurs, l’OSI nous donne une définition qui intervient a posteriori par rapport aux systèmes d’IA existants et distribués d’emblée sous le drapeau open source. Un peu comme si l’OSI prenait simplement acte d’une pratique déjà mise en place par les acteurs des grands modèles d’IA, à l’Instar d’OpenAI qui soutenait qu’il n’était pas possible d’entraîner des systèmes d’IA sans matériel copyrighté (Ars Technica, 09/01/2024). Ce à quoi Huggingface a répondu quelques mois plus tard, en novembre 2024, en proposant une large base de données sous licences permissives (open source, domaine public, libre… la liste est sur ce dépôt).
En France, le Peren (le Pôle d’Expertise de la Régulation Numérique) est intervenu juste après l’annonce de l’OSI pour proposer un classement des système d’IA selon cette définition. Et ce classement s’accomode très bien avec la conception de l’ouverture des Big AI : tout est plus ou moins ouvert, plus ou moins accessible, voilà tout. Il n’y a aucune valeur performative de la définition de l’OSI là où une approche libriste cherche au contraire à imposer les éléments de probité inhérents aux libertés d’usage, de partage et de modification.
Est-ce vraiment étonnant ? Récemment Thibaul Prevost a publié un ouvrage passionant au sujet du cadre narratif des Big AI (Les prophètes de l’IA - Pourquoi la Silicon Valley nous vend l’apocalypse). On y apprend que, selon le Corporate Europe Observatory dans un communiqué édifiant intitulé Byte by byte. How Big Tech undermined the AI Act les Big AI se sont livrés à un lobbying de choc (plus qu’intensif, il était exclusif) dans le cadre des négociations de l'AI Act en 2023, jusqu’aux plus hauts sommets des intitutions européennes pour « faire supprimer du texte les obligations de transparence, de respect du copyright des données d’entraînement et d’évaluation de l’impact environnemental de leurs produits » (chap. 4). Avec sa définition, ce que fait l’OSI, c’est approuver la stratégie de maximisation des profits des Big AI pour donner blanc seing à cette posture de fopen source (avec un f) qui valide complètement le renversement de la valeur de l’ouverture dans les communs numériques, en occultant la question des sources.
On voit aussi l’enjeu que pourrait représenter une conception altérée de l’ouverture dans plusieurs domaines. En sciences par exemple, l’utilisation d’un système d’IA devrait absolument pouvoir reposer sur des garanties bien plus sérieuses quant à l’accessibilité des sources et la reproductibilité du système. Il en va du statut de la preuve scientifique.
Plus largement dans le domaine de la création artistique, le fait que des données non partageables aient pu entraîner une IA revient à poser la question de l’originalité même de l’oeuvre, puisqu’il serait impossible de dire si la part de l’oeuvre dûe à l’IA est attribuable à l’artiste ou à quelqu’un d’autre dont le travail se trouve ainsi dérivé.
Il y a encore du travail.
13.09.2024 à 02:00
Cybersyn : limites du mythe
Vous avez sans doute remarqué le nombre de publications ces dernières années à propos du grand projet Cybersyn au Chili entre 1970 et 1973. C’est plus qu’un marronnier, c’est un mythe, et cela pose tout de même quelques questions…
Le 11 septembre est un double anniversaire pour deux événements qui ont marqué profondément l’histoire politique mondiale. Le premier en termes de répercutions désastreuses sur le monde fut le 11 septembre 2001. Celleux qui, comme moi, en ont le souvenir, savent à peu près ce qu’ils étaient en train de faire à ce moment-là, étant donné la rapidité de propagation de l’information dans notre société médiatique. Le second est plus lointain et plus circonscrit dans l’espace et le temps, bien que désastreux lui aussi. C’est le coup d’état au Chili par Pinochet et sa junte militaire, soutenue en douce par Nixon et la CIA.
Commémorer le triste anniversaire du coup d’état de Pinochet revient parfois à embellir le projet socialiste de Allende et ses compagnons. Un projet dont les bases étaient fragiles, fortement ébranlées par l’hostilité américaine (qui a attisé l’opposition politique et la sédition de l’armée) et le jeu de dupes joué par les soviétiques. Au-delà de la question géopolitique, le socialisme de Allende reposait sur un bloc, l’Unité Populaire, qui a fini par se diviser (pour des socialistes, rien d’étonnant, direz-vous) entre une voie institutionnelle et une voie radicale-révolutionnaire. La voie institutionnelle s’est dirigée vers un vaste programme de nationalisation (par ex. les banques, les industries, surtout en matières premières), la promotion de la co-gestion avec les travailleurs dans les entreprises, et une réforme agraire dont le but consistait surtout à mettre fin au manque de rendement des exploitations latifundiaires. Dans les faits, le mouvement populaire échappait quelque peu à la voie institutionnelle. Par exemple dans les campagnes, des conseils paysans virent le jour et lancèrent des plan d’occupation des exploitations en dehors de tout cadre réglementaire. Les contestations n’étaient pas seulement des reproches de l’aile révolutionnaire à l’aile plus « démocrate-chrétienne » de Allende, mais poussaient souvent trop loin l’élan populaire jusqu’à parfois faire des compromis avec l’opposition. Bref, c’est important de le rappeler, après l’arrivée de l’Union Populaire au pouvoir, le moment démocratique du Chili amorcé en 1970 était aussi un moment de divergence de points de vue. Cela aurait pu se résoudre dans les urnes, mais c’était sans compter Pinochet et les années de cauchemar qui suivirent. Car ce général était appuyé par un mouvement d’opposition très fort, lui-même radicalisé, anti-communiste et souvent violent, prenant la constitution comme faire-valoir. Pire encore, l’opposition était aussi peuplée des capitalistes chefs d’entreprise qui allèrent jusqu’à organiser un lock-out du pays pour faire baisser volontairement la production. Tout cela a largement contrecarré les plans de Allende.
Pourquoi je m’attarde avec ce (trop) bref aperçu de la situation politique du Chili entre 1970 et 1973 ? Et quel rapport avec cette date d’anniversaire ?
Vous avez sans doute remarqué le nombre de publications ces dernières années à propos du grand projet Cybersyn. Il s’agit du projet de contrôle cybernétique de l’économie planifiée chilienne initié par le gouvernement Allende, et sur les conseils du grand cybernéticien britannique Stafford Beer. Le 11 septembre dernier, cela n’a pas loupé, le marronnier était assuré cette fois par Le Grand Continent, avec l’article « Un ordinateur pour le socialisme : Allende, le 11 septembre et l’autre révolution numérique ». Entendons-nous bien, ce type de publication est toujours intéressant. Non pas qu’il soit capable d’expliquer ce qu’était le projet Cybersyn (comme nous allons le voir, les tenants et aboutissants sont assez compliqués à vulgariser) mais parce qu’il s’attache essentiellement à perpétuer un story telling, lui-même initié par Evgeny Morozov (que l’article d’hier cite abondamment) via un célèbre podcast et un petit livre fort instructif, Les Santiago Boys, dont j’invite à la lecture (Morozov 2015 ; Morozov 2024).
Pourquoi un story telling ?
Deux principales raisons à cela.
La première : une démarche de type investigation journalistique n’est pas une démarche historique. Ce que montrent en fait les nombreuses publications grand public sur le projet Cybersyn ces dernières années, c’est qu’elles constituent une réponse anachronique à la prise de conscience de notre soumission au capitalisme de surveillance. Il s’agit de faire de Cybersyn un message d’espoir : envers et contre tout, surmontant les difficultés techniques (réseaux, télécoms, ordinateurs) et l’impérialisme américain, un pays armé de ses ingénieurs a réussi à mettre en place un système général de contrôle cybernétique socialiste. C’est beau. Et c’est un peu vrai. Il suffit de se pencher sur les détails, par exemple un certain niveau du système intégrait bel et bien la possibilité de la co-gestion dans les boucles de rétroaction, et bien qu’on ai souvent accusé ce projet d’avoir une tendance au contrôle totalitaire, le fait est que non, dans ses principes, la décision collective était une partie intégrée. S’interroger aujourd’hui sur Cybersyn, c’est poser la possibilité qu’il existe une réponse au solutionnisme numérique auquel se soumettent nos décideurs politique tout en abandonnant la souveraineté technologique. Cette réponse consiste à poser que dans la mesure où la technologie numérique est inévitable dans tout système décisionnaire et de contrôle de production, il est possible de faire en sorte que les systèmes numériques puissent avoir une dimension collective dans un usage par le peuple et pour le peuple. Un usage social des technologie numériques de gouvernement est possible. Comme message d’espoir, il faut reconnaître que ce n’est déjà pas si mal.
La seconde : nous avons besoin d’une alternative au système de gouvernance « par les nombres », pour reprendre les termes d’Alain Supiot (Supiot 2015). À une culture de l’évaluation et de la mise en compétition des individus, une réponse peut être apportée, qui consiste à impliquer le collectif dans la décision en distribuant la responsabilité sans se défausser sur la technocratie bureaucratique. Or, une planification économique « au nom du peuple » fait toujours doublement peur. D’abord elle fait peur aux capitalistes ; c’est pourquoi Freidrich Hayek s’est efforcé de démontrer que la planification est irrationnelle là où le marché est seul capable d’équilibrer l’économie (Hayek 2013). Elle fait peur aussi aux anti-capitalistes et aux anarchistes, car, comme le montre James Scott dans L’Œil de l’État, cela ne fonctionne jamais, ou plus exactement cela fonctionne parce que les gens survivent à la planification par les arrangements qu’ils peuvent faire à l’insu de l’État sans quoi, le plus souvent, ils meurent de faim (Scott 2024). De fait, c’est bien ce qu’il se passait avec Cybersyn : les entreprises ou petites exploitations locales devaient remonter dans le système les éléments d’information au sujet de leur production. Or, lorsque vous ne voulez pas d’ennui et qu’un manquement à la production prévue implique pour vous un changement dans vos routines, vous bidouillez les comptes, vous vous arrangez avec la réalité. Cybersyn est un système qui, en pratique, n’offrait qu’une vision biaisée de la réalité économique dont il était censé permettre le contrôle.
En somme, dans le petit monde intellectuel numérique d’aujourd’hui, et depuis une bonne dizaine d’années, le 11 septembre est (aussi) considéré comme une date anniversaire de la fin brutale du projet Cybersyn et le moment privilégié pour s’essayer à l’imaginaire positif d’une réconciliation entre politique, économie, technologie et société. J’ai moi même déjà parlé de Cybersyn.
Du reste, il est assez frappant que le projet Cybersyn ai laissé un tel héritage aujourd’hui alors qu’on ne parle presque jamais du projet URUCIB en Urugay au milieu des années 1980 (Ganón 2022). Du point de vue des objectifs (intégrer les principes de la cybernétique à un système automatisé de contrôle économique d’un pays), il s’agissait du même projet, avec Stafford Beer cette fois conseiller du président Julio Maria Sanguinetti. Sur l’ordre des événements, c’est presque l’exact opposé de Cybersyn : après une dictature et pas avant, et sur la base d’un système d’information exécutif déjà existant y compris au niveau technique. Il faut dire que Stafford Beer a « conseillé » pas mal de monde.
Si l’on veut connaître l’histoire de Cybersyn (Synco en espagnol), le meilleur ouvrage que je puisse conseiller est celui de Eden Medina écrit en 2011, traduit en français en 2017, Le Projet Cybersyn. La cybernétique socialiste dans le Chili de Salvador Allende (Medina 2011). E. Medina a travaillé longemps sur Cybersyn (entre autre). C’est en 2006 qu’elle publie déjà un article à ce propos (Medina 2006). Je ne crois pas me tromper en affirmant qu’elle fut la première à publier une monographie sur ce sujet. Il y eu bien quelques articles, écrits notamment par les membres des Santiago Boys alors exilés, comme celui de Herman Schwember en 1977 (Schwember 1977) qui revient en détail sur le projet, ou bien Raul Espejo qui revient périodiquement sur la question en 1980, 1991, 2009, 2022… (Espejo 2022) Il y a une bibliographie dans le livre de Eden Medina, mais l’essentiel est surtout tiré de ses rencontres avec les acteurs du projet.
C’est quoi le gouvernementalisme cybernétique ?
Si je me suis attardé sur la politique de Allende en introduction, c’est pour mieux faire comprendre dans quel état d’esprit politique se situe le projet Cybersyn. Je ne vais pas en refaire l’histoire, je vous invite pour cela à lire les références ci-dessous. En revanche, j’invite à prendre un moment pour se pencher sur les aspects épistémologiques et politique de ce projet.
D’après Hermann Schwember, un physicien qui a activement participé au projet, le problème auquel faisait face le gouvernement Chilien en 1970 consistait à établir un ordre socialiste tout en changeant les mentalités mais aussi en rendant compétitive une économie socialiste planifiée qui nécessitait une science du contrôle beaucoup plus étendue que le système précédent de Frei Montalva qui avait pourtant déjà nationalisé et effectué quelques réformes importantes, mais sur un mode keynésien. Par ailleurs, la modernisation du Chili devait se poursuivre sur bien des points : donc un système de contrôle devait intégrer aussi, par apprentissage, les transformations même de l’économie, en somme être capable d’apprentissage.
À l’époque, la mode était à la cybernétique. Le britannique Stafford Beer avait publié une dizaine d’années auparavant des travaux remarquable dans le domaine des sciences de gestion. Pour lui la cybernétique comme étude des systèmes d’information et science du contrôle (comme l’avait théorisé Norbert Wiener) pouvait être appliquée dans le domaine du management des organisations et dans les processus décisionnels. De fait, toute l’histoire de l’informatique des années 1950 et 1960 tourne autour de l’application des principes de la cybernétique à la gestion par le support numérique. En missionnant S. Beer auprès de la présidence, le gouvernement Chilien ne faisait que tenter de mettre sur pied un système de gouvernement cybernétique. Hermann Schwember résume ainsi la manière dont, avec Stafford Beer, la problématique fut posée (Schwember 1977) :
Dans le cas d’un système complexe appelé industrie nationalisée, soumis à des changements très rapides (taille, conception des produits, politique des prix, etc.), inséré dans un système plus large (l’économie nationale, insérée à son tour dans l’ensemble de la vie sociopolitique nationale) et soumis à des conditions limites politiques très spécifiques, il est nécessaire de développer sa structure et son flux d’informations afin que la prise de décision, la planification et les opérations réelles répondent de manière satisfaisante à un programme de demandes externes et que le système reste viable.
La viabilité d’un système, ce n’est pas son efficacité, c’est sa capacité évoluer dans un environnement changeant. Tout résidait dans la capacité à imbriquer des sous-systèmes et imaginer des boucles de rétroaction, des réseaux de signaux faibles ou forts, indiquant l’état de santé de ce système. En d’autres termes, si on pense le monde comme un gigantesque système de traitement d’information, alors on peut imaginer des systèmes d’interaction informationnels capable de changer l’état du monde tout en s’adaptant aux externalités variables qui ne sont elles-mêmes que des informations.
On a beaucoup critiqué ces modèles cybernétiques en raison de leur tendance au réductionnisme. Le fait est que le modèle de Cybersyn (pour être plus exact, il y a plusieurs modèles dans le projet Cybersyn) est une tentative de sortir de la cuve.
Qu’est-ce que cette histoire de cuve ? Comme le disait Hilary Putnam (Putnam 2013), tout modèle économique (capitaliste ou autre), possède des lois dont les bases sont physiques (comme le besoin de manger) mais qui ne peuvent pas être déduites des lois de la physique, parce que les concordances sont accidentelles, par exemple la variété des structures sociales. H. Putnam se sert de cet exemple pour illustrer sa réfutation de l’unité de « la » science. Mais H. Putnam est aussi l’auteur d’une expérience de pensée, un cerveau dans une cuve qui recevrait toute ses expériences par impulsions électriques : dans ce cas aucun cerveau n’est capable de dire de manière cohérente qu’il est effectivement un cerveau dans une cuve, car aucune connaissance ne peut être dérivée uniquement de processus de réflexion internes. Hé bien le projet Cybersyn consiste à sortir l’économie de la cuve. Par rapport au néolibéralisme (celui du Mont Pélerin et des Chicago Boys qui viendront aider Pinochet par la suite), c’est une bonne méthode puisque ce modèle tourne littéralement en rond en considérant que seul le marché décide de l’équilibre économique tout en considérant les limites énergétiques, les structures sociales, et la pauvreté comme des externalités au marché. Le néolibéralisme est une économie dans une cuve : il ne sait pas dire de manière cohérente pourquoi il y a des inégalités et sait encore moins y remédier. En prenant le pari d’imaginer un système qui appliquerait les principes de la cybernétique à la complexité du système social chilien, toutes ses organisations et leurs changements, le projet Cybersyn proposait une planification économique non linéaire et adaptative par des boucles de rétroaction entre la complexité du réel et la décision publique.
Mais… il y a toujours un « mais ». La conception cybernétique de Stafford Beer est par définition réductionniste. Non pas un réductionnisme visant à ramener le complexe au simple mais plutôt à transposer un système dans un autre pour en simplifier la compréhension et faciliter la décision. On pourrait dire plutôt : un mécanicisme. Il fallait donc le théoriser. Stafford Beer l’a fait dès 1959, par le concept de réducteur de complexité (variety reducer). Qu’est-ce qu’un système complexe ? Cybersyn est un système complexe : il accroît une complexité dans le processus décisionnel (réseau, transmission d’information, ordinateurs, etc.) pour réduire la complexité (ou pour simplifier) le management de l’économie. On imaginera ainsi une salle des commandes dans le palais présidentiel, avec des tableaux permettant de visualiser en temps réel l’état de l’économie pour prendre des décisions et en transmettant des ordres par de simples appuis sur des boutons.
En quoi ce story telling pose problème ?
Le résultat est exactement celui décrit par James Scott (Scott 2024) : dans la mesure où le contrôle revient à un effort de standardisation et de normalisation, Cybersyn ne rend « conviviale » que la sphère de commandement d’un Léviathan algorithmique. Par voie de conséquence, même avec la dimension d’apprentissage du système pour l’adapter à la complexité sociale, il serait faux d’affirmer que les sous-systèmes soient réellement capables d’intégrer efficacement toute la complexité possible.
Comme dit l’adage : « on ne donne pas à boire à un âne qui n’a pas soif ». Cybersyn était une utopie, mais une utopie qui en dit long sur la différence entre l’élection au pouvoir et la capacité de gouvernance. La vague réformiste de Allende a trouvé assez vite ses obstacles, qu’ils soient d’origine ouvrière, de la part des chef d’entreprise de droite ou par l’ingérence de la CIA. Les grèves organisées dans le but d’affaiblir l’économie ne pouvaient par définition pas être intégrées dans les sous-systèmes de Cybersyn, en revanche elles constituaient bel et bien des signaux fort sur l’état de viabilité. La principale limite du gouvernementalisme cybernétique, c’est d’ignorer la dimension politique de la recherche du pouvoir chez l’homme. Stafford Beer ira même jusqu’à étudier la possibilité d’une cybernétique des systèmes sociaux… tout en oubliant que les finalités d’un groupe dans un système peuvent aller jusqu’à subordonner le système lui-même. Cela peut même relever d’un choix collectif (de l’ensemble du système lui-même), par servitude volontaire ou propagande populiste. Le concept de résilience des systèmes sociaux a lui aussi ses limites. Encore en d’autres termes, l’information ne peut être le seul élément sur lequel on base une décision.
Mais outre la bureaucratisation, le concept même de rétroaction d’un tel système efface assez radicalement plusieurs dimensions pourtant essentielles dans la société. Prenons la créativité et l’initiative. Qu’elles soient individuelles ou collectives, ne pas les prendre en compte revient à nier l’existence de communs préexistants au systèmes et qui lui survivront peut-être (ou pas). Les communs sont des modes de gestion collectifs créatifs et basés sur l’initiative collective. Il s’agit de gérer des ressources en dehors de la mainmise de l’État ou d’autres organisations qui les accapareraient. Mais les communs sont bien davantage, c’est un ensemble de pratiques qui elles mêmes forment un système changeant, complexe, mais en tout cas dont la gestion revient aux pratiquant et non à une entité extérieure. Un gouvernement cybernétique revient à nier cette capacité d’exploitation en pratique des collectifs, qui bien souvent est géographiquement située, locale et non nationale. Ou s’il s’agit de communs de la connaissance (ou encore numériques) un gouvernementalisme cybernétique revient à imposer un modèle de réduction de la complexité contre un autre : un modèle d’auto-organisation. C’est d’ailleurs ce qu’Henri Atlan défend à l’encontre du mécanicisme de la cybernétique dès 1972 (Atlan 1972) en proposant l’idée de complexité par le bruit ou l’émergence des propriétés d’un système. Mais sans aller encore vers un autre modèle, plus simplement, il n’y a pas un système mais plusieurs. Imaginer qu’un gouvernementalisme cybernétique soit possible, socialiste ou non, cela revient à une fascination pour une conception mécanique de la politique. L’arrivée aujourd’hui des modèles qu’on appelle « Intelligence artificielle » peut renvoyer, par leurs capacités de haute statistique, une image plus édulcorée aux reflets d’adaptabilité à la complexité des système sociaux. Ne serait-ce pas une nouvelle religion, celle qui croit que la viabilité (au sens de Stafford Beer) d’un système n’est finalement que technique ?
Enfin, pour parler de la technique, rappelons-nous les travaux d’Ivan Illich. La non-neutralité de la technique (cf. J. Ellul) provient entre autre du fait qu’elle transforme les pratiques et influence la gestion et la structure des organisations. C’est pourquoi la gestion de la production est sans doute le premier défi que doit relever un système planifié gouverné de manière algorithmique. Et là, on peut lire avec un œil assez critique la tentative de Hermann Schwember d’opposer à la thèse d’Illich l’idée d’un socialisme convivial. C’est ce qu’il fait en 1973 (Schwember 1973) peu de temps avant le coup d’état. Pour Illich, la société est face à un choix entre productivisme et convivialité (ou post-industrialisme). À partir de quand un outil ou une production sont nécessaires et à partir de quand on atteint le limites du système ? H. Schwember, comme les autres, fait partie d’un monde productiviste. C’est tout l’objet de Cybersyn, et le Chili devait bien entendu « rattraper » le reste du monde dans la course à la productivité et la rentabilité. C’est pourquoi H. Schwember conclu son article en accusant Illich de vouloir soutenir une thèse de limitation de la croissance. En somme, socialisme ou non, l’important serait de produire. On en voit le résultat aujourd’hui, à l’heure où l’on se demande si le rôle de l’ingénierie est de toujours innover davantage par la croissance et la production ou au contraire d’innover par la convivialité, justement. C’est la question des low techs, et au-delà la question de la limitation de l’énergie, du réchauffement climatique et des inégalités sociales.
Cybersyn est un projet purement productiviste, et selon moi, digne d’un très grand intérêt historique, mais bien loin de constituer la belle utopie dont on se gargarise aujourd’hui. Je préfère me concentrer sur les milliers d’assassinats de Pinochet et les tortures de son régime, autant expressions du néolibéralisme le plus violent qui, par contraste font effectivement passer le rêve du contrôle socialiste productiviste pour un petit moment d’apaisement (à défaut de paix sociale).
ATLAN, Henri, 1972. Du bruit comme principe d’auto-organisation. Communications. 1972. Vol. 18, n° 1, pp. 21‑36. URL.
ESPEJO, Raul, 2022. Cybersyn, big data, variety engineering and governance. AI & SOCIETY. 1/9/2022. Vol. 37, n° 3, pp. 1163‑1177. URL.
GANÓN, Víctor, 2022. URUCIB: a technological revolution in post-dictatorship Uruguay (1986–88). AI & SOCIETY URL.
HAYEK, Friedrich, 2013. La route de la servitude (1944). 1944. Paris : PUF.
MEDINA, Eden, 2006. Desiging Freedom, Regulating a Nation: Socialist Cybernetics in Allende’s Chile. Journal of Latin American Studies [en ligne]. 2006. Vol. 38, pp. 571‑606.
MEDINA, Eden, 2011. Cybernetic Revolutionaries. Technology and Politics in Allende’s Chile. Boston : MIT Press.
MOROZOV, Evgeny, 2015. Big Brother. Cybersyn, une machine à gouverner le Chili. Vanity Fair France. 19/1/2015. URL.
MOROZOV, Evgeny, 2024. Les « Santiago Boys »: des ingénieurs utopistes face aux big techs et aux agences d’espionnage. Paris, France : Éditions divergences.
PUTNAM, Hilary, 2013. Le réductionnisme et la nature de la psychologie. In : AMBROISE, Bruno et CHAUVIRÉ, Christiane (éd.), Le mental et le social [en ligne]. Paris : Éditions de l’École des hautes études en sciences sociales. pp. 67‑84. Raisons pratiques. URL.
SCHWEMBER, Hermann, 1973. Convivialité et socialisme. Esprit. 7/1973. Vol. 426, pp. 39‑66.
SCHWEMBER, Hermann, 1977. Cybernetics in Government: Experience With New Tools for Management in Chile 1971-1973. In : BOSSEL, Hartmut (éd.), Concepts and Tools of Computer Based Policy Analysis. Basel : Birkhäuser - Springer Basel AG. pp. 79‑138. Interdisciplinary Systems Research.
SCOTT, James Campbell, 2024. L’œil de l’État: Moderniser, uniformiser, détruire. Paris, France : la Découverte. ISBN 978-2-348-08312-9.
SUPIOT, Alain, 2015. La gouvernance par les nombres. Cours au Collège de France (2012-2014). Paris : Fayard.
27.08.2024 à 02:00
Politique, surveillance, résistances
Voici billet un peu foutraque où j’aborde plusieurs problématiques qui peuvent trouver une résolution dans le concept de mètis, selon une lecture de James Scott et de Certeau. Il faudra auparavant aborder longuement le rapport entre l’État et le capitalisme de surveillance. Quel est ce pouvoir normatif que le capitalisme de surveillance cherche à imposer aux institutions comme aux individus, et quelles sont les portes de sortie ? il y a des résistances inaltérables, présentes depuis toujours, et qui font du pouvoir une sorte d’illusion. Nous sommes tous des hackers, reste à comprendre pourquoi.
Table des matières
« Homme augmenté » : c’est ainsi que, dès les débuts des recherches en informatique appliquée dans les années 1960, on pensait le rapport entre l’homme et les machines. Les témoignages se sont généralement tous suivis sur ce modèle. Tantôt ils dévoilaient les promesses d’un monde meilleur où, partant d’une approche exclusivement computationnelle, l’esprit et le monde tout entier pouvaient être compris comme des machines de traitement d’information. Selon cette approche, si l’univers entier, y compris la pensée humaine sont compréhensibles par l’analogie mécanique (même si nous n’en connaissons pas tous les rouages), alors l’explication du monde est algorithmique et nos limites cognitives ne sont que celles que la technologie nous impose. Tantôt ils étaient plus pragmatiques en situant la machine dans le processus de l’évolution humaine. Une évolution externalisée dont ce qu’on appelait déjà l’IA et les big data représentaient le stade le plus élevé de l’augmentation des capacités humaines. Mais jusqu’à très récemment, avec la critique générale au sujet des GAFAM, la problème qui restait en suspend, le tabou si crucial, fut finalement dévoilé : qu’est-ce qui fut augmenté, exactement, au bout de 50 années de développement ?
Je vais vous le dire : la production et les profits du capital, la puissance de contrôle de l’État, l’influence sur nos comportements (qu’il s’agisse de nos comportements économiques ou de nos comportements politiques). Un premier écueil est tombé : ce n’est pas l’Humain (avec un grand H) qui a été augmenté avec l’informatisation de la société, ce sont ses capacités productives par l’algorithmisation des tâches que nous faisions et de celles que nous n’étions alors pas capables de faire, ainsi que la surveillance et le contrôle des processus de production et de décision (par l’analyse statistique).
Mais jusqu’à présent, nous n’avons pas réfléchi à l’État (avec un grand E). Dans tous ces discours technophiles, l’État n’a finalement jamais été réduit qu’à n’être au pire un passage obligé de l’autorité et du financement de projets (des centaines de milliards ont été injectés dans la recherche et le développement numérique), au mieux une caution pratique et un promoteur de stratégies économiques. Nous parlons de l’État, de son rôle dans ce rapport que nous entretenons avec les machines, mais il reste une boîte noire lorsqu’il s’agit d’analyser sa structure et ses institutions dans leur rapport avec le capitalisme de surveillance. Certes, nous avons une idée désormais extrêmement fine au sujet de la manière dont l’État utilise (s’augmente pourrait-on dire) les technologies d’automatisation pour récolter de l’information et contrôler la population, mais lorsqu’il s’agit de capitalisme de surveillance, nous avons tendance à nous concentrer sur les entreprises et la politique en général…
Capitalisme de surveillance et politique
Il est vrai que la question est d’abord politique. Un récent article d’AOC par le sociologue O. Alexandre (Alexandre, 2024) fait le point sur la manière dont les entreprises de la Silicon Valley retournent peu à peu leur veste, partant du soutien au parti démocrate américain pour aboutir, par l’adhésion à l’idéologie libertarienne, au conservatisme le plus dur. Selon cet auteur, cela ne concerne pas seulement la Silicon Valley, mais bel et bien l’ensemble des entreprises de la tech, y compris dans la France de la start-up nation macroniste : « pour chaque promesse de la révolution Internet des années 1990 (société de l’information, désintermédiation, dématérialisation, enrichissement) correspond aujourd’hui une tendance inverse (désinformation, domination des Big Tech, coûts environnementaux, croissance des inégalités) ». Mais la thèse soutenue consiste à affirmer que ces entreprises n’assument pas la « portée sociale » de leurs activités et que si l’État est aveugle, c’est parce que le problème se situe entre politique et entreprises.
Dans mon livre Affaires privées (Masutti, 2020) je pense avoir démontré à quel point, depuis les débuts de l’informatisation de la société, il y a un gouffre entre le discours émancipateur et le capitalisme de surveillance qui est devenu le modèle économique dominant, supplantant aujourd’hui en termes financiers les plus grandes industries historiques. D’autres l’avaient démontré encore mieux que moi. Il y eu d’abord Fred Turner, par l’étude de cas qu’il a consacré à Stewart Brand, démontrant ainsi combien l’idéologie hippie a été dévoyée sur l’autel du capitalisme numérique (Turner, 2012) au nom de la liberté et des idéaux de transformation sociale. Il y eu encore J. B. Foster et R. W. McChesney dans la Monthly Review qui montrent combien le capitalisme de surveillance s’appuie sur la logique impérialiste des États-Unis depuis la Guerre Froide et s’est accentuée par la surfinanciarisation à dessein des multinationales du numérique (Foster, McChesney, 2014). En somme, qu’on se situe sur le plan de la sociologie ou de la géopolitique, rien n’a jamais réellement plaidé en faveur d’une émancipation de l’homme par l’économie numérique si ce ne sont les discours tenus par les entreprises concernées elles-mêmes, relayés par les politiques pour justifier les stratégies de développement.
Si l’on y réfléchit bien, le mouvement pour le logiciel libre qui, dans ses principes, plaide en faveur d’une liberté d’usage, de partage et de création pour l’utilisateur et le programmeur, a été lancé en réaction justement à la tournure que prenait l’économie numérique en adoptant les pires archétypes de la propriété intellectuelle, et verrouillant l’accès au code. Il n’a pas fallu longtemps pour que d’autres réagissent au nom de la conciliation et du compromis capitaliste avec l'open source et il a fallu toutefois un peu plus de temps pour que ce soient les mêmes grandes entreprises qui collaborent le plus à la création de code libre afin d’alimenter un commun dont elles tirent le plus grand profit.
Toujours est-il que, dans cette longue histoire, l’État est rarement envisagé comme un acteur proactif du capitalisme de surveillance. Certes, il encourage, mais il encourage une sorte d’état de fait. Par exemple, depuis la fin des années 1960 aux États-Unis, les courtiers de données tels Demographics/Acxiom ont des relations privilégiées avec les politiques, notamment le parti démocrate, tout simplement parce que leurs services ont toujours démontré leur fiabilité dans le démarchage politique et le profilage en contexte électoral (Masutti, 2021). Les renvois d’ascenseur en termes de placement stratégique sont évidents. C’est ainsi que Charles D. Morgan, CEO d’Acxiom, basé en Arkansas, sera un grand ami intime des Clinton. L’approche peut avoir de quoi surprendre du point de vue européen, mais il ne faut pas oublier que la culture économique américaine est beaucoup plus pragmatique. Si les programmes politiques promettent des financements, c’est aussi parce que ces mêmes programmes sont encouragés par les capitalistes eux-mêmes, avec force donations et promotions, quel que soit le discours politique en vogue, progressiste ou conservateur, quitte à racler les fonds de poubelles pour convaincre les électeurs.
La passivité des institutions n’est toutefois qu’apparente. Dès les années 1970, le sénat américain lance des enquêtes approfondies sur les bases de données et leurs emplois, le concept de privacy est de plus en plus défini et employé dans les lois encadrant l’usage des bases de données, et très vite les dispositions juridiques de protection de la vie privée se déploient en Europe jusqu’à aujourd’hui. Et c’est un travail laborieux, le rocher de Sisyphe. De même, lorsqu’il s’agit de contrôle de la population ou d’équipement militaire, les finalités capitalistes et les objectifs de gouvernement convergent souvent. Les institutions de l’État ne se privent pas pour passer des marchés douteux avec les principales entreprises. C’est ainsi qu’en matière d’espionnage de masse il fut démontré, notamment par les révélations d’E. Sowden, les accointances manifestes des grandes multinationales du numérique avec la NSA dans l’espionnage de masse au niveau mondial. Mais ce scandale n’est pas isolé, loin de là, et de nombreux noms de programmes d’espionnage de masse et de contre-propagande ont fait surface dans l’histoire des États-Unis (Conus Intel, Cointelpro, Minaret, Echelon…).
Si on compare cependant avec la France, force est de constater que, mise à part la tentative maladroite de l’affaire SAFARI (révélée en 1974), l’espionnage des Français est mené par les services appropriés (type DGSE), avec plus ou moins de légitimité, de morale et de pertinence sur des cibles souvent fort discutables (comme récemment les militants environnementalistes) mais l’histoire française retient finalement peu de scandales proprement dits en matière d’espionnage de masse. Au lieu de cela, ce qui se produit, aux yeux d’un public attentif, à bas bruit mais de manière assez publique, c’est le recours systématique à la surveillance sur le mode solutionniste de l’externalisation à des entreprises pour des équipements et des logiciels à des fins d’espionnage. C’est-à-dire la légitimation croissante, par décrets et loi scélérates interposés (le pouvoir administratif supplantant le pouvoir judiciaire), de la surveillance de masse et de la mobilisation des finances de l’État à cette fin, la technopolice.
C’est là que se situe le vrai sujet : même dans ses efforts pour tenter de contrôler la population — disons plutôt surveiller et réprimer, car de contrôle par les dispositifs numériques il n’y a pas, à moins de doter les caméras de surveillance de grands bras mécaniques ou d’agir de manière prédictive, ce qui n’est pas exclu — l’État abandonne ses devoirs moraux et ses prérogatives : par l’automatisation de la décision de justice (c’est la bureaucratisation du pouvoir administratif) et par l’automatisation de la surveillance dont le savoir-faire appartient aux acteurs économiques qui, par lobbying auprès des institutions, engrangent les profits sur les deniers publics.
Une précision toutefois : il est faux de dire qu’il n’y a pas de contrôle, à part le contrôle réglementaire (police — justice — matraque). Il y a d’abord l’effet panoptique de la surveillance : plus on est surveillé plus on contrôle ses faits et gestes pour les conformer à l’attente (supposée ou réelle) de l’autorité (Bentham, 1789 ; Foucault, 1975). Il y a aussi le contrôle par influence, c’est l’application de la théorie néolibérale du nudge (Stiegler, 2019) (qui a fait long feu), la désinformation, l’astro-turfing, etc. bref toutes ces stratégies de communication dont les effets sont à la mesure de la surveillance de nos comportements par récolte de données et profilage marketing au service du politique.
Les États, les capitalistes, la surveillance
Au lieu de parler de l’État, parlons plutôt des États. Notamment parce que cela permet d’avoir une vision beaucoup plus fine de ce qu’est le capitalisme de surveillance. Par exemple, dans l’histoire de la privacy tous les États n’ont pas réagi de la même manière, au point que ce concept, aujourd’hui encore, est loin de signifier la même chose selon le pays dans lequel on se trouve. Les différences ne sont pas seulement continentales mais vraiment territoriales, car elles sont relatives à l’histoire des dispositifs juridiques (c’est pourquoi le RGPD en Europe ne peut jamais être qu’une harmonisation à bas niveau) et à leur confrontation avec les enjeux économiques.
Ensuite, il faut se poser la question de la méthode. La plupart des approches de la surveillance souffrent d’un biais assez gênant qui consiste à s’interroger d’abord sur les conséquences sociales de la surveillance sans se poser la question de ce qui rend effectivement possible la surveillance. Par exemple S. Zuboff se concentre sur la question de la division du savoir et du pouvoir que cela confère aux « capitalistes de la surveillance », ce qui lui permet de conclure la toute puissance de ces derniers qui détiennent, grâce au marché et à la concurrence, un pouvoir instrumentarien de modification des comportements. Dans cette affaire, l’État ne peut que tâcher de réguler, mais aucune critique n’est faite sur la manière dont ce pouvoir instrumentarien est en réalité partie intégrante de l’appareillage politique, notamment américain, et s’inscrit dans une suite de problématiques de pouvoirs au pluriel : géopolitique, clientélisme, militarisme, stratégie de financiarisation, choix économiques. En somme, l’idéologie néolibérale à la source de la connivence entre les acteurs capitalistes et les politiques n’est pas vraiment questionnée chez Zuboff. Ce qui l’est, c’est la moralité de ce capitalisme de surveillance.
D’autres points ne sont pas souvent questionnés à leur juste mesure dans les surveillance studies. D’abord, la technique et son histoire. Je me répète, mais il est plus qu’évident que la question de la surveillance ne peut être détachée des choix collectifs qui ont été faits dans l’histoire quant aux usages des techniques numériques de stockage, de base de données, et autres dispositifs. Ce furent des choix collectifs, dont la responsabilité ne peut être imputée à tels ou tels acteurs, simplement, l’appropriation de ces innovations et leur intégration dans les pratiques des entreprises, qu’il s’agisse de la production ou du marketing, sont autant de marqueurs qui font que la surveillance a une histoire technique qui ne « flotte » pas au-dessus de l’économie, mais répond à des choix réfléchis. En somme la surveillance n’est pas une simple idée qui consisterait à appliquer des techniques préexistantes dans le but de surveiller les comportements, monitorer des process, influencer les décisions : l’informatisation de la société est fondamentalement le choix collectif de la surveillance.
Partant de là, on peut donner (pas entièrement) raison à A. Giddens et sa critique du matérialisme historique dans The Nation State and Violence (Giddens, 1985) lorsqu’il affirme que les caractéristiques de la société capitaliste ne sont pas toutes visibles dans l’histoire marxiste de la production, de la lutte sociale et du capitalisme, mais que ce qui fait une société capitaliste, c’est la jonction entre son profil industriel, les formes de surveillance et de contrôle de sa population et le rôle qu’elle joue en tant qu’État-Nation dans sa confrontation concurrentielle aux autres. Autrement dit, le rapport social que nous entretenons avec les techniques de surveillance s’inscrit dans une configuration de l’État selon laquelle c’est le choix du capitalisme de surveillance qui a été fait, et pas un autre. Et il s’étend par la mondialisation des techniques et des pratiques (politiques, institutionnelles, économiques).
Autre aspect : les données de l’État et les données pour l’État. Dans un article passionnant, l’historienne Kerstin Brückweh étudie le cas de la Grande Bretagne et la manière dont les données de recensement ont consolidé la vision conservatrice d’une société de classes (c’était le Registrar General’s Social Classes, RGSC : upper class, upper middle class, lower middle class) en créant un tri social avec une granularité fine (Brückweh, 2016). Ces données des recensements ont alors permis, par leur mise à disposition publique, des méthodes de collecte et d’analyse de données, d’abord développées et utilisées par les entreprises à des fins d’études de marché et d’opinion, puis adoptées par les gouvernements pour gérer les populations et distribuer les ressources publiques. Il s’avère que pour des études statistiques bien menées, le RGSC ne correspond que très difficilement à la réalité sociale, mais tout le travail des statisticiens britanniques d’après-guerre consista à rechercher les meilleurs modèles de tri social, ne remettant aucunement en cause le paradigme dominant. Une politique de royalties fut mise en place, permettant au gouvernement de valoriser ces données lorsqu’elles étaient utilisées à des fins commerciales. Avec l’apparition de l’informatique, et les méthodes de la géodémographie, la classification par grade fut remise en cause, et des nouvelles classifications virent le jour, à la fois très malléables et qui confirmaient de plus en plus les fournisseurs externes dans leur savoir-faire. Mais la montée en charge et en valorisation des entreprises spécialisées laissa aussi la possibilité au gouvernement néolibéral de M. Thatcher d’externaliser complètement le recensement. Comme le montre K. Brückweh, c’est justement cette externalisation qui confirma une sorte de démission du gouvernement britannique de sa tâche de classification sociale : le néolibéralisme thatcherien niait complètement la société au profit d’une vision extrêmement individualiste, ce qui rendait finalement inutile la tâche gouvernementale de garantir la cohésion sociale, même si la classification par tranche a ses limites et son intérêt faible en termes de contrôle populationnel. Au-delà de cette étude, K. Brückweh montre que l’analyse du travail de l’État, par la standardisation et la simplification ou l’abstraction, comme le décrit James Scott dans L’œil de l’État, constitue une bonne approche dans la mesure où le tri social permet effectivement d’appliquer des décisions publiques.
Ce que j’en conclus, c’est que lorsque ce tri social devient complexe, qu’il acquiert une telle technicité que la seule solution consiste à l’externaliser, ce qui a fini par se produire avec l’informatisation. Ce travail n’est plus une simplification mais une opportunité de valorisation et de services : sondages et influence d’opinion deviennent les clés non plus de la décision publique, mais du placement politique et de l’acceptation de l’idéologie néolibérale. Ce qu’on pourrait appeler les « démissions » de l’État n’en sont donc que les corollaires, et c’est là encore un autre aspect du rapport entre surveillance et État. Si l’on regarde l’État français, les exemples ne manquent pas où les institutions publiques semblent abandonner leurs prérogatives au profit d’acteurs privés, alors qu’il s’agit en réalité de la même face d’une même pièce.
Prenons le cas de Doctolib : sous couvert de service à la population (le concept d’entreprise à mission) le monitoring des transactions sanitaires relève d’un acteur privé. Ce faisant, l’État contrôle mieux les dépenses publiques médicales et leur rentabilité, par exemple lorsque Doctolib propose de surveiller les « lapins » posés par les patients à leurs médecins, ou bien encore dans la mesure où Doctolib noue des contrats très rentables avec les hôpitaux qui ainsi ont l’opportunité de faire valoir leur offre de soins, d’autant plus que Doctolib prend le monopole de ce type de service. L’État transforme l’essai et les patients peuvent y trouver leur intérêt… sauf que le capitalisme rattrape toujours les situations qui lui échappent. Ainsi en Allemagne, Doctolib a déjà été pris la main dans le sac à valoriser les données à des fins publicitaires en utilisant des cookies tiers. De même, jouant le jeu des GAFAM, il a été reconnu que Doctolib héberge ses données, immenses et prometteuses, sur Amazon, bien le Conseil d’État ai jugé que Doctolib apportait les garanties suffisantes en matière de protection des données ; le contraire aurait été étonnant. Ce qui est moins étonnant, c’est que Doctolib a récemment annoncé qu’il allait entraîner de l’IA sur la base des profils utilisateurs, ceci de manière à mettre son nez dans le parcours de soin et même les pratiques médicales. Bref, la pression du besoin de rentabiliser les données est si forte qu’elle dépasse même les simples problèmes de sécurité comme la perte de données ou le chiffrement, et que Doctolib devra toujours s’y conformer. Lorsqu’il sera arrivé au bout de son modèle économique somme toute classique (vendre un service et devenir monopoliste dans le parcours patient auprès des institutions publiques et des structures privées), les données anonymisées, les données de fonctionnement, sans qu’il soit forcément question de données médicales ou de données personnelles au sens du RGPD, finiront par être transmises à des tiers, qui eux-mêmes savent très bien comment les traiter pour leur donner de la valeur à des fins d’influence comportementale, ce qui dans le domaine de la santé pose de grave questions éthiques autant qu’économiques.
Il serait intéressant d’envisager comment, dans certaines configurations politiques, qu’on pourrait nommer « démocraties autoritaires » pour prendre le cas de la France de ces dernières années, l’État devient une machine à transformer la surveillance en contrôle. L’exemple-type en la matière, c’est la pandémie de Covid durant laquelle la mobilité des citoyens était largement mise en question. Quel est l’impact réel d’un déplacement massif, par exemple lorsque la population aisée d’Ile-de-France se carapate en campagne pour écouter les petits oiseaux alors que les « premiers de cordée » continuent à prendre des risques sanitaires pour faire tourner la boutique ? En 2020, l’INSERM dévoile une étude à partir des données du fournisseur téléphonique Orange sur ses abonnés de téléphonie, pour voir quels modèles épidémiologiques il possible d’observer. Mais au fond, c’est exactement ce qu’avait demandé la Commission Européenne à tous les opérateurs téléphoniques. Comprendre l’épidémie, adapter la décision publique à la situation, que l’intention soit justifiée ou plus discutable, là n’est pas le propos : tout cela nécessite évidemment l’absorption de données issues de la surveillance par des entreprises privées qui en ont le pouvoir et la capacité. Cela n’est pas nouveau, mais la question sous-jacente est celle-ci : à quel point les données de la surveillance comportementale produite par des entreprises privées pour des objectifs de marketing et d’influence économique, peuvent aussi servir de nouvelles finalités de contrôle par l’État, démultipliant ainsi son pouvoir d’observation et de prédictibilité statistique tout en organisant sa propre dépendance vis-à-vis de ces acteurs privés, et donc de leurs intérêts ?
Tiens, encore un exemple, plus ancien : on parle peu de l’Association Auxiliaire de l’Automobile, qui durant longtemps se chargeait d’émettre des statistiques sur le secteur économique de l’automobile. Forte d’une base de données énorme spécialisée dans ce secteur industriel et ses filiales, l’AAA était le pendant associatif du Comité des Constructeurs Français d’Automobiles (CCFA) qui avait, jusqu’à la création du Système d’immatriculation des véhicules (SIV) en 2009, le monopole de la gestion du fichier national des immatriculations. Il s’agit d’un vieux fichier sous la responsabilité du ministère des Transports qui, au début des années 1980, en contrepartie de différents services (dont les services de gestion de flotte de véhicules, par exemple) en avait confié la gestion à l’AAA qui s’en servait notamment à des fins de marketing personnalisé. La CNIL n’avait pas trouvé grand-chose à redire à ce propos, mentionnant que « la fourniture d’informations à ces utilisateurs privés qui s’inscrit dans le cadre des activités industrielles ou commerciales du secteur automobile, répond à un intérêt général en assurant la promotion d’un secteur clé de l’économie nationale » (voir la délibération de 1983). La convention qui liait l’AAA et l’État a pris plus ou moins fin en 2009 avec la création du SIV, et quoi qu’il en soit les informations du SIV sont, depuis la directive européenne du 20 juin 2019, complètement ouvertes à des autorisations de réutilisations à des fins de prospection commerciale. Toujours est-il que, pendant des décennies, l’AAA a engrangé des données et développé un savoir-faire, avec l’œil bienveillant de l’État et pour le bien de l’industrie automobile. Aujourd’hui l’AAA est devenue une société à part entière, nommée AAA-Data, filiale du CCFA, elle exploite toujours les données d’immatriculation, et reste un acteur incontournable dans la gestion de données industrielles en France. En 2015, AAA-data a annoncé un partenariat avec Acxiom dans le but de créer un service destiné aux annonceurs, dans le cadre de programmes marketing. Autant dire que la libéralisation de ce marché de la donnée d’immatriculation a surtout fonctionné pour le plus grand bien d’AAA-Data qui, non seulement conserve un certain monopole, mais en plus peut se permettre de monétiser les données d’immatriculation en parfaite légalité, et en toute conformité RGPD, bien sûr.
Quant à Acxiom, cette entreprise américaine domine aujourd’hui en France comme ailleurs en Europe le marché du courtage de données. Elle a racheté des sociétés comme Claritas et Consodata et là où elle ne parvient pas à prendre le contrôle, elle multiplie les partenariats (comme avec AAA-Data, par exemple). Cela pose évidemment un problème de souveraineté sur les données de consommation1. En d’autres termes, avec la libéralisation des fichiers de données publiques (du type SIV, ou les données de recensement, etc.), les pays européens se sont eux-mêmes enfoncés dans un marasme dont il sera difficile de sortir. Bien que tout cela soit évidemment conforme au RGPD, il reste que les données fournies par les puissances publiques sont (ont toujours été) des mines pour les courtiers de données. La différence, aujourd’hui, c’est que non seulement le courtage de données connaît une phase monopoliste dominée par les multinationales américaines, mais en plus sont capables de fournir des solutions marketing (tel le CRM-Onboarding2) dont la puissance d’influence comportementale pose (devrait poser) des problèmes de gouvernance démocratique.
Sauf que ces problèmes de gouvernance sont, dans beaucoup de pays, largement dépassés par l’intérêt des États à traiter avec les courtiers de données. Il s’agit en quelque sorte d’un retour sur investissement (que cet investissement soit celui de la participation des fonds publics à l’économie numérique ou carrément de la fourniture de données publiques). Aux États-Unis, tantôt des sociétés fournissent aux autorités des données de géolocalisation durant la pandémie (Veraset), tantôt elles s’investissent du pouvoir de protéger le droit à l’avortement en choisissant de ne pas stocker les informations relatives aux centres IVG (Google), tantôt elles proposent la reconnaissance faciale pour lutter contre l’immigration illégale (Amazon), ou ciblent les personnes susceptibles de commettre un crime dans le cadre du traitement de données juridiques (LexisNexis), ou encore surveillent pour l’État les passagers aériens (Acxiom post 11/9 et ses grands contrats de surveillance au risque du piratage)…
En France, nous n’en sommes pas encore là… diraient les plus candides. Le site Technopolice dévoile cependant une petite partie de l’écosystème de partenariat public/privé dans le domaine de la surveillance et de la répression des populations. L’accessibilité des données publiques est le faire-valoir de façade : dans le contexte de la smart city, publier des données publiques revient à encourager et rendre plus efficiente la numérisation de la société, et en même temps facilite grandement la mise sous monitoring permanent de la société. Ceci est d’autant plus pertinent que nous avons en France une politique des plus efficaces de gestion et de captation des données par les services publics : la start-up nation du président Macron n’a pas d’autre but que de favoriser ces partenariats public-privés, quelle que soit leur finalité… bienvenue si, en plus, elle permet d’accroître les capacités d’action de la force publique ou de servir les intérêts bourgeois.
En matière de politique, les partis eux-mêmes ont en France déjà largement franchi le pas en matière de profilage à des fins électoralistes, tout comme dans la majorité des pays dans le monde. Moyennant quelques euros, il n’est aujourd’hui pas très difficile d’élaborer une banque de profils. La question n’est plus vraiment de porter l’opprobre sur les utilisateurs des médias sociaux qui dévoilent toute leur vie privée, nous n’en sommes plus là : les techniques élaborées par les courtiers de données, par le pompage tentaculaire d’une pléthore de banque de données publiques et privées, permettent un profilage bien plus pertinent et implacable que les seules données de l’ingénierie sociale (d’ailleurs largement automatisée depuis longtemps).
Spécialiste en études de surveillance, Colin Bennett montre dans une étude comparative, que ce sont les gouvernements néo-conservateurs qui sont le plus susceptibles d’adopter des solutions de surveillance algorithmique avec le concours des entreprises de courtage de données, y compris les Gafam. Si la surveillance comprend aujourd’hui la totalité des processus de production et de consommation, ce n’est pas parce que ces technologies de surveillance sont apparues sur le marché qu’elles furent adoptées comme une fatalité. C’est parce que la décision publique s’est orientée sciemment vers cette tendance. Selon David Lyon (Lyon, 2001, p. 74), les sociétés capitalistes sont les plus enclines à développer des pratiques de gestion de risque (pour pallier aux incertitudes économiques ou aux externalités) ainsi que des pratiques de contrôle identitaire (dans une société capitaliste, le contrat est la forme juridique principale de relation, il faut donc toujours identifier la personne avec le plus d’exactitude). Or, le contrôle identitaire comme la gestion des risques reposent aujourd’hui sur des organisations tierces, autres que l’État. Il y a donc des interrelations rendues nécessaires dans toutes les démocraties libérales pour lesquelles le modèle capitaliste est réputé indépassable, mais avec quelques nuances. Comme l’exprime Collin Bennett :
« Le développement précoce et généralisé de ces techniques aux États-Unis s’explique en partie par un système politique plus fragmenté que dans les régimes parlementaires. La faiblesse et l’incertitude des lignes d’autorité hiérarchique du Congrès et de la présidence permettent une multitude de liens horizontaux complexes et entrelacés entre les fonctionnaires de niveau inférieur. Ces issue networks facilitent le partage de toutes sortes de données et d’informations sur les politiques publiques. L’appariement informatique prospère entre et au sein de l’ensemble d’agences diverses, non intégrées, incohérentes et décentralisées qui constituent la bureaucratie fédérale américaine. » (Bennett, 1992, p. 255)
De manière générale, dans tous les pays, le degré de surveillance dépend pour beaucoup de la qualité des frontières entre l’État et la société civile. Plus les frontières sont floues, plus des acteurs privés tendent à assurer des fonctions normalement publiques, plus il y a de partenariats entre public et privé, moins la protection des libertés civiles est assurée à l’encontre des velléités de contrôle des populations et de l’influence comportementale. La notion de liberté dans le Contrat Social, réputée au fondement des démocraties libérales, n’est donc pas seulement menacée par le capitalisme de surveillance, elle est menacée parce que les institutions et les structures gouvernementales viennent à dépendre de ce capitalisme et œuvrent pour lui.
En façade, toutes les réglementations risquent de ne jamais suffire. Pour reprendre encore C. Bennett :
« Cette étude comparative de la dataveillance a mis en évidence les limites de la réglementation procédurale. Les nouvelles formes de dataveillance mettent à rude épreuve la crédibilité de la théorie de la protection de la vie privée, des lois sur la protection des données qu’elle sous-tend et des agences chargées de faire appliquer ces lois. Dans le meilleur des cas, ces agences ne peuvent réagir qu’au niveau individuel. Elles peuvent assurer une certaine transparence du processus, établir des règles pour la qualité et l’intégrité des données, insister sur des analyses coûts-avantages crédibles avant de procéder à des rapprochements de données, recevoir et résoudre des plaintes individuelles, mais elles ne peuvent pas mettre un terme à la dataveillance. » (Bennett, 1992, p. 256)
Mètis et tactiques : la résistance, de Scott à de Certeau
Face à l’algorithmisation de la décision publique qui impose ses propres rationalités en instaurant un « État-plateforme » et encourage l’action des multinationales du numérique (Mabi, 2019), face au pouvoir des courtiers de données, qui font bien peu les objets d’études sérieuses, certains plaident en faveur d’un nouveau Contrat Social (Reviglio, 2022). Est-ce suffisant ? ou plutôt : est-ce encore pertinent ? Après tout, l’idéologie libertarienne des magnats de la Silicon Valley s’accommode très bien des partis les plus conservateurs et réactionnaires, les subventionne, même. La raison est que, avec de telles idéologies politiques, le profit ne manquera pas à ceux qui proposeront les solutions techniques qui permettent de désengager l’État le plus possible. Le sempiternel refrain du coût exagéré des services publics trouve toujours des oreilles attentives. C’est par exemple la raison pour laquelle la blockchain est tellement plébiscitée, en dépit de son impact écologique : il suffit de comprendre que la blockchain permet au fond de transformer notre rapport au droit. Les notions de propriété ou d’obligation, une fois contractualisée en blockchain peuvent devenir des actifs dont le contrôle n’est plus relatif aux institutions mais à la technologie. Au lieu de réinvestir la parole publique dans le code comme le préconisait L. Lessig (Lessig, 2000), il s’agit non plus d’accepter mais de voir comme une fatalité que le code fait loi, c’est-à-dire créer une société où il n’y aurait plus de négociation mais uniquement la rigidité des contrats et l’inscription de nos relations dans une chaîne algorithmique (supposée) éternelle3. Plus besoin d’institutions.
D’aucuns pourraient alors se réfugier dans le rejet technophobe. Comme je l’ai déjà dit, c’est à la fois une erreur (c’est méconnaître la puissance des technologies de surveillance à moins de se retirer complètement du monde), et une défaite mainte fois explorée, sans issue. Oui, il faut réinvestir socialement les technologies et cela peut se faire de multiples façons. Mais quel est le moteur de cette appropriation sociale ? Hé bien c’est une manière de réviser notre rapport avec l’État, c’est-à-dire opposer à l’État ce qu’il y a de proprement ingouvernable et qui donc échappe par définition à la surveillance.
Qu’est-ce donc qui soit si ingouvernable dans la société, et par extension hors d’atteinte des algorithmes ? Ce sont les sommes de savoirs et savoir-faire que justement nous gardons hors du gouvernement (ou de la bureaucratie privée) parce que nous savons que les y abandonner serait une forme de suicide social. Les définir revient à discuter de deux manières de les concevoir, la première est celle de James Scott, la seconde celle de Michel de Certeau. Dans les deux cas, savoir ce qu’on veut en faire est une question éminemment anarchiste.
Avant d’aborder cette question, faisons un petit détour par le regretté Bernard Stiegler. Pour lui, il y a un concept qui résume bien le fait de priver les individus de savoir et de savoir-faire, c’est la déprolétarisation. C’est la perte, dans la société, de la capacité de l’individu à produire ses modes d’existence et son rapport aux choses. Dans le système productif, c’est la perte de son autonomisation au travail, en particulier par l’automatisation des processus productifs. Et aujourd’hui, cette question ne touche plus seulement l’ouvrier mais tout le monde. C’est ce que Graeber a formulé dans son livre Bullshitjobs (Graeber, 2018), cette perte de sens au travail qui finalement fait aussi écho à la prolétarisation de nos vies en général : la bureaucratisation, si longtemps décriée (au moins depuis Max Weber), a pris des proportions telles que nos vies entières sont soumises à des processus qui en font perdre le sens, mais il s’agit aussi de nos états psychiques, nos désirs, nos relations interpersonnelles, toutes soumises à la fois à l’algorithmisation des « services » numériques et à leur enshitification.
Mais ce que Bernard Stiegler appelle les savoirs et savoir-faire sont en fait ceux qui sont sujets à l’automatisation, c’est-à-dire ces savoirs et savoir-faire que l’on peut définir, mesurer statistiquement, et qui correspondent à des stéréotypes auxquels soit nous essayons de nous conformer, parce que nous influencés dans ce sens, ou auxquels nous sommes contraints au risque de l’exclusion sociale. Et il est vrai que cette conformisation est d’autant plus forte que nos vies se numérisent, car hors du calcul, point de salut.
Cependant, il demeure que les savoirs et savoir-faire sont un puits sans fond. Il existe une foule de choses que savons et faisons, quitte à les inventer ad hoc, qui échappent à la surveillance, et même à la formulation, et par lesquelles néanmoins, la société « se tient »… parce que nous le décidons ainsi. Qui n’a pas constaté par exemple, dans une organisation faite de procédures dûment renseignées et définies, combien le fait de respecter à la lettre ces procédures conduit tout droit à une situation erratique, là où justement, conscient que les procédures ne peuvent jamais couvrir l’infinité des situations possibles, la décision de ne justement pas les respecter permet au système de perdurer. Ce savoir-là, cette manière de faire, issue à la fois de l’expérience et de la théorie sans en être toutefois la déduction, c’est ce que les grecs appelaient la mètis et que James Scott situe au plus haut de l’organisation sociale.
La mètis, c’est Ulysse trompant le Cyclope par la ruse et Ulysse capable de redonner espoir à ses marins tout en réparant le bateau… parce qu’il est Ulysse. Ce n’est pas seulement la ruse, c’est la ruse d’Ulysse, ce n’est pas du management, c’est la manière d’être d’Ulysse, ce n’est pas du bricolage, c’est la capacité d’Ulysse à réparer le bateau. Rien dans ces situations ne peut être préalablement documenté (il n’y a pas de manuel d’odyssée pour marins perdus), rien ne sera documenté ou théorisé si ce n’est l’histoire que l’on raconte (et qui change sans cesse), et c’est justement pourquoi Ulysse plus qu’un autre est capable de rentrer à Ithaque.
On a très souvent confondu la mètis avec la ruse. Cette idée est plutôt une interprétation des écrits d’Aristote, qui la compare à la feinte, à la manière rapide de faire quelque chose et a trait à la contingence, l’indeterminé. Ceci par opposition à un savoir, qu’il soit issu de l’expérience ou de la théorie, mais qui puisse être explicité. Pour rester chez Aristote, ce n’est pas non plus la phronèsis cette « prudence » qu’on pourrait dénommer « sagesse pratique », juste équilibre entre l’excès et lemanque. D’un autre côté, on a aussi traduit mètis par « intelligence pratique », ce qui n’arrange pas vraiment nos affaires. Il faut lire sur ce point le travail remarquable fait au début des années 1970 par M. Detienne et J.-P. Vernant (Detienne, Vernant, 2018) sur la polysémie de la mètis et qui montre combien les grecs y accordaient une grande importance, aussi bien qu’au logos qui s’énonce clairement.
J. Scott, dans L’Œil de l’État, prend une définition qui n’est pas du ressort du logos et en même temps reste une forme de prudence. Pour lui, la mètis ce sont des savoirs et savoir-faire « aussi précis et concis que nécessaires ». Elle s’adapte aux situations toujours différentes. Elle se situe entre le génie (ou le talent) et le savoir codifié. Enfin, elle est toujours locale, relative à un contexte donné, et surtout elle dépend aussi des conditions sociales, par exemple des savoirs et savoir-faire transmis sur plusieurs générations. Il faut une « communauté d’intérêt, un stock d’informations cumulées et des expérimentations continuelles ». La mètis est donc à la fois individuelle – elle dépend d’un « tour de main », et aussi collective – la structure sociale en détermine le besoin pourrait-on dire.
Ceci étant dit, que fait James Scott dans L’Œil de l’État ? il passe en revue une pléthore de cas où l’État finalement échoue dans ses projets de gouvernement ou bien lorsque l’entreprise échoue dans sa tentative de vouloir gouverner les processus de production. Il explique cela en deux temps. Premièrement, le fait que tout projet de gouvernement tend à vouloir simplifier et standardiser, qu’il s’agisse du gouvernement soviétique dans sa volonté de planifier l’agriculture ou l’industrie, ou (avant que les thuriféraires de Hayeck ne se pointent) la standardisation et la simplification du marché libéral (la circulation de l’information économique est une simplification du monde ce qui explique les crises capitalistes et la volonté de ne jamais voir les « externalités »). C’est la même chose selon James Scott. Et deuxièmement, la raison de cet échec, c’est justement la mètis, c’est-à-dire le fait que dans tout projet, chaque acteur au plus bas de l’échelle, chaque non-décisionnaire, n’est jamais déprolétarisé entièrement. Il subsiste toujours une manière de procéder qui est mise en œuvre à bas bruit, à l’échelle locale, qui permet justement que l’ensemble que l’on croit ainsi gouverner, puisse tenir malgré tout. C’est l’exemple de l’agriculture soviétique qui, selon James Scott (car la réalité n’est jamais aussi nette), ne tenait que parce que les paysans dépossédés de leurs terres, conservaient malgré tout un semblant d’économie agricole locale par des petits jardins discrets et des petits échanges, autant de temps de travail et d’espaces géographiques« volés » à l’État central et maintenaient l’ensemble plus ou moins fonctionnel.
C’est cette mètis que James Scott oppose à la gouvernementalité. C’est-à-dire, qu’il y a toujours de l’ingouvernable et que c’est justement ce qui permet aux structures sociales de tenir. Pour J. Scott,ce n’est pas l’information qui stabilise l’ordre du monde, c’est la mètis. Or, l’usine tout comme l’ordre administratif, par leur volonté de simplifier, de standardiser, d’uniformiser, en usant de la violence bien souvent, cherchent justement à briser la mètis :
« Le véritable génie des méthodes modernes de production de masse que fut Frédérick Taylor perçu avec une grande acuité le problème de la destruction de la mètis et de la transformation d’une population d’artisans quasi-autonomes et réfractaire en unité plus aisément contrôlable à savoir les ouvriers. » (Scott, 2024, p. 9)
La conclusion de James Scott, va encore plus loin. Pour lui, la mètis joue un rôle non seulement structurant, mais supérieur au gouvernement des choses. Économies collectivistes ou usines capitalistes dépendent d’une économie informelle étrangère aux schémas simplifiés :
« Tous les systèmes socialement élaborés sont en fait les sous-systèmes d’un système plus vaste dont ils sont au bout du compte dépendants voire parasitaires »
Je peux concéder que ce « vaste système », cette part d’ingouvernable en chacun de nous et qui construit nos relations sociales, souvent il est vrai en réaction à l’autoritarisme de l’État ou de l’entreprise, est aussi l’objet de convoitise. Ne sont-ce pas les partis politiques qui souvent instrumentalisent notre ingouvernabilité pour mieux la canaliser et organiser la congruence idéologique qui permet de détenir le pouvoir dans les régimes (prétendus) démocratiques ? Ceci tendrait à prouver le bien-fondé de la pensée de James Scott. Mais d’un autre côté, lorsque ces mêmes partis politique usent et abusent du profilage numérique pour mieux manœuvrer l’opinion publique, n’est-ce pas aussi une manière de considérer le talon d’Achille de ce « vaste système » ? N’est-ce pas faire la part trop belle à la solidité de cette mètis si universelle que de penser qu’échappant aux statistiques, elle serait à ce point hors de contrôle ?
Pour poursuivre dans la même veine, on pourrait dire que le profilage dans l’économie numérique d’aujourd’hui tend de la même manière à simplifier et standardiser, mais la différence est que l’exercice du pouvoir que cela confère devient total parce que justement il y a abandon. Abandon des prérogatives de l’État par son reniement du Contrat Social (nous l’avons vu plus haut), ou abandon des individus happés qu’ils sont d’un côté par l’administration de leurs vies et de l’autre par leur propre abandon de leurs savoirs et savoir-faire au profit du confort bourgeois que l’on promet à tous. Non, pas tous : je rappelle qu’ici nous parlons exclusivement des sociétés capitalistes, et que le confort bourgeois est celui que l’on envie, pas forcément celui que l’on a…
L’algorithmisation de nos vies est sans doute le plus haut degré de destruction de la mètis. Au point que je pense sincèrement qu’elle est passée d’une forme de structuration (révolutionnaire possiblement) à une forme de résistance. Elle n’est plus supra mais infra sociale.
C’est là qu’une lecture de Michel de Certeau, réactualisée à l’aune de l’économie numérique, peut s’avérer profitable. C’est à cet exercice que se sont récemment livrés B. Latini et J. Rostand (Latini, Rostand, 2022). Je vous laisse découvrir ce dernier texte dont vous trouverez la référence en bibliographie.
Disons pour faire simple que Michel de Certeau est le contrepoint de la pensée post-structuraliste des Foucault et compagnie. Contrepoint, et non opposition. S’il existe des structures qui permettent de comprendre un état social, ce dernier n’en est pas pour autant le prisonnier, et les individus qui composent les « masses », ne sont jamais entièrement déterminés par la structure, les institutions ou les modèles d’interactions. Il est plus facile, en effet, de penser notre assujettissement à l’économie (numérique ou autre) que de penser les manières dont, en pratique, nous nous organisons dans ce terrain hostile.
Peut-être est-ce là la raison de la relative discrétion du travail de M.de Certeau aujourd’hui, à un moment où sa lecture pourrait être profitable. En effet, là où Foucault proposait une critique des institutions pour démontrer les modes d’assujettissement, on a cru voir, en une comparaison trop rapide, un lien évident entre la surveillance et le contrôle panoptique. La lecture de Surveiller et punir est en ce sens une sorte de poncif, surtout lorsqu’on ne tient pas compte la critique du néolibéralisme déjà plus qu’en germe chez Foucault, mais dans d’autres livres.
Là où M. de Certeau se situe, c’est sur un autre plan : nous ne sommes pas que des sujets. Nous sommes capables de nous exprimer de manière autonome, et M. de Certeau nous emmène sur le terrain du quotidien, là où nous opérons nos pratiques et nos créativités, par le fait même que nous trouvons dans ce quotidien la raison créatrice et finalement émancipatrice. Michel de Certeau voit son champ de recherche situé « dans un ensemble de précédents et de voisinages, par exemple les recherches récentes sur l'« intelligence pratique » (la mètis) des grecs ou sur le « sens pratique » et les « stratégies » kabyles et béarnaises » (Certeau, 1990, p. 35). Si l’auteur se réfère explicitement à P. Bourdieu, il ne s’embarque pas pour autant vers la théorie de la pratique. Son objet est de concevoir quels sont les modèles d’action des « gens », ces consommateurs qui sont en réalité les dominés sans toutefois être « ni passifs ni dociles », et comment « le quotidien s’invente avec mille manières de braconner ».
Dans l’économie numérique, il y a de nombreuses figurent qui illustrent très bien ce braconnage. Un autre mot a été utilisé : le bricolage du hacker. La figure historique du hacker est bien celle qui se réapproprie des outils pour en tirer autre chose, pas seulement l’améliorer, mais le transformer pour son usage et le partager, par un processus créatif. Pour autant, nous ne sommes pas tous des hackers, et nous rejoignons là l’idée de James Scott : il y a une inégalité de distribution des « tour de main », des manières de faire et des manières de voir. Par exemple,un hacker évolue dans un milieu social qui rend ses hacks pertinents et sans une communauté de hacker, il est difficile de se reconnaître et d’agir comme tel.
La pensée de M. de Certeau va un peu plus loin que cela. Ce n’est pas la communauté qui est importante, car elle ne sert finalement qu’à prendre conscience de soi. En fait, ce que nous dit de Certeau, c’est qu’en dehors d’un système de représentation et d’identification, nous usons des objets de mille manières différentes, quelles que soient les modes d’utilisation qui nous seraient imposés.
Se souvenant d’une visite dans un village reconstitué, de Certeau envisage les outils anciens exposés dans les maisons, des outils déjà utilisés et marqués par les usages :
« Comme les outils, les proverbes, ou autres discours, sont marqués par des usages ; ils présentent à l’analyse les empreintes d’actes ou de procès d’énonciation ; ils signifient les opérations dont ils ont été l’objet, opérations relatives à des situations et envisageables comme des modalisations conjoncturelles de l’énoncé ou de la pratique ; plus largement, ils indiquent donc une historicité sociale dans laquelle les systèmes de représentations ou les procédés de fabrication n’apparaissent plus seulement comme des cadres normatifs mais comme des outils manipulés par des utilisateurs. » (de Certeau, 1990, p. 39)
Dans le quotidien, les objets ont « mille combinaisons d’existence », et c’est cette presqu’infinité des modes d’usage qui marque la créativité des utilisateurs. Critiquant l’anthropologie et la sociologie institutionnalisée par des paradigmes ou même des dogmes, de Certeau montre qu’elles ont tendance à faire oublier ces infinités de mode d’être, reproduisant ainsi ce que l’ordre bureaucratique, le cadre normatif des institutions, cherchent eux aussi à faire oublier par des artifices comme la « valeur commune », l'« ordre naturel », ou « immémorial » : la résistance naturelle de la métis sort systématiquement de tout cadre normatif :
« L’ordre effectif des choses est justement ce que les tactiques « populaires » détournent à des fins propres, sans l’illusion qu’il va changer de sitôt. Alors qu’il est exploité par un pouvoir dominant, ou simplement dénié par un discours idéologique, ici l’ordre est joué par un art. Dans l’institution à servir, s’insinuent ainsi un style d’échanges sociaux, un style d’inventions techniques et un style de résistance morale, c’est-à-dire une économie du « don » (des générosités à charge de revanche), une esthétique de « coups » (des opérations d’artistes) et une éthique de la ténacité (mille manières de refuser à l’ordre établi le statut de loi, de sens ou de fatalité). La culture « populaire », ce serait cela, et non un corps tenu pour étranger, mis en pièces afin d’être exposé, traité et « cité » par un système qui redouble, avec les objets, la situation qu’il fait aux vivants. » (de Certeau, 1990, p. 46)
Nous bricolons tous, nous sommes tous des braconniers, et nous réagissons par des résistances au pouvoir. La pensée de M. de Certeau permet de mettre en perspective la toute puissance de la surveillance et l’influence comportementale. Les objets numériques font partie de notre quotidien : ce seul constat suffit à faire prendre conscience que nous réagissons toujours à contre-courant de l’illusion normative que l’économie numérique cherche à nous imposer.
Il serait faux de prétendre que, parce que nous consentons de temps à autre à ces contraintes, la société serait devenue amorphe et toute perméable à l’assujettissement algorithmique. Au contraire, il ne faut pas seulement regarder les communautés qui ont conscience de leurs propres efforts de résistance et développent des outils en conséquence. Il faut aussi regarder la manière dont les usages quotidiens recèlent des capacités de résistance. Il existe une culture populaire numérique à laquelle il faut aussi penser lorsque, nantis d’une mission d’évangélisation libriste, nous aimerions que les usages se transforment en vertu d’une autre normativité que nous aimerions voir advenir, celle des libertés numériques. Que voulons-nous vraiment en réalité ? organiser l’opposition frontale avec le capitalisme de surveillance ? ne serait-il pas finalement plus profitable de détourner, machiner, braconner, bricoler, et diffuser ces manières de faire, ces tactiques de résistances ? C’est de guérilla et de subversion dont il s’agit, pas d’une guerre de classes. Au lieu de vouloir un ordre nouveau et créer de nouvelles normativités, il est peut-être plus intéressant de contrefaire l’ordre que l’on veut nous imposer.
Bibliographie
ALEXANDRE, Olivier, 2024. « La Tech sur les chemins d’une contre-révolution ». AOC [en ligne]. 10/7/2024. [Consulté le 19/8/2024]. URL.
BENNETT, Colin J., 1992. Regulating Privacy: Data Protection and Public Policy in Europe and the United States. Ithaca : Cornell University Press.
BENTHAM, Jeremy, 1789. An Introduction to the Principles of Morals and Legislation. London : T. Payne.
BRÜCKWEH, Kerstin, 2016. « Das Eigenleben der Methoden. Eine Wissensgeschichte britischer Konsumenten-klassifikationen im 20. Jahrhundert ». Geschichte und Gesellschaft. Vol. 42, pp. 86‑112.
CERTEAU, Michel de, 1990. L’invention du quotidien. Paris, France : Gallimard.
DETIENNE, Marcel et VERNANT, Jean-Pierre, 2018. Les ruses de l’intelligence: la mètis des Grecs. Paris, France : Flammarion.
FOSTER, John Bellamy et MCCHESNEY, Robert W., 2014. « Surveillance Capitalism. Monopoly-Finance Capital, the Military-Industrial Complex, and the Digital Age ». Monthly Review [en ligne]. 7/2014. Vol. 66. URL.
FOUCAULT, Michel, 1975. Surveiller et punir. Naissance de la prison. Paris : Gallimard.
GIDDENS, Anthony, 1981. A contemporary critique of historical materialism. Vol. 1. Power, Property and the State. London : McMillan.
GIDDENS, Anthony, 1985. A contemporary critique of historical materialism. Vol. 2. The Nation State and Violence. Cambridge : Polity.
GRAEBER, David, 2018. Bullshit jobs. Paris, France : Éditions les Liens qui libèrent.
LATINI, Beatrice et ROSTAND, Jules, 2022. « La libre navigation. Michel de Certeau à l’épreuve du numérique ». Esprit [en ligne]. 2022. Vol. Janvier-Février, n° 1-2, pp. 109‑117. [Consulté le 4/5/2023]. DOI 10.3917/espri.2201.0109. URL.
LESSIG, Lawrence, 2000. « Le code fait loi – De la liberté dans le cyberespace ». Framablog [en ligne]. 2000. URL.
LYON, David, 2001. Surveillance society: monitoring everyday life. Buckingham, Open University Press.
MABI, Clément, 2019. « Gouverner l’État avec le numérique ». Dans : Algorithmes et décision publique. CNRS Éditions. Paris. Les essentiels d’Hermès.
MASUTTI, Christophe, 2020. Affaires privées. Aux sources du capitalisme de surveillance. Paris : C&F Éditions. URL.
MASUTTI, Christophe, 2021. « En passant par l’Arkansas. Ordinateurs, politique et marketing au tournant des années 1970 ». Zilsel [en ligne]. 2021. Vol. 9, n° 2, pp. 29‑70. URL.
REVIGLIO, Urbano, 2022. « The untamed and discreet role of data brokers in surveillance capitalism: a transnational and interdisciplinary overview ». Internet Policy Review [en ligne]. 4/8/2022. Vol. 11, n° 3. [Consulté le 25/8/2024]. URL.
SCOTT, James Campbell, 2024. L’œil de l’État: Moderniser, uniformiser, détruire. Paris, France : la Découverte.
STIEGLER, Barbara, 2019. « Il faut s’adapter » : sur un nouvel impératif politique. Paris, France : Gallimard.
TURNER, Fred, 2012. Aux sources de l’utopie numérique : De la contre culture à la cyberculture. Stewart Brand, un homme d’influence. Caen : C&F Editions.
Notes
-
Cela dit, d’après Wikipédia, « en juillet 2018, Interpublic annonce l’acquisition Acxiom Marketing Solutions, une filiale d’Acxiom, pour 2,3 milliards de dollars. Acxiom Marketing Solutions, représente les 3/4 des revenus d’Acxiom qui ne garde que son unité LiveRamp ». En France par exemple, Acxiom France semble désormais s’appeler Liveramp France depuis 2021. Il va falloir d’ici peu revoir la toile des courtiers de données, et c’est à mon avis Liveramp qui va tenir la barre. ↩︎
-
Voir cette video très simple qui explique le CRM onboarding, concernant la Redoute et Liveramp. ↩︎
-
Ecoutez le podcast (et sa conclusion) de l’excellente émission de Xavier de La Porte, Le Code a changé, « À qui profite le Bitcoin ? », France Inter, septembre 2023. ↩︎
07.07.2024 à 02:00
Organisation et production de texte
Les années passent et il est indéniable que les habitudes prises au fil du temps montrent leur efficacité au regard de la pratique plus que de la logique. Néanmoins, il me semble que mon organisation logicielle et mon flux de production peuvent intéresser. C’est pourquoi je vous les présente ici.
Les objectifs
- Utiliser exclusivement des logiciels libres et des formats ouverts pour assurer la pérennité de la production dans le temps ;
- Pouvoir utiliser les logiciels que je veux (et au fil de mes découvertes) indépendamment de l’organisation de mes fichiers pour ne pas dépendre d’un logiciel en particulier ;
- Ne pas se retrouver prisonnier d’un format, fût-il libre ;
- Assurer la sauvegarde de mes sources et de mes travaux ;
- Pouvoir travailler sur plusieurs machines, à plusieurs endroits si je le souhaite.
Les choix stratégiques
Ayant l’habitude de travailler avec une suite bureautique comme LibreOffice et les formats ouverts, il me fallait trouver un processus qui soit capable de produire de tels formats. En revanche, l’utilisation de logiciels de traitement de texte, comme LibreOffice Writer, est assez lourde : bien qu’il soit possible d’utiliser les raccourcis claviers, l’ensemble propose une pléthore de menus et autres options qu’il n’est finalement pas pertinent d’avoir à disposition lorsqu’on produit du texte. Par ailleurs, la règle qui prévaut avec les suites bureautiques consiste à s’occuper de la mise en page après avoir produit du texte. Dans ce cas, pourquoi ne pas séparer les deux processus ? Séparer la production de texte de sa valorisation finale.
Il existe, d’un côté, des outils pour produire et organiser et, de l’autre côté, des outils pour finaliser et mettre en page. Se concentrer sur la production implique cependant d’avoir des outils spécifiques : faciliter l’écriture, y compris du point de vue ergonomique, permettre d’interagir facilement avec d’autres logiciels (gestion bibliographique, synchronisation des fichiers, etc), privilégier le texte dans l’interface sans l’enfermer dans un formatage dont il sera difficile de s’extraire par la suite.
C’est là qu’un troisième terme intervient : la conversion. À partir d’une production essentiellement textuelle, il doit être possible de convertir la production vers des formats soit directement destinés à être transmis, soit destinés à entrer dans un flux de mise en page spécifique. Par exemple, je convertis du texte vers un format LaTeX
pour peaufiner une mise en page ou je le convertis vers un format ODT
pour le transmettre à une autre personne qui a besoin de ce format, ou bien encore je produis du HTML
ou du epub
pour d’autres usages encore. Et cette conversion doit être la plus « propre » possible.
Les outils de production doivent être choisis en fonction des goûts et des pratiques. Comme il s’agit de texte, c’est donc vers les éditeurs de texte qu’il faut se tourner. Parmi ceux-ci, certains sont plus spécialisés que d’autres ou disposent d’options et d’extensions utiles à la production elle-même ou visant à améliorer la pratique de l’utilisateur.
Le format de référence
S’agissant d’un format dont la permanence dans le temps doit être assurée, le format devrait reposer sur une base de texte (plain text), écrit directement dans l’éditeur, formaté de manière simple et lisible humainement. Pour cela on laissera la possibilité d’exprimer des directives de mise en page et de hiérarchisation du texte, faciles à apprendre et gênant le moins possible la lecture. Au lieu de se contenter de texte simplement exprimé, on utilisera le langage markdown, un langage de balisage léger, simple à l’apprentissage comme à l’écriture et qui ne gêne pas la lecture (surtout si l’éditeur dispose d’une interprétation du markdown).
L’organisation
J’utilise une interprétation personnelle de la méthode Zettelkasten pour gérer mes connaissances et mes notes. Cela suppose une gestion rigoureuse des dossiers et des fichiers.
J’utilise aussi un logiciel de gestion bibliographique (Zotero) et un logiciel de gestion de livres numériques (Calibre), et j’apprécie l’utilisation d’un correcteur grammatical (comme Grammalecte).
Je sauvegarde mes sources et mes productions finales sur un serveur distant avec Nextcloud. Je travaille mes textes en les synchronisant avec Git sur un serveur Gitlab. Tandis que Nextcloud me permet d’avoir accès à mes sources depuis n’importe quel dispositif (tablette, liseuse, téléphone portable et ordinateur), travailler avec Git me permet de synchroniser lorsque je travaille sur différentes machines et de versionner mes productions intermédiaires et mes notes. Pour la bagatelle, l’ensemble est de toute façon sauvegardé de manière quotidienne sur un autre serveur avec Borg backup/Borgmatic.
Le choix des éditeurs
Un éditeur de texte doit comprendre à minima une coloration syntaxique permettant de visualiser les balises markdown. Mais ce n’est pas suffisant pour travailler sur des articles de recherche académique, par exemple. Il faut pour cela que l’éditeur puisse :
- proposer une interface agréable et hautement configurable pour une utilisation quotidienne,
- permettre d’écrire « au kilomètre » sans avoir besoin de saisir la souris à la moindre occasion,
- permettre si possible une interaction avec un logiciel de gestion bibliographique, par exemple pour saisir facilement les clés de références bibliographiques citées,
- proposer divers outils destinés à l’organisation de l’écriture : l’arborescence des fichiers, une navigation dans le texte, un gestionnaire de mots-clés pour les références croisées, une correction orthographique et grammaticale, etc.
- permettre de temps à autre une interaction avec le reste du système d’exploitation, par exemple avoir accès au terminal pour lancer des commandes de conversion, ou de gestion de fichiers,
- avoir accès à des petits programme de conversion « intégrés » pour un premier aperçu des résultats de production finale
Certains éditeurs de texte proposent tout cela en même temps, avec un système de plugins et il est parfois facile de se noyer dans la configuration d’un éditeur de texte. Comprenez : un éditeur de texte digne de ce nom doit pourvoir s’adapter à la pratique de son utilisateur, et non l’inverse. Si bien que les besoins étant relatifs, les solutions qui se présentent dans le monde des logiciels libres sont quasiment infinies. Il est même possible de programmer son propre plugin et refaire tout le mapage des commandes si on prend le cas des éditeurs Emacs ou Vim.
J’ai donc porté mes choix vers plusieurs éditeurs qui correspondent à mes usages et me permettent de choisir l’un ou l’autre selon mes envies et ce que je prévois de faire durant une session de travail :
- Zettlr : parce que ce logiciel a été pensé littéralement pour la production de textes scientifiques,
- Vim : parce qu’il s’utilise dans le terminal et qu’un Vim bien configuré avec les bons plugins est très efficace (plugins utilisés: vim-pandoc, vim-pandoc syntax, Nerd Tree, Grammalecte, vim-airline…)
- Gedit : un éditeur simple, prêt à l’emploi, sans fioritures.
- On peut aussi citer les éditeurs spécialisés pour markdown tel Ghostwriter.
Pourquoi ne pas…
- Utiliser Emacs ? je l’ai fait et le ferai encore. En ce moment c’est Vim. Emacs propose, du point de vue de mes besoins, les mêmes possibilités.
- Utiliser directement LibreOffice : certes les extensions de type Zotero et Grammalecte sont disponibles pour LibreOffice, et il est possible d’exporter depuis LibreOffice dans de nombreux formats. Par contre, LibreOffice ne propose pas une interface que je puisse conformer à mes usages et mes besoins, et tout particulièrement la possibilité d’écrire au kilomètre sans que mes mains quittent le clavier pour se saisir à tout bout de champ de la souris. Je réserve donc LibreOffice à un autre usage en fin de processus.
- Utiliser des logiciels de gestion de notes comme Obsidian ou Logseq : parce que justement leur usage spécialisé est trop éloigné de mes usages académiques.
L’organisation
Rien ne vaut un bon vieux diagramme !
Comme on peut le voir, quatre dossiers principaux sont en jeu : Bibliographies
, Templates
, Notes
, Travaux
. Je ne sors pas de ces dossiers et ils sont systématiquement synchronisés avec Git sur un dépôt Gitlab.
Bibliographies
: il contient les fichiers bibliographiques que j’utilise et tout particulièrement un fichier .json
généré avec Zotero et qui se met à jour automatiquement à chaque ajout dans Zotero. C’est sur ce fichier que pointent mes éditeurs (Zettlr et Vim) pour interagir avec la bibliographie et entrer les clés de références.
Templates
: il contient les styles et modèles utilisés pour les productions en sortie de flux. À savoir : les fichiers .csl
pour les styles bibliographiques utilisés, les fichiers css
utilisés pour sortir des fichiers HTML
ou certains PDF
, ou encore des modèles .odt
qui me permettent de plaquer directement des styles à une sortie .odt
« brute ».
Notes
: Il s’agit de mes fichiers d’écriture selon la méthode Zettelkasten.
Travaux
: là où sont rédigés les textes destinés à sortir du flux, par exemple des articles destinés à la publication. Notons que les sorties elles-mêmes n’ont pas vocation à être versionnées avec Git (seuls les fichiers sources le sont), et sont donc exportées dans d’autres dossiers (sauvegardés sur Nextcloud).
La conversion et la production
Pour convertir les fichiers markdown vers toutes sortes de formats (odt
, html
, pdf
, docx
pour l’essentiel), j’utilise Pandoc. Ce dernier présente de nombreux avantages :
- une version de Pandoc est directement intégrée à Zettlr
- il permet d’utiliser les templates et les moteurs qui configurent la sortie voulue, par exemple un fichier
.css
qui sera utilisé avec le moteur de rendu wkhtmltopdf pour produire un PDF avec une mise en page satisfaisante, ou encore un fichier.tex
qui contient déjà les en-têtes voulus pour produire un beau PDF, etc. Voir pour tout cela le manuel de Pandoc. - surtout il permet d’utiliser le moteur Citeproc et les fichiers CSL qui formatent la bibliographie dans le fichier de sortie.
Cependant, j’utilise LaTeX et LibreOffice souvent en phase de pré-production. Par exemple, lorsque je soumets un article à un comité de lecture, ce dernier souhaite un fichier odt
ou docx
et propose des corrections sur ce fichier ; c’est donc LibreOffice qui entre en scène. Il faut alors quitter le flux de production personnel pour envisager un nouveau flux. Autre situation : je convertis le markdown en .tex
lorsque le modèle utilisé ne suffit pas à obtenir une mise en page spéciale et qu’il faut travailler cette fois directement avec LaTeX (bien que, en utilisant Pandoc, il soit possible d’intégrer directement du code LaTeX dans le fichier markdown).
Dans tous les cas, l’essentiel du travail se fait en amont et un article finalisé (et publié) réintègre toujours le flux pour en avoir une version markdown finale.
Un mot sur les autres logiciels
- Zotero : ce logiciel de gestion bibliographique est fort connu. Il présente l’avantage de pouvoir être utilisé dans les autres logiciels avec ses plugins : dans Firefox pour sauvegarder une référence automatiquement, dans Vim, dans Zettlr, dans LibreOffice. Il permet aussi de stocker les articles et autres sources référencées soit sur le serveur de stockage de Zotero (payant) soit sur un Nextcloud (via le protocole
webdav
). - Calibre : c’est un logiciel de gestion de livres numériques. Ma collection étant assez importante, il me fallait pouvoir gérer cela autrement qu’avec Zotero, d’autant plus que j’y branche ma liseuse ou ma tablette en vue d’une lecture sur un autre support que l’ordinateur.
Astuces
Je ne vais pas ici vous expliquer comment configurer Vim au poil. Cela demanderait un développement assez long. Mais je vous conseille pour débuter le petit livret de Vincent Jousse, Vim pour les humains. Vous y apprendrez comment prendre en main Vim rapidement et comment installer des plugins. Le reste ira très bien.
Pour commencer avec Zettlr, c’est plus simple : dès l’installation de ce logiciel un tutoriel très bien fait et entièrement en français vous sera proposé.
Le markdown en un tutoriel pour historiens : Dennis Tenen et Grant Wythoff, Rédaction durable avec Pandoc et Markdown.
Comment faire avec Zotero pour obtenir un fichier (.bib
ou .json
) de bibliographie qui se mettra à jour automatiquement ? Voici :
- Installez le Plugin Better Bibtex pour Zotero,
- Dans Zotero, sélectionnez la bibliothèque que vous souhaitez exporter, clic droit puis
Exporter la bibliothèque
, - Sélectionnez le format Better BibTeX Json et cochez la case
Garder à jour
- Sauvegardez et entrez le chemin vers ce fichier dans Zettlr (ou dans votre
.vimrc
pour configurer le plugin Vim-Pandoc) - Désormais, lorsque la bibliothèque Zotero subira des modifications, le fichier d’export sera toujours à jour (et vous retrouverez vos nouvelles références)
04.06.2024 à 02:00
Guide de survie du vététiste débutant en moyenne montagne
Voici un long billet dont j’ai remis la rédaction depuis bien trop longtemps. Il s’adresse aux grands débutants en VTT qui souhaitent s’y mettre. S’agissant de réflexions tirées de mon expérience personnelle dans les Vosges, il faut considérer que je m’adresse essentiellement aux débutants vététistes en moyenne montagne. Quatre grands thèmes sont abordés : la pratique du VTT, le choix d’un premier VTT, l’équipement et l’entretien.
(màj. juin 2024)
Table des matières
Il faut parfois s’accrocher pour ne pas se perdre parmi les différentes appellations qui désignent les pratiques du VTT. Ce n’est pas qu’elles soient nombreuses, c’est surtout qu’elles sont parfois utilisées de manière indifférenciée. Ainsi, certains sites ou vendeurs vous conseilleront exclusivement un VTT tout-suspendu pour la pratique du « All Mountain », tandis que d’autres vous diront que le semi-rigide comme le tout suspendu conviennent, car il ne s’agit que de randonnée sportive, soit du Cross country…
Les pratiques du VTT
Nommer la pratique que l’on souhaite avoir, c’est aussi conditionner le choix du matériel et donc son achat. Mon avis personnel, c’est que certains sites internet ont tendance à pousser le choix d’un VTT tout suspendu alors que le client débutant en est encore à se questionner sur les équipements de freins et transmission. En contraste, je n’ai encore jamais vu un bon vendeur dans un magasin de cycles soutenir mordicus que le client devrait obligatoirement choisir un type de VTT plutôt qu’un autre : le conseil doit être technique et comparatif dans une même gamme, mais la pratique appartient au pratiquant.
C’est pour cela qu’il faut d’abord réfléchir à la pratique que l’on souhaite. Il faut pouvoir faire confiance au vendeur et à ses conseils, mais auparavant il faut aussi savoir lui communiquer vos attentes. Il ne peut pas les deviner si vous ne savez pas répondre à ses questions ou si vous répondez sans réellement savoir ce que vous voulez.
Nous reviendrons plus loin sur l’éternelle question du choix entre un tout-suspendu et un semi-rigide.
Mais c’est quoi « le VTT » ?
Comme son nom l’indique en français, il s’agit de « vélo tout terrain ». En anglais, il s’agit de vélo de montagne (Mountain Bike). Bien que la version anglophone ai longtemps eu cours, je trouve que la version francophone est bien mieux adaptée : on peut utiliser un VTT sur chemin de campagne dans les collines sous-vosgiennes comme sur les pires aiguilles des Alpes. L’essentiel est que cela puisse rouler sur tous les terrains (il paraît que certains en font en Bretagne, c’est tout dire).
La seule chose que vous tâchez d’éviter, c’est la route, le bitume. Premièrement parce que vous risquez de vous y ennuyer en ayant l’impression de ne pas avancer. Deuxièmement parce que vos pneus et la géométrie d’un VTT ne sont pas faits pour cela.
Il y a plusieurs manières d’aborder le VTT. La première, c’est la petite promenade du dimanche sur des chemins de terre. C’est plus tranquille que sur la route, pas de voiture. Si tel est votre souhait, je ne pense pas qu’il soit utile de lire plus loin. Vous achetez un VTT assez bas prix (en dessous 500 euros, c’est tout à fait envisageable). Si vous en prenez soin, il saura vous durer. Mais un VTT ne sera peut-être pas votre choix le plus éclairé : il existe des vélos « tout chemin » (VTC) qui seront sans doute plus appropriés et, à l’occasion, vous permettront de faire des randonnées plus longues et plus confortables en alternant voies communales et pistes cyclables1.
La seconde et principale manière d’envisager le VTT, c’est le sport. De part sa géométrie, un VTT est d’abord un vélo sportif. Tout comme l’est celle du vélo de route (de course). Et comme toute discipline sportive, cela nécessite un entraînement régulier.
Le VTT n’a certes pas le monopole de la difficulté en sport, mais il faut reconnaître que ce n’est pas une discipline très simple. D’abord, il y a un aspect matériel à prendre en compte. Et surtout, il faut acquérir de l’endurance et de l’aisance de pilotage. Débuter le VTT comme sport vous engage à envisager quelques séances un peu décourageantes et ingrates devant les terrains accidentés et les montées interminables. Mais dès le début vous y trouverez beaucoup de plaisir et de satisfaction pour les distances et le dénivelé accomplis.
Simplement, essayez de choisir des circuits avec des points de vue, donnez-vous des objectifs, et ne présumez pas de vos forces. Soyez conscient·e de votre niveau. Si vous êtes blême en haut des marches et des racines, ou si vous avez le cœur en dehors de sa boîte au milieu d’une côte trop raide, il n’y aucune honte à descendre du vélo et faire quelques pas. Ne vous inquiétez pas, de toute façon, vous descendrez de vélo plus souvent que vous ne le croyez :)
Puisque nous parlons de sport, c’est l’occasion de rappeler quelques principes :
- la régularité : la météo ne doit pas être une excuse pour ne pas rouler. C’est désagréable, certes, mais un petit coup de froid ne fait pas de mal. Par contre, n’oubliez pas les descentes, n’allez pas vous transformer en glaçon. J’ai coutume de ne pas sortir le VTT en dessous 5 degrés à moins d’un grand soleil. Mais vous trouverez toujours quelques givré·es pour le faire quand même. La grosse pluie, en revanche, il vaut mieux l’éviter : le vélo est tout terrain, mais la transmission et les suspensions prennent cher lorsqu’il y a trop d’humidité (et gare au nettoyage).
- la mixité : le VTT est un sport, mais il ne doit pas vous empêcher d’en faire d’autres. La course à pied est un excellent complément pour travailler l’endurance. La natation vous aidera à obtenir plus de gainage (et aussi de l’endurance) tout en préservant vos articulations. Et chaque matin, un peu de musculation (sangle abdominale et pompes) pour améliorer votre pilotage, votre équilibre et résister aux longues sorties.
- mon conseil : si une sortie VTT est votre seule pratique sportive de la semaine, vous risquez de ne pas beaucoup progresser. Essayez, lorsque viennent les beaux jours, de faire au moins deux sorties par semaine, une courte une longue, et alternez avec de l’endurance et du gainage. En hiver, si vous ne sortez pas le VTT du week-end à cause de la météo, faites une séance de trail à la place, au moins deux heures, pour garder le « coffre ».
- en fonction de votre pratique (voir les sections suivantes), votre entraînement ne sera pas le même. Si vous vous lancez dans l’Enduro, je vous conseille de faire pas mal de musculation. Pour le Cross country, privilégiez le cardio.
Ces considérations étant exposées, intéressons-nous désormais aux différentes pratiques du VTT.
All mountain (on dit : Cross country, en fait)
C’est l’expression-valise pour dire « randonnée sportive sur chemins mixtes ». Par chemins mixtes, j’entends aussi bien des sentiers qui nécessitent un peu de pilotage technique (en descente comme en montée) et des grands chemins forestiers, le tout avec une certaine technicité des sentiers.
Et vous allez demander : n’est-ce pas justement la définition du VTT ? Et bien si, justement. Cette expression est selon moi purement issue du marketing, en particulier sur les sites de vente en ligne de matériel sportif. Si on multiplie les appellations de pratiques, on multiplie par conséquent les choix possibles.
Si je vous disais par exemple qu’un VTT tout-suspendu est essentiellement fait pour la descente, vous hésiteriez à juste titre car pour la plupart des gens, descendre des sentiers en vélo est forcément dangereux. Or, il a bien fallu multiplier les ventes de VTT tout-suspendus en les adaptant à ces personnes qui veulent un tel VTT sans pour autant se lancer dans la discipline Enduro. J’exagère à peine : le tout-suspendu a largement gagné le créneau du Cross country, mais comme je vais l’expliquer plus loin, c’est à certaines conditions seulement que ce choix doit être fait, et il est nullement obligatoire.
En fait, il n’y a que deux grandes pratiques de VTT, elles sont citées dans les sections suivantes. Et le choix d’un VTT tout suspendu ou semi-rigide est surtout un choix relatif à la manière de pratiquer et à l’investissement financier.
En moyenne montagne, pour un débutant, il n’y aura pas de grande différence entre un VTT semi-rigide 29 pouces et un tout-suspendu. Pour tout dire, on peut aimer le tout-suspendu parce que dans les grands chemins forestiers, on ressent moins de vibrations, et dans certains sentiers en descente on peut parfois engager un peu mieux des dénivelés… inattendus (parfois l’erreur de pilotage peu être plus facilement corrigée). Mais on aime aussi le semi-rigide car il est beaucoup plus nerveux en montée, il est plus léger, il est plus précis en pilotage dans beaucoup de situation, et les sensations sont plus authentiques. Certains diront même que le tout-suspendu, parce qu’il permet de corriger un peu trop facilement les erreurs de pilotage, fausse carrément les sensations normales d’un VTT (hors enduro). Bref, c’est en pratiquant que l’on se forge une opinion.
Pour résumer à propos du All Mountain :
- ce n’est pas une pratique précise,
- souvent employé comme un argument de vente,
- c’est plutôt du Cross country.
Enduro et DH (DownHill):
Là, c’est du sérieux. Ces pratiques concernent essentiellement la descente. Je les mets dans le même sac car ce n’est pas vraiment l’objet de ce billet. DH et Enduro sont des courses chronométrées. Les épreuves d’Enduro (comprendre au sens de endurance) durent parfois une dizaine de minutes et s’étalent sur plusieurs jours. Le VTT Enduro peut être utilisé en montée comme en descente (même si, forcément, ce ne sera pas une bête de course en montée, hein?), il est aussi réputé très solide car il faut tenir le choc, justement, sur la durée. La pratique DH est encore plus spécialisée, avec du matériel hyper modifié. Bref, si vous voulez faire comme dans les superbes vidéos Redbull et quitter le sol pour le meilleur (ou pour le pire), cette pratique est faite pour vous. Achetez-vous aussi une caméra, histoire de garder des souvenirs.
Dans les Vosges, plusieurs groupes de vététistes ont aménagé des circuits dédiés, plus ou moins réglementaires. On peut citer celui du côté de Barr, qui est en fait un ancien spot de championnat, me suis-je laissé entendre. Ce sont eux qu’on accuse souvent de dégrader les sols, mais ce n’est pas toujours vrai. Je connais certains spots où la roche côtoie le chemin bien solide et il n’y a pas vraiment de problème. Mais il existe aussi des Bike Park (par exemple celui du Lac Blanc). Si vous voulez tester, je préconise de vous y rendre.
Autre point important : ne vous prenez pas pour un·e champion·ne. L’Enduro ne s’improvise pas, et ce n’est pas parce que vous avez un VTT tout-suspendu que vous pouvez, du jour au lendemain, prendre un élan inconsidéré. Le pilotage, cela s’apprend ! Avec un groupe d’ami·es on peut facilement chercher à impressionner les copain·es. Croyez-moi, après 30 ans de pratique2 : le seul résultat vraiment impressionnant quand on se plante, c’est celui de l’hélitreuillage :)
Cross country
On nomme cette pratique aussi X-Country ou, plus court, XC. C’est la pratique la plus répandue et présente aux jeux olympiques : une course de rapidité, en somme, sur des terrains variés, quelle que soit la météo.
Au niveau du grand public, ce qui distingue les pratiquants, ce sera la vitesse, l’allure, le rythme. On oscille entre la randonnée, la randonnée sportive et l’entraînement marathon. En moyenne montagne, la grande variété des terrains offre la possibilité d’élaborer des circuits adaptés à toutes les phases de l’entraînement, y compris de longues distances.
À la différence de l’Enduro, le Cross country ne cherche pas à jouer avec le terrain mais optimiser le pilotage pour une trace fluide et rapide. L’endurance du cycliste est ainsi mise à l’épreuve, mais cela n’empêche nullement de considérer le Cross country comme un excellent moyen de se déplacer sportivement dans la montagne et en profiter pour admirer le paysage et les sites d’intérêt. C’est d’ailleurs l’essentiel pour la plupart des pratiquants.
Évidemment, si vous voulez progresser, c’est l’entraînement qui fera la différence (comme pour l’Enduro).
Cette variété au niveau de la pratique comme au niveau du pilotage conditionne le choix de votre monture. Et ce sont sans doute les seuls critères qui devraient présider ce choix, en plus de votre condition physique et l’analyse de votre niveau.
Choisir votre type de VTT
J’ai bien conscience qu’en abordant ce chapitre, je risque de m’attirer les foudres des plus spécialistes d’entre nous. Je précise donc une nouvelle fois que je m’adresse au débutant vététiste dans les Vosges (et plus généralement en moyenne montagne) d’après mon expérience personnelle. C’est tout.
Quand j’étais jeune…
Au risque de passer pour un vieux briscard, voici quelques éléments de contexte.
Je vous invite tout d’abord à regarder quelques vidéos qui traînent sur les zinternets à propos de Gary Fischer. Ce dernier, pionnier du Mountain Bike californien était aussi concepteur et chef d’entreprise (la marque Gary Fischer, disparue vers 2010, rachetée par Trek). Il faut voir dans cette vidéo ce qu’on peut faire avec un vieux biclou 29 pouces sans suspension, en descendant des chemins en jeans, chemise et gants de chantier… tout cela pour vous dire (vous rappeler ?) que ce qui fait le bon vététiste, c’est avant tout les cuissots et le pilotage. Indépendamment de sa qualité et sa robustesse, le matériel, lui, sera toujours secondaire.
Cette première leçon venue du fond des âges du VTT (les années 1970) vaut bien un fromage. Pour ce qui me concerne, j’ai commencé exactement en 1989 avec un Gary Fischer Advance. Caractéristiques : freins V-brake, roues 29 pouces, tout rigide, selle rembourrée… Et avec ce VTT, j’ai roulé 5 ans dans tous les chemins autour de la Vallée des Lacs (Hautes Vosges), sur le granit mouillé comme sur l’herbe sèche des crêtes vosgiennes. Une excellente école pour le pilotage. Ma conclusion est que les VTT d’aujourd’hui, équipés de freins à disques, de jeux de transmission high-tech, de cadres à géométrie confortable, sont certes beaucoup plus sûrs qu’à l’époque, mais présentent aussi un très large choix en termes d’équipement, ce qui rend assez difficile le choix d’un premier achat.
Par conséquent la pression est très forte, pour un débutant : comment bien investir son argent dans un VTT s’il ignore encore sa pratique réelle, la fréquence de ses entraînements, les conditions de ses sorties, les chemins qu’il empruntera ?
Louer un VTT puis investir (ou pas)
Si vous n’avez jamais fait de VTT, bien évidemment : n’achetez rien pour l’instant. Trouvez un loueur de VTT3 et partez faire un tour quelques heures avec une personne déjà pratiquante (et qui essaiera de ne pas vous dégoûter en étant pédagogique et patiente). Faites cela plusieurs fois de suite. Les quelques euros que vous aurez alors dépensé dans la location d’un VTT seront vite amortis parce que vous aurez une idée beaucoup plus précise de la discipline.
Une fois que vous le sentez, commencez à vous intéresser à l’achat de votre premier VTT. J’ai bien dit : le « premier » VTT. Parce qu’il y en aura d’autres.
Bien sûr votre capacité d’investissement dépend de la largeur de votre portefeuille. Mais s’il s’agit de votre premier VTT, c’est aussi le VTT :
- avec lequel vous allez commettre des erreurs,
- avec lequel vous allez affiner votre pratique, celle qui vous conduira à acheter votre second VTT,
- avec lequel vous aller apprendre comment s’entretient un VTT au quotidien et même changer des équipements complets.
Et comme c’est votre premier choix, et il y a des chances qu’il ne vous corresponde pas à l’usage (quelle que soit la qualité du conseil du vendeur).
Il y a plusieurs stratégies possibles.
La première consiste à investir pour un VTT de milieu de gamme que vous roulerez un à deux ans. Si la pratique vous plaît et que vous pensez pouvoir investir plus sérieusement, vous pourrez alors revendre ce premier VTT et racheter un VTT plus haut de gamme et cette fois avec de la pratique et une meilleure connaissance du matériel. Pour revendre ce VTT, l’important est de bien en prendre soin. C’est autant d’argent que vous pourrez sauvegarder le moment venu.
La seconde, consiste à acheter un VTT entrée de gamme pour le revendre une bouchée de pain par la suite ou le convertir pour un autre usage en le « transformant » en vélo de ville ou tout chemin. À condition de planifier cela à l’avance. Vous achetez ensuite un VTT plus haut de gamme.
La troisième consiste à acheter d’emblée un VTT haut de gamme chez un constructeur disposant de beaucoup de choix dans une même gamme. Explications : au sein d’une même gamme vous trouvez les mêmes cadres mais un équipement de transmission, freins et suspension plus ou moins haut de gamme. Plutôt que de taper directement dans le must de l’équipement, vous pouvez choisir un équipement moins bon, et le faire évoluer dans le temps, par exemple au fur et à mesure des changements de pièces. Cela vous coûtera in fine plus cher, mais la dépense restera progressive.
La quatrième, enfin, la plus simple : vous êtes absolument sûr·e de votre choix. Vous avez assez d’argent et vous investissez pour un VTT censé vous durer longtemps, donc vous mettez le paquet. Attention toutefois, on ne compte plus le nombre de VTT de ce genre qui croupissent au fond des garages dans l’espoir d’une hypothétique remontada de la motivation…
Mon conseil serait le suivant. Il est très difficile, lorsqu’on débute, de bien différencier les constructeurs entre eux. Pour prendre quatre exemples : Giant, Scott, Lapierre, Trek. Chacun a breveté des géométries de cadre très différentes et qui changent selon les gammes. Rendez-vous dans les magasins et les démonstrations. Prenez votre temps et chaque fois que vous le pouvez, essayez les vélos à votre taille.
Pour un premier VTT, je pense qu’il faut éviter d’acheter en ligne sans avoir d’abord essayé, au moins être monté sur le vélo en compagnie d’un vendeur avisé qui saura vous dire si votre position est correcte. Il m’arrive parfois de voir des géants sur des vélos trop petits pour eux bien qu’ils indiquent la bonne taille dans la grille des correspondances du constructeur. La longueur de vos bras et votre port de tête sont tout sauf standardisés. De même il peut s’avérer parfois nécessaire de changer la potence ou le guidon… un essai de 5 minutes peut vous donner une bonne impression alors qu’une sortie de 3 heures vous en donnera une toute différente.
Pour conclure, pour un grand débutant, je préconise un achat d’abord entrée de gamme à revendre ou à recycler ensuite. La raison est que, à ce stade, vous n’êtes tout simplement pas sûr·e de pratiquer assez régulièrement le VTT sur plusieurs années.
Mais attention, lorsque j’écris « entrée » de gamme, je n’écris pas « bas » de gamme au sens péjoratif du terme ! Aux tarifs actuels, il faut compter entre 800 et 1.000 euros pour un VTT entrée de gamme qui puisse être assez qualifié pour une pratique sportive. On est loin du VTT Décat' à 400 euros. Pourquoi ? parce que, quelle que soit votre premier choix, il y a un niveau d’équipement en dessous duquel il ne faudra pas descendre. Mes préconisations minimales seraient :
- fourche à suspension air,
- roues / jantes 29 pouces compatible tubeless,
- transmission Shimano Deore (ou équivalent Sram, cf plus loin),
- de bon pneus type Maxxis Forekaster ou Rekon Race (ou équivalent, mais vous pouvez les changer facilement si besoin).
Si vous avez cela sur le vélo, c’est un VTT qui devrait vous durer assez longtemps pour un coût d’entretien modique (changement de pièces) ou plus onéreux si vous upgradez le tout.
Cadre aluminium ou carbone ?
On peut dire beaucoup sur l’avantage du carbone. Le point le plus évident est la légèreté (mais c’est aussi plus fragile).
Mais attention : les cadres aluminium pour un VTT aux alentours de 1.000 euros s’avèrent de très bonne qualité et assez légers surtout si on n’alourdit pas en tout-suspendu. Dans le haut du panier en aluminium, parfois mieux vaut acheter un bon cadre aluminium qu’un cadre carbone bas de gamme qui percera à la première pierre projetée par votre roue avant.
La question du poids, pour un premier VTT, me semble une question hors de propos. En effet, si vous achetez un VTT suivant les préconisations minimales ci-dessus, la différence avec d’autres VTT plus chers se mesure à 2 kg près (davantage si vous prenez un tout-suspendu). Or, ce qui fait la différence à votre niveau de pratique, ce sont surtout vos jambes : contentez-vous déjà de pédaler, vous optimiserez en perdant déjà du poids vous-même et en prenant de la masse musculaire.
L’autre point à l’avantage du carbone est sa rigidité. Cela implique une meilleure transmission de l’énergie… mais franchement quand vous en serez à comparer l’alu et le carbone selon ces critères là, vous n’aurez pas vraiment besoin de conseils.
Tout suspendu ou semi-rigide (hardtrail) ?
C’est l’éternelle question qui hante tous les magazines et autres sites marchands.
En toute objectivité, les VTT tout-suspendus d’aujourd’hui offrent des performances très intéressantes et ont réussi à perdre une grande partie du poids qui leur était reproché il y a quelques années (ils ne sont pas poids plume pour autant).
Il ne faut cependant pas s’accrocher aux catégories avancées par certains sites. D’aucun soutiennent que pour le All Mountain (je rappelle que cela ne correspond à aucune pratique précise) il vous faut du tout-suspendu sinon rien.
Il faut se poser la question : selon ma pratique, qu’est-ce qui va guider mon choix ?
Pour l’Enduro (ou le DH), je pense que la réponse va de soi : suspensions avant et arrière à grands débattements. Notons tout de même qu’il existe des fans d’Enduro en hardtrail. Là, je pense qu’il faut essayer avant d’en parler.
Pour le Cross country, cela se discute. Les suspensions des VTT tout-suspendus destinés au Cross country ont des débattements bien plus faibles que pour l’Enduro et sont vraiment destinés à cette pratique. De plus lorsqu’on regarde les championnats de cross-country depuis ces 5 dernières années, on y voit en majorité des VTT tout-suspendus… mais en carbone, avec le dernier cri de la technologie, bref… chers, très chers.
Dans cette pratique, et pour la moyenne montagne, le tout-suspendu offre une meilleure adhérence/propulsion en « collant » la roue arrière au sol, et un meilleur confort en descente avec, peut-être, un sentiment de sécurité. D’un autre côté, les chemins de moyenne montagne praticables en Cross country n’offrent que très rarement l’occasion d’éprouver significativement tout le jeu de suspension. La raison est qu’en choisissant des roues 29 pouces, l’essentiel est déjà « amorti ».
N’achetez pas un tout-suspendu si votre seule raison est de vous assurer de passer sur tous les sentiers en moyenne montagne (dans les Alpes, c’est différent). En fait, en moyenne montagne, les sentiers trop techniques sont peu nombreux, représentent très peu de kilomètres comparé au reste et de toute façon vous ne les emprunterez pas. D’après mon expérience vosgienne, si cela passe en tout-suspendu, cela passe aussi en semi-rigide. Le tout-suspendu n’est pas « plus tout-terrain » que le semi-rigide. Ce n’est pas le bon critère.
La combinaison 29 pouces + tout-suspendu pour du Cross country dans les Vosges me semble revenir à surjouer l’équipement par rapport au besoin réel.
Donc le besoin se fera vraiment sentir en fonction de votre pratique du Cross country : si vous voulez vraiment aller à fond en descendant les sentiers vosgiens, peut-être qu’un tout-suspendu vous conviendra. Et s’il est assez léger pour une randonnée de 4 ou 5 heures, vous gagnerez sans doute en confort. Par contre, cela représente un investissement conséquent. Un tout-suspendu pour du Cross country, cela veut dire que vous allez rechercher la légèreté et comme les suspensions ne sont jamais légères (sauf dans le très haut de gamme), vous allez devoir vous intéresser de près aux cadres en carbone.
Mon avant-dernier VTT datait de 2017, c’était un tout-suspendu, cadre aluminium. Il était lourd, même si l’aluminium utilisé est allégé. Par contre, sa solidité a fait que je n’en ai jamais eu à me plaindre. Ce que j’ai constaté néanmoins : il n’est pas très utile par rapport aux chemins que j’emprunte (et j’emprunte vraiment beaucoup de chemins différents). J’ai donc commandé un VTT semi-rigide pour le remplacer. Ce dernier est arrivé en juin 2022. Ce retour au semi-rigide m’a parfaitemetn convaincu de ce que j’avance ci-dessus. C’est bien simple : à deux ou trois passages près, toutes les traces je continue à faire toutes les traces que je faisais auparavant. J’ai aussi largement gagné en rapidité, pas seulement à cause du poid mais à cause du pilotage et de son optimisation. On ne s’ennuie vraiment pas en semi-rigide.
Si vous choisissez un tout-suspendu pour pratiquer le Cross country, soyez aussi conscient·e de plusieurs choses :
- l’entretien se fait tous les ans ou tous les deux ans pour changer tous les roulements des articulations du VTT (renseignez-vous sur les prix ou apprenez à le faire vous-mêmes),
- la suspension arrière nécessite une attention particulière et il est conseillé de faire réviser l’ensemble tous les ans (idem, renseignez-vous sur les prix),
- il vaut mieux acheter un cadre carbone si vous voulez un tout-suspendu sans quoi, c’est un char d’assaut que vous allez devoir trimballer en montée. ce qui fait qu’en prenant un carbone de bonne qualité, votre VTT sera assez cher. Pour un premier achat, je le déconseille donc. Par contre à vous de voir si vous en avez le portefeuille et l’envie :)
Évidemment, question entretien (et nettoyage), un VTT semi-rigide… c’est les vacances.
Un dernier point à propos des VTT tout-suspendus : la tige de selle télescopique. Effectivement, c’est un outil qui peut s’avérer pratique car, en descente très engagée, baisser la selle en un coup de pouce depuis le guidon peut vous permettre de vous donner des airs d’Enduro. Mais n’oubliez pas, là encore : cela alourdi le vélo et les selles sur tige télescopique on toujours du jeu, source d’inconfort à la longue. Sur un VTT semi-rigide, si vous n’êtes pas confiant en haut de la pente et que vous débutez, cela peut s’avérer néanmoins un bon choix afin d’abaisser au maximum votre centre de gravité.
VTT à assistance électrique ?
Le débat ressemble à troll. Il y a quelques années, à l’apparition des VTT-AE, il y eu une impression d’affrontement entre les pro et les anti-, soit entre ceux pour qui faire du VTT est synonyme d’effort sportif et ceux pour qui le VTT-AE reviendrait à faire du vélomoteur en forêt.
Sauf que le débat ne se pose pas en ces termes (outre le prix d’un VAE de bonne facture) :
- Le VTT-AE peut être pratiqué sportivement : au lieu de partir pour une randonnée de 40 km et 1200 m de dénivelé, vous en faites le double et voilà tout. L’assistance vous permet de monter des « coups de cul » que de toute façon vous auriez fini par monter à pied ou alors très fatigué. On comprend surtout que le VTT-AE est plus que bienvenu en haute montagne.
- Mais pour beaucoup de personnes le VTT-AE revient effectivement à jouer les touristes en pensant que le pilotage est à la portée de n’importe qui. Or, avec un VTT-AE de 25 kg, plus d’un amateur inexpérimenté fini par se viander dans un dévers.
- En revanche, pour les personnes qui autrement ne feraient pas de VTT parce qu’elles ne sont pas sportives, ou encore à cause de la vieillesse ou du surpoids, et si elles restent prudentes sur des chemins sans difficulté, le VAE offre l’opportunité de rouler au grand air sans le stress des voitures sur la route. Et c’est plutôt une bonne chose.
- Reste un problème tout de même, valable pour tout vélo électrique : les batteries et les filières de recyclage, la pollution que cela suppose, y compris dans les composants électroniques. Pour du vélo urbain (vélotaff) le compromis peut être atteint par l’effet de substitution à l’automobile (c’est un grand débat). Mais pour du loisir, c’est en raison de cet aspect du VTT AE que je conseillerais plutôt, lorsqu’on est en pleine possession de ses moyens physiques, de pédaler sur des VTT « musculaires ».
L’équipement
En tant que débutant·e, vous risquez d’être dérouté par les contraintes d’équipement qui s’imposent à vous. Que ce soit l’équipement du pratiquant ou celui du VTT, il est important de faire un point.
Pour le vététiste
Le·a vététiste doit toujours s’interroger sur ce qui le relie au vélo et son rapport à l’environnement et le climat. Essayons de faire le tour.
Les vêtements
Ne soyez pas radin·e sur ce point. Revêtir un bon cycliste (long et chaud en hiver, court en été) est votre première préoccupation : de bonne qualité il vous évitera les effets désagréables des frottements après une sortie longue. Une grande enseigne bleue fort connue en vend de très bons, il ne faut pas hésiter à aller y faire un tour. C’est de même valable pour les vestes chaudes d’hiver.
Cuissard ou short ? En été, c’est une question que je qualifierais surtout d’esthétique. Bien sûr dans les deux cas, vous vous aviserez d’avoir un chamois en fond de culotte, c’est primordial. Ensuite, le confort d’un cuissard est relatif à la quantité de tissu, là où le short pourrait être la cause de frottements désagréables. En revanche, pour des sorties longues je conseille le cuissard, sans hésitation, en particulier pour ses qualités compressives.
Votre garde-robe embarquée devra toujours prévoir un coupe-vent pluie : il vous évitera de prendre froid dans les descentes et vous protégera des intempéries.
Pour ce qui concerne les gants : les gants longs sont préconisés en VTT (ne pas mettre de mitaines), avec coussinets sur la paume. Il en existe pour l’hiver et pour l’été. Prenez du solide : il arrive souvent de poser les mains au sol, sur de la pierre, sur des troncs d’arbre, dégager des ronces… c’est tout-terrain, l’on vous dit…
Le casque
Pas de débat : il est obligatoire. Prenez du haut de gamme systématiquement, avec visière, système de répartition d’onde de choc, spécialisé VTT (les casques pour vélo de route ne conviennent pas). Essayez votre casque en magasin et voyez s’il vous est confortable : on ne peut pas tout acheter en ligne…
Autres protections corporelles
Lunettes : c’est nécessaire. Pour plusieurs raisons :
- protection de vos yeux (ronces, branches, projections diverses),
- teinte jaune (pas trop foncée à cause des sous-bois) : tous les opticiens vous diront que cette teinte permet d’accentuer les contrastes, donc mieux voir les reliefs,
- verres interchangeables : une paire jaune, une paire blanc (pour la pluie, et lorsqu’il n’y a pas assez de soleil)
- si vous avez besoin de correction de vue, allez voir votre opticien pour acheter une paire de lunettes pour le VTT (il y a deux ou trois grandes marques fort connues pour le sport : Demetz, Julbo, Bollé…
- les lunettes doivent être profilées : même si ce n’est pas à la mode :)
Protection armure : laissez cela aux descendeurs en Enduro/DH. Ell·eux en ont vraiment besoin. Pour le cross country, il faut voyager léger.
Pour votre dos, si vous avez un sac à dos avec poche à eau, vous n’en n’avez pas vraiment besoin, mais certains sacs disposent une plaque de protection, si cela peut vous rassurer.
En accidentologie VTT, les études (comme celle-ci) portent le plus souvent sur la pratique Enduro/DH, on comprend pourquoi : c’est celle qui présente le plus de prise de risques. Là, ce sont les blessures sur le haut du corps qui sont les plus courantes, particulièrement les épaules (fracture clavicule, typiquement). Mais aussi : fractures poignets, coudes et épaules… Le port du casque a largement amoindri la fréquence des dommages à la tête, ce n’est même plus un sujet de débat.
On peut raisonnablement penser que la pratique du Cross country présente beaucoup moins d’accidents graves, mais statistiquement, comme il s’agit de la pratique la plus répandue, la fréquence des visites aux urgences est tout sauf négligeable. Les fractures sur le haut du corps et membres supérieurs sont là aussi les plus courantes.
Pour simplifier, les accidents en Cross country sont moins dépendantes du terrain qu’en Enduro. Cette pratique n’est pas moins dangereuse que le roller, le vélo de route ou le skate-board. Par contre ces éléments font la différence : l’erreur de pilotage, le matériel peu soigné et mal vérifié, le degré de prise de risque. Notons aussi qu’en Cross country on trouvera plus de blessures musculaires et tendineuses, inhérentes aux pratiques sportives d’endurance lorsqu’on pousse le corps un peu trop loin.
Sac a dos ou grosse banane ?
Le choix se discute.
Dans un sac à dos vous trimballez votre poche à eau, votre coupe vent, éventuellement un surplus de vêtement, quelques outils, votre téléphone portable, vos papiers, une ou deux barres céréale.
Ce sac à dos doit bouger le moins possible. Regardez la marque Evoc, qui présente d’excellentes performances (mais ce n’est pas la seule).
Mais on peut opter pour la grosse banane selon cet adage : c’est le vélo qui doit porter, pas le dos. C’est un bon argument. Dès lors votre eau se trouvera sur votre cadre dans deux gourdes, vous aurez un petit sac à outils sous la selle, et tâchez de répartir le reste dans la banane (chez Evoc aussi, il y en a des très bien).
Les outils et trousse d’urgence
Pour être autonome, en solo ou en groupe, il vous faut :
- chambre à air de rechange (sauf si vous êtes en tubeless — on en parle plus loin)
- une petite pompe
- une bombe « anti-crevaison » : oui, je sais… mais il m’est arrivé de crever deux fois de suite, alors bon…
- deux démonte-pneu (attention avec ça si vous êtes en chambre à air : entraînez-vous à changer une chambre à air)
- kit de réparation tubeless avec mèches (si vous êtes en tubeless, donc),
- un multi-outils avec dérive-chaîne (utile si vous cassez la chaîne)
- deux colliers de serrage : pratique si vous devez attacher quelque chose (par exemple : vous cassez un rayon, vous l’attachez au rayon voisin pour les kilomètres qui vous restent)
- 50 cm de fil de fer (utile pour plein de choses)
- une trousse de premiers soins : une couverture de survie, pansements et compresses (dont au moins deux larges), antiseptique en fioles, bande adhésive, etc.
La gestion de l’eau, la bouffe
L’hydratation, c’est obligatoire. Tout comme pour la course à pied, vous ne pouvez pas faire de sortie de plus d’une heure sans emporter avec vous suffisamment d’eau… et la boire ! Combien de litres par heure ? c’est variable : en fonction de votre poids, de la météo et de l’effort, vous devrez boire plus ou moins. Par contre, une chose est valable pour tout le monde : buvez avant d’avoir soif, anticipez la déshydratation. Boire trop peu est synonyme de moins d’apport au système musculaire (notamment de sodium) et par conséquent une baisse de performance, des risques de crampes, en plus de risques de problèmes rénaux ou de vessie si vous perdrez trop d’eau.
Comment savoir si on s’hydrate assez ? buvez tout le temps, beaucoup avant la sortie, beaucoup après et beaucoup pendant. Mon repère à moi, c’est avoir envie de pisser au moins une fois durant une sortie de trois heures, mais ce n’est pas une règle absolue.
Cela dit, faut-il pour autant se surcharger en flotte ? non. Surtout si vous portez votre eau dans une poche dans le sac à dos. Il est inutile d’emporter trois litres : si besoin, vous pouvez toujours remplir vos contenants en chemin (prévoir une étape avec point d’eau). Emporter 1,5 litres me semble un bon compromis en Cross country moyenne montagne et s’il fait très chaud, monter à 2 litres, ce sera suffisant.
Poche style Camelback avec tuyau ou bidon sur le cadre ?
Personnellement, je n’ai jamais été un grand fan des porte-bidons : on a tendance à se déséquilibrer pour aller chercher le bidon, le porter en bouche et le remettre, alors qu’un tuyau bien ajusté sur la bretelle du sac à dos permet un accès direct. Ceci sans compter le risque de perdre le bidon, justement, à cause des obstacles du terrain.
Le contre-argument, c’est qu’en utilisant un porte-bidon, c’est le vélo qui porte, pas le cycliste. C’est-à-dire autant de poids en moins sur le dos.
Concernant les apports nutritionnels, là non plus je n’ai pas vraiment de conseil à donner. Mon sentiment est que si vous mangez correctement et équilibré (même avec quelques excès de temps en temps), votre besoin nutritionnel durant l’effort d’une longue sortie ne devrait pas être conséquent. Il faut toujours emporter avec soi une ou deux barres céréales ou de la pâte de fruit, ou bien quelques fruits secs, selon ses goûts.
Rien ne vous oblige à les manger. En tout cas, ne vous précipitez pas sur les produits miracles vendus en pharmacie ou dans les magasins de sport, et encore moins sur les barres céréales des rayons confiserie du supermarché : ces produits contiennent généralement trop de sodium, des huiles saturées, trop de sucres transformés, et pour certains des nutriments parfaitement inutiles si vous avez déjà une alimentation saine au quotidien.
Si vous aimez les barres céréales, achetez des barres dont la composition est la plus simple possible ou bien faites-les vous-mêmes avec des produits sains que vous aurez sélectionné au préalable. Les recettes ne manquent pas sur les z’internetz. Après quelques essais, vous obtiendrez d’excellents résultats.
Les pédales
Devez-vous choisir les pédales automatiques, semi-automatiques, les pédales plates ?
Quelque soit votre achat, votre VTT sera livré avec une paire de pédales bas de gamme : tout le monde change les pédales de toute façon. Mais vous pouvez rouler avec dans un premier temps. C’est pourquoi cette section concernant les pédales est située dans l’équipement du vététiste : prolongements des pieds, elles conditionnent le contact avec le vélo, tout comme la selle.
Pour le débutant, je préconise les pédales plates (avec les picots). Attention aux tibias avec les retours de pédales involontaires. Comptez une cinquantaine d’euros pour une paire solide de marque connue. Protèges-tibias ? c’est lourd et inconfortable, donc non : faites attention, c’est tout.
Pédales automatiques : il faut un peu d’entraînement sans quoi votre appréhension causera votre chute. Cependant, si vous voulez faire du Cross country et gagner en rendement tout en maîtrisant votre vélo, c’est le modèle de pédales à utiliser.
Sur le marché il existe des pédales dites semi-automatiques. Elles se présentent soit sous la forme d’une pédale recto attache automatique et verso pédale plate, soit avec un recto aimant recto et verso pédale plate. Ces modèles permettent de laisser les pieds libres dans les descentes ou les passages difficiles. En théorie, du moins. Par contre j’ai été séduit par les pédales automatiques à aimant (de la marque Magped) : elles ont moins de pouvoir de traction que les pédales automatiques classiques (si on tire trop, le pied se décroche), mais c’est ce qui fait leur intérêt : permettre un décrochage très rapide et donc plus sécurisant. J’aurais du mal à m’en passer aujourd’hui.
En matière de pédale, il n’y a pas d’obligation. Là encore, c’est votre pratique qui en décidera. J’ai un faible pour les pédales plates, même si j’ai moins de rendement. En revanche, en compétition Cross country, les pédales automatiques sont la règle.
Les chaussures
Elles dépendent de vos pédales ! Mais sachez aussi choisir une paire qui vous permette de marcher. Pour le Cross country, les chaussures typiques sont assez rigides, proches de celles utilisée en vélo de route, mais pour plus de confort, choisissez des chaussures plus appropriées à la randonnée VTT, un peu moins rigides et plus polyvalentes.
Gardez à l’esprit qu’une paire de chaussures trop étroites ou trop justes :
- empêchent la circulation sanguine dans vos pieds : on a tendance à se crisper un peu en descente et à l’appui,
- empêchent de mettre des chaussettes chaudes en hiver.
Un avantage des pédales semi-automatique à aimant : à la place d’un mécanisme de fixation sous la chaussure, il suffit de visser une petite plaque en métal, très facile à nettoyer (quand on plonge toute la chaussure dans la boue !).
La selle
La selle est le contact quasi permanent entre votre postérieur et le VTT. À ce titre, elle ne doit pas être négligée. Si, dans un premier temps, la selle fournie avec votre vélo saura vous contenter, c’est à la longue que vous constaterez que, même si vous avez correctement réglé sa hauteur, quelques désagréments peuvent subsister, notamment les irritations.
En gros, il existe des selles arrondies et des selles plus plates. Les arrondies limiteront les irritation en cas de sorties longues distance. Certaines selles disposent aussi d’un canal central plus ou moins prononcé, voire parfois complètement évidé : c’est pour limiter la pression sur le périnée.
Quant à la largeur de la selle, elle doit être relative à votre morphologie. Que vous soyez homme ou femme, large ou étroit, c’est à vous de voir.
Mon conseil : préférez les selles arrondies et veillez à ce qu’elles ne soient pas trop larges, sans quoi une gêne au pédalage va s’installer. Il n’y a pas vraiment de recette. Vous pouvez avoir une selle qui ne vous pose aucun problème pour une heure de pratique, tandis qu’elle vous fera souffrir au bout de trois heures. Tout ne réside pas dans la qualité de votre cuissard.
Pour le VTT
La transmission
Le groupe de transmission regroupe tous les éléments qui transmettent l’énergie musculaire (ou électrique) au vélo. Un groupe de transmission est composé de dérailleurs, cassette, pédalier (boîtier, plateaux, manivelles, pédales), chaîne. On peut compter aussi les manettes (ou commandes) de vitesses et les câbles.
Pour choisir un groupe de transmission plutôt qu’un autre, il faut avoir de l’expérience. En effet, selon votre niveau, un groupe 1x11 (mono-plateau et 11 pignons) demandera plus ou moins d’efforts pour entraîner la machine par rapport à un 1x12.
Aujourd’hui le mono-plateau a le vent en poupe. Et il présente un double avantage : moins d’entretien et plus de légèreté. Là-dessus vous pourrez à la longue opter pour des cassettes différentes.
Et non, ce n’est pas parce que vous avez un mono-plateau que vous avez moins de vitesses : en double plateau vous avez la plupart du temps une cassette 10 pignons arrangés de 11 à 36 dents (on dit 10 x 11-36) mais en mono-plateau vous avez par exemple une cassette à 11 x 10-42 ou une cassette à 12 x 10-51. En clair : à l’arrière, le dernier pignon de votre cassette est juste énorme. Donc la plage de « choix » de vitesse n’est guère moins grande mais l’avantage est que vous n’avez plus à veiller à ne pas croiser la chaîne (il ne faut jamais mettre un couple grand plateau — petit pignon si on a plusieurs plateaux).
Pour un premier achat, je préconise pas moins que le couple mono-plateau et 12 vitesses. C’est ce qui est vendu la plupart du temps sur les entrées de (bonnes) gammes.
En termes de marques, vous avez grosso-modo l’essentiel du choix entre Shimano et Sram qui se partagent l’essentiel du marché VTT. Là encore, si vous débutez, choisir entre les deux ne consiste pas à trouver le meilleur point de performance, mais comprendre ce qui distingue les groupes entre eux, chez Shimano comme chez Sram. Pour faire simple, dans les deux marques, il y a une hiérarchie. À une ou deux exceptions près les marques sont incompatibles entre elles. Et entre les groupes au sein d’une même marque, il y a des tableaux de correspondances et c’est normal : vous ne pouvez pas tout mélanger, plateaux, pignons chaîne et manettes de vitesses.
Alors comment vous y retrouver ? Lorsqu’on achète un VTT, celui-ci est fourni avec un groupe de transmission donné. Pour juger du prix de votre vélo, au sein d’une même gamme, il faut aussi se demander avec quel niveau d’équipement il est fourni. Notez aussi que plus vous montez en gamme, plus les changements de pièces seront chers, pensez-y avant d’opter systématiquement pour le plus cher.
Le tableau suivant sera peut-être démodé au moment où vous le lirez, cependant, je pense que pour l’essentiel on s’y retrouve. Notez que ne mets pas les shifteur électroniques ni les groupes spécialisés descente. Je me concentre sur le Cross country.
Niveau | Shimano | Sram |
---|---|---|
1 | XTR | XX1 |
2 | XT (Deore XT) | X01, X1 |
3 | SLX | GX, X9 |
4 | Deore | X7, NX |
5 | Alivio | X5 |
6 | Acera | X4 |
7 | Altus | X3 |
8 | Tourney |
Les freins
En matière de freinage, le choix ne doit pas être pris à la légère. Évidemment, les systèmes de freins dédiés à l’Enduro seront extrêmement puissants, la notion de dosage passant plutôt au second plan (même si elle est très utile), tandis que pour le Cross country c’est la fiabilité sur la durée du freinage qui sera recherchée. Mais la pratique n’est pas l’essentiel : votre poids et le terrain sont des données tout aussi essentielles et c’est fonction de cela que vous allez juger si vos freins vous conviennent ou pas.
Lorsque vous achèterez votre nouveau VTT, si c’est le premier, il va falloir faire confiance au vendeur. Un système de freinage va du levier aux plaquettes en passant par l’étrier, les durites et les disques. Tous ces composants ont leur importance dans l’efficacité et le ressenti.
Par exemple, s’il y a de fortes chances que votre premier VTT soit équipé de plaquettes de frein organiques, sachez qu’il en existe plusieurs variétés sur le marché, avec des caractéristiques différentes, de celles qui glacent dès le premier usage à celles qui entament méchamment votre disque.
Si vous vous reportez au tableau des groupes de transmission ci-dessus, les noms des groupes de frein sont les mêmes et obéissent plus ou moins à la même hiérarchie. Cela dit, en fonction des années et des séries, on peut trouver par exemple chez Shimano des freins Deore qui valent très largement la gamme supérieure. Encore une fois c’est fonction de l’expérience que vous pourrez vous faire une idée précise. Bien sûr, le bas de gamme… reste le bas de gamme.
Attention : si vous vous renseignez sur des sites internet spécialisés (c’est une bonne chose) veillez à noter la date de rédaction des comparatifs. Shimano et Sram sortent très régulièrement des nouvelles séries et vous risquez de vous y perdre. Mon conseil serait de voir d’abord, sur le VTT que vous voulez acheter quels types de freins sont proposés, puis vous renseigner sur leurs caractéristiques par la suite. Enfin, n’oubliez pas : des freins, cela se change si vraiment ils ne vous conviennent pas.
Les pneus
Alors là… pas moyen de s’entendre sur une loi précise dans le choix des pneus, que vous soyez en chambre à air ou en tubeless : c’est le terrain et la météo qui font la différence. Mes conseils sont les suivants :
- analysez les terrains que vous avez l’habitude de fréquenter (si vous êtes dans les Hautes Vosges avec du granit mouillé, votre choix en sera pas le même que dans les Vosges du Nord avec du gré sableux, et bonne chance à ceux qui sont entre les deux)
- ne soyez pas chiche (même si le prix d’un pneu n’est pas un gage) : de bons pneus (et un gonflage correct) conditionnent absolument votre tenue de route. C’est comme en voiture.
- il n’y a aucune obligation à avoir les mêmes pneus à l’avant et à l’arrière : contacts, grip, adhérence, dureté de la gomme, tout cela joue.
Lors de votre premier achat, le VTT sera livré avec un jeu de pneus semblables avant et arrière. Usez-les… mais analysez votre besoin. Ensuite rendez-vous sur les sites de vente en ligne et regardez les descriptifs, ou allez chez votre vendeur et posez-lui la question.
Personnellement, je suis resté depuis les 6 dernières années avec la même référence de pneus qu’à l’achat de mon VTT, des Maxxis Forekaster. Le fabriquant écrit : « adapté à une pratique Cross country agressive et pour le All Mountain »… comme cela ne veut pas dire grand chose, je prétends simplement que ce type de pneus typé Cross country est plutôt adapté aux terrains vosgiens côté Alsace. Je vois souvent cette marque d’ailleurs chez les autres vététistes. Si vous êtes plutôt côté granit, ce ne sera pas forcément votre premier choix car je trouve qu’ils peinent un peu en traction sur du pierreux humide. C’est du ressenti personnel, pas une loi universelle.
Par contre, le moment venu de changer vos premiers pneus, il y a tout de même une bonne recette : leur largeur. Si vous faites du Cross Country, de quoi avez-vous besoin ? un pneu avant qui soit bien stable parce que c’est sur ce pneu avant que vous donnez la direction et un pneu arrière qui ne vous freine pas parce que c’est sur ce pneu arrière que vous envoyez la propulsion. La conclusion est simple : les deux pneus n’ont pas le même usage. Pourquoi auriez-vous les deux même pneus à l’avant et à l’arrière ?
On s’accorde à dire qu’il faut un pneu de bonne largeur à l’avant et un pneu plus étroit à l’arrière. Cela dit, il ne s’agit pas d’exagérer. Pour vous donner une idée, ma largeur de pneu arrière est de 2.25 tandis que j’ai du 2.40 à l’avant. Ferez-vous pour autant la différence si vous débutez ? il y a peu de chance. Alors vous vous poserez la question lorsque vous devrez changer vos pneus.
Tubeless ou chambre à air ?
Tubeless, sans hésitation. Cependant… Je m’adresse ici aux débutants. Alors commencez par la chambre à air. D’ailleurs, il y a des chances que votre VTT vous soit vendu avec un jeu de pneus + chambre à air même si les pneus et la jantes sont tubeless ready.
Pourquoi ? parce qu’il vous sera plus facile de gérer des chambres à air. Entraînez-vous chez vous à changer une chambre à air rapidement. Parce que si vous crevez en forêt quand il pleut, vous serez content de ne pas y passer trois heures. Rappelez-vous : autant pour amorcer le « déjantage » du pneu vous pouvez utiliser éventuellement un démonte-pneu (et encore, ça peut abîmer la jante), autant pour le remonter avec une chambre à air, bannissez absolument le démonte-pneu. D’ailleurs, cela s’appelle un démonte-pneu, pas un remonte-pneu, hein ? Il y a plusieurs vidéos sur Internet qui vous montreront comment procéder, c’est assez simple.
Le Tubeless, présente des avantages par rapport à la chambre à air. Déjà, c’est plus léger parce que vous économisez le poids de deux chambres à air. Ensuite, parce que vous n’aurez plus de crevaisons lentes (genre le pneu qui se dégonfle dans le garage et que vous vous en apercevez la veille de votre sortie), et aussi parce qu’en cas de crevaison, le liquide préventif à l’intérieur devrait faire son travail de « rebouche-trou ». Par contre :
- en cas de grosse crevaison (un gros clou, par exemple), il vous faudra placer une mèche, c’est une autre technique à apprendre, même si ce n’est pas très compliqué non plus ;
- il faut vérifier et remplacer régulièrement le liquide préventif à l’intérieur ;
- pour changer un pneu Tubeless, il vous faudra un compresseur capable d’injecter une grosse quantité d’air d’un coup dans le pneu afin de le faire claquer ;
- la valve n’est pas la même et votre fond de jante devra être parfaitement étanche.
Donc le Tubeless, ce n’est pas moins d’entretien que la chambre à air, mais c’est un peu plus de zénitude lors de vos balades.
Mon conseil aux débutants : commencez avec des chambres à air, vous verrez plus tard pour passer au Tubeless, à l’occasion de votre premier changement de pneu par exemple.
Les suspensions
À quoi servent les suspensions, à l’avant comme à l’arrière ? Non, elles ne sont pas faites pour sauver votre popotin des dégâts d’une réception un peu rude. Leur premier rôle consiste à optimiser le contact de votre roue avec le sol, donc favoriser le contrôle de votre VTT. Pour ce qui concerne les fourches (avant), le second rôle consiste à absorber les chocs pour vos bras (et aussi votre dos) et faciliter le pilotage.
Le réglage des suspensions, notamment en fonction de votre poids, est très important. Il s’agit de régler correctement la détente (le retour de la suspension à sa position initiale). Trop molle vous n’absorbez rien et vous risquez de l’abîmer, trop raide, autant rouler en tout rigide. Par ailleurs, si vous enfoncez trop, vous perdez en rendement de pédalage.
C’est pourquoi la plupart des VTT disposent d’un système de blocage de suspension, à l’avant comme à l’arrière. Je vous conseille vivement de choisir un système de blocage situé sur le guidon, beaucoup plus pratique, surtout si vous oubliez de débloquer votre suspension après avoir entamé votre descente.
Pour la pratique du Cross country, comme je l’ai affirmé plus haut, choisir un semi-rigide est sans doute le meilleur choix pour un premier VTT (et cela reste pertinent même si ce n’est pas votre premier VTT). Les suspensions pour cette pratique sont généralement faites pour un débattement beaucoup plus faible que pour l’Enduro. Généralement on parle de 90 à 120 mm de débattement. Avoir plus de débattement ne me semble pas très utile (en Enduro, on peut monter à 200 mm de débattement).
De même, on recherchera la légèreté. Donc il vaut mieux rechercher une fourche avec un système à air (ressort pneumatique) bien que certaines fourches avec ressort hélicoïdal peuvent s’avérer tout à fait pertinentes, bien que plus lourdes (on ne parle pas non plus d’une différence de 20 kg, hein?).
Suspension VTT = amortisseur (hydraulique) + ressort (hélicoïdal ou à air).
Donc si nous résumons :
- Ressort pneumatique (air) : légèreté, ajustement progressif au poids du pilote, moins sensible aux petits chocs,
- ressort hélicoïdal : il faut changer le ressort s’il est trop raide, plus lourd, sensation de raideur sur petits chocs.
Dans les deux cas, ces fourches font très bien leur travail à moins de choisir du trop bas de gamme, évidemment. Et n’oubliez pas : tout comme le reste, une fourche peut se changer, et il en existe des centaines de modèles… à tous les prix. Débuter avec une marque ? allez, je vous conseille Rockshox et Fox, vous trouverez dans ces marques des gammes assez étendues pour ajuster votre besoin à votre portefeuille (j’aime beaucoup les Fox racing 32, très classique, mais comme elle n’est pas trop chère, la changer pose moins de problème).
Ha oui, pour les suspensions arrières si vous tenez au tout-suspendu, c’est le même combat.
La petite sonnette
Hé oui, on l’oublie parfois, mais elle est très utile surtout lorsqu’on fréquente des sentiers de randonnée où il est difficile de contourner les marcheurs. Dans tous les cas : patientez le temps que les marcheurs réalisent votre présence, soyez très courtois et remerciez.
Il peut cependant être utile de signaler votre présence par un petit coup de sonnette. Le choix du son est important : trop bruyant, il sera perçu comme une agression (nous ne sommes pas sur une piste cyclable en centre urbain). Il existe des petites sonnettes légères en forme d’anneau à placer à peu près n’importe où sur le guidon pour plus de facilité. Elles produisent un tintement cristallin et assez aigu pour passer au-dessus du vent et de la voix, sans être désagréable.
Garde-boue, protections de cadre
Est-ce absolument nécessaire ? non. La première chose à éviter, dans le choix d’un garde-boue avant ou arrière, c’est essayer de composer entre l’encombrement et l’intérêt réel de cet équipement. Vous avez un VTT pour faire du sport, et oui c’est une activité salissante. Ne cherchez pas à éviter la boue, vous n’y arriverez pas.
Néanmoins, on peut essayer de limiter les projections dans le visage (et il peut s’agir parfois de cocottes de pins et de petites pierres) ainsi que dans le bas du dos. Pour cela, je préconise les garde-boue souples à fixer avec des colliers de serrage, sous la selle pour l’arrière et sur la fourche pour l’avant. ils n’alourdiront pas le VTT et limiteront les projections autant que faire se peut. C’est surtout le garde boue avant qui est important : si vous roulez assez vite sur un terrain très humide, vous pourrez comprendre plus facilement.
Enfin, ce type de garde-boue ne coûte pas cher, on le remplace facilement, on peut aussi le découper si les dimensions ne conviennent pas.
Allez, je vous donne un truc : achetez votre premier garde-boue et avant de le monter dessinez les contours sur une feuille de papier que vous conservez. Vous avez des vieux set de tables en plastique ? S’il ne sont pas trop moches ou kitch, ils peuvent faire l’affaire, il suffira de les découper.
Une autre protection concerne le cadre, si on veut le protéger des projections de pierres, notamment sur le bas du tube diagonal. Il existe des façades à fixer sur le tube, mais c’est une protection encombrante plutôt destinée aux pratiques de descentes, là où le risque de taper fortement le cadre est évident. Pour les petites projections qui pourtant à la longue abîment la peinture, il existe des films transparents qui jouent parfaitement ce rôle.
De la même manière, si votre VTT ne dispose pas déjà d’une protection, il peut être utile d’en mettre sur la base arrière côté transmission, là où la chaîne est parfois amenée à taper la peinture.
Toutefois certains VTT disposent maintenant de protection déjà en place, là où parfois, à la place de la peinture, un revêtement rugueux est posé dès l’usine. Cela n’empêche pas de rajouter un peu de film protecteur à certains endroits stratégiques si besoin, par exemple sur les côtés de la fourche avant.
Je préconise d’éviter les adhésifs, à cause de la colle. Cette dernière peut ne pas tenir et faire des traces inesthétiques. À la place (mais assez cher) il existe des films transparents en polyuréthane. La pose est extrêmement facile :
- bien nettoyer et dégraisser le cadre avec de l’eau savonneuse,
- découper soigneusement la bande aux dimensions voulues et appliquer avec un peu d’eau tout en prenant soin de ne pas faire de bulles.
Ce type de film ne garanti pas les gros chocs : il s’agit de protéger la peinture en ajoutant une sur-couche solide très discrète. Ce matériau résiste très bien à l’humidité. La marque Clearprotect est connue.
Commencez à pédaler
Je pourrais ici commencer une longue section sur l’art et la manière de débuter le VTT en pratique. Pour simplifier, je dirais : pédalez d’abord. Si vous avez pris la décision d’acheter un VTT, il y a de fortes chances que vous ayez essayé au moins une fois que vous avez été séduit·e.
Néanmoins voici quelques conseils pour ne pas se mettre en difficulté dès le début et pouvoir progresser.
Réglez votre posture
Beaucoup de vidéos proposent des tutoriels pour régler correctement votre position sur le VTT. Celle-ci donne d’assez bons conseils, simples à mettre en œuvre.
- La hauteur de selle peut se régler facilement : une fois en selle, placez la plante du pied sur la pédale position basse, votre jambe doit être légèrement pliée. Trop pliée, votre selle est trop basse et vous allez vous faire mal aux genoux, trop haute, bobo le poum. Si vous y tenez, la solution mathématique est la suivante : soit EJ la hauteur de votre entrejambe du talon au périnée (pensez à vos chaussures !), et soit HS la hauteur de selle (du milieu de l’axe du pédalier jusqu’au creux de la selle) : HS = EJ x 0,885 (ou 0,875, cela varie).
- À moins d’avoir une tige de selle télescopique (dont l’utilité se discute en Cross country), si vous ne vous sentez pas à l’aise en cas de descente un peu raide, sachez vous arrêter pour abaisser votre selle et la re-régler ensuite. Si votre tige de selle n’a pas de traits de graduation, faites une marque au feutre (quitte à la refaire régulièrement), mais ne l’abîmez pas.
- L’avancée de la selle : cela se règle au centimètre près et sur les longues distances, on sent bien la différence. Votre VTT a une certaine géométrie, mais l’avancée horizontale de la selle va favoriser ou défavoriser votre puissance de pédalage. Très peu, bien sûr, mais l’amplitude, une fois changée, va aussi conditionner votre confort. Donc, il faut essayer… Une méthode consiste à utiliser un fil à plomb : votre pied en position de pédalage (cf. ci-dessous), placez le fil à plomb sur pointe de votre genou, le fil doit passer par l’axe central de la pédale.
- Placer son pied sur la pédale : l’avant du pied est sur la pédale, et non pas la plante du pied. Plus exactement la bosse à la base du gros orteil (l’articulation métatarso-phalangienne) doit se situer au niveau de l’axe de la pédale (ceci est valable pour tous les types de vélo, pédales automatiques ou pas).
- D’autres éléments peuvent se régler et dépendent beaucoup de votre morphologie : la longueur de la potence, la largeur du cintre. Mais dans un premier temps, contentez-vous du matériel tel quel : vous en jugerez à l’usage.
- Votre posture ne se détermine pas seulement matériellement : c’est aussi à vous d’adopter une bonne posture : épaules relâchées, ne vous crispez pas en serrant trop fort votre guidon (même en haut d’une descente), en forte montée sachez descendre vos coudes (ne les écartez pas), si vous n’avez pas de pédales automatiques (à régler correctement elles aussi !) sachez conserver vos pieds dans l’axe du vélo (et n’écartez pas les genoux), votre pédalage doit laisser l’axe de vos genoux parfaitement droit et parallèle au vélo. Bref, au début vous devrez penser très activement à votre posture.
- Vos poignées doivent toujours avoir un grip correct (surveillez l’état de vos poignées : trop sales, le grip est moins bon). Surtout en descente, vous saisissez vos poignées en laissant deux doigts (index et majeur) sur les leviers de freins, de chaque côté. Donc pensez aussi à relever ou abaisser ces leviers en fonction de votre morphologie. Le pouce doit servir à passer les vitesses sur les shifteurs. Ne roulez pas avec des gants de ski, même en hiver…
Les parcours et la performance
S’il peut sembler plus commode de toujours sortir dans un coin de montagne que l’on connaît bien, essayez de varier le plus possible. Vous ne progresserez pas si vous arpentez toujours les mêmes chemins, c’est-à-dire ceux qui vous semblent faciles aujourd’hui. Pour progresser, la nature de vos parcours doit être pensée.
Surtout en Cross country il n’est pas utile de toujours faire des sorties très longues. Certes, on en revient fort satisfait, et on en prend plein la vue, mais même si vous essayez de les faire toujours un peu plus vite, vous vous retrouverez assez vite au taquet. C’est comme la course à pied : parfois il faut savoir passer par des phases plus spécialisées, chronomètre en main, faire du fractionné, etc. En VTT, le fractionné existe aussi, de même la technicité du pilotage (en descente comme en montée), l’endurance sur des parcours pénibles avec des montées bien longues et régulières pour travailler le « foncier », etc.
Mon conseil : si vous débutez, avec deux sorties par semaine, essayez d’alterner une longue, une courte. Pour la sortie longue, faites-vous plaisir : points de vue, vieux châteaux, endroits insolites, faites du tourisme et recherchez le fun. Pour les sorties courtes, trouvez-vous deux ou trois terrains de jeu, même si vous passez deux fois au même endroit, et lancez-vous des défis. L’idéal est de trouver un parcours où vous aurez deux ou trois types de difficultés à affronter : à vous de voir sur quels points vous devez progresser.
Qu’est-ce qu’une sortie longue, qu’est-ce qu’une sortie courte ? il s’agit surtout du temps passé à VTT. On mesure une sortie à la fois en kilomètres et en dénivelé (d’où l’intérêt d’utiliser un GPS, ou au moins un appli sur smartphone). Faire 23 km avec 1000 m de dénivelé cumulé (d+), c’est déjà de la bonne grosse sortie pour un débutant. Cela me semble même déjà trop. Dans les Vosges il faut partir d’en bas côté Alsace, mais c’est assez faisable tout de même.
Donc n’ayez pas les yeux plus gros que le ventre. Essayez au début de faire des sorties de 20 à 25 km avec un max de 500 à 600 m d+. Ensuite sur le même dénivelé, rallongez le kilométrage, puis ensuite augmentez le dénivelé. Ce n’est pas forcément utile de le rappeler, mais cela va mieux en le disant : allez-y progressivement.
Avec les copain·es : les sorties à plusieurs, c’est super. Être seul dans la forêt, cela a un côté peu rassurant, surtout dans les descentes un peu techniques. Par contre, si vous roulez avec des personnes d’un niveau plus avancé, c’est bien pour progresser à la seule condition de ne pas le faire tout le temps et de rappeler à vos collègues de savoir respecter votre rythme : en effet, si vous êtes toujours en sur-régime (au seuil anaérobie), avec le cœur en dehors de sa boîte à chaque montée, ou si la sortie est trop longue pour vous, d’une part vous allez finir la sortie avec des jambes en coton et au bout de votre vie en jurant que jamais plus…, et d’autre part, le plus important, vous risquez de vous blesser (tendinite ou autre blessure musculaire) voire de solliciter trop votre système cardiaque et subir un malaise voire plus grave encore.
Donc être seul a aussi des avantages, mais restez prudent.
Enfin, trop de fatigue nuit au pilotage et vous savez quoi ? quand on roule en montagne, le parcours se termine le plus souvent par une descente. Le faire en état de trop grande fatigue réduit votre attention et vos réflexes, et augmente drastiquement le risque de chute.
Inutile d’ajouter que la fatigue gagne aussi si on ne dort pas assez. Alors, profitez de vos nuits, et cessez de vous coucher tard : un bon entraînement sportif s’accomplit aussi par le repos. Concernant les repas : mangez équilibré, ne vous empiffrez pas de pâtes (c’est une légende : les sucres lents se trouvent aussi dans d’autres aliments), respectez aussi votre rythme digestif. Plutôt que de chercher des régimes plus ou moins fiables, faites surtout preuve de bon sens.
Et, pour palier les éventuels risques cardiaques, si vous avez passé vos 40 bougies, je conseille vivement de faire un bilan cardiaque avec test d’effort (demandez-en un à votre médecin traitant), il permettra de déceler un éventuel souci et prendre des mesures adéquates.
Ha oui, dernier point : ne recherchez pas la performance. Laissez-cela aux sportifs de profession. D’abord, faites-vous plaisir. Votre performance, ce sera celle que vous constaterez à votre mesure : vous n’avez de compte à rendre à personne et encore une fois, il n’y a aucune honte à descendre du vélo lorsque la montée est trop dure ou si vous ne sentez pas ce petit passage de descente.
Les randos VTT organisées
Elsass Bike, Trace vosgienne, randonnées diverses organisées par des comités cyclistes locaux : tous ces événements sont des occasions de découvrir des circuits dans une ambiance sympathique et détendue. Généralement, ces randonnées sont organisées en plusieurs parcours de niveau, proposent des points de ravitaillement et se terminent avec une bonne bière au bar de l’amicale.
N’hésitez pas à vous inscrire à de tels évènements, il y en a sans doute près de chez vous. Vous y rencontrez d’autres cyclistes et vous pouvez y aller en famille. Il ne s’agit pas de courses proprement dites, pas besoin de faire partie d’un club ou d’être inscrit à la FFC. Les circuits sont balisés, les départs sont échelonnés (il y a quand même une heure limite et comme c’est en été, il est mieux de partir tôt) et vous faites le parcours à votre rythme. Gros avantage : vous n’avez qu’à suivre le balisage.
Pour des évènements comme la Trace Vosgienne VTT, par exemple, c’est un mixte. Il y a une partie course (un départ collectif et des gagnant·es) et une partie randonnée sans chrono. À vous de choisir : vous pouvez très bien faire le marathon tout en vous fichant du chrono, mais il va falloir tout de même dépoter un peu.
Vous pouvez vous fixer ces rendez-vous annuels comme des objectifs. Choisissez la rando qui vous paraît difficile (mais pas impossible) et préparez-vous pour la réaliser sans temps chrono, mais dans de bonnes conditions. Vous pourrez-vous dire que l’année prochaine, vous ferez la rando du niveau supérieur.
Une autre opportunité consiste à rejoindre une association de vététistes, ou un club cycliste qui possède une section VTT. Même certaines antennes du Club Vosgien possèdent une section VTT. Là aussi renseignez-vous près de chez vous. C’est la garantie de sortir à plusieurs et émuler une dynamique de motivation qu’on n’a pas forcément en solo. Et puis, à fréquenter des plus expérimentés que soit, on apprend toujours des choses…
L’entretien général
Si vous voulez faire durer votre VTT, son entretien après chaque sortie est une étape obligatoire. L’entretien concerne le nettoyage, le changement de certaines pièces et la révision générale.
Ne pas faire
Pour nettoyer votre VTT après une sortie boueuse, n’utilisez jamais – entendez-vous ? – jamais ! de nettoyeur haute pression. Si vraiment vous tenez à projeter de l’eau avec un tuyau, utilisez votre tuyau d’arrosage de jardin avec jet diffus.
Autre chose à ne pas faire : huiler la transmission sans l’avoir nettoyée auparavant. C’est le meilleur moyen pour tout encrasser et user prématurément les toutes les pièces.
Et n’utilisez pas non plus de combinés lubrifiant / nettoyant tout-en-un pour votre transmission. Cette dernière se soigne, se bichonne : elle ne mérite pas de traitement à la va-vite (cf. plus loin).
Et vous aurez compris : l’entretien d’un VTT, ce n’est pas seulement le garder à peu près propre, c’est vérifier les pièces et leur usure, prévenir la casse, et donc rouler dans des conditions de sécurité acceptables.
Nettoyage
Si vous revenez d’une sortie très humide, passez un coup de chiffon sec sur la chaîne, épongez ce que vous pouvez sur la transmission, passez un coup de jet d’eau ou un coup de brosse sur le cadre pour ôter le plus « épais » et laissez sécher pour revenir terminer ensuite.
Une fois sec, prenez une brosse et un pinceau plat rigide : la brosse pour ôter la terre collée, le pinceau pour aller dans les recoins (du genre : le dérailleur arrière).
Le cadre d’un VTT se nettoie à l’eau. On peut éventuellement ajouter un petit peu de liquide vaisselle dans la bassine, mais c’est tout. Cela dit, comme vous aurez débarrassé votre VTT de la terre avec une bonne vieille brosse, une microfibre humide fait très bien l’affaire pour la majorité des composants : vous n’aurez pas à attendre le séchage avant de passer à la transmission.
La transmission et les lubrifiants
La durabilité et le besoin de nettoyage de votre transmission dépend énormément du lubrifiant que vous utilisez.
Sur le marché vous trouverez beaucoup de lubrifiants huile adaptés aux conditions météo, mais qui attirent plus ou moins de saletés, avec du téflon ou sans téflon, etc. Il y a même de fortes chance que le premier conseil qu’on puisse vous donner est d’utiliser ce genre de produit.
Lubrifier à l’huile a pour caractéristique de coller la poussière et le sable, et d’user prématurément les dents de vos plateaux, pignons et galets. De plus il faut savoir utiliser la bonne huile en fonction des conditions météo (conditions sèches, conditions humides). Pour le vélo de route, par définition moins sujet à la boue et au sable, l’huile sera sans doute le lubrifiant le plus simple à l’usage.
Pour le VTT, rien ne vaut le lubrifiant à la cire. La cire a pour avantage d’enrober les pièces et empêche vraiment la poussière et le sable d’y adhérer. Les frottements des pièces entre elles est largement atténué ce qui prolonge indéniablement la durée de vie de votre transmission.
Si on a longtemps considéré que les lubrifiants cire étaient sensibles aux conditions humides, les nouvelles formules n’ont plus vraiment ce défaut. En revanche, si un lubrifiant huile peut être appliqué juste avant de pédaler, il vous faudra attendre deux ou trois heures de séchage après avoir appliqué un lubrifiant cire. Ce lubrifiant est composé d’eau et de particules de céramique (il est souvent de couleur blanche), et il pénètre vraiment les moindre espaces entre les composants de la chaîne.
L’autre avantage de la cire, c’est le nettoyage. Même au retour d’une sortie bien boueuse, vous pourrez simplement passer un coup de chiffon sur la chaîne (prenez la chaîne à pleine main avec un chiffon et frottez) et entre les pignons. Alors qu’une huile vous obligerait à dégraisser la transmission.
À propos de dégraissage : la première fois que vous appliquez un lubrifiant cire, et si le lubrifiant précédent était à l’huile, un dégraissage en détail est nécessaire, suivit de trois applications du lubrifiant cire espacées de deux à trois heures.
Enfin, il n’est pas toujours utile de re-lubrifier à chaque fois : l’avantage de la cire, c’est que si les conditions sont bien sèches, et si vous n’avez pas trop sali votre transmission, on peut enchaîner deux sorties sans appliquer le lubrifiant, ou alors un tout petit coup pour la forme (mais toujours après vous être assuré qu’il ne subsiste pas de terre sur la chaîne, donc coup de chiffon, toujours). Vous pouvez aussi réserver un pinceau pour votre chaîne et les pignons, histoire de frotter doucement, y compris entre les maillons.
Changer les pièces de votre transmission
C’est le sujet épineux : quand sait-on qu’il faut changer les pièces ? et si c’est le cas, que doit-on changer ?
Si votre chaîne se met à sauter, c’est soit un défaut de réglage soit une usure qu’il faut d’urgence corriger :
- la chaîne qui devient trop lâche,
- des dents des pignons ou des plateaux qui deviennent pointues et ne retiennent plus la chaîne correctement.
Si c’est le cas, je déconseille de changer la chaîne seule, ou les plateaux ou les pignons seuls : c’est un ensemble. Tout au plus on peut changer les galets d’entraînement du dérailleur, mais généralement on les change en même temps que le reste. Pourquoi ? parce que votre chaîne s’est adaptée aux autres éléments d’entraînement et inversement.
Donc : les dents pointues, c’est le signe d’usure à reconnaître. Ne cherchez pas à utiliser les indicateurs d’usure de chaîne. Je lis parfois qu’il est conseillé de changer la chaîne régulièrement… bof : une chaîne de VTT est solide, et à moins de vraiment la maltraiter (changer de vitesses, cela s’apprend) mieux vaut user l’ensemble et changer le tout lorsqu’il le faut. Bien sûr si vous cassez la chaîne, il faut la changer : si elle est neuve et qu’elle saute, c’est qu’il faut aussi changer le reste car l’usure était déjà là.
Concernant les autres pièces de votre transmission, l’élément qu’il peut vous arriver de changer, c’est le boîtier de pédalier. La cause est soit l’usure, soit des chocs dans le pédalier (par exemple, la pierre qu’on n’a pas vue et qui tape une manivelle verticalement) qui font prendre du jeu au boîtier.
Le faire soi-même ? en théorie, si vous êtes bricoleur·se, vous pouvez changer tout un groupe. Mais si vous débutez, contentez-vous dans un premier temps de diagnostiquer, puis faites un tour chez votre revendeur·se : iel a les bons outils, les bonnes pièces et le savoir-faire.
Système de frein
Oui, il faut s’assurer que vos plaquettes ne sont pas encrassées par la boue. Par contre faites bien attention à ne pas projeter de lubrifiant ou n’importe quel corps gras sur vos plaquettes ou le disque de frein.
Pour prévenir les accidents, vérifiez :
- l’état d’usure des plaquettes : n’attendez pas de freiner sur l’armature pour faire des étincelles et amuser la galerie. Tout ce que vous risquez c’est abîmer votre disque et surtout vous casser le nez parce que vos freins ne sont plus efficaces. Les plaquettes se changent régulièrement : après chaque sortie, vérifiez-les.
- votre disque de frein : est-il trop usé ? des rails se sont formés ? il faut le changer. Si vous venez de changer les plaquettes et que vous vous apercevez qu’elles rayent profondément votre disque, c’est qu’elles ne conviennent pas.
Quand purger les freins hydrauliques ? Ce n’est pas une opération à faire régulièrement mais lorsque qu’on constate que des bulles d’air sont présentes dans le système :
- à l’arrêt votre levier de frein est très lâche,
- lors d’une descente, le frein chauffe et pourtant vous devez pomper pour retrouver de la prise.
Remplacement des plaquettes et des disques : ces opérations peuvent être faites par vous même, c’est facile et accessible. En revanche, pour une bonne purge, je conseille plutôt d’aller voir un·e spécialiste.
Les suspensions
L’entretien complet de ces pièces se fait par un·e professionnel·le. D’ailleurs, certains revendeur·ses les envoient dans un centre spécialisé où l’on peut démonter les suspensions, procéder à une vidange, changer les joints et vérifier les pièces. Certains grand·es bricoleur·ses parviennent à le faire iels-mêmes mais honnêtement, je trouve que ce genre d’opération est très pénible.
Si l’on lit attentivement les modes d’emploi des suspensions, certains préconisent un entretien complet annuel voire tous les six mois. Un tel entretien coûte entre 100 et 150 euros par suspension et très franchement, à moins de vouloir y passer le prix d’une fourche neuve, il n’y a pas grand intérêt à faire une entretien complet tous les ans. Si vous prenez soin de votre matériel, une fourche rempli parfaitement son rôle des années durant, cependant, pour en garantir l’efficacité, pensez régulièrement à sa révision selon le rythme de vos sorties à l’année. Donc tous les ans ou tous les deux ans : au-delà, c’est que vous sortez peu.
On distingue :
- la révision : tous les ans ou deux ans : vidange, vérification, nettoyage (à faire soi-même ou chez un professionnel),
- l’entretien complet : idem + changement des joints, tous les ans ou deux ans (plutôt chez un professionnel).
Conseil : alternez :) et si vous loupez une séquence, ça ira quand même si vous prenez soin de votre matériel, rassurez-vous.
Autre solution : vous vous en fichez, vous roulez et lorsqu’il faut changer la fourche avant, vous la changez. Sur un semi-rigide, par exemple, qui ne nécessite pas d’entretien trop onéreux, et si la fourche n’est pas excessivement chère, c’est peut-être encore la solution la plus simple. Donc on se détend sur ce point.
Enfin, n’oubliez pas : les suspension avec ressort à air… cela se regonfle. Si vous perdez de l’air (cherchez la raison si vous en perdez trop), non seulement votre suspension ne sera plus réglée correctement (surtout en fonction de votre poids) mais aussi elle va s’user davantage vu que vous mettez à l’épreuve les matériaux. Si vous n’avez pas de pompe haute pression manuelle (cela vaut entre 20 et 40 euros), passez chez votre revendeur·se : il faut 30 secondes pour rajouter un peu d’air.
Autres dispositifs
La caisse à outils
Même si vous ne bricolez pas jusqu’à être capable de démonter et remonter chaque pièce de votre VTT, votre caisse à outil devra néanmoins comporter quelques éléments essentiels. La liste suivante n’est pas exhaustive mais elle vous permettra de survivre :
- les outils que vous embarquez lors de vos sorties,
- outils classiques : tous les outils que vous avez déjà à la maison, dont un jeu de clé allen (en T si possible) et au moins une petite pince coupante,
- une clé à pédales (pour changer les pédales),
- pompe à haute pression (pour suspension),
- pompe à pied avec manomètre,
- un pied d’atelier (ou si c’est trop encombrant pour vous, un simple pied béquille à crochets qui puisse vous permettre de soulever la roue arrière lorsque vous bricolez),
- un dérive chaîne,
- une pince attache rapide.
Si vous êtes en Tubeless, il faudra un compresseur. Pas besoin d’un compresseur électrique. Il s’agit d’un compresseur à gonfler jusque 8-10 bar capable de relâcher la pression très rapidement de manière à faire claquer le pneu. Cela vaut entre 50 et 80 euros.
Pour le reste, si vous voulez changer votre groupe de transmission, votre système de frein, ou vos suspensions, il y a des outils spécifiques à se procurer avant de faire quoi que ce soit. Et n’oubliez pas : il y a un début à tout, mais quand on n’a jamais fait… on n’a jamais fait. Donc faites vous accompagner, c’est mieux.
Préparer ses sorties et se repérer
À moins de connaître parfaitement les moindres sentiers sur des centaines de kilomètres carrés, vous devriez embarquer au moins une carte IGN lorsque vous sortez rouler.
Il y a deux manières d’envisager une sortie. La première, surtout s’il s’agit de vos premières sorties, c’est de partir comme vous le feriez en randonnée pédestre, avec une bonne carte, puis improviser votre parcours en vous fixant des objectifs et en suivant le balisage. C’est une bonne manière de découvrir le pays. En revanche, à moins d’avoir déjà pas mal de pratique, méfiez-vous de l’improvisation qui risque de vous amener à emprunter des chemins trop difficiles par rapport à votre niveau, voire des chemins carrément non praticables en VTT. Parfois, il peut être intéressant d’organiser une randonnée pédestre pour envisager certaines tranches du parcours.
C’est votre niveau que, justement, vous allez pouvoir améliorer si vous surveillez vos distances et vos dénivelés. De même, si vous préparez correctement un parcours, vous pouvez plus facilement veiller à ne pas présumer de vos forces.
Donc la seconde manière d’envisager vos sorties, c’est de manipuler un peu de matériel numérique.
Première solution. Préparez votre parcours en vous rendant par exemple sur Geoportail, ou encore VTTRack. La cartographie IGN est la plus appropriée pour préparer correctement une sortie pleine nature. Mais si vous pensez pouvoir vous satisfaire des cartes issues du projet OpenStreetMap (dont les couches OpenTopoMap, présentant les courbes de dénivelé), vous pouvez vous rendre sur le projet Umap ou utiliser un logiciel comme Viking ou QMapShack sous GNU/Linux.
Tracez le parcours grosso-modo avec l’outil de calcul de distance, mémorisez les principaux points de passage et prenez une carte « papier » qui vous servira à vous repérer sur place (astuce : au lieu de prendre toute une carte, faites des photocopie couleur des lieux que vous fréquentez, et utilisez une pochette plastique : sortir la carte directement depuis la poche arrière est moins contraignant que sortir une grande carte du sac à dos, la déplier, la replier…),
Seconde solution. Préparez votre parcours avec un logiciel qui permet de réaliser un tracé que vous pourrez ensuite importer sur un dispositif GPS que vous embarquez sur votre VTT (ou votre smartphone dans une poche facile d’accès). C’est de loin la solution la plus courante mais elle nécessite encore un achat, celui du GPS (c’est tellement pratique, aussi…). Notez qu’on ne compte plus le nombre d’écrans de smartphone cassés à force de le sortir et le ranger pour se repérer. Vous pouvez aussi avoir un support pour smartphone au guidon : c’est très bien sur route, mais en VTT quand ça secoue trop fort ou si vous tombez, votre smartphone risque de prendre cher (alors que les dispositifs GPS sont petits et peu encombrants au guidon).
Dans les deux cas, regardez-bien les distances, les dénivelés et identifiez les points difficiles.
Ma pratique personnelle est la suivante :
- Un dispositif GPS embarqué sur le vélo (marque Garmin et son support guidon),
- n’ayant jamais trouvé mieux que la cartographie IGN pour nos contrées, il est difficile de trouver un logiciel libre qui utilise efficacement cette cartographie pour tracer des parcours de manière fiable et en exporter des traces utilisables sur une dispositifs GPS. J’ai donc opté pour IGN Rando qui permet, outre l’application du téléphone portable, de préparer ses parcours à partir d’un simple navigateur Internet, afin de créer des traces et les exporter en différents formats (j’utilise le GPX). L’usage des cartes est payant pour quelques euros par an.
- Une fois le GPX créé, j’uploade sur le site de Garmin (qui se gave de mes données personnelles, aaargh!) et je balance le tout sur mon appli smartphone qui, couplée à mon dispositif GPS me permettra d’y uploader la trace afin d’être utilisable sur le vélo lors de la sortie.
IGN Rando est aussi une application sur Smartphone. Notez que depuis le mois de mai 20244, l’IGN a publié une autre application nommée Cartes IGN, qui est en fait un accès au Géoportail.
Pourquoi ne pas utiliser les cartes du projet OpenStreet Map ? et bien figurez-vous que c’est le cas. J’ai fait en sorte que mon dispositif GPS de vélo utilise ces cartes qui, en fait, sont plus lisibles et à jour que les cartes présentes par défaut. Par contre, pour préparer un parcours, l’IGN a produit des cartes bien plus adaptées et dont les données peuvent aussi être croisées.
Autre solution, si vous ne voulez pas téléverser vos cartes et vos données sur le site du fabricant :
- préparez votre trace GPX à suivre ;
- placez le fichier sur votre dispositif GPS relié à votre ordi (sous GNU Linux, c’est comme une clé USB, il suffit de choisir le bon dossier) ;
- vous pouvez aussi y aller chercher le GPX de votre parcours effectué ;
- et le lire avec un logiciel de lecture GPX libre.
Nettoyer sur place
Et pour finir, je reviens de nouveau sur la question du nettoyage. Si vous vous déplacez en voiture avec votre VTT ou si vous habitez en appartement, un petit matériel pourra vous être utile : un nettoyeur mobile. Il s’agit d’une petite station sur batteries, avec une contenance de 5 à 10 litres. Le jet d’eau n’est pas haute pression. La marque Kärcher en produit à prix raisonnable.
Utilité : si vous revenez d’une sortie très boueuse, avant de charger le VTT sur votre porte-vélo ou dans la voiture, passez-lui un coup de flotte avec cet outil. Idem si vous habitez en appartement, descendez sur le parking : vous pourrez nettoyer votre vélo sans encrasser votre balcon. Prenez aussi toujours une ou deux brosses avec vous pour enlever le plus gros avant de fignoler à la maison.
Notes
-
L’autre option est d’acheter un vélo dit « Gravel », assez à la mode en ce moment : pour dire vite il s’agit d’un vélo de course (donc sportif) avec un cadre et des roues adaptés aux chemins forestiers peu accidentés. ↩︎
-
À vrai dire, entre les études, la vie familiale et la pratique du trail, je n’ai pas fait que du VTT durant toutes ces années. ↩︎
-
Non, je n’incite personne à emprunter le VTT d’un·e ami·e. Parce qu’il n’est pas conseillé de prêter son VTT chéri à un·e débutant·e, alors que la location, hein, on sait ce qu’on fait avec ce matériel… ↩︎
- Persos A à L
- Mona CHOLLET
- Anna COLIN-LEBEDEV
- Julien DEVAUREIX
- Cory DOCTOROW
- EDUC.POP.FR
- Marc ENDEWELD
- Michel GOYA
- Hubert GUILLAUD
- Gérard FILOCHE
- Alain GRANDJEAN
- Hacking-Social
- Samuel HAYAT
- Dana HILLIOT
- François HOUSTE
- Tagrawla INEQQIQI
- Infiltrés (les)
- Clément JEANNEAU
- Paul JORION
- Michel LEPESANT
- Frédéric LORDON
- Blogs persos du Diplo
- LePartisan.info
- Persos M à Z
- Henri MALER
- Christophe MASUTTI
- Romain MIELCAREK
- Richard MONVOISIN
- Corinne MOREL-DARLEUX
- Fabrice NICOLINO
- Timothée PARRIQUE
- Emmanuel PONT
- VisionsCarto
- Yannis YOULOUNTAS
- Michaël ZEMMOUR
- Numérique
- Binaire [Blogs Le Monde]
- Christophe DESCHAMPS
- Louis DERRAC
- Olivier ERTZSCHEID
- Olivier EZRATY
- Framablog
- Francis PISANI
- Pixel de Tracking
- Irénée RÉGNAULD
- Nicolas VIVANT
- Collectifs
- Arguments
- Bondy Blog
- Dérivation
- Dissidences
- Mr Mondialisation
- Palim Psao
- Paris-Luttes.info
- ROJAVA Info
- Créatifs / Art / Fiction
- Nicole ESTEROLLE
- Julien HERVIEUX
- Alessandro PIGNOCCHI
- XKCD