Statium Blog

Le blog de Christophe MASUTTI

(H)ac(k)tiviste, Chercheur associé à l'UMR 7363 SAGE (Sociétés, Acteurs, Gouvernement en Europe - Université de Strasbourg ), administrateur de Framasoft

Publications

Publié le 18.11.2024 à 01:00

Moi aussi je peux écrire un livre sur l'IA

Chez Framasoft, on se torture les méninges. Alors quand on parle d’Intelligence Artificielle, on préfère essayer de gratter un peu sous la surface pour comprendre ce qui se trame. Comme le marronnier éditorial du moment est l’IA dans tous ses états, je me suis dis que finalement, moi aussi…


C’est un petit projet, comme ça en passant. Il ne prétend par faire un tour exhaustif de ce qu’on entend exactement par « apprentissage automatique », mais au moins il m’a donné l’opportunité de réviser mes cours sur les dérivées… ha, ha !

Majpeulsia : Moi aussi je peux écrire un livre sur l’IA !

Ma manière à moi de comprendre des concepts, c’est d’en écrire des pages. J’ai pensé que cela pouvait éventuellement profiter à tout le monde. En premier lieu les copaing•nes de Framasoft mais pas que…

L’objectif consiste à développer les concepts techniques de l’apprentisage automatique et les enjeux du moment autour de cela. Pourquoi faire ? par exemple, lorsque l’Open Source Initiative a sorti a sorti sa définition d’une IA open source (voir mon billet précédent sur ce blog), il a été aussitôt question du statut des données d’entraînement. Mais… c’est quoi des données d’entraînement ? et surtout comment entraîne-t-on une IA ?

Vous allez me dire : ok, quand je conduis une voiture, je n’ai pas besoin de connaître la théorie du moteur à explosion. Oui, certes, mais connaître un peu de mécanique, c’est aussi assurer un minimum de sécurité. Alors, voilà, c’est ce minimum que je propose.

Cela se présente sous la forme d’un MKDocs à cette adresse (j’ai pas pris la peine d’un nom de domaine), et les sources sont ici. Le travail est lancé et il sera toujours en cours :)

Bonne lecture !


Publié le 02.11.2024 à 01:00

Que serait une IA libre ?

Fin octobre 2024, l’OSI a publié sa définition d’une IA open source. Ce faisant, elle remet en question les concepts d’ouverture et de partage. Il devient urgent d’imaginer ce que devrait être une IA libre. Je propose ici un court texte en réaction à cette publication. Sans doute vais-je un peu trop vite, mais je pense qu’il y a une petite urgence, là.


Nous savons que la définition d’un logiciel libre implique un ouverture et un accès complet au code. Il ne peut y avoir de faux-semblant : le code doit être lisible, il doit être accessible, et tout programmeur devrait pouvoir l’utiliser, le modifier et partager cette version modifiée. C’est encore mieux si la licence libre qui accompagne le programme est dite copyleft, c’est-à-dire qu’elle oblige tout partage du code à adopter la même licence.

Dans le domaine de l’IA, cela se complique un peu. D’abord, ce qu’on appelle « une IA » est un système composé :

  • le code qui permet de structurer le réseau neuronal. Par exemple un programme écrit en Python.
  • les paramètres : ce sont les poids qui agissent dans le réseau et déterminent les connexions qui dessinent le modèle d’IA. On peut aussi y adjoindre les biais qui sont utilisés volontairement pour affiner le rôle les poids.

Donc pour définir la licence d’un système d’IA, il faut qu’elle porte non seulement sur le code mais aussi sur les paramètres.

Fin octobre 2024, l’Open Source Initiative (l’OSI) a donné sa définition (1.0) de ce qu’est une IA open source. Elle indique bien cette importance donnée aux paramètres. On constate de même que pour la première fois dans l’histoire du logiciel libre ou open source, une licence d’un système porte à la fois sur du code et sur les paramètres qui permettent d’obtenir une manière particulière de faire tourner ce code.

Or, nous savons aussi qu’un système d’IA n’est rien (ou beaucoup moins) sans son entraînement. L’OSI a donc naturellement pensé à ces données d’entraînement, c’est-à-dire les jeux de données d’entrées et de sortie qui ont servi à paramétrer le système. Ainsi, la définition de l’OSI nous donne une liste des « informations suffisamment détaillées » requises au sujet de ces données d’entrainement.

Dans un article intitulé « L’IA Open Source existe-t-elle vraiment ? », Tante nous explique que cette définition de l’OSI nous embarque dans un régime d’exception problématique car le niveau de détail déclaré « suffisant » risque bien de ne jamais l’être. Par exemple on de dit pas qu’un code open source serait suffisamment ouvert : il est ouvert ou il ne l’est pas. C’est non seulement une question pratique (ai-je accès au code pour pouvoir l’inspecter et le modifier ?) mais aussi de confiance : irai-je faire tourner un programme si certains éléments, même décrits, me restent cachés ? En admettant que je puisse modifier les parties ouvertes du programme, puis-je repartager un tel programme contenant une boîte noire à laquelle personne ne peut avoir accès ?

De surcroît, la définition de l’OSI nous indique :

  • que pour « les données d’entraînement qui ne sont pas partageables », il suffirait de les décrire ;
  • que l’objectif de ce partage, à défaut de reproduire exactement le même système, consiste à obtenir un système seulement « similaire ».

Ainsi en cherchant à définir l’ouverture des systèmes d’IA, l’OSI cherche à modifier la conception même de ce qu’est l’ouverture. L’idée n’est plus de partager un commun numérique, mais de partager une méthode pour en reproduire un équivalent. Cette concession faite aux producteurs de systèmes d’IA déclarés open source implique un net recul par rapport aux avancées des dernières années au sujet des communs numériques. Là où l’ouverture du code pouvait servir de modèle pour partager toutes sortes d’oeuvres et ainsi contribuer au partage de la connaissance et de l’art, voici qu’un commun numérique n’a plus besoin d’être partagé dans son intégralité et peut même contenir ou dépendre d’éléments non ouverts et non accessibles (pourvu qu’ils soient « décrits »).

L’ouverture se distinguerait alors du partage. On tolèrerait des éléments rivaux dans les communs numériques, là où normalement tout partage implique l’enrichissement mutuel par l’abondance qu’implique ce partage. L’OSI conçoit alors l’ouverture des systèmes d’IA comme une sorte de partage inaboutit, un mieux-que-rien laissé dans le pot commun sans réel avantage. Sans l’intégralité des données d’entraînement, non seulement le système n’est plus le même mais encore faut il trouver les ressources suffisantes ailleurs pour en obtenir une alternative de niveau équivalent.

A contrario, un système d’IA libre devrait être fondé :

  • sur du code libre,
  • sur des données d’entraînement libres et accessibles à tous (elles peuvent être elles-mêmes sous licence libre ou dans le domaine public),
  • sur des algorithmes d’entraînement libres (bon, c’est des maths normalement), publiés et accessibles,
  • et le tout, pour mieux faire, sous Copyleft.

Mais ce n’est pas tout, il faut que les données soit décrites ainsi que la manière de les utiliser (l’étiquetage, par exemple). En effet, que les données soient libres n’est pas en soi suffisant. Tout dépend de l’usage : si j’entraîne une IA sur des données libres ou publiques il faut encore les évaluer. Par exemple si elles ne contiennent que des contenus racistes le résultat sera très différent que si je l’entraine sur des contenus dont on a évalué la teneur et que cette évaluation ai dûment été renseignée. Ici se joue la confiance dans le système et plus seulement la licence !

La question n’est pas de savoir s’il est aujourd’hui possible de réunir tous ces points. La question est de savoir ce que nous voulons réellement avec les systèmes d’IA.

Par ailleurs, l’OSI nous donne une définition qui intervient a posteriori par rapport aux systèmes d’IA existants et distribués d’emblée sous le drapeau open source. Un peu comme si l’OSI prenait simplement acte d’une pratique déjà mise en place par les acteurs des grands modèles d’IA, à l’Instar d’OpenAI qui soutenait qu’il n’était pas possible d’entraîner des systèmes d’IA sans matériel copyrighté (Ars Technica, 09/01/2024). Ce à quoi Huggingface a répondu quelques mois plus tard, en novembre 2024, en proposant une large base de données sous licences permissives (open source, domaine public, libre… la liste est sur ce dépôt).

En France, le Peren (le Pôle d’Expertise de la Régulation Numérique) est intervenu juste après l’annonce de l’OSI pour proposer un classement des système d’IA selon cette définition. Et ce classement s’accomode très bien avec la conception de l’ouverture des Big AI : tout est plus ou moins ouvert, plus ou moins accessible, voilà tout. Il n’y a aucune valeur performative de la définition de l’OSI là où une approche libriste cherche au contraire à imposer les éléments de probité inhérents aux libertés d’usage, de partage et de modification.

Est-ce vraiment étonnant ? Récemment Thibaul Prevost a publié un ouvrage passionant au sujet du cadre narratif des Big AI (Les prophètes de l’IA - Pourquoi la Silicon Valley nous vend l’apocalypse). On y apprend que, selon le Corporate Europe Observatory dans un communiqué édifiant intitulé Byte by byte. How Big Tech undermined the AI Act les Big AI se sont livrés à un lobbying de choc (plus qu’intensif, il était exclusif) dans le cadre des négociations de l'AI Act en 2023, jusqu’aux plus hauts sommets des intitutions européennes pour « faire supprimer du texte les obligations de transparence, de respect du copyright des données d’entraînement et d’évaluation de l’impact environnemental de leurs produits » (chap. 4). Avec sa définition, ce que fait l’OSI, c’est approuver la stratégie de maximisation des profits des Big AI pour donner blanc seing à cette posture de fopen source (avec un f) qui valide complètement le renversement de la valeur de l’ouverture dans les communs numériques, en occultant la question des sources.

On voit aussi l’enjeu que pourrait représenter une conception altérée de l’ouverture dans plusieurs domaines. En sciences par exemple, l’utilisation d’un système d’IA devrait absolument pouvoir reposer sur des garanties bien plus sérieuses quant à l’accessibilité des sources et la reproductibilité du système. Il en va du statut de la preuve scientifique.

Plus largement dans le domaine de la création artistique, le fait que des données non partageables aient pu entraîner une IA revient à poser la question de l’originalité même de l’oeuvre, puisqu’il serait impossible de dire si la part de l’oeuvre dûe à l’IA est attribuable à l’artiste ou à quelqu’un d’autre dont le travail se trouve ainsi dérivé.

Il y a encore du travail.


Publié le 13.09.2024 à 02:00

Cybersyn : limites du mythe

Vous avez sans doute remarqué le nombre de publications ces dernières années à propos du grand projet Cybersyn au Chili entre 1970 et 1973. C’est plus qu’un marronnier, c’est un mythe, et cela pose tout de même quelques questions…

Le 11 septembre est un double anniversaire pour deux événements qui ont marqué profondément l’histoire politique mondiale. Le premier en termes de répercutions désastreuses sur le monde fut le 11 septembre 2001. Celleux qui, comme moi, en ont le souvenir, savent à peu près ce qu’ils étaient en train de faire à ce moment-là, étant donné la rapidité de propagation de l’information dans notre société médiatique. Le second est plus lointain et plus circonscrit dans l’espace et le temps, bien que désastreux lui aussi. C’est le coup d’état au Chili par Pinochet et sa junte militaire, soutenue en douce par Nixon et la CIA.

Commémorer le triste anniversaire du coup d’état de Pinochet revient parfois à embellir le projet socialiste de Allende et ses compagnons. Un projet dont les bases étaient fragiles, fortement ébranlées par l’hostilité américaine (qui a attisé l’opposition politique et la sédition de l’armée) et le jeu de dupes joué par les soviétiques. Au-delà de la question géopolitique, le socialisme de Allende reposait sur un bloc, l’Unité Populaire, qui a fini par se diviser (pour des socialistes, rien d’étonnant, direz-vous) entre une voie institutionnelle et une voie radicale-révolutionnaire. La voie institutionnelle s’est dirigée vers un vaste programme de nationalisation (par ex. les banques, les industries, surtout en matières premières), la promotion de la co-gestion avec les travailleurs dans les entreprises, et une réforme agraire dont le but consistait surtout à mettre fin au manque de rendement des exploitations latifundiaires. Dans les faits, le mouvement populaire échappait quelque peu à la voie institutionnelle. Par exemple dans les campagnes, des conseils paysans virent le jour et lancèrent des plan d’occupation des exploitations en dehors de tout cadre réglementaire. Les contestations n’étaient pas seulement des reproches de l’aile révolutionnaire à l’aile plus « démocrate-chrétienne » de Allende, mais poussaient souvent trop loin l’élan populaire jusqu’à parfois faire des compromis avec l’opposition. Bref, c’est important de le rappeler, après l’arrivée de l’Union Populaire au pouvoir, le moment démocratique du Chili amorcé en 1970 était aussi un moment de divergence de points de vue. Cela aurait pu se résoudre dans les urnes, mais c’était sans compter Pinochet et les années de cauchemar qui suivirent. Car ce général était appuyé par un mouvement d’opposition très fort, lui-même radicalisé, anti-communiste et souvent violent, prenant la constitution comme faire-valoir. Pire encore, l’opposition était aussi peuplée des capitalistes chefs d’entreprise qui allèrent jusqu’à organiser un lock-out du pays pour faire baisser volontairement la production. Tout cela a largement contrecarré les plans de Allende.

Pourquoi je m’attarde avec ce (trop) bref aperçu de la situation politique du Chili entre 1970 et 1973 ? Et quel rapport avec cette date d’anniversaire ?

Vous avez sans doute remarqué le nombre de publications ces dernières années à propos du grand projet Cybersyn. Il s’agit du projet de contrôle cybernétique de l’économie planifiée chilienne initié par le gouvernement Allende, et sur les conseils du grand cybernéticien britannique Stafford Beer. Le 11 septembre dernier, cela n’a pas loupé, le marronnier était assuré cette fois par Le Grand Continent, avec l’article « Un ordinateur pour le socialisme : Allende, le 11 septembre et l’autre révolution numérique ». Entendons-nous bien, ce type de publication est toujours intéressant. Non pas qu’il soit capable d’expliquer ce qu’était le projet Cybersyn (comme nous allons le voir, les tenants et aboutissants sont assez compliqués à vulgariser) mais parce qu’il s’attache essentiellement à perpétuer un story telling, lui-même initié par Evgeny Morozov (que l’article d’hier cite abondamment) via un célèbre podcast et un petit livre fort instructif, Les Santiago Boys, dont j’invite à la lecture (Morozov 2015 ; Morozov 2024).

Pourquoi un story telling ?

Deux principales raisons à cela.

La première : une démarche de type investigation journalistique n’est pas une démarche historique. Ce que montrent en fait les nombreuses publications grand public sur le projet Cybersyn ces dernières années, c’est qu’elles constituent une réponse anachronique à la prise de conscience de notre soumission au capitalisme de surveillance. Il s’agit de faire de Cybersyn un message d’espoir : envers et contre tout, surmontant les difficultés techniques (réseaux, télécoms, ordinateurs) et l’impérialisme américain, un pays armé de ses ingénieurs a réussi à mettre en place un système général de contrôle cybernétique socialiste. C’est beau. Et c’est un peu vrai. Il suffit de se pencher sur les détails, par exemple un certain niveau du système intégrait bel et bien la possibilité de la co-gestion dans les boucles de rétroaction, et bien qu’on ai souvent accusé ce projet d’avoir une tendance au contrôle totalitaire, le fait est que non, dans ses principes, la décision collective était une partie intégrée. S’interroger aujourd’hui sur Cybersyn, c’est poser la possibilité qu’il existe une réponse au solutionnisme numérique auquel se soumettent nos décideurs politique tout en abandonnant la souveraineté technologique. Cette réponse consiste à poser que dans la mesure où la technologie numérique est inévitable dans tout système décisionnaire et de contrôle de production, il est possible de faire en sorte que les systèmes numériques puissent avoir une dimension collective dans un usage par le peuple et pour le peuple. Un usage social des technologie numériques de gouvernement est possible. Comme message d’espoir, il faut reconnaître que ce n’est déjà pas si mal.

La seconde : nous avons besoin d’une alternative au système de gouvernance « par les nombres », pour reprendre les termes d’Alain Supiot (Supiot 2015). À une culture de l’évaluation et de la mise en compétition des individus, une réponse peut être apportée, qui consiste à impliquer le collectif dans la décision en distribuant la responsabilité sans se défausser sur la technocratie bureaucratique. Or, une planification économique « au nom du peuple » fait toujours doublement peur. D’abord elle fait peur aux capitalistes ; c’est pourquoi Freidrich Hayek s’est efforcé de démontrer que la planification est irrationnelle là où le marché est seul capable d’équilibrer l’économie (Hayek 2013). Elle fait peur aussi aux anti-capitalistes et aux anarchistes, car, comme le montre James Scott dans L’Œil de l’État, cela ne fonctionne jamais, ou plus exactement cela fonctionne parce que les gens survivent à la planification par les arrangements qu’ils peuvent faire à l’insu de l’État sans quoi, le plus souvent, ils meurent de faim (Scott 2024). De fait, c’est bien ce qu’il se passait avec Cybersyn : les entreprises ou petites exploitations locales devaient remonter dans le système les éléments d’information au sujet de leur production. Or, lorsque vous ne voulez pas d’ennui et qu’un manquement à la production prévue implique pour vous un changement dans vos routines, vous bidouillez les comptes, vous vous arrangez avec la réalité. Cybersyn est un système qui, en pratique, n’offrait qu’une vision biaisée de la réalité économique dont il était censé permettre le contrôle.

En somme, dans le petit monde intellectuel numérique d’aujourd’hui, et depuis une bonne dizaine d’années, le 11 septembre est (aussi) considéré comme une date anniversaire de la fin brutale du projet Cybersyn et le moment privilégié pour s’essayer à l’imaginaire positif d’une réconciliation entre politique, économie, technologie et société. J’ai moi même déjà parlé de Cybersyn.

Du reste, il est assez frappant que le projet Cybersyn ai laissé un tel héritage aujourd’hui alors qu’on ne parle presque jamais du projet URUCIB en Urugay au milieu des années 1980 (Ganón 2022). Du point de vue des objectifs (intégrer les principes de la cybernétique à un système automatisé de contrôle économique d’un pays), il s’agissait du même projet, avec Stafford Beer cette fois conseiller du président Julio Maria Sanguinetti. Sur l’ordre des événements, c’est presque l’exact opposé de Cybersyn : après une dictature et pas avant, et sur la base d’un système d’information exécutif déjà existant y compris au niveau technique. Il faut dire que Stafford Beer a « conseillé » pas mal de monde.

Si l’on veut connaître l’histoire de Cybersyn (Synco en espagnol), le meilleur ouvrage que je puisse conseiller est celui de Eden Medina écrit en 2011, traduit en français en 2017, Le Projet Cybersyn. La cybernétique socialiste dans le Chili de Salvador Allende (Medina 2011). E. Medina a travaillé longemps sur Cybersyn (entre autre). C’est en 2006 qu’elle publie déjà un article à ce propos (Medina 2006). Je ne crois pas me tromper en affirmant qu’elle fut la première à publier une monographie sur ce sujet. Il y eu bien quelques articles, écrits notamment par les membres des Santiago Boys alors exilés, comme celui de Herman Schwember en 1977 (Schwember 1977) qui revient en détail sur le projet, ou bien Raul Espejo qui revient périodiquement sur la question en 1980, 1991, 2009, 2022… (Espejo 2022) Il y a une bibliographie dans le livre de Eden Medina, mais l’essentiel est surtout tiré de ses rencontres avec les acteurs du projet.

C’est quoi le gouvernementalisme cybernétique ?

Si je me suis attardé sur la politique de Allende en introduction, c’est pour mieux faire comprendre dans quel état d’esprit politique se situe le projet Cybersyn. Je ne vais pas en refaire l’histoire, je vous invite pour cela à lire les références ci-dessous. En revanche, j’invite à prendre un moment pour se pencher sur les aspects épistémologiques et politique de ce projet.

D’après Hermann Schwember, un physicien qui a activement participé au projet, le problème auquel faisait face le gouvernement Chilien en 1970 consistait à établir un ordre socialiste tout en changeant les mentalités mais aussi en rendant compétitive une économie socialiste planifiée qui nécessitait une science du contrôle beaucoup plus étendue que le système précédent de Frei Montalva qui avait pourtant déjà nationalisé et effectué quelques réformes importantes, mais sur un mode keynésien. Par ailleurs, la modernisation du Chili devait se poursuivre sur bien des points : donc un système de contrôle devait intégrer aussi, par apprentissage, les transformations même de l’économie, en somme être capable d’apprentissage.

À l’époque, la mode était à la cybernétique. Le britannique Stafford Beer avait publié une dizaine d’années auparavant des travaux remarquable dans le domaine des sciences de gestion. Pour lui la cybernétique comme étude des systèmes d’information et science du contrôle (comme l’avait théorisé Norbert Wiener) pouvait être appliquée dans le domaine du management des organisations et dans les processus décisionnels. De fait, toute l’histoire de l’informatique des années 1950 et 1960 tourne autour de l’application des principes de la cybernétique à la gestion par le support numérique. En missionnant S. Beer auprès de la présidence, le gouvernement Chilien ne faisait que tenter de mettre sur pied un système de gouvernement cybernétique. Hermann Schwember résume ainsi la manière dont, avec Stafford Beer, la problématique fut posée (Schwember 1977) :

Dans le cas d’un système complexe appelé industrie nationalisée, soumis à des changements très rapides (taille, conception des produits, politique des prix, etc.), inséré dans un système plus large (l’économie nationale, insérée à son tour dans l’ensemble de la vie sociopolitique nationale) et soumis à des conditions limites politiques très spécifiques, il est nécessaire de développer sa structure et son flux d’informations afin que la prise de décision, la planification et les opérations réelles répondent de manière satisfaisante à un programme de demandes externes et que le système reste viable.

La viabilité d’un système, ce n’est pas son efficacité, c’est sa capacité évoluer dans un environnement changeant. Tout résidait dans la capacité à imbriquer des sous-systèmes et imaginer des boucles de rétroaction, des réseaux de signaux faibles ou forts, indiquant l’état de santé de ce système. En d’autres termes, si on pense le monde comme un gigantesque système de traitement d’information, alors on peut imaginer des systèmes d’interaction informationnels capable de changer l’état du monde tout en s’adaptant aux externalités variables qui ne sont elles-mêmes que des informations.

On a beaucoup critiqué ces modèles cybernétiques en raison de leur tendance au réductionnisme. Le fait est que le modèle de Cybersyn (pour être plus exact, il y a plusieurs modèles dans le projet Cybersyn) est une tentative de sortir de la cuve.

Qu’est-ce que cette histoire de cuve ? Comme le disait Hilary Putnam (Putnam 2013), tout modèle économique (capitaliste ou autre), possède des lois dont les bases sont physiques (comme le besoin de manger) mais qui ne peuvent pas être déduites des lois de la physique, parce que les concordances sont accidentelles, par exemple la variété des structures sociales. H. Putnam se sert de cet exemple pour illustrer sa réfutation de l’unité de « la » science. Mais H. Putnam est aussi l’auteur d’une expérience de pensée, un cerveau dans une cuve qui recevrait toute ses expériences par impulsions électriques : dans ce cas aucun cerveau n’est capable de dire de manière cohérente qu’il est effectivement un cerveau dans une cuve, car aucune connaissance ne peut être dérivée uniquement de processus de réflexion internes. Hé bien le projet Cybersyn consiste à sortir l’économie de la cuve. Par rapport au néolibéralisme (celui du Mont Pélerin et des Chicago Boys qui viendront aider Pinochet par la suite), c’est une bonne méthode puisque ce modèle tourne littéralement en rond en considérant que seul le marché décide de l’équilibre économique tout en considérant les limites énergétiques, les structures sociales, et la pauvreté comme des externalités au marché. Le néolibéralisme est une économie dans une cuve : il ne sait pas dire de manière cohérente pourquoi il y a des inégalités et sait encore moins y remédier. En prenant le pari d’imaginer un système qui appliquerait les principes de la cybernétique à la complexité du système social chilien, toutes ses organisations et leurs changements, le projet Cybersyn proposait une planification économique non linéaire et adaptative par des boucles de rétroaction entre la complexité du réel et la décision publique.

Mais… il y a toujours un « mais ». La conception cybernétique de Stafford Beer est par définition réductionniste. Non pas un réductionnisme visant à ramener le complexe au simple mais plutôt à transposer un système dans un autre pour en simplifier la compréhension et faciliter la décision. On pourrait dire plutôt : un mécanicisme. Il fallait donc le théoriser. Stafford Beer l’a fait dès 1959, par le concept de réducteur de complexité (variety reducer). Qu’est-ce qu’un système complexe ? Cybersyn est un système complexe : il accroît une complexité dans le processus décisionnel (réseau, transmission d’information, ordinateurs, etc.) pour réduire la complexité (ou pour simplifier) le management de l’économie. On imaginera ainsi une salle des commandes dans le palais présidentiel, avec des tableaux permettant de visualiser en temps réel l’état de l’économie pour prendre des décisions et en transmettant des ordres par de simples appuis sur des boutons.

En quoi ce story telling pose problème ?

Le résultat est exactement celui décrit par James Scott (Scott 2024) : dans la mesure où le contrôle revient à un effort de standardisation et de normalisation, Cybersyn ne rend « conviviale » que la sphère de commandement d’un Léviathan algorithmique. Par voie de conséquence, même avec la dimension d’apprentissage du système pour l’adapter à la complexité sociale, il serait faux d’affirmer que les sous-systèmes soient réellement capables d’intégrer efficacement toute la complexité possible.

Comme dit l’adage : « on ne donne pas à boire à un âne qui n’a pas soif ». Cybersyn était une utopie, mais une utopie qui en dit long sur la différence entre l’élection au pouvoir et la capacité de gouvernance. La vague réformiste de Allende a trouvé assez vite ses obstacles, qu’ils soient d’origine ouvrière, de la part des chef d’entreprise de droite ou par l’ingérence de la CIA. Les grèves organisées dans le but d’affaiblir l’économie ne pouvaient par définition pas être intégrées dans les sous-systèmes de Cybersyn, en revanche elles constituaient bel et bien des signaux fort sur l’état de viabilité. La principale limite du gouvernementalisme cybernétique, c’est d’ignorer la dimension politique de la recherche du pouvoir chez l’homme. Stafford Beer ira même jusqu’à étudier la possibilité d’une cybernétique des systèmes sociaux… tout en oubliant que les finalités d’un groupe dans un système peuvent aller jusqu’à subordonner le système lui-même. Cela peut même relever d’un choix collectif (de l’ensemble du système lui-même), par servitude volontaire ou propagande populiste. Le concept de résilience des systèmes sociaux a lui aussi ses limites. Encore en d’autres termes, l’information ne peut être le seul élément sur lequel on base une décision.

Mais outre la bureaucratisation, le concept même de rétroaction d’un tel système efface assez radicalement plusieurs dimensions pourtant essentielles dans la société. Prenons la créativité et l’initiative. Qu’elles soient individuelles ou collectives, ne pas les prendre en compte revient à nier l’existence de communs préexistants au systèmes et qui lui survivront peut-être (ou pas). Les communs sont des modes de gestion collectifs créatifs et basés sur l’initiative collective. Il s’agit de gérer des ressources en dehors de la mainmise de l’État ou d’autres organisations qui les accapareraient. Mais les communs sont bien davantage, c’est un ensemble de pratiques qui elles mêmes forment un système changeant, complexe, mais en tout cas dont la gestion revient aux pratiquant et non à une entité extérieure. Un gouvernement cybernétique revient à nier cette capacité d’exploitation en pratique des collectifs, qui bien souvent est géographiquement située, locale et non nationale. Ou s’il s’agit de communs de la connaissance (ou encore numériques) un gouvernementalisme cybernétique revient à imposer un modèle de réduction de la complexité contre un autre : un modèle d’auto-organisation. C’est d’ailleurs ce qu’Henri Atlan défend à l’encontre du mécanicisme de la cybernétique dès 1972 (Atlan 1972) en proposant l’idée de complexité par le bruit ou l’émergence des propriétés d’un système. Mais sans aller encore vers un autre modèle, plus simplement, il n’y a pas un système mais plusieurs. Imaginer qu’un gouvernementalisme cybernétique soit possible, socialiste ou non, cela revient à une fascination pour une conception mécanique de la politique. L’arrivée aujourd’hui des modèles qu’on appelle « Intelligence artificielle » peut renvoyer, par leurs capacités de haute statistique, une image plus édulcorée aux reflets d’adaptabilité à la complexité des système sociaux. Ne serait-ce pas une nouvelle religion, celle qui croit que la viabilité (au sens de Stafford Beer) d’un système n’est finalement que technique ?

Enfin, pour parler de la technique, rappelons-nous les travaux d’Ivan Illich. La non-neutralité de la technique (cf. J. Ellul) provient entre autre du fait qu’elle transforme les pratiques et influence la gestion et la structure des organisations. C’est pourquoi la gestion de la production est sans doute le premier défi que doit relever un système planifié gouverné de manière algorithmique. Et là, on peut lire avec un œil assez critique la tentative de Hermann Schwember d’opposer à la thèse d’Illich l’idée d’un socialisme convivial. C’est ce qu’il fait en 1973 (Schwember 1973) peu de temps avant le coup d’état. Pour Illich, la société est face à un choix entre productivisme et convivialité (ou post-industrialisme). À partir de quand un outil ou une production sont nécessaires et à partir de quand on atteint le limites du système ? H. Schwember, comme les autres, fait partie d’un monde productiviste. C’est tout l’objet de Cybersyn, et le Chili devait bien entendu « rattraper » le reste du monde dans la course à la productivité et la rentabilité. C’est pourquoi H. Schwember conclu son article en accusant Illich de vouloir soutenir une thèse de limitation de la croissance. En somme, socialisme ou non, l’important serait de produire. On en voit le résultat aujourd’hui, à l’heure où l’on se demande si le rôle de l’ingénierie est de toujours innover davantage par la croissance et la production ou au contraire d’innover par la convivialité, justement. C’est la question des low techs, et au-delà la question de la limitation de l’énergie, du réchauffement climatique et des inégalités sociales.

Cybersyn est un projet purement productiviste, et selon moi, digne d’un très grand intérêt historique, mais bien loin de constituer la belle utopie dont on se gargarise aujourd’hui. Je préfère me concentrer sur les milliers d’assassinats de Pinochet et les tortures de son régime, autant expressions du néolibéralisme le plus violent qui, par contraste font effectivement passer le rêve du contrôle socialiste productiviste pour un petit moment d’apaisement (à défaut de paix sociale).

ATLAN, Henri, 1972. Du bruit comme principe d’auto-organisation. Communications. 1972. Vol. 18, n° 1, pp. 21‑36. URL.

ESPEJO, Raul, 2022. Cybersyn, big data, variety engineering and governance. AI & SOCIETY. 1/9/2022. Vol. 37, n° 3, pp. 1163‑1177. URL.

GANÓN, Víctor, 2022. URUCIB: a technological revolution in post-dictatorship Uruguay (1986–88). AI & SOCIETY URL.

HAYEK, Friedrich, 2013. La route de la servitude (1944). 1944. Paris : PUF.

MEDINA, Eden, 2006. Desiging Freedom, Regulating a Nation: Socialist Cybernetics in Allende’s Chile. Journal of Latin American Studies [en ligne]. 2006. Vol. 38, pp. 571‑606.

MEDINA, Eden, 2011. Cybernetic Revolutionaries. Technology and Politics in Allende’s Chile. Boston : MIT Press.

MOROZOV, Evgeny, 2015. Big Brother. Cybersyn, une machine à gouverner le Chili. Vanity Fair France. 19/1/2015. URL.

MOROZOV, Evgeny, 2024. Les « Santiago Boys »: des ingénieurs utopistes face aux big techs et aux agences d’espionnage. Paris, France : Éditions divergences.

PUTNAM, Hilary, 2013. Le réductionnisme et la nature de la psychologie. In : AMBROISE, Bruno et CHAUVIRÉ, Christiane (éd.), Le mental et le social [en ligne]. Paris : Éditions de l’École des hautes études en sciences sociales. pp. 67‑84. Raisons pratiques. URL.

SCHWEMBER, Hermann, 1973. Convivialité et socialisme. Esprit. 7/1973. Vol. 426, pp. 39‑66.

SCHWEMBER, Hermann, 1977. Cybernetics in Government: Experience With New Tools for Management in Chile 1971-1973. In : BOSSEL, Hartmut (éd.), Concepts and Tools of Computer Based Policy Analysis. Basel : Birkhäuser - Springer Basel AG. pp. 79‑138. Interdisciplinary Systems Research.

SCOTT, James Campbell, 2024. L’œil de l’État: Moderniser, uniformiser, détruire. Paris, France : la Découverte. ISBN 978-2-348-08312-9.

SUPIOT, Alain, 2015. La gouvernance par les nombres. Cours au Collège de France (2012-2014). Paris : Fayard.


Publié le 27.08.2024 à 02:00

Politique, surveillance, résistances

Voici billet un peu foutraque où j’aborde plusieurs problématiques qui peuvent trouver une résolution dans le concept de mètis, selon une lecture de James Scott et de Certeau. Il faudra auparavant aborder longuement le rapport entre l’État et le capitalisme de surveillance. Quel est ce pouvoir normatif que le capitalisme de surveillance cherche à imposer aux institutions comme aux individus, et quelles sont les portes de sortie ? il y a des résistances inaltérables, présentes depuis toujours, et qui font du pouvoir une sorte d’illusion. Nous sommes tous des hackers, reste à comprendre pourquoi.

Table des matières


« Homme augmenté » : c’est ainsi que, dès les débuts des recherches en informatique appliquée dans les années 1960, on pensait le rapport entre l’homme et les machines. Les témoignages se sont généralement tous suivis sur ce modèle. Tantôt ils dévoilaient les promesses d’un monde meilleur où, partant d’une approche exclusivement computationnelle, l’esprit et le monde tout entier pouvaient être compris comme des machines de traitement d’information. Selon cette approche, si l’univers entier, y compris la pensée humaine sont compréhensibles par l’analogie mécanique (même si nous n’en connaissons pas tous les rouages), alors l’explication du monde est algorithmique et nos limites cognitives ne sont que celles que la technologie nous impose. Tantôt ils étaient plus pragmatiques en situant la machine dans le processus de l’évolution humaine. Une évolution externalisée dont ce qu’on appelait déjà l’IA et les big data représentaient le stade le plus élevé de l’augmentation des capacités humaines. Mais jusqu’à très récemment, avec la critique générale au sujet des GAFAM, la problème qui restait en suspend, le tabou si crucial, fut finalement dévoilé : qu’est-ce qui fut augmenté, exactement, au bout de 50 années de développement ?

Je vais vous le dire : la production et les profits du capital, la puissance de contrôle de l’État, l’influence sur nos comportements (qu’il s’agisse de nos comportements économiques ou de nos comportements politiques). Un premier écueil est tombé : ce n’est pas l’Humain (avec un grand H) qui a été augmenté avec l’informatisation de la société, ce sont ses capacités productives par l’algorithmisation des tâches que nous faisions et de celles que nous n’étions alors pas capables de faire, ainsi que la surveillance et le contrôle des processus de production et de décision (par l’analyse statistique).

Mais jusqu’à présent, nous n’avons pas réfléchi à l’État (avec un grand E). Dans tous ces discours technophiles, l’État n’a finalement jamais été réduit qu’à n’être au pire un passage obligé de l’autorité et du financement de projets (des centaines de milliards ont été injectés dans la recherche et le développement numérique), au mieux une caution pratique et un promoteur de stratégies économiques. Nous parlons de l’État, de son rôle dans ce rapport que nous entretenons avec les machines, mais il reste une boîte noire lorsqu’il s’agit d’analyser sa structure et ses institutions dans leur rapport avec le capitalisme de surveillance. Certes, nous avons une idée désormais extrêmement fine au sujet de la manière dont l’État utilise (s’augmente pourrait-on dire) les technologies d’automatisation pour récolter de l’information et contrôler la population, mais lorsqu’il s’agit de capitalisme de surveillance, nous avons tendance à nous concentrer sur les entreprises et la politique en général…

Capitalisme de surveillance et politique

Il est vrai que la question est d’abord politique. Un récent article d’AOC par le sociologue O. Alexandre (Alexandre, 2024) fait le point sur la manière dont les entreprises de la Silicon Valley retournent peu à peu leur veste, partant du soutien au parti démocrate américain pour aboutir, par l’adhésion à l’idéologie libertarienne, au conservatisme le plus dur. Selon cet auteur, cela ne concerne pas seulement la Silicon Valley, mais bel et bien l’ensemble des entreprises de la tech, y compris dans la France de la start-up nation macroniste : « pour chaque promesse de la révolution Internet des années 1990 (société de l’information, désintermédiation, dématérialisation, enrichissement) correspond aujourd’hui une tendance inverse (désinformation, domination des Big Tech, coûts environnementaux, croissance des inégalités) ». Mais la thèse soutenue consiste à affirmer que ces entreprises n’assument pas la « portée sociale » de leurs activités et que si l’État est aveugle, c’est parce que le problème se situe entre politique et entreprises.

Dans mon livre Affaires privées (Masutti, 2020) je pense avoir démontré à quel point, depuis les débuts de l’informatisation de la société, il y a un gouffre entre le discours émancipateur et le capitalisme de surveillance qui est devenu le modèle économique dominant, supplantant aujourd’hui en termes financiers les plus grandes industries historiques. D’autres l’avaient démontré encore mieux que moi. Il y eu d’abord Fred Turner, par l’étude de cas qu’il a consacré à Stewart Brand, démontrant ainsi combien l’idéologie hippie a été dévoyée sur l’autel du capitalisme numérique (Turner, 2012) au nom de la liberté et des idéaux de transformation sociale. Il y eu encore J. B. Foster et R. W. McChesney dans la Monthly Review qui montrent combien le capitalisme de surveillance s’appuie sur la logique impérialiste des États-Unis depuis la Guerre Froide et s’est accentuée par la surfinanciarisation à dessein des multinationales du numérique (Foster, McChesney, 2014). En somme, qu’on se situe sur le plan de la sociologie ou de la géopolitique, rien n’a jamais réellement plaidé en faveur d’une émancipation de l’homme par l’économie numérique si ce ne sont les discours tenus par les entreprises concernées elles-mêmes, relayés par les politiques pour justifier les stratégies de développement.

Si l’on y réfléchit bien, le mouvement pour le logiciel libre qui, dans ses principes, plaide en faveur d’une liberté d’usage, de partage et de création pour l’utilisateur et le programmeur, a été lancé en réaction justement à la tournure que prenait l’économie numérique en adoptant les pires archétypes de la propriété intellectuelle, et verrouillant l’accès au code. Il n’a pas fallu longtemps pour que d’autres réagissent au nom de la conciliation et du compromis capitaliste avec l'open source et il a fallu toutefois un peu plus de temps pour que ce soient les mêmes grandes entreprises qui collaborent le plus à la création de code libre afin d’alimenter un commun dont elles tirent le plus grand profit.

Toujours est-il que, dans cette longue histoire, l’État est rarement envisagé comme un acteur proactif du capitalisme de surveillance. Certes, il encourage, mais il encourage une sorte d’état de fait. Par exemple, depuis la fin des années 1960 aux États-Unis, les courtiers de données tels Demographics/Acxiom ont des relations privilégiées avec les politiques, notamment le parti démocrate, tout simplement parce que leurs services ont toujours démontré leur fiabilité dans le démarchage politique et le profilage en contexte électoral (Masutti, 2021). Les renvois d’ascenseur en termes de placement stratégique sont évidents. C’est ainsi que Charles D. Morgan, CEO d’Acxiom, basé en Arkansas, sera un grand ami intime des Clinton. L’approche peut avoir de quoi surprendre du point de vue européen, mais il ne faut pas oublier que la culture économique américaine est beaucoup plus pragmatique. Si les programmes politiques promettent des financements, c’est aussi parce que ces mêmes programmes sont encouragés par les capitalistes eux-mêmes, avec force donations et promotions, quel que soit le discours politique en vogue, progressiste ou conservateur, quitte à racler les fonds de poubelles pour convaincre les électeurs.

La passivité des institutions n’est toutefois qu’apparente. Dès les années 1970, le sénat américain lance des enquêtes approfondies sur les bases de données et leurs emplois, le concept de privacy est de plus en plus défini et employé dans les lois encadrant l’usage des bases de données, et très vite les dispositions juridiques de protection de la vie privée se déploient en Europe jusqu’à aujourd’hui. Et c’est un travail laborieux, le rocher de Sisyphe. De même, lorsqu’il s’agit de contrôle de la population ou d’équipement militaire, les finalités capitalistes et les objectifs de gouvernement convergent souvent. Les institutions de l’État ne se privent pas pour passer des marchés douteux avec les principales entreprises. C’est ainsi qu’en matière d’espionnage de masse il fut démontré, notamment par les révélations d’E. Sowden, les accointances manifestes des grandes multinationales du numérique avec la NSA dans l’espionnage de masse au niveau mondial. Mais ce scandale n’est pas isolé, loin de là, et de nombreux noms de programmes d’espionnage de masse et de contre-propagande ont fait surface dans l’histoire des États-Unis (Conus Intel, Cointelpro, Minaret, Echelon…).

Si on compare cependant avec la France, force est de constater que, mise à part la tentative maladroite de l’affaire SAFARI (révélée en 1974), l’espionnage des Français est mené par les services appropriés (type DGSE), avec plus ou moins de légitimité, de morale et de pertinence sur des cibles souvent fort discutables (comme récemment les militants environnementalistes) mais l’histoire française retient finalement peu de scandales proprement dits en matière d’espionnage de masse. Au lieu de cela, ce qui se produit, aux yeux d’un public attentif, à bas bruit mais de manière assez publique, c’est le recours systématique à la surveillance sur le mode solutionniste de l’externalisation à des entreprises pour des équipements et des logiciels à des fins d’espionnage. C’est-à-dire la légitimation croissante, par décrets et loi scélérates interposés (le pouvoir administratif supplantant le pouvoir judiciaire), de la surveillance de masse et de la mobilisation des finances de l’État à cette fin, la technopolice.

C’est là que se situe le vrai sujet : même dans ses efforts pour tenter de contrôler la population — disons plutôt surveiller et réprimer, car de contrôle par les dispositifs numériques il n’y a pas, à moins de doter les caméras de surveillance de grands bras mécaniques ou d’agir de manière prédictive, ce qui n’est pas exclu — l’État abandonne ses devoirs moraux et ses prérogatives : par l’automatisation de la décision de justice (c’est la bureaucratisation du pouvoir administratif) et par l’automatisation de la surveillance dont le savoir-faire appartient aux acteurs économiques qui, par lobbying auprès des institutions, engrangent les profits sur les deniers publics.

Une précision toutefois : il est faux de dire qu’il n’y a pas de contrôle, à part le contrôle réglementaire (police — justice — matraque). Il y a d’abord l’effet panoptique de la surveillance : plus on est surveillé plus on contrôle ses faits et gestes pour les conformer à l’attente (supposée ou réelle) de l’autorité (Bentham, 1789  ; Foucault, 1975). Il y a aussi le contrôle par influence, c’est l’application de la théorie néolibérale du nudge (Stiegler, 2019) (qui a fait long feu), la désinformation, l’astro-turfing, etc. bref toutes ces stratégies de communication dont les effets sont à la mesure de la surveillance de nos comportements par récolte de données et profilage marketing au service du politique.

Les États, les capitalistes, la surveillance

Au lieu de parler de l’État, parlons plutôt des États. Notamment parce que cela permet d’avoir une vision beaucoup plus fine de ce qu’est le capitalisme de surveillance. Par exemple, dans l’histoire de la privacy tous les États n’ont pas réagi de la même manière, au point que ce concept, aujourd’hui encore, est loin de signifier la même chose selon le pays dans lequel on se trouve. Les différences ne sont pas seulement continentales mais vraiment territoriales, car elles sont relatives à l’histoire des dispositifs juridiques (c’est pourquoi le RGPD en Europe ne peut jamais être qu’une harmonisation à bas niveau) et à leur confrontation avec les enjeux économiques.

Ensuite, il faut se poser la question de la méthode. La plupart des approches de la surveillance souffrent d’un biais assez gênant qui consiste à s’interroger d’abord sur les conséquences sociales de la surveillance sans se poser la question de ce qui rend effectivement possible la surveillance. Par exemple S. Zuboff se concentre sur la question de la division du savoir et du pouvoir que cela confère aux « capitalistes de la surveillance », ce qui lui permet de conclure la toute puissance de ces derniers qui détiennent, grâce au marché et à la concurrence, un pouvoir instrumentarien de modification des comportements. Dans cette affaire, l’État ne peut que tâcher de réguler, mais aucune critique n’est faite sur la manière dont ce pouvoir instrumentarien est en réalité partie intégrante de l’appareillage politique, notamment américain, et s’inscrit dans une suite de problématiques de pouvoirs au pluriel : géopolitique, clientélisme, militarisme, stratégie de financiarisation, choix économiques. En somme, l’idéologie néolibérale à la source de la connivence entre les acteurs capitalistes et les politiques n’est pas vraiment questionnée chez Zuboff. Ce qui l’est, c’est la moralité de ce capitalisme de surveillance.

D’autres points ne sont pas souvent questionnés à leur juste mesure dans les surveillance studies. D’abord, la technique et son histoire. Je me répète, mais il est plus qu’évident que la question de la surveillance ne peut être détachée des choix collectifs qui ont été faits dans l’histoire quant aux usages des techniques numériques de stockage, de base de données, et autres dispositifs. Ce furent des choix collectifs, dont la responsabilité ne peut être imputée à tels ou tels acteurs, simplement, l’appropriation de ces innovations et leur intégration dans les pratiques des entreprises, qu’il s’agisse de la production ou du marketing, sont autant de marqueurs qui font que la surveillance a une histoire technique qui ne « flotte » pas au-dessus de l’économie, mais répond à des choix réfléchis. En somme la surveillance n’est pas une simple idée qui consisterait à appliquer des techniques préexistantes dans le but de surveiller les comportements, monitorer des process, influencer les décisions : l’informatisation de la société est fondamentalement le choix collectif de la surveillance.

Partant de là, on peut donner (pas entièrement) raison à A. Giddens et sa critique du matérialisme historique dans The Nation State and Violence (Giddens, 1985) lorsqu’il affirme que les caractéristiques de la société capitaliste ne sont pas toutes visibles dans l’histoire marxiste de la production, de la lutte sociale et du capitalisme, mais que ce qui fait une société capitaliste, c’est la jonction entre son profil industriel, les formes de surveillance et de contrôle de sa population et le rôle qu’elle joue en tant qu’État-Nation dans sa confrontation concurrentielle aux autres. Autrement dit, le rapport social que nous entretenons avec les techniques de surveillance s’inscrit dans une configuration de l’État selon laquelle c’est le choix du capitalisme de surveillance qui a été fait, et pas un autre. Et il s’étend par la mondialisation des techniques et des pratiques (politiques, institutionnelles, économiques).

Autre aspect : les données de l’État et les données pour l’État. Dans un article passionnant, l’historienne Kerstin Brückweh étudie le cas de la Grande Bretagne et la manière dont les données de recensement ont consolidé la vision conservatrice d’une société de classes (c’était le Registrar General’s Social Classes, RGSC : upper class, upper middle class, lower middle class) en créant un tri social avec une granularité fine (Brückweh, 2016). Ces données des recensements ont alors permis, par leur mise à disposition publique, des méthodes de collecte et d’analyse de données, d’abord développées et utilisées par les entreprises à des fins d’études de marché et d’opinion, puis adoptées par les gouvernements pour gérer les populations et distribuer les ressources publiques. Il s’avère que pour des études statistiques bien menées, le RGSC ne correspond que très difficilement à la réalité sociale, mais tout le travail des statisticiens britanniques d’après-guerre consista à rechercher les meilleurs modèles de tri social, ne remettant aucunement en cause le paradigme dominant. Une politique de royalties fut mise en place, permettant au gouvernement de valoriser ces données lorsqu’elles étaient utilisées à des fins commerciales. Avec l’apparition de l’informatique, et les méthodes de la géodémographie, la classification par grade fut remise en cause, et des nouvelles classifications virent le jour, à la fois très malléables et qui confirmaient de plus en plus les fournisseurs externes dans leur savoir-faire. Mais la montée en charge et en valorisation des entreprises spécialisées laissa aussi la possibilité au gouvernement néolibéral de M. Thatcher d’externaliser complètement le recensement. Comme le montre K. Brückweh, c’est justement cette externalisation qui confirma une sorte de démission du gouvernement britannique de sa tâche de classification sociale : le néolibéralisme thatcherien niait complètement la société au profit d’une vision extrêmement individualiste, ce qui rendait finalement inutile la tâche gouvernementale de garantir la cohésion sociale, même si la classification par tranche a ses limites et son intérêt faible en termes de contrôle populationnel. Au-delà de cette étude, K. Brückweh montre que l’analyse du travail de l’État, par la standardisation et la simplification ou l’abstraction, comme le décrit James Scott dans L’œil de l’État, constitue une bonne approche dans la mesure où le tri social permet effectivement d’appliquer des décisions publiques.

Ce que j’en conclus, c’est que lorsque ce tri social devient complexe, qu’il acquiert une telle technicité que la seule solution consiste à l’externaliser, ce qui a fini par se produire avec l’informatisation. Ce travail n’est plus une simplification mais une opportunité de valorisation et de services : sondages et influence d’opinion deviennent les clés non plus de la décision publique, mais du placement politique et de l’acceptation de l’idéologie néolibérale. Ce qu’on pourrait appeler les « démissions » de l’État n’en sont donc que les corollaires, et c’est là encore un autre aspect du rapport entre surveillance et État. Si l’on regarde l’État français, les exemples ne manquent pas où les institutions publiques semblent abandonner leurs prérogatives au profit d’acteurs privés, alors qu’il s’agit en réalité de la même face d’une même pièce.

Prenons le cas de Doctolib : sous couvert de service à la population (le concept d’entreprise à mission) le monitoring des transactions sanitaires relève d’un acteur privé. Ce faisant, l’État contrôle mieux les dépenses publiques médicales et leur rentabilité, par exemple lorsque Doctolib propose de surveiller les « lapins » posés par les patients à leurs médecins, ou bien encore dans la mesure où Doctolib noue des contrats très rentables avec les hôpitaux qui ainsi ont l’opportunité de faire valoir leur offre de soins, d’autant plus que Doctolib prend le monopole de ce type de service. L’État transforme l’essai et les patients peuvent y trouver leur intérêt… sauf que le capitalisme rattrape toujours les situations qui lui échappent. Ainsi en Allemagne, Doctolib a déjà été pris la main dans le sac à valoriser les données à des fins publicitaires en utilisant des cookies tiers. De même, jouant le jeu des GAFAM, il a été reconnu que Doctolib héberge ses données, immenses et prometteuses, sur Amazon, bien le Conseil d’État ai jugé que Doctolib apportait les garanties suffisantes en matière de protection des données ; le contraire aurait été étonnant. Ce qui est moins étonnant, c’est que Doctolib a récemment annoncé qu’il allait entraîner de l’IA sur la base des profils utilisateurs, ceci de manière à mettre son nez dans le parcours de soin et même les pratiques médicales. Bref, la pression du besoin de rentabiliser les données est si forte qu’elle dépasse même les simples problèmes de sécurité comme la perte de données ou le chiffrement, et que Doctolib devra toujours s’y conformer. Lorsqu’il sera arrivé au bout de son modèle économique somme toute classique (vendre un service et devenir monopoliste dans le parcours patient auprès des institutions publiques et des structures privées), les données anonymisées, les données de fonctionnement, sans qu’il soit forcément question de données médicales ou de données personnelles au sens du RGPD, finiront par être transmises à des tiers, qui eux-mêmes savent très bien comment les traiter pour leur donner de la valeur à des fins d’influence comportementale, ce qui dans le domaine de la santé pose de grave questions éthiques autant qu’économiques.

Il serait intéressant d’envisager comment, dans certaines configurations politiques, qu’on pourrait nommer « démocraties autoritaires » pour prendre le cas de la France de ces dernières années, l’État devient une machine à transformer la surveillance en contrôle. L’exemple-type en la matière, c’est la pandémie de Covid durant laquelle la mobilité des citoyens était largement mise en question. Quel est l’impact réel d’un déplacement massif, par exemple lorsque la population aisée d’Ile-de-France se carapate en campagne pour écouter les petits oiseaux alors que les « premiers de cordée » continuent à prendre des risques sanitaires pour faire tourner la boutique ? En 2020, l’INSERM dévoile une étude à partir des données du fournisseur téléphonique Orange sur ses abonnés de téléphonie, pour voir quels modèles épidémiologiques il possible d’observer. Mais au fond, c’est exactement ce qu’avait demandé la Commission Européenne à tous les opérateurs téléphoniques. Comprendre l’épidémie, adapter la décision publique à la situation, que l’intention soit justifiée ou plus discutable, là n’est pas le propos : tout cela nécessite évidemment l’absorption de données issues de la surveillance par des entreprises privées qui en ont le pouvoir et la capacité. Cela n’est pas nouveau, mais la question sous-jacente est celle-ci : à quel point les données de la surveillance comportementale produite par des entreprises privées pour des objectifs de marketing et d’influence économique, peuvent aussi servir de nouvelles finalités de contrôle par l’État, démultipliant ainsi son pouvoir d’observation et de prédictibilité statistique tout en organisant sa propre dépendance vis-à-vis de ces acteurs privés, et donc de leurs intérêts ?

Tiens, encore un exemple, plus ancien : on parle peu de l’Association Auxiliaire de l’Automobile, qui durant longtemps se chargeait d’émettre des statistiques sur le secteur économique de l’automobile. Forte d’une base de données énorme spécialisée dans ce secteur industriel et ses filiales, l’AAA était le pendant associatif du Comité des Constructeurs Français d’Automobiles (CCFA) qui avait, jusqu’à la création du Système d’immatriculation des véhicules (SIV) en 2009, le monopole de la gestion du fichier national des immatriculations. Il s’agit d’un vieux fichier sous la responsabilité du ministère des Transports qui, au début des années 1980, en contrepartie de différents services (dont les services de gestion de flotte de véhicules, par exemple) en avait confié la gestion à l’AAA qui s’en servait notamment à des fins de marketing personnalisé. La CNIL n’avait pas trouvé grand-chose à redire à ce propos, mentionnant que « la fourniture d’informations à ces utilisateurs privés qui s’inscrit dans le cadre des activités industrielles ou commerciales du secteur automobile, répond à un intérêt général en assurant la promotion d’un secteur clé de l’économie nationale » (voir la délibération de 1983). La convention qui liait l’AAA et l’État a pris plus ou moins fin en 2009 avec la création du SIV, et quoi qu’il en soit les informations du SIV sont, depuis la directive européenne du 20 juin 2019, complètement ouvertes à des autorisations de réutilisations à des fins de prospection commerciale. Toujours est-il que, pendant des décennies, l’AAA a engrangé des données et développé un savoir-faire, avec l’œil bienveillant de l’État et pour le bien de l’industrie automobile. Aujourd’hui l’AAA est devenue une société à part entière, nommée AAA-Data, filiale du CCFA, elle exploite toujours les données d’immatriculation, et reste un acteur incontournable dans la gestion de données industrielles en France. En 2015, AAA-data a annoncé un partenariat avec Acxiom dans le but de créer un service destiné aux annonceurs, dans le cadre de programmes marketing. Autant dire que la libéralisation de ce marché de la donnée d’immatriculation a surtout fonctionné pour le plus grand bien d’AAA-Data qui, non seulement conserve un certain monopole, mais en plus peut se permettre de monétiser les données d’immatriculation en parfaite légalité, et en toute conformité RGPD, bien sûr.

Quant à Acxiom, cette entreprise américaine domine aujourd’hui en France comme ailleurs en Europe le marché du courtage de données. Elle a racheté des sociétés comme Claritas et Consodata et là où elle ne parvient pas à prendre le contrôle, elle multiplie les partenariats (comme avec AAA-Data, par exemple). Cela pose évidemment un problème de souveraineté sur les données de consommation1. En d’autres termes, avec la libéralisation des fichiers de données publiques (du type SIV, ou les données de recensement, etc.), les pays européens se sont eux-mêmes enfoncés dans un marasme dont il sera difficile de sortir. Bien que tout cela soit évidemment conforme au RGPD, il reste que les données fournies par les puissances publiques sont (ont toujours été) des mines pour les courtiers de données. La différence, aujourd’hui, c’est que non seulement le courtage de données connaît une phase monopoliste dominée par les multinationales américaines, mais en plus sont capables de fournir des solutions marketing (tel le CRM-Onboarding2) dont la puissance d’influence comportementale pose (devrait poser) des problèmes de gouvernance démocratique.

Sauf que ces problèmes de gouvernance sont, dans beaucoup de pays, largement dépassés par l’intérêt des États à traiter avec les courtiers de données. Il s’agit en quelque sorte d’un retour sur investissement (que cet investissement soit celui de la participation des fonds publics à l’économie numérique ou carrément de la fourniture de données publiques). Aux États-Unis, tantôt des sociétés fournissent aux autorités des données de géolocalisation durant la pandémie (Veraset), tantôt elles s’investissent du pouvoir de protéger le droit à l’avortement en choisissant de ne pas stocker les informations relatives aux centres IVG (Google), tantôt elles proposent la reconnaissance faciale pour lutter contre l’immigration illégale (Amazon), ou ciblent les personnes susceptibles de commettre un crime dans le cadre du traitement de données juridiques (LexisNexis), ou encore surveillent pour l’État les passagers aériens (Acxiom post 11/9 et ses grands contrats de surveillance au risque du piratage)…

En France, nous n’en sommes pas encore là… diraient les plus candides. Le site Technopolice dévoile cependant une petite partie de l’écosystème de partenariat public/privé dans le domaine de la surveillance et de la répression des populations. L’accessibilité des données publiques est le faire-valoir de façade : dans le contexte de la smart city, publier des données publiques revient à encourager et rendre plus efficiente la numérisation de la société, et en même temps facilite grandement la mise sous monitoring permanent de la société. Ceci est d’autant plus pertinent que nous avons en France une politique des plus efficaces de gestion et de captation des données par les services publics : la start-up nation du président Macron n’a pas d’autre but que de favoriser ces partenariats public-privés, quelle que soit leur finalité… bienvenue si, en plus, elle permet d’accroître les capacités d’action de la force publique ou de servir les intérêts bourgeois.

En matière de politique, les partis eux-mêmes ont en France déjà largement franchi le pas en matière de profilage à des fins électoralistes, tout comme dans la majorité des pays dans le monde. Moyennant quelques euros, il n’est aujourd’hui pas très difficile d’élaborer une banque de profils. La question n’est plus vraiment de porter l’opprobre sur les utilisateurs des médias sociaux qui dévoilent toute leur vie privée, nous n’en sommes plus là : les techniques élaborées par les courtiers de données, par le pompage tentaculaire d’une pléthore de banque de données publiques et privées, permettent un profilage bien plus pertinent et implacable que les seules données de l’ingénierie sociale (d’ailleurs largement automatisée depuis longtemps).

Spécialiste en études de surveillance, Colin Bennett montre dans une étude comparative, que ce sont les gouvernements néo-conservateurs qui sont le plus susceptibles d’adopter des solutions de surveillance algorithmique avec le concours des entreprises de courtage de données, y compris les Gafam. Si la surveillance comprend aujourd’hui la totalité des processus de production et de consommation, ce n’est pas parce que ces technologies de surveillance sont apparues sur le marché qu’elles furent adoptées comme une fatalité. C’est parce que la décision publique s’est orientée sciemment vers cette tendance. Selon David Lyon (Lyon, 2001, p. 74), les sociétés capitalistes sont les plus enclines à développer des pratiques de gestion de risque (pour pallier aux incertitudes économiques ou aux externalités) ainsi que des pratiques de contrôle identitaire (dans une société capitaliste, le contrat est la forme juridique principale de relation, il faut donc toujours identifier la personne avec le plus d’exactitude). Or, le contrôle identitaire comme la gestion des risques reposent aujourd’hui sur des organisations tierces, autres que l’État. Il y a donc des interrelations rendues nécessaires dans toutes les démocraties libérales pour lesquelles le modèle capitaliste est réputé indépassable, mais avec quelques nuances. Comme l’exprime Collin Bennett :

« Le développement précoce et généralisé de ces techniques aux États-Unis s’explique en partie par un système politique plus fragmenté que dans les régimes parlementaires. La faiblesse et l’incertitude des lignes d’autorité hiérarchique du Congrès et de la présidence permettent une multitude de liens horizontaux complexes et entrelacés entre les fonctionnaires de niveau inférieur. Ces issue networks facilitent le partage de toutes sortes de données et d’informations sur les politiques publiques. L’appariement informatique prospère entre et au sein de l’ensemble d’agences diverses, non intégrées, incohérentes et décentralisées qui constituent la bureaucratie fédérale américaine. » (Bennett, 1992, p. 255)

De manière générale, dans tous les pays, le degré de surveillance dépend pour beaucoup de la qualité des frontières entre l’État et la société civile. Plus les frontières sont floues, plus des acteurs privés tendent à assurer des fonctions normalement publiques, plus il y a de partenariats entre public et privé, moins la protection des libertés civiles est assurée à l’encontre des velléités de contrôle des populations et de l’influence comportementale. La notion de liberté dans le Contrat Social, réputée au fondement des démocraties libérales, n’est donc pas seulement menacée par le capitalisme de surveillance, elle est menacée parce que les institutions et les structures gouvernementales viennent à dépendre de ce capitalisme et œuvrent pour lui.

En façade, toutes les réglementations risquent de ne jamais suffire. Pour reprendre encore C. Bennett :

« Cette étude comparative de la dataveillance a mis en évidence les limites de la réglementation procédurale. Les nouvelles formes de dataveillance mettent à rude épreuve la crédibilité de la théorie de la protection de la vie privée, des lois sur la protection des données qu’elle sous-tend et des agences chargées de faire appliquer ces lois. Dans le meilleur des cas, ces agences ne peuvent réagir qu’au niveau individuel. Elles peuvent assurer une certaine transparence du processus, établir des règles pour la qualité et l’intégrité des données, insister sur des analyses coûts-avantages crédibles avant de procéder à des rapprochements de données, recevoir et résoudre des plaintes individuelles, mais elles ne peuvent pas mettre un terme à la dataveillance. » (Bennett, 1992, p. 256)

Mètis et tactiques : la résistance, de Scott à de Certeau

Face à l’algorithmisation de la décision publique qui impose ses propres rationalités en instaurant un « État-plateforme » et encourage l’action des multinationales du numérique (Mabi, 2019), face au pouvoir des courtiers de données, qui font bien peu les objets d’études sérieuses, certains plaident en faveur d’un nouveau Contrat Social (Reviglio, 2022). Est-ce suffisant ? ou plutôt : est-ce encore pertinent ? Après tout, l’idéologie libertarienne des magnats de la Silicon Valley s’accommode très bien des partis les plus conservateurs et réactionnaires, les subventionne, même. La raison est que, avec de telles idéologies politiques, le profit ne manquera pas à ceux qui proposeront les solutions techniques qui permettent de désengager l’État le plus possible. Le sempiternel refrain du coût exagéré des services publics trouve toujours des oreilles attentives. C’est par exemple la raison pour laquelle la blockchain est tellement plébiscitée, en dépit de son impact écologique : il suffit de comprendre que la blockchain permet au fond de transformer notre rapport au droit. Les notions de propriété ou d’obligation, une fois contractualisée en blockchain peuvent devenir des actifs dont le contrôle n’est plus relatif aux institutions mais à la technologie. Au lieu de réinvestir la parole publique dans le code comme le préconisait L. Lessig (Lessig, 2000), il s’agit non plus d’accepter mais de voir comme une fatalité que le code fait loi, c’est-à-dire créer une société où il n’y aurait plus de négociation mais uniquement la rigidité des contrats et l’inscription de nos relations dans une chaîne algorithmique (supposée) éternelle3. Plus besoin d’institutions.

D’aucuns pourraient alors se réfugier dans le rejet technophobe. Comme je l’ai déjà dit, c’est à la fois une erreur (c’est méconnaître la puissance des technologies de surveillance à moins de se retirer complètement du monde), et une défaite mainte fois explorée, sans issue. Oui, il faut réinvestir socialement les technologies et cela peut se faire de multiples façons. Mais quel est le moteur de cette appropriation sociale ? Hé bien c’est une manière de réviser notre rapport avec l’État, c’est-à-dire opposer à l’État ce qu’il y a de proprement ingouvernable et qui donc échappe par définition à la surveillance.

Qu’est-ce donc qui soit si ingouvernable dans la société, et par extension hors d’atteinte des algorithmes ? Ce sont les sommes de savoirs et savoir-faire que justement nous gardons hors du gouvernement (ou de la bureaucratie privée) parce que nous savons que les y abandonner serait une forme de suicide social. Les définir revient à discuter de deux manières de les concevoir, la première est celle de James Scott, la seconde celle de Michel de Certeau. Dans les deux cas, savoir ce qu’on veut en faire est une question éminemment anarchiste.

Avant d’aborder cette question, faisons un petit détour par le regretté Bernard Stiegler. Pour lui, il y a un concept qui résume bien le fait de priver les individus de savoir et de savoir-faire, c’est la déprolétarisation. C’est la perte, dans la société, de la capacité de l’individu à produire ses modes d’existence et son rapport aux choses. Dans le système productif, c’est la perte de son autonomisation au travail, en particulier par l’automatisation des processus productifs. Et aujourd’hui, cette question ne touche plus seulement l’ouvrier mais tout le monde. C’est ce que Graeber a formulé dans son livre Bullshitjobs (Graeber, 2018), cette perte de sens au travail qui finalement fait aussi écho à la prolétarisation de nos vies en général : la bureaucratisation, si longtemps décriée (au moins depuis Max Weber), a pris des proportions telles que nos vies entières sont soumises à des processus qui en font perdre le sens, mais il s’agit aussi de nos états psychiques, nos désirs, nos relations interpersonnelles, toutes soumises à la fois à l’algorithmisation des « services » numériques et à leur enshitification.

Mais ce que Bernard Stiegler appelle les savoirs et savoir-faire sont en fait ceux qui sont sujets à l’automatisation, c’est-à-dire ces savoirs et savoir-faire que l’on peut définir, mesurer statistiquement, et qui correspondent à des stéréotypes auxquels soit nous essayons de nous conformer, parce que nous influencés dans ce sens, ou auxquels nous sommes contraints au risque de l’exclusion sociale. Et il est vrai que cette conformisation est d’autant plus forte que nos vies se numérisent, car hors du calcul, point de salut.

Cependant, il demeure que les savoirs et savoir-faire sont un puits sans fond. Il existe une foule de choses que savons et faisons, quitte à les inventer ad hoc, qui échappent à la surveillance, et même à la formulation, et par lesquelles néanmoins, la société « se tient »… parce que nous le décidons ainsi. Qui n’a pas constaté par exemple, dans une organisation faite de procédures dûment renseignées et définies, combien le fait de respecter à la lettre ces procédures conduit tout droit à une situation erratique, là où justement, conscient que les procédures ne peuvent jamais couvrir l’infinité des situations possibles, la décision de ne justement pas les respecter permet au système de perdurer. Ce savoir-là, cette manière de faire, issue à la fois de l’expérience et de la théorie sans en être toutefois la déduction, c’est ce que les grecs appelaient la mètis et que James Scott situe au plus haut de l’organisation sociale.

La mètis, c’est Ulysse trompant le Cyclope par la ruse et Ulysse capable de redonner espoir à ses marins tout en réparant le bateau… parce qu’il est Ulysse. Ce n’est pas seulement la ruse, c’est la ruse d’Ulysse, ce n’est pas du management, c’est la manière d’être d’Ulysse, ce n’est pas du bricolage, c’est la capacité d’Ulysse à réparer le bateau. Rien dans ces situations ne peut être préalablement documenté (il n’y a pas de manuel d’odyssée pour marins perdus), rien ne sera documenté ou théorisé si ce n’est l’histoire que l’on raconte (et qui change sans cesse), et c’est justement pourquoi Ulysse plus qu’un autre est capable de rentrer à Ithaque.

On a très souvent confondu la mètis avec la ruse. Cette idée est plutôt une interprétation des écrits d’Aristote, qui la compare à la feinte, à la manière rapide de faire quelque chose et a trait à la contingence, l’indeterminé. Ceci par opposition à un savoir, qu’il soit issu de l’expérience ou de la théorie, mais qui puisse être explicité. Pour rester chez Aristote, ce n’est pas non plus la phronèsis cette « prudence » qu’on pourrait dénommer « sagesse pratique », juste équilibre entre l’excès et lemanque. D’un autre côté, on a aussi traduit mètis par « intelligence pratique », ce qui n’arrange pas vraiment nos affaires. Il faut lire sur ce point le travail remarquable fait au début des années 1970 par M. Detienne et J.-P. Vernant (Detienne, Vernant, 2018) sur la polysémie de la mètis et qui montre combien les grecs y accordaient une grande importance, aussi bien qu’au logos qui s’énonce clairement.

J. Scott, dans L’Œil de l’État, prend une définition qui n’est pas du ressort du logos et en même temps reste une forme de prudence. Pour lui, la mètis ce sont des savoirs et savoir-faire « aussi précis et concis que nécessaires ». Elle s’adapte aux situations toujours différentes. Elle se situe entre le génie (ou le talent) et le savoir codifié. Enfin, elle est toujours locale, relative à un contexte donné, et surtout elle dépend aussi des conditions sociales, par exemple des savoirs et savoir-faire transmis sur plusieurs générations. Il faut une « communauté d’intérêt, un stock d’informations cumulées et des expérimentations continuelles ». La mètis est donc à la fois individuelle – elle dépend d’un « tour de main », et aussi collective – la structure sociale en détermine le besoin pourrait-on dire.

Ceci étant dit, que fait James Scott dans L’Œil de l’État ? il passe en revue une pléthore de cas où l’État finalement échoue dans ses projets de gouvernement ou bien lorsque l’entreprise échoue dans sa tentative de vouloir gouverner les processus de production. Il explique cela en deux temps. Premièrement, le fait que tout projet de gouvernement tend à vouloir simplifier et standardiser, qu’il s’agisse du gouvernement soviétique dans sa volonté de planifier l’agriculture ou l’industrie, ou (avant que les thuriféraires de Hayeck ne se pointent) la standardisation et la simplification du marché libéral (la circulation de l’information économique est une simplification du monde ce qui explique les crises capitalistes et la volonté de ne jamais voir les « externalités »). C’est la même chose selon James Scott. Et deuxièmement, la raison de cet échec, c’est justement la mètis, c’est-à-dire le fait que dans tout projet, chaque acteur au plus bas de l’échelle, chaque non-décisionnaire, n’est jamais déprolétarisé entièrement. Il subsiste toujours une manière de procéder qui est mise en œuvre à bas bruit, à l’échelle locale, qui permet justement que l’ensemble que l’on croit ainsi gouverner, puisse tenir malgré tout. C’est l’exemple de l’agriculture soviétique qui, selon James Scott (car la réalité n’est jamais aussi nette), ne tenait que parce que les paysans dépossédés de leurs terres, conservaient malgré tout un semblant d’économie agricole locale par des petits jardins discrets et des petits échanges, autant de temps de travail et d’espaces géographiques« volés » à l’État central et maintenaient l’ensemble plus ou moins fonctionnel.

C’est cette mètis que James Scott oppose à la gouvernementalité. C’est-à-dire, qu’il y a toujours de l’ingouvernable et que c’est justement ce qui permet aux structures sociales de tenir. Pour J. Scott,ce n’est pas l’information qui stabilise l’ordre du monde, c’est la mètis. Or, l’usine tout comme l’ordre administratif, par leur volonté de simplifier, de standardiser, d’uniformiser, en usant de la violence bien souvent, cherchent justement à briser la mètis :

« Le véritable génie des méthodes modernes de production de masse que fut Frédérick Taylor perçu avec une grande acuité le problème de la destruction de la mètis et de la transformation d’une population d’artisans quasi-autonomes et réfractaire en unité plus aisément contrôlable à savoir les ouvriers. » (Scott, 2024, p. 9)

La conclusion de James Scott, va encore plus loin. Pour lui, la mètis joue un rôle non seulement structurant, mais supérieur au gouvernement des choses. Économies collectivistes ou usines capitalistes dépendent d’une économie informelle étrangère aux schémas simplifiés :

« Tous les systèmes socialement élaborés sont en fait les sous-systèmes d’un système plus vaste dont ils sont au bout du compte dépendants voire parasitaires »

Je peux concéder que ce « vaste système », cette part d’ingouvernable en chacun de nous et qui construit nos relations sociales, souvent il est vrai en réaction à l’autoritarisme de l’État ou de l’entreprise, est aussi l’objet de convoitise. Ne sont-ce pas les partis politiques qui souvent instrumentalisent notre ingouvernabilité pour mieux la canaliser et organiser la congruence idéologique qui permet de détenir le pouvoir dans les régimes (prétendus) démocratiques ? Ceci tendrait à prouver le bien-fondé de la pensée de James Scott. Mais d’un autre côté, lorsque ces mêmes partis politique usent et abusent du profilage numérique pour mieux manœuvrer l’opinion publique, n’est-ce pas aussi une manière de considérer le talon d’Achille de ce « vaste système » ? N’est-ce pas faire la part trop belle à la solidité de cette mètis si universelle que de penser qu’échappant aux statistiques, elle serait à ce point hors de contrôle ?

Pour poursuivre dans la même veine, on pourrait dire que le profilage dans l’économie numérique d’aujourd’hui tend de la même manière à simplifier et standardiser, mais la différence est que l’exercice du pouvoir que cela confère devient total parce que justement il y a abandon. Abandon des prérogatives de l’État par son reniement du Contrat Social (nous l’avons vu plus haut), ou abandon des individus happés qu’ils sont d’un côté par l’administration de leurs vies et de l’autre par leur propre abandon de leurs savoirs et savoir-faire au profit du confort bourgeois que l’on promet à tous. Non, pas tous : je rappelle qu’ici nous parlons exclusivement des sociétés capitalistes, et que le confort bourgeois est celui que l’on envie, pas forcément celui que l’on a…

L’algorithmisation de nos vies est sans doute le plus haut degré de destruction de la mètis. Au point que je pense sincèrement qu’elle est passée d’une forme de structuration (révolutionnaire possiblement) à une forme de résistance. Elle n’est plus supra mais infra sociale.

C’est là qu’une lecture de Michel de Certeau, réactualisée à l’aune de l’économie numérique, peut s’avérer profitable. C’est à cet exercice que se sont récemment livrés B. Latini et J. Rostand (Latini, Rostand, 2022). Je vous laisse découvrir ce dernier texte dont vous trouverez la référence en bibliographie.

Disons pour faire simple que Michel de Certeau est le contrepoint de la pensée post-structuraliste des Foucault et compagnie. Contrepoint, et non opposition. S’il existe des structures qui permettent de comprendre un état social, ce dernier n’en est pas pour autant le prisonnier, et les individus qui composent les « masses », ne sont jamais entièrement déterminés par la structure, les institutions ou les modèles d’interactions. Il est plus facile, en effet, de penser notre assujettissement à l’économie (numérique ou autre) que de penser les manières dont, en pratique, nous nous organisons dans ce terrain hostile.

Peut-être est-ce là la raison de la relative discrétion du travail de M.de Certeau aujourd’hui, à un moment où sa lecture pourrait être profitable. En effet, là où Foucault proposait une critique des institutions pour démontrer les modes d’assujettissement, on a cru voir, en une comparaison trop rapide, un lien évident entre la surveillance et le contrôle panoptique. La lecture de Surveiller et punir est en ce sens une sorte de poncif, surtout lorsqu’on ne tient pas compte la critique du néolibéralisme déjà plus qu’en germe chez Foucault, mais dans d’autres livres.

Là où M. de Certeau se situe, c’est sur un autre plan : nous ne sommes pas que des sujets. Nous sommes capables de nous exprimer de manière autonome, et M. de Certeau nous emmène sur le terrain du quotidien, là où nous opérons nos pratiques et nos créativités, par le fait même que nous trouvons dans ce quotidien la raison créatrice et finalement émancipatrice. Michel de Certeau voit son champ de recherche situé « dans un ensemble de précédents et de voisinages, par exemple les recherches récentes sur l'« intelligence pratique » (la mètis) des grecs ou sur le « sens pratique » et les « stratégies » kabyles et béarnaises » (Certeau, 1990, p. 35). Si l’auteur se réfère explicitement à P. Bourdieu, il ne s’embarque pas pour autant vers la théorie de la pratique. Son objet est de concevoir quels sont les modèles d’action des « gens », ces consommateurs qui sont en réalité les dominés sans toutefois être « ni passifs ni dociles », et comment « le quotidien s’invente avec mille manières de braconner ».

Dans l’économie numérique, il y a de nombreuses figurent qui illustrent très bien ce braconnage. Un autre mot a été utilisé : le bricolage du hacker. La figure historique du hacker est bien celle qui se réapproprie des outils pour en tirer autre chose, pas seulement l’améliorer, mais le transformer pour son usage et le partager, par un processus créatif. Pour autant, nous ne sommes pas tous des hackers, et nous rejoignons là l’idée de James Scott : il y a une inégalité de distribution des « tour de main », des manières de faire et des manières de voir. Par exemple,un hacker évolue dans un milieu social qui rend ses hacks pertinents et sans une communauté de hacker, il est difficile de se reconnaître et d’agir comme tel.

La pensée de M. de Certeau va un peu plus loin que cela. Ce n’est pas la communauté qui est importante, car elle ne sert finalement qu’à prendre conscience de soi. En fait, ce que nous dit de Certeau, c’est qu’en dehors d’un système de représentation et d’identification, nous usons des objets de mille manières différentes, quelles que soient les modes d’utilisation qui nous seraient imposés.

Se souvenant d’une visite dans un village reconstitué, de Certeau envisage les outils anciens exposés dans les maisons, des outils déjà utilisés et marqués par les usages :

« Comme les outils, les proverbes, ou autres discours, sont marqués par des usages ; ils présentent à l’analyse les empreintes d’actes ou de procès d’énonciation ; ils signifient les opérations dont ils ont été l’objet, opérations relatives à des situations et envisageables comme des modalisations conjoncturelles de l’énoncé ou de la pratique ; plus largement, ils indiquent donc une historicité sociale dans laquelle les systèmes de représentations ou les procédés de fabrication n’apparaissent plus seulement comme des cadres normatifs mais comme des outils manipulés par des utilisateurs. » (de Certeau, 1990, p. 39)

Dans le quotidien, les objets ont « mille combinaisons d’existence », et c’est cette presqu’infinité des modes d’usage qui marque la créativité des utilisateurs. Critiquant l’anthropologie et la sociologie institutionnalisée par des paradigmes ou même des dogmes, de Certeau montre qu’elles ont tendance à faire oublier ces infinités de mode d’être, reproduisant ainsi ce que l’ordre bureaucratique, le cadre normatif des institutions, cherchent eux aussi à faire oublier par des artifices comme la « valeur commune », l'« ordre naturel », ou « immémorial » : la résistance naturelle de la métis sort systématiquement de tout cadre normatif :

« L’ordre effectif des choses est justement ce que les tactiques « populaires » détournent à des fins propres, sans l’illusion qu’il va changer de sitôt. Alors qu’il est exploité par un pouvoir dominant, ou simplement dénié par un discours idéologique, ici l’ordre est joué par un art. Dans l’institution à servir, s’insinuent ainsi un style d’échanges sociaux, un style d’inventions techniques et un style de résistance morale, c’est-à-dire une économie du « don » (des générosités à charge de revanche), une esthétique de « coups » (des opérations d’artistes) et une éthique de la ténacité (mille manières de refuser à l’ordre établi le statut de loi, de sens ou de fatalité). La culture « populaire », ce serait cela, et non un corps tenu pour étranger, mis en pièces afin d’être exposé, traité et « cité » par un système qui redouble, avec les objets, la situation qu’il fait aux vivants. » (de Certeau, 1990, p. 46)

Nous bricolons tous, nous sommes tous des braconniers, et nous réagissons par des résistances au pouvoir. La pensée de M. de Certeau permet de mettre en perspective la toute puissance de la surveillance et l’influence comportementale. Les objets numériques font partie de notre quotidien : ce seul constat suffit à faire prendre conscience que nous réagissons toujours à contre-courant de l’illusion normative que l’économie numérique cherche à nous imposer.

Il serait faux de prétendre que, parce que nous consentons de temps à autre à ces contraintes, la société serait devenue amorphe et toute perméable à l’assujettissement algorithmique. Au contraire, il ne faut pas seulement regarder les communautés qui ont conscience de leurs propres efforts de résistance et développent des outils en conséquence. Il faut aussi regarder la manière dont les usages quotidiens recèlent des capacités de résistance. Il existe une culture populaire numérique à laquelle il faut aussi penser lorsque, nantis d’une mission d’évangélisation libriste, nous aimerions que les usages se transforment en vertu d’une autre normativité que nous aimerions voir advenir, celle des libertés numériques. Que voulons-nous vraiment en réalité ? organiser l’opposition frontale avec le capitalisme de surveillance ? ne serait-il pas finalement plus profitable de détourner, machiner, braconner, bricoler, et diffuser ces manières de faire, ces tactiques de résistances ? C’est de guérilla et de subversion dont il s’agit, pas d’une guerre de classes. Au lieu de vouloir un ordre nouveau et créer de nouvelles normativités, il est peut-être plus intéressant de contrefaire l’ordre que l’on veut nous imposer.

Bibliographie

ALEXANDRE, Olivier, 2024. « La Tech sur les chemins d’une contre-révolution ». AOC [en ligne]. 10/7/2024. [Consulté le 19/8/2024]. URL.

BENNETT, Colin J., 1992. Regulating Privacy: Data Protection and Public Policy in Europe and the United States. Ithaca : Cornell University Press.

BENTHAM, Jeremy, 1789. An Introduction to the Principles of Morals and Legislation. London : T. Payne.

BRÜCKWEH, Kerstin, 2016. « Das Eigenleben der Methoden. Eine Wissensgeschichte britischer Konsumenten-klassifikationen im 20. Jahrhundert ». Geschichte und Gesellschaft. Vol. 42, pp. 86‑112.

CERTEAU, Michel de, 1990. L’invention du quotidien. Paris, France : Gallimard.

DETIENNE, Marcel et VERNANT, Jean-Pierre, 2018. Les ruses de l’intelligence: la mètis des Grecs. Paris, France : Flammarion.

FOSTER, John Bellamy et MCCHESNEY, Robert W., 2014. « Surveillance Capitalism. Monopoly-Finance Capital, the Military-Industrial Complex, and the Digital Age ». Monthly Review [en ligne]. 7/2014. Vol. 66. URL.

FOUCAULT, Michel, 1975. Surveiller et punir. Naissance de la prison. Paris : Gallimard.

GIDDENS, Anthony, 1981. A contemporary critique of historical materialism. Vol. 1. Power, Property and the State. London : McMillan.

GIDDENS, Anthony, 1985. A contemporary critique of historical materialism. Vol. 2. The Nation State and Violence. Cambridge : Polity.

GRAEBER, David, 2018. Bullshit jobs. Paris, France : Éditions les Liens qui libèrent.

LATINI, Beatrice et ROSTAND, Jules, 2022. « La libre navigation. Michel de Certeau à l’épreuve du numérique ». Esprit [en ligne]. 2022. Vol. Janvier-Février, n° 1-2, pp. 109‑117. [Consulté le 4/5/2023]. DOI 10.3917/espri.2201.0109. URL.

LESSIG, Lawrence, 2000. « Le code fait loi – De la liberté dans le cyberespace ». Framablog [en ligne]. 2000. URL.

LYON, David, 2001. Surveillance society: monitoring everyday life. Buckingham, Open University Press.

MABI, Clément, 2019. « Gouverner l’État avec le numérique ». Dans : Algorithmes et décision publique. CNRS Éditions. Paris. Les essentiels d’Hermès.

MASUTTI, Christophe, 2020. Affaires privées. Aux sources du capitalisme de surveillance. Paris : C&F Éditions. URL.

MASUTTI, Christophe, 2021. « En passant par l’Arkansas. Ordinateurs, politique et marketing au tournant des années 1970 ». Zilsel [en ligne]. 2021. Vol. 9, n° 2, pp. 29‑70. URL.

REVIGLIO, Urbano, 2022. « The untamed and discreet role of data brokers in surveillance capitalism: a transnational and interdisciplinary overview ». Internet Policy Review [en ligne]. 4/8/2022. Vol. 11, n° 3. [Consulté le 25/8/2024]. URL.

SCOTT, James Campbell, 2024. L’œil de l’État: Moderniser, uniformiser, détruire. Paris, France : la Découverte.

STIEGLER, Barbara, 2019. « Il faut s’adapter » : sur un nouvel impératif politique. Paris, France : Gallimard.

TURNER, Fred, 2012. Aux sources de l’utopie numérique : De la contre culture à la cyberculture. Stewart Brand, un homme d’influence. Caen : C&F Editions.

Notes


  1. Cela dit, d’après Wikipédia, « en juillet 2018, Interpublic annonce l’acquisition Acxiom Marketing Solutions, une filiale d’Acxiom, pour 2,3 milliards de dollars. Acxiom Marketing Solutions, représente les 3/4 des revenus d’Acxiom qui ne garde que son unité LiveRamp ». En France par exemple, Acxiom France semble désormais s’appeler Liveramp France depuis 2021. Il va falloir d’ici peu revoir la toile des courtiers de données, et c’est à mon avis Liveramp qui va tenir la barre. ↩︎

  2. Voir cette video très simple qui explique le CRM onboarding, concernant la Redoute et Liveramp. ↩︎

  3. Ecoutez le podcast (et sa conclusion) de l’excellente émission de Xavier de La Porte, Le Code a changé, « À qui profite le Bitcoin ? », France Inter, septembre 2023. ↩︎


Publié le 07.07.2024 à 02:00

Organisation et production de texte

Les années passent et il est indéniable que les habitudes prises au fil du temps montrent leur efficacité au regard de la pratique plus que de la logique. Néanmoins, il me semble que mon organisation logicielle et mon flux de production peuvent intéresser. C’est pourquoi je vous les présente ici.

Les objectifs

  • Utiliser exclusivement des logiciels libres et des formats ouverts pour assurer la pérennité de la production dans le temps ;
  • Pouvoir utiliser les logiciels que je veux (et au fil de mes découvertes) indépendamment de l’organisation de mes fichiers pour ne pas dépendre d’un logiciel en particulier ;
  • Ne pas se retrouver prisonnier d’un format, fût-il libre ;
  • Assurer la sauvegarde de mes sources et de mes travaux ;
  • Pouvoir travailler sur plusieurs machines, à plusieurs endroits si je le souhaite.

Les choix stratégiques

Ayant l’habitude de travailler avec une suite bureautique comme LibreOffice et les formats ouverts, il me fallait trouver un processus qui soit capable de produire de tels formats. En revanche, l’utilisation de logiciels de traitement de texte, comme LibreOffice Writer, est assez lourde : bien qu’il soit possible d’utiliser les raccourcis claviers, l’ensemble propose une pléthore de menus et autres options qu’il n’est finalement pas pertinent d’avoir à disposition lorsqu’on produit du texte. Par ailleurs, la règle qui prévaut avec les suites bureautiques consiste à s’occuper de la mise en page après avoir produit du texte. Dans ce cas, pourquoi ne pas séparer les deux processus ? Séparer la production de texte de sa valorisation finale.

Il existe, d’un côté, des outils pour produire et organiser et, de l’autre côté, des outils pour finaliser et mettre en page. Se concentrer sur la production implique cependant d’avoir des outils spécifiques : faciliter l’écriture, y compris du point de vue ergonomique, permettre d’interagir facilement avec d’autres logiciels (gestion bibliographique, synchronisation des fichiers, etc), privilégier le texte dans l’interface sans l’enfermer dans un formatage dont il sera difficile de s’extraire par la suite.

C’est là qu’un troisième terme intervient : la conversion. À partir d’une production essentiellement textuelle, il doit être possible de convertir la production vers des formats soit directement destinés à être transmis, soit destinés à entrer dans un flux de mise en page spécifique. Par exemple, je convertis du texte vers un format LaTeX pour peaufiner une mise en page ou je le convertis vers un format ODT pour le transmettre à une autre personne qui a besoin de ce format, ou bien encore je produis du HTML ou du epub pour d’autres usages encore. Et cette conversion doit être la plus « propre » possible.

Les outils de production doivent être choisis en fonction des goûts et des pratiques. Comme il s’agit de texte, c’est donc vers les éditeurs de texte qu’il faut se tourner. Parmi ceux-ci, certains sont plus spécialisés que d’autres ou disposent d’options et d’extensions utiles à la production elle-même ou visant à améliorer la pratique de l’utilisateur.

Le format de référence

S’agissant d’un format dont la permanence dans le temps doit être assurée, le format devrait reposer sur une base de texte (plain text), écrit directement dans l’éditeur, formaté de manière simple et lisible humainement. Pour cela on laissera la possibilité d’exprimer des directives de mise en page et de hiérarchisation du texte, faciles à apprendre et gênant le moins possible la lecture. Au lieu de se contenter de texte simplement exprimé, on utilisera le langage markdown, un langage de balisage léger, simple à l’apprentissage comme à l’écriture et qui ne gêne pas la lecture (surtout si l’éditeur dispose d’une interprétation du markdown).

L’organisation

J’utilise une interprétation personnelle de la méthode Zettelkasten pour gérer mes connaissances et mes notes. Cela suppose une gestion rigoureuse des dossiers et des fichiers.

J’utilise aussi un logiciel de gestion bibliographique (Zotero) et un logiciel de gestion de livres numériques (Calibre), et j’apprécie l’utilisation d’un correcteur grammatical (comme Grammalecte).

Je sauvegarde mes sources et mes productions finales sur un serveur distant avec Nextcloud. Je travaille mes textes en les synchronisant avec Git sur un serveur Gitlab. Tandis que Nextcloud me permet d’avoir accès à mes sources depuis n’importe quel dispositif (tablette, liseuse, téléphone portable et ordinateur), travailler avec Git me permet de synchroniser lorsque je travaille sur différentes machines et de versionner mes productions intermédiaires et mes notes. Pour la bagatelle, l’ensemble est de toute façon sauvegardé de manière quotidienne sur un autre serveur avec Borg backup/Borgmatic.

Le choix des éditeurs

Un éditeur de texte doit comprendre à minima une coloration syntaxique permettant de visualiser les balises markdown. Mais ce n’est pas suffisant pour travailler sur des articles de recherche académique, par exemple. Il faut pour cela que l’éditeur puisse :

  • proposer une interface agréable et hautement configurable pour une utilisation quotidienne,
  • permettre d’écrire « au kilomètre » sans avoir besoin de saisir la souris à la moindre occasion,
  • permettre si possible une interaction avec un logiciel de gestion bibliographique, par exemple pour saisir facilement les clés de références bibliographiques citées,
  • proposer divers outils destinés à l’organisation de l’écriture : l’arborescence des fichiers, une navigation dans le texte, un gestionnaire de mots-clés pour les références croisées, une correction orthographique et grammaticale, etc.
  • permettre de temps à autre une interaction avec le reste du système d’exploitation, par exemple avoir accès au terminal pour lancer des commandes de conversion, ou de gestion de fichiers,
  • avoir accès à des petits programme de conversion « intégrés » pour un premier aperçu des résultats de production finale

Certains éditeurs de texte proposent tout cela en même temps, avec un système de plugins et il est parfois facile de se noyer dans la configuration d’un éditeur de texte. Comprenez : un éditeur de texte digne de ce nom doit pourvoir s’adapter à la pratique de son utilisateur, et non l’inverse. Si bien que les besoins étant relatifs, les solutions qui se présentent dans le monde des logiciels libres sont quasiment infinies. Il est même possible de programmer son propre plugin et refaire tout le mapage des commandes si on prend le cas des éditeurs Emacs ou Vim.

J’ai donc porté mes choix vers plusieurs éditeurs qui correspondent à mes usages et me permettent de choisir l’un ou l’autre selon mes envies et ce que je prévois de faire durant une session de travail :

  • Zettlr : parce que ce logiciel a été pensé littéralement pour la production de textes scientifiques,
  • Vim : parce qu’il s’utilise dans le terminal et qu’un Vim bien configuré avec les bons plugins est très efficace (plugins utilisés: vim-pandoc, vim-pandoc syntax, Nerd Tree, Grammalecte, vim-airline…)
  • Gedit : un éditeur simple, prêt à l’emploi, sans fioritures.
  • On peut aussi citer les éditeurs spécialisés pour markdown tel Ghostwriter.

Pourquoi ne pas…

  • Utiliser Emacs ? je l’ai fait et le ferai encore. En ce moment c’est Vim. Emacs propose, du point de vue de mes besoins, les mêmes possibilités.
  • Utiliser directement LibreOffice : certes les extensions de type Zotero et Grammalecte sont disponibles pour LibreOffice, et il est possible d’exporter depuis LibreOffice dans de nombreux formats. Par contre, LibreOffice ne propose pas une interface que je puisse conformer à mes usages et mes besoins, et tout particulièrement la possibilité d’écrire au kilomètre sans que mes mains quittent le clavier pour se saisir à tout bout de champ de la souris. Je réserve donc LibreOffice à un autre usage en fin de processus.
  • Utiliser des logiciels de gestion de notes comme Obsidian ou Logseq : parce que justement leur usage spécialisé est trop éloigné de mes usages académiques.

L’organisation

Rien ne vaut un bon vieux diagramme !

Flux de production

Comme on peut le voir, quatre dossiers principaux sont en jeu : Bibliographies, Templates, Notes, Travaux. Je ne sors pas de ces dossiers et ils sont systématiquement synchronisés avec Git sur un dépôt Gitlab.

Bibliographies : il contient les fichiers bibliographiques que j’utilise et tout particulièrement un fichier .json généré avec Zotero et qui se met à jour automatiquement à chaque ajout dans Zotero. C’est sur ce fichier que pointent mes éditeurs (Zettlr et Vim) pour interagir avec la bibliographie et entrer les clés de références.

Templates : il contient les styles et modèles utilisés pour les productions en sortie de flux. À savoir : les fichiers .csl pour les styles bibliographiques utilisés, les fichiers css utilisés pour sortir des fichiers HTML ou certains PDF, ou encore des modèles .odt qui me permettent de plaquer directement des styles à une sortie .odt « brute ».

Notes : Il s’agit de mes fichiers d’écriture selon la méthode Zettelkasten.

Travaux : là où sont rédigés les textes destinés à sortir du flux, par exemple des articles destinés à la publication. Notons que les sorties elles-mêmes n’ont pas vocation à être versionnées avec Git (seuls les fichiers sources le sont), et sont donc exportées dans d’autres dossiers (sauvegardés sur Nextcloud).

La conversion et la production

Pour convertir les fichiers markdown vers toutes sortes de formats (odt, html, pdf, docx pour l’essentiel), j’utilise Pandoc. Ce dernier présente de nombreux avantages :

  • une version de Pandoc est directement intégrée à Zettlr
  • il permet d’utiliser les templates et les moteurs qui configurent la sortie voulue, par exemple un fichier .css qui sera utilisé avec le moteur de rendu wkhtmltopdf pour produire un PDF avec une mise en page satisfaisante, ou encore un fichier .tex qui contient déjà les en-têtes voulus pour produire un beau PDF, etc. Voir pour tout cela le manuel de Pandoc.
  • surtout il permet d’utiliser le moteur Citeproc et les fichiers CSL qui formatent la bibliographie dans le fichier de sortie.

Cependant, j’utilise LaTeX et LibreOffice souvent en phase de pré-production. Par exemple, lorsque je soumets un article à un comité de lecture, ce dernier souhaite un fichier odt ou docx et propose des corrections sur ce fichier ; c’est donc LibreOffice qui entre en scène. Il faut alors quitter le flux de production personnel pour envisager un nouveau flux. Autre situation : je convertis le markdown en .tex lorsque le modèle utilisé ne suffit pas à obtenir une mise en page spéciale et qu’il faut travailler cette fois directement avec LaTeX (bien que, en utilisant Pandoc, il soit possible d’intégrer directement du code LaTeX dans le fichier markdown).

Dans tous les cas, l’essentiel du travail se fait en amont et un article finalisé (et publié) réintègre toujours le flux pour en avoir une version markdown finale.

Un mot sur les autres logiciels

  • Zotero : ce logiciel de gestion bibliographique est fort connu. Il présente l’avantage de pouvoir être utilisé dans les autres logiciels avec ses plugins : dans Firefox pour sauvegarder une référence automatiquement, dans Vim, dans Zettlr, dans LibreOffice. Il permet aussi de stocker les articles et autres sources référencées soit sur le serveur de stockage de Zotero (payant) soit sur un Nextcloud (via le protocole webdav).
  • Calibre : c’est un logiciel de gestion de livres numériques. Ma collection étant assez importante, il me fallait pouvoir gérer cela autrement qu’avec Zotero, d’autant plus que j’y branche ma liseuse ou ma tablette en vue d’une lecture sur un autre support que l’ordinateur.

Astuces

Je ne vais pas ici vous expliquer comment configurer Vim au poil. Cela demanderait un développement assez long. Mais je vous conseille pour débuter le petit livret de Vincent Jousse, Vim pour les humains. Vous y apprendrez comment prendre en main Vim rapidement et comment installer des plugins. Le reste ira très bien.

Pour commencer avec Zettlr, c’est plus simple : dès l’installation de ce logiciel un tutoriel très bien fait et entièrement en français vous sera proposé.

Le markdown en un tutoriel pour historiens : Dennis Tenen et Grant Wythoff, Rédaction durable avec Pandoc et Markdown.

Comment faire avec Zotero pour obtenir un fichier (.bib ou .json) de bibliographie qui se mettra à jour automatiquement ? Voici :

  • Installez le Plugin Better Bibtex pour Zotero,
  • Dans Zotero, sélectionnez la bibliothèque que vous souhaitez exporter, clic droit puis Exporter la bibliothèque,
  • Sélectionnez le format Better BibTeX Json et cochez la case Garder à jour
  • Sauvegardez et entrez le chemin vers ce fichier dans Zettlr (ou dans votre .vimrc pour configurer le plugin Vim-Pandoc)
  • Désormais, lorsque la bibliothèque Zotero subira des modifications, le fichier d’export sera toujours à jour (et vous retrouverez vos nouvelles références)

Publié le 04.06.2024 à 02:00

Guide de survie du vététiste débutant en moyenne montagne

Voici un long billet dont j’ai remis la rédaction depuis bien trop longtemps. Il s’adresse aux grands débutants en VTT qui souhaitent s’y mettre. S’agissant de réflexions tirées de mon expérience personnelle dans les Vosges, il faut considérer que je m’adresse essentiellement aux débutants vététistes en moyenne montagne. Quatre grands thèmes sont abordés : la pratique du VTT, le choix d’un premier VTT, l’équipement et l’entretien.

(màj. juin 2024)

Table des matières

Il faut parfois s’accrocher pour ne pas se perdre parmi les différentes appellations qui désignent les pratiques du VTT. Ce n’est pas qu’elles soient nombreuses, c’est surtout qu’elles sont parfois utilisées de manière indifférenciée. Ainsi, certains sites ou vendeurs vous conseilleront exclusivement un VTT tout-suspendu pour la pratique du « All Mountain », tandis que d’autres vous diront que le semi-rigide comme le tout suspendu conviennent, car il ne s’agit que de randonnée sportive, soit du Cross country…

Les pratiques du VTT

Nommer la pratique que l’on souhaite avoir, c’est aussi conditionner le choix du matériel et donc son achat. Mon avis personnel, c’est que certains sites internet ont tendance à pousser le choix d’un VTT tout suspendu alors que le client débutant en est encore à se questionner sur les équipements de freins et transmission. En contraste, je n’ai encore jamais vu un bon vendeur dans un magasin de cycles soutenir mordicus que le client devrait obligatoirement choisir un type de VTT plutôt qu’un autre : le conseil doit être technique et comparatif dans une même gamme, mais la pratique appartient au pratiquant.

C’est pour cela qu’il faut d’abord réfléchir à la pratique que l’on souhaite. Il faut pouvoir faire confiance au vendeur et à ses conseils, mais auparavant il faut aussi savoir lui communiquer vos attentes. Il ne peut pas les deviner si vous ne savez pas répondre à ses questions ou si vous répondez sans réellement savoir ce que vous voulez.

Nous reviendrons plus loin sur l’éternelle question du choix entre un tout-suspendu et un semi-rigide.

Mais c’est quoi « le VTT » ?

Comme son nom l’indique en français, il s’agit de « vélo tout terrain ». En anglais, il s’agit de vélo de montagne (Mountain Bike). Bien que la version anglophone ai longtemps eu cours, je trouve que la version francophone est bien mieux adaptée : on peut utiliser un VTT sur chemin de campagne dans les collines sous-vosgiennes comme sur les pires aiguilles des Alpes. L’essentiel est que cela puisse rouler sur tous les terrains (il paraît que certains en font en Bretagne, c’est tout dire).

La seule chose que vous tâchez d’éviter, c’est la route, le bitume. Premièrement parce que vous risquez de vous y ennuyer en ayant l’impression de ne pas avancer. Deuxièmement parce que vos pneus et la géométrie d’un VTT ne sont pas faits pour cela.

Il y a plusieurs manières d’aborder le VTT. La première, c’est la petite promenade du dimanche sur des chemins de terre. C’est plus tranquille que sur la route, pas de voiture. Si tel est votre souhait, je ne pense pas qu’il soit utile de lire plus loin. Vous achetez un VTT assez bas prix (en dessous 500 euros, c’est tout à fait envisageable). Si vous en prenez soin, il saura vous durer. Mais un VTT ne sera peut-être pas votre choix le plus éclairé : il existe des vélos « tout chemin » (VTC) qui seront sans doute plus appropriés et, à l’occasion, vous permettront de faire des randonnées plus longues et plus confortables en alternant voies communales et pistes cyclables1.

La seconde et principale manière d’envisager le VTT, c’est le sport. De part sa géométrie, un VTT est d’abord un vélo sportif. Tout comme l’est celle du vélo de route (de course). Et comme toute discipline sportive, cela nécessite un entraînement régulier.

Le VTT n’a certes pas le monopole de la difficulté en sport, mais il faut reconnaître que ce n’est pas une discipline très simple. D’abord, il y a un aspect matériel à prendre en compte. Et surtout, il faut acquérir de l’endurance et de l’aisance de pilotage. Débuter le VTT comme sport vous engage à envisager quelques séances un peu décourageantes et ingrates devant les terrains accidentés et les montées interminables. Mais dès le début vous y trouverez beaucoup de plaisir et de satisfaction pour les distances et le dénivelé accomplis.

Simplement, essayez de choisir des circuits avec des points de vue, donnez-vous des objectifs, et ne présumez pas de vos forces. Soyez conscient·e de votre niveau. Si vous êtes blême en haut des marches et des racines, ou si vous avez le cœur en dehors de sa boîte au milieu d’une côte trop raide, il n’y aucune honte à descendre du vélo et faire quelques pas. Ne vous inquiétez pas, de toute façon, vous descendrez de vélo plus souvent que vous ne le croyez :)

Puisque nous parlons de sport, c’est l’occasion de rappeler quelques principes :

  • la régularité : la météo ne doit pas être une excuse pour ne pas rouler. C’est désagréable, certes, mais un petit coup de froid ne fait pas de mal. Par contre, n’oubliez pas les descentes, n’allez pas vous transformer en glaçon. J’ai coutume de ne pas sortir le VTT en dessous 5 degrés à moins d’un grand soleil. Mais vous trouverez toujours quelques givré·es pour le faire quand même. La grosse pluie, en revanche, il vaut mieux l’éviter : le vélo est tout terrain, mais la transmission et les suspensions prennent cher lorsqu’il y a trop d’humidité (et gare au nettoyage).
  • la mixité : le VTT est un sport, mais il ne doit pas vous empêcher d’en faire d’autres. La course à pied est un excellent complément pour travailler l’endurance. La natation vous aidera à obtenir plus de gainage (et aussi de l’endurance) tout en préservant vos articulations. Et chaque matin, un peu de musculation (sangle abdominale et pompes) pour améliorer votre pilotage, votre équilibre et résister aux longues sorties.
  • mon conseil : si une sortie VTT est votre seule pratique sportive de la semaine, vous risquez de ne pas beaucoup progresser. Essayez, lorsque viennent les beaux jours, de faire au moins deux sorties par semaine, une courte une longue, et alternez avec de l’endurance et du gainage. En hiver, si vous ne sortez pas le VTT du week-end à cause de la météo, faites une séance de trail à la place, au moins deux heures, pour garder le « coffre ».
  • en fonction de votre pratique (voir les sections suivantes), votre entraînement ne sera pas le même. Si vous vous lancez dans l’Enduro, je vous conseille de faire pas mal de musculation. Pour le Cross country, privilégiez le cardio.

Ces considérations étant exposées, intéressons-nous désormais aux différentes pratiques du VTT.

All mountain (on dit : Cross country, en fait)

C’est l’expression-valise pour dire « randonnée sportive sur chemins mixtes ». Par chemins mixtes, j’entends aussi bien des sentiers qui nécessitent un peu de pilotage technique (en descente comme en montée) et des grands chemins forestiers, le tout avec une certaine technicité des sentiers.

Et vous allez demander : n’est-ce pas justement la définition du VTT ? Et bien si, justement. Cette expression est selon moi purement issue du marketing, en particulier sur les sites de vente en ligne de matériel sportif. Si on multiplie les appellations de pratiques, on multiplie par conséquent les choix possibles.

Si je vous disais par exemple qu’un VTT tout-suspendu est essentiellement fait pour la descente, vous hésiteriez à juste titre car pour la plupart des gens, descendre des sentiers en vélo est forcément dangereux. Or, il a bien fallu multiplier les ventes de VTT tout-suspendus en les adaptant à ces personnes qui veulent un tel VTT sans pour autant se lancer dans la discipline Enduro. J’exagère à peine : le tout-suspendu a largement gagné le créneau du Cross country, mais comme je vais l’expliquer plus loin, c’est à certaines conditions seulement que ce choix doit être fait, et il est nullement obligatoire.

En fait, il n’y a que deux grandes pratiques de VTT, elles sont citées dans les sections suivantes. Et le choix d’un VTT tout suspendu ou semi-rigide est surtout un choix relatif à la manière de pratiquer et à l’investissement financier.

En moyenne montagne, pour un débutant, il n’y aura pas de grande différence entre un VTT semi-rigide 29 pouces et un tout-suspendu. Pour tout dire, on peut aimer le tout-suspendu parce que dans les grands chemins forestiers, on ressent moins de vibrations, et dans certains sentiers en descente on peut parfois engager un peu mieux des dénivelés… inattendus (parfois l’erreur de pilotage peu être plus facilement corrigée). Mais on aime aussi le semi-rigide car il est beaucoup plus nerveux en montée, il est plus léger, il est plus précis en pilotage dans beaucoup de situation, et les sensations sont plus authentiques. Certains diront même que le tout-suspendu, parce qu’il permet de corriger un peu trop facilement les erreurs de pilotage, fausse carrément les sensations normales d’un VTT (hors enduro). Bref, c’est en pratiquant que l’on se forge une opinion.

Pour résumer à propos du All Mountain :

  • ce n’est pas une pratique précise,
  • souvent employé comme un argument de vente,
  • c’est plutôt du Cross country.
Sans commentaire.

Enduro et DH (DownHill):

Là, c’est du sérieux. Ces pratiques concernent essentiellement la descente. Je les mets dans le même sac car ce n’est pas vraiment l’objet de ce billet. DH et Enduro sont des courses chronométrées. Les épreuves d’Enduro (comprendre au sens de endurance) durent parfois une dizaine de minutes et s’étalent sur plusieurs jours. Le VTT Enduro peut être utilisé en montée comme en descente (même si, forcément, ce ne sera pas une bête de course en montée, hein?), il est aussi réputé très solide car il faut tenir le choc, justement, sur la durée. La pratique DH est encore plus spécialisée, avec du matériel hyper modifié. Bref, si vous voulez faire comme dans les superbes vidéos Redbull et quitter le sol pour le meilleur (ou pour le pire), cette pratique est faite pour vous. Achetez-vous aussi une caméra, histoire de garder des souvenirs.

Dans les Vosges, plusieurs groupes de vététistes ont aménagé des circuits dédiés, plus ou moins réglementaires. On peut citer celui du côté de Barr, qui est en fait un ancien spot de championnat, me suis-je laissé entendre. Ce sont eux qu’on accuse souvent de dégrader les sols, mais ce n’est pas toujours vrai. Je connais certains spots où la roche côtoie le chemin bien solide et il n’y a pas vraiment de problème. Mais il existe aussi des Bike Park (par exemple celui du Lac Blanc). Si vous voulez tester, je préconise de vous y rendre.

Autre point important : ne vous prenez pas pour un·e champion·ne. L’Enduro ne s’improvise pas, et ce n’est pas parce que vous avez un VTT tout-suspendu que vous pouvez, du jour au lendemain, prendre un élan inconsidéré. Le pilotage, cela s’apprend ! Avec un groupe d’ami·es on peut facilement chercher à impressionner les copain·es. Croyez-moi, après 30 ans de pratique2 : le seul résultat vraiment impressionnant quand on se plante, c’est celui de l’hélitreuillage :)

VTT Enduro -- Nissan DH Cup in Bouillon - 53, by Nathan. F, CC BY-NC-SA 2.0.

Cross country

On nomme cette pratique aussi X-Country ou, plus court, XC. C’est la pratique la plus répandue et présente aux jeux olympiques : une course de rapidité, en somme, sur des terrains variés, quelle que soit la météo.

Au niveau du grand public, ce qui distingue les pratiquants, ce sera la vitesse, l’allure, le rythme. On oscille entre la randonnée, la randonnée sportive et l’entraînement marathon. En moyenne montagne, la grande variété des terrains offre la possibilité d’élaborer des circuits adaptés à toutes les phases de l’entraînement, y compris de longues distances.

À la différence de l’Enduro, le Cross country ne cherche pas à jouer avec le terrain mais optimiser le pilotage pour une trace fluide et rapide. L’endurance du cycliste est ainsi mise à l’épreuve, mais cela n’empêche nullement de considérer le Cross country comme un excellent moyen de se déplacer sportivement dans la montagne et en profiter pour admirer le paysage et les sites d’intérêt. C’est d’ailleurs l’essentiel pour la plupart des pratiquants.

Évidemment, si vous voulez progresser, c’est l’entraînement qui fera la différence (comme pour l’Enduro).

Cette variété au niveau de la pratique comme au niveau du pilotage conditionne le choix de votre monture. Et ce sont sans doute les seuls critères qui devraient présider ce choix, en plus de votre condition physique et l’analyse de votre niveau.

VTT Cross country (course) - 2012 Absa Cape Epic Prologue at Meerendal by mikkelz, CC BY-NC-SA 2.0.

Choisir votre type de VTT

J’ai bien conscience qu’en abordant ce chapitre, je risque de m’attirer les foudres des plus spécialistes d’entre nous. Je précise donc une nouvelle fois que je m’adresse au débutant vététiste dans les Vosges (et plus généralement en moyenne montagne) d’après mon expérience personnelle. C’est tout.

Quand j’étais jeune…

Au risque de passer pour un vieux briscard, voici quelques éléments de contexte.

Je vous invite tout d’abord à regarder quelques vidéos qui traînent sur les zinternets à propos de Gary Fischer. Ce dernier, pionnier du Mountain Bike californien était aussi concepteur et chef d’entreprise (la marque Gary Fischer, disparue vers 2010, rachetée par Trek). Il faut voir dans cette vidéo ce qu’on peut faire avec un vieux biclou 29 pouces sans suspension, en descendant des chemins en jeans, chemise et gants de chantier… tout cela pour vous dire (vous rappeler ?) que ce qui fait le bon vététiste, c’est avant tout les cuissots et le pilotage. Indépendamment de sa qualité et sa robustesse, le matériel, lui, sera toujours secondaire.

Cette première leçon venue du fond des âges du VTT (les années 1970) vaut bien un fromage. Pour ce qui me concerne, j’ai commencé exactement en 1989 avec un Gary Fischer Advance. Caractéristiques : freins V-brake, roues 29 pouces, tout rigide, selle rembourrée… Et avec ce VTT, j’ai roulé 5 ans dans tous les chemins autour de la Vallée des Lacs (Hautes Vosges), sur le granit mouillé comme sur l’herbe sèche des crêtes vosgiennes. Une excellente école pour le pilotage. Ma conclusion est que les VTT d’aujourd’hui, équipés de freins à disques, de jeux de transmission high-tech, de cadres à géométrie confortable, sont certes beaucoup plus sûrs qu’à l’époque, mais présentent aussi un très large choix en termes d’équipement, ce qui rend assez difficile le choix d’un premier achat.

Par conséquent la pression est très forte, pour un débutant : comment bien investir son argent dans un VTT s’il ignore encore sa pratique réelle, la fréquence de ses entraînements, les conditions de ses sorties, les chemins qu’il empruntera ?

VTT Gary Fisher ProCaliber 1991.

Louer un VTT puis investir (ou pas)

Si vous n’avez jamais fait de VTT, bien évidemment : n’achetez rien pour l’instant. Trouvez un loueur de VTT3 et partez faire un tour quelques heures avec une personne déjà pratiquante (et qui essaiera de ne pas vous dégoûter en étant pédagogique et patiente). Faites cela plusieurs fois de suite. Les quelques euros que vous aurez alors dépensé dans la location d’un VTT seront vite amortis parce que vous aurez une idée beaucoup plus précise de la discipline.

Une fois que vous le sentez, commencez à vous intéresser à l’achat de votre premier VTT. J’ai bien dit : le « premier » VTT. Parce qu’il y en aura d’autres.

Bien sûr votre capacité d’investissement dépend de la largeur de votre portefeuille. Mais s’il s’agit de votre premier VTT, c’est aussi le VTT :

  • avec lequel vous allez commettre des erreurs,
  • avec lequel vous allez affiner votre pratique, celle qui vous conduira à acheter votre second VTT,
  • avec lequel vous aller apprendre comment s’entretient un VTT au quotidien et même changer des équipements complets.

Et comme c’est votre premier choix, et il y a des chances qu’il ne vous corresponde pas à l’usage (quelle que soit la qualité du conseil du vendeur).

Il y a plusieurs stratégies possibles.

La première consiste à investir pour un VTT de milieu de gamme que vous roulerez un à deux ans. Si la pratique vous plaît et que vous pensez pouvoir investir plus sérieusement, vous pourrez alors revendre ce premier VTT et racheter un VTT plus haut de gamme et cette fois avec de la pratique et une meilleure connaissance du matériel. Pour revendre ce VTT, l’important est de bien en prendre soin. C’est autant d’argent que vous pourrez sauvegarder le moment venu.

La seconde, consiste à acheter un VTT entrée de gamme pour le revendre une bouchée de pain par la suite ou le convertir pour un autre usage en le « transformant » en vélo de ville ou tout chemin. À condition de planifier cela à l’avance. Vous achetez ensuite un VTT plus haut de gamme.

La troisième consiste à acheter d’emblée un VTT haut de gamme chez un constructeur disposant de beaucoup de choix dans une même gamme. Explications : au sein d’une même gamme vous trouvez les mêmes cadres mais un équipement de transmission, freins et suspension plus ou moins haut de gamme. Plutôt que de taper directement dans le must de l’équipement, vous pouvez choisir un équipement moins bon, et le faire évoluer dans le temps, par exemple au fur et à mesure des changements de pièces. Cela vous coûtera in fine plus cher, mais la dépense restera progressive.

La quatrième, enfin, la plus simple : vous êtes absolument sûr·e de votre choix. Vous avez assez d’argent et vous investissez pour un VTT censé vous durer longtemps, donc vous mettez le paquet. Attention toutefois, on ne compte plus le nombre de VTT de ce genre qui croupissent au fond des garages dans l’espoir d’une hypothétique remontada de la motivation…

Mon conseil serait le suivant. Il est très difficile, lorsqu’on débute, de bien différencier les constructeurs entre eux. Pour prendre quatre exemples : Giant, Scott, Lapierre, Trek. Chacun a breveté des géométries de cadre très différentes et qui changent selon les gammes. Rendez-vous dans les magasins et les démonstrations. Prenez votre temps et chaque fois que vous le pouvez, essayez les vélos à votre taille.

Pour un premier VTT, je pense qu’il faut éviter d’acheter en ligne sans avoir d’abord essayé, au moins être monté sur le vélo en compagnie d’un vendeur avisé qui saura vous dire si votre position est correcte. Il m’arrive parfois de voir des géants sur des vélos trop petits pour eux bien qu’ils indiquent la bonne taille dans la grille des correspondances du constructeur. La longueur de vos bras et votre port de tête sont tout sauf standardisés. De même il peut s’avérer parfois nécessaire de changer la potence ou le guidon… un essai de 5 minutes peut vous donner une bonne impression alors qu’une sortie de 3 heures vous en donnera une toute différente.

Pour conclure, pour un grand débutant, je préconise un achat d’abord entrée de gamme à revendre ou à recycler ensuite. La raison est que, à ce stade, vous n’êtes tout simplement pas sûr·e de pratiquer assez régulièrement le VTT sur plusieurs années.

Mais attention, lorsque j’écris « entrée » de gamme, je n’écris pas « bas » de gamme au sens péjoratif du terme ! Aux tarifs actuels, il faut compter entre 800 et 1.000 euros pour un VTT entrée de gamme qui puisse être assez qualifié pour une pratique sportive. On est loin du VTT Décat' à 400 euros. Pourquoi ? parce que, quelle que soit votre premier choix, il y a un niveau d’équipement en dessous duquel il ne faudra pas descendre. Mes préconisations minimales seraient :

  • fourche à suspension air,
  • roues / jantes 29 pouces compatible tubeless,
  • transmission Shimano Deore (ou équivalent Sram, cf plus loin),
  • de bon pneus type Maxxis Forekaster ou Rekon Race (ou équivalent, mais vous pouvez les changer facilement si besoin).

Si vous avez cela sur le vélo, c’est un VTT qui devrait vous durer assez longtemps pour un coût d’entretien modique (changement de pièces) ou plus onéreux si vous upgradez le tout.

Cadre aluminium ou carbone ?

On peut dire beaucoup sur l’avantage du carbone. Le point le plus évident est la légèreté (mais c’est aussi plus fragile).

Mais attention : les cadres aluminium pour un VTT aux alentours de 1.000 euros s’avèrent de très bonne qualité et assez légers surtout si on n’alourdit pas en tout-suspendu. Dans le haut du panier en aluminium, parfois mieux vaut acheter un bon cadre aluminium qu’un cadre carbone bas de gamme qui percera à la première pierre projetée par votre roue avant.

La question du poids, pour un premier VTT, me semble une question hors de propos. En effet, si vous achetez un VTT suivant les préconisations minimales ci-dessus, la différence avec d’autres VTT plus chers se mesure à 2 kg près (davantage si vous prenez un tout-suspendu). Or, ce qui fait la différence à votre niveau de pratique, ce sont surtout vos jambes : contentez-vous déjà de pédaler, vous optimiserez en perdant déjà du poids vous-même et en prenant de la masse musculaire.

L’autre point à l’avantage du carbone est sa rigidité. Cela implique une meilleure transmission de l’énergie… mais franchement quand vous en serez à comparer l’alu et le carbone selon ces critères là, vous n’aurez pas vraiment besoin de conseils.

Tout suspendu ou semi-rigide (hardtrail) ?

C’est l’éternelle question qui hante tous les magazines et autres sites marchands.

En toute objectivité, les VTT tout-suspendus d’aujourd’hui offrent des performances très intéressantes et ont réussi à perdre une grande partie du poids qui leur était reproché il y a quelques années (ils ne sont pas poids plume pour autant).

Il ne faut cependant pas s’accrocher aux catégories avancées par certains sites. D’aucun soutiennent que pour le All Mountain (je rappelle que cela ne correspond à aucune pratique précise) il vous faut du tout-suspendu sinon rien.

Il faut se poser la question : selon ma pratique, qu’est-ce qui va guider mon choix ?

Pour l’Enduro (ou le DH), je pense que la réponse va de soi : suspensions avant et arrière à grands débattements. Notons tout de même qu’il existe des fans d’Enduro en hardtrail. Là, je pense qu’il faut essayer avant d’en parler.

Pour le Cross country, cela se discute. Les suspensions des VTT tout-suspendus destinés au Cross country ont des débattements bien plus faibles que pour l’Enduro et sont vraiment destinés à cette pratique. De plus lorsqu’on regarde les championnats de cross-country depuis ces 5 dernières années, on y voit en majorité des VTT tout-suspendus… mais en carbone, avec le dernier cri de la technologie, bref… chers, très chers.

Dans cette pratique, et pour la moyenne montagne, le tout-suspendu offre une meilleure adhérence/propulsion en « collant » la roue arrière au sol, et un meilleur confort en descente avec, peut-être, un sentiment de sécurité. D’un autre côté, les chemins de moyenne montagne praticables en Cross country n’offrent que très rarement l’occasion d’éprouver significativement tout le jeu de suspension. La raison est qu’en choisissant des roues 29 pouces, l’essentiel est déjà « amorti ».

N’achetez pas un tout-suspendu si votre seule raison est de vous assurer de passer sur tous les sentiers en moyenne montagne (dans les Alpes, c’est différent). En fait, en moyenne montagne, les sentiers trop techniques sont peu nombreux, représentent très peu de kilomètres comparé au reste et de toute façon vous ne les emprunterez pas. D’après mon expérience vosgienne, si cela passe en tout-suspendu, cela passe aussi en semi-rigide. Le tout-suspendu n’est pas « plus tout-terrain » que le semi-rigide. Ce n’est pas le bon critère.

La combinaison 29 pouces + tout-suspendu pour du Cross country dans les Vosges me semble revenir à surjouer l’équipement par rapport au besoin réel.

Donc le besoin se fera vraiment sentir en fonction de votre pratique du Cross country : si vous voulez vraiment aller à fond en descendant les sentiers vosgiens, peut-être qu’un tout-suspendu vous conviendra. Et s’il est assez léger pour une randonnée de 4 ou 5 heures, vous gagnerez sans doute en confort. Par contre, cela représente un investissement conséquent. Un tout-suspendu pour du Cross country, cela veut dire que vous allez rechercher la légèreté et comme les suspensions ne sont jamais légères (sauf dans le très haut de gamme), vous allez devoir vous intéresser de près aux cadres en carbone.

Mon avant-dernier VTT datait de 2017, c’était un tout-suspendu, cadre aluminium. Il était lourd, même si l’aluminium utilisé est allégé. Par contre, sa solidité a fait que je n’en ai jamais eu à me plaindre. Ce que j’ai constaté néanmoins : il n’est pas très utile par rapport aux chemins que j’emprunte (et j’emprunte vraiment beaucoup de chemins différents). J’ai donc commandé un VTT semi-rigide pour le remplacer. Ce dernier est arrivé en juin 2022. Ce retour au semi-rigide m’a parfaitemetn convaincu de ce que j’avance ci-dessus. C’est bien simple : à deux ou trois passages près, toutes les traces je continue à faire toutes les traces que je faisais auparavant. J’ai aussi largement gagné en rapidité, pas seulement à cause du poid mais à cause du pilotage et de son optimisation. On ne s’ennuie vraiment pas en semi-rigide.

Si vous choisissez un tout-suspendu pour pratiquer le Cross country, soyez aussi conscient·e de plusieurs choses :

  1. l’entretien se fait tous les ans ou tous les deux ans pour changer tous les roulements des articulations du VTT (renseignez-vous sur les prix ou apprenez à le faire vous-mêmes),
  2. la suspension arrière nécessite une attention particulière et il est conseillé de faire réviser l’ensemble tous les ans (idem, renseignez-vous sur les prix),
  3. il vaut mieux acheter un cadre carbone si vous voulez un tout-suspendu sans quoi, c’est un char d’assaut que vous allez devoir trimballer en montée. ce qui fait qu’en prenant un carbone de bonne qualité, votre VTT sera assez cher. Pour un premier achat, je le déconseille donc. Par contre à vous de voir si vous en avez le portefeuille et l’envie :)

Évidemment, question entretien (et nettoyage), un VTT semi-rigide… c’est les vacances.

Un dernier point à propos des VTT tout-suspendus : la tige de selle télescopique. Effectivement, c’est un outil qui peut s’avérer pratique car, en descente très engagée, baisser la selle en un coup de pouce depuis le guidon peut vous permettre de vous donner des airs d’Enduro. Mais n’oubliez pas, là encore : cela alourdi le vélo et les selles sur tige télescopique on toujours du jeu, source d’inconfort à la longue. Sur un VTT semi-rigide, si vous n’êtes pas confiant en haut de la pente et que vous débutez, cela peut s’avérer néanmoins un bon choix afin d’abaisser au maximum votre centre de gravité.

Exemple de VTT semi-rigide - Mountain Bike, by Stephen Ransom Photography, CC BY-NC-SA 2.0.

VTT à assistance électrique ?

Le débat ressemble à troll. Il y a quelques années, à l’apparition des VTT-AE, il y eu une impression d’affrontement entre les pro et les anti-, soit entre ceux pour qui faire du VTT est synonyme d’effort sportif et ceux pour qui le VTT-AE reviendrait à faire du vélomoteur en forêt.

Sauf que le débat ne se pose pas en ces termes (outre le prix d’un VAE de bonne facture) :

  1. Le VTT-AE peut être pratiqué sportivement : au lieu de partir pour une randonnée de 40 km et 1200 m de dénivelé, vous en faites le double et voilà tout. L’assistance vous permet de monter des « coups de cul » que de toute façon vous auriez fini par monter à pied ou alors très fatigué. On comprend surtout que le VTT-AE est plus que bienvenu en haute montagne.
  2. Mais pour beaucoup de personnes le VTT-AE revient effectivement à jouer les touristes en pensant que le pilotage est à la portée de n’importe qui. Or, avec un VTT-AE de 25 kg, plus d’un amateur inexpérimenté fini par se viander dans un dévers.
  3. En revanche, pour les personnes qui autrement ne feraient pas de VTT parce qu’elles ne sont pas sportives, ou encore à cause de la vieillesse ou du surpoids, et si elles restent prudentes sur des chemins sans difficulté, le VAE offre l’opportunité de rouler au grand air sans le stress des voitures sur la route. Et c’est plutôt une bonne chose.
  4. Reste un problème tout de même, valable pour tout vélo électrique : les batteries et les filières de recyclage, la pollution que cela suppose, y compris dans les composants électroniques. Pour du vélo urbain (vélotaff) le compromis peut être atteint par l’effet de substitution à l’automobile (c’est un grand débat). Mais pour du loisir, c’est en raison de cet aspect du VTT AE que je conseillerais plutôt, lorsqu’on est en pleine possession de ses moyens physiques, de pédaler sur des VTT « musculaires ».

L’équipement

En tant que débutant·e, vous risquez d’être dérouté par les contraintes d’équipement qui s’imposent à vous. Que ce soit l’équipement du pratiquant ou celui du VTT, il est important de faire un point.

Pour le vététiste

Le·a vététiste doit toujours s’interroger sur ce qui le relie au vélo et son rapport à l’environnement et le climat. Essayons de faire le tour.

Les vêtements

Ne soyez pas radin·e sur ce point. Revêtir un bon cycliste (long et chaud en hiver, court en été) est votre première préoccupation : de bonne qualité il vous évitera les effets désagréables des frottements après une sortie longue. Une grande enseigne bleue fort connue en vend de très bons, il ne faut pas hésiter à aller y faire un tour. C’est de même valable pour les vestes chaudes d’hiver.

Cuissard ou short ? En été, c’est une question que je qualifierais surtout d’esthétique. Bien sûr dans les deux cas, vous vous aviserez d’avoir un chamois en fond de culotte, c’est primordial. Ensuite, le confort d’un cuissard est relatif à la quantité de tissu, là où le short pourrait être la cause de frottements désagréables. En revanche, pour des sorties longues je conseille le cuissard, sans hésitation, en particulier pour ses qualités compressives.

Votre garde-robe embarquée devra toujours prévoir un coupe-vent pluie : il vous évitera de prendre froid dans les descentes et vous protégera des intempéries.

Pour ce qui concerne les gants : les gants longs sont préconisés en VTT (ne pas mettre de mitaines), avec coussinets sur la paume. Il en existe pour l’hiver et pour l’été. Prenez du solide : il arrive souvent de poser les mains au sol, sur de la pierre, sur des troncs d’arbre, dégager des ronces… c’est tout-terrain, l’on vous dit…

Le casque

Pas de débat : il est obligatoire. Prenez du haut de gamme systématiquement, avec visière, système de répartition d’onde de choc, spécialisé VTT (les casques pour vélo de route ne conviennent pas). Essayez votre casque en magasin et voyez s’il vous est confortable : on ne peut pas tout acheter en ligne…

Casque VTT - Mountain Bike Helmet, by Noah J Katz, CC BY-NC-SA 2.0.

Autres protections corporelles

Lunettes : c’est nécessaire. Pour plusieurs raisons :

  • protection de vos yeux (ronces, branches, projections diverses),
  • teinte jaune (pas trop foncée à cause des sous-bois) : tous les opticiens vous diront que cette teinte permet d’accentuer les contrastes, donc mieux voir les reliefs,
  • verres interchangeables : une paire jaune, une paire blanc (pour la pluie, et lorsqu’il n’y a pas assez de soleil)
  • si vous avez besoin de correction de vue, allez voir votre opticien pour acheter une paire de lunettes pour le VTT (il y a deux ou trois grandes marques fort connues pour le sport : Demetz, Julbo, Bollé…
  • les lunettes doivent être profilées : même si ce n’est pas à la mode :)

Protection armure : laissez cela aux descendeurs en Enduro/DH. Ell·eux en ont vraiment besoin. Pour le cross country, il faut voyager léger.

Pour votre dos, si vous avez un sac à dos avec poche à eau, vous n’en n’avez pas vraiment besoin, mais certains sacs disposent une plaque de protection, si cela peut vous rassurer.

En accidentologie VTT, les études (comme celle-ci) portent le plus souvent sur la pratique Enduro/DH, on comprend pourquoi : c’est celle qui présente le plus de prise de risques. Là, ce sont les blessures sur le haut du corps qui sont les plus courantes, particulièrement les épaules (fracture clavicule, typiquement). Mais aussi : fractures poignets, coudes et épaules… Le port du casque a largement amoindri la fréquence des dommages à la tête, ce n’est même plus un sujet de débat.

On peut raisonnablement penser que la pratique du Cross country présente beaucoup moins d’accidents graves, mais statistiquement, comme il s’agit de la pratique la plus répandue, la fréquence des visites aux urgences est tout sauf négligeable. Les fractures sur le haut du corps et membres supérieurs sont là aussi les plus courantes.

Pour simplifier, les accidents en Cross country sont moins dépendantes du terrain qu’en Enduro. Cette pratique n’est pas moins dangereuse que le roller, le vélo de route ou le skate-board. Par contre ces éléments font la différence : l’erreur de pilotage, le matériel peu soigné et mal vérifié, le degré de prise de risque. Notons aussi qu’en Cross country on trouvera plus de blessures musculaires et tendineuses, inhérentes aux pratiques sportives d’endurance lorsqu’on pousse le corps un peu trop loin.

Sac a dos ou grosse banane ?

Le choix se discute.

Dans un sac à dos vous trimballez votre poche à eau, votre coupe vent, éventuellement un surplus de vêtement, quelques outils, votre téléphone portable, vos papiers, une ou deux barres céréale.

Ce sac à dos doit bouger le moins possible. Regardez la marque Evoc, qui présente d’excellentes performances (mais ce n’est pas la seule).

Mais on peut opter pour la grosse banane selon cet adage : c’est le vélo qui doit porter, pas le dos. C’est un bon argument. Dès lors votre eau se trouvera sur votre cadre dans deux gourdes, vous aurez un petit sac à outils sous la selle, et tâchez de répartir le reste dans la banane (chez Evoc aussi, il y en a des très bien).

Les outils et trousse d’urgence

Pour être autonome, en solo ou en groupe, il vous faut :

  • chambre à air de rechange (sauf si vous êtes en tubeless — on en parle plus loin)
  • une petite pompe
  • une bombe « anti-crevaison » : oui, je sais… mais il m’est arrivé de crever deux fois de suite, alors bon…
  • deux démonte-pneu (attention avec ça si vous êtes en chambre à air : entraînez-vous à changer une chambre à air)
  • kit de réparation tubeless avec mèches (si vous êtes en tubeless, donc),
  • un multi-outils avec dérive-chaîne (utile si vous cassez la chaîne)
  • deux colliers de serrage : pratique si vous devez attacher quelque chose (par exemple : vous cassez un rayon, vous l’attachez au rayon voisin pour les kilomètres qui vous restent)
  • 50 cm de fil de fer (utile pour plein de choses)
  • une trousse de premiers soins : une couverture de survie, pansements et compresses (dont au moins deux larges), antiseptique en fioles, bande adhésive, etc.
Un couple de multi-outils très pratiques - Multitool and Hex Toolset, by dvanzuijlekom, CC BY-SA 2.0.

La gestion de l’eau, la bouffe

L’hydratation, c’est obligatoire. Tout comme pour la course à pied, vous ne pouvez pas faire de sortie de plus d’une heure sans emporter avec vous suffisamment d’eau… et la boire ! Combien de litres par heure ? c’est variable : en fonction de votre poids, de la météo et de l’effort, vous devrez boire plus ou moins. Par contre, une chose est valable pour tout le monde : buvez avant d’avoir soif, anticipez la déshydratation. Boire trop peu est synonyme de moins d’apport au système musculaire (notamment de sodium) et par conséquent une baisse de performance, des risques de crampes, en plus de risques de problèmes rénaux ou de vessie si vous perdrez trop d’eau.

Comment savoir si on s’hydrate assez ? buvez tout le temps, beaucoup avant la sortie, beaucoup après et beaucoup pendant. Mon repère à moi, c’est avoir envie de pisser au moins une fois durant une sortie de trois heures, mais ce n’est pas une règle absolue.

Cela dit, faut-il pour autant se surcharger en flotte ? non. Surtout si vous portez votre eau dans une poche dans le sac à dos. Il est inutile d’emporter trois litres : si besoin, vous pouvez toujours remplir vos contenants en chemin (prévoir une étape avec point d’eau). Emporter 1,5 litres me semble un bon compromis en Cross country moyenne montagne et s’il fait très chaud, monter à 2 litres, ce sera suffisant.

Poche style Camelback avec tuyau ou bidon sur le cadre ?

Personnellement, je n’ai jamais été un grand fan des porte-bidons : on a tendance à se déséquilibrer pour aller chercher le bidon, le porter en bouche et le remettre, alors qu’un tuyau bien ajusté sur la bretelle du sac à dos permet un accès direct. Ceci sans compter le risque de perdre le bidon, justement, à cause des obstacles du terrain.

Le contre-argument, c’est qu’en utilisant un porte-bidon, c’est le vélo qui porte, pas le cycliste. C’est-à-dire autant de poids en moins sur le dos.

Concernant les apports nutritionnels, là non plus je n’ai pas vraiment de conseil à donner. Mon sentiment est que si vous mangez correctement et équilibré (même avec quelques excès de temps en temps), votre besoin nutritionnel durant l’effort d’une longue sortie ne devrait pas être conséquent. Il faut toujours emporter avec soi une ou deux barres céréales ou de la pâte de fruit, ou bien quelques fruits secs, selon ses goûts.

Rien ne vous oblige à les manger. En tout cas, ne vous précipitez pas sur les produits miracles vendus en pharmacie ou dans les magasins de sport, et encore moins sur les barres céréales des rayons confiserie du supermarché : ces produits contiennent généralement trop de sodium, des huiles saturées, trop de sucres transformés, et pour certains des nutriments parfaitement inutiles si vous avez déjà une alimentation saine au quotidien.

Si vous aimez les barres céréales, achetez des barres dont la composition est la plus simple possible ou bien faites-les vous-mêmes avec des produits sains que vous aurez sélectionné au préalable. Les recettes ne manquent pas sur les z’internetz. Après quelques essais, vous obtiendrez d’excellents résultats.

Les pédales

Devez-vous choisir les pédales automatiques, semi-automatiques, les pédales plates ?

Quelque soit votre achat, votre VTT sera livré avec une paire de pédales bas de gamme : tout le monde change les pédales de toute façon. Mais vous pouvez rouler avec dans un premier temps. C’est pourquoi cette section concernant les pédales est située dans l’équipement du vététiste : prolongements des pieds, elles conditionnent le contact avec le vélo, tout comme la selle.

Pour le débutant, je préconise les pédales plates (avec les picots). Attention aux tibias avec les retours de pédales involontaires. Comptez une cinquantaine d’euros pour une paire solide de marque connue. Protèges-tibias ? c’est lourd et inconfortable, donc non : faites attention, c’est tout.

Pédales automatiques : il faut un peu d’entraînement sans quoi votre appréhension causera votre chute. Cependant, si vous voulez faire du Cross country et gagner en rendement tout en maîtrisant votre vélo, c’est le modèle de pédales à utiliser.

Sur le marché il existe des pédales dites semi-automatiques. Elles se présentent soit sous la forme d’une pédale recto attache automatique et verso pédale plate, soit avec un recto aimant recto et verso pédale plate. Ces modèles permettent de laisser les pieds libres dans les descentes ou les passages difficiles. En théorie, du moins. Par contre j’ai été séduit par les pédales automatiques à aimant (de la marque Magped) : elles ont moins de pouvoir de traction que les pédales automatiques classiques (si on tire trop, le pied se décroche), mais c’est ce qui fait leur intérêt : permettre un décrochage très rapide et donc plus sécurisant. J’aurais du mal à m’en passer aujourd’hui.

En matière de pédale, il n’y a pas d’obligation. Là encore, c’est votre pratique qui en décidera. J’ai un faible pour les pédales plates, même si j’ai moins de rendement. En revanche, en compétition Cross country, les pédales automatiques sont la règle.

Pédale plate et pédale automatique - bike pedal, by postbear and by torisan3500, CC BY-NC-SA 2.0.

Les chaussures

Elles dépendent de vos pédales ! Mais sachez aussi choisir une paire qui vous permette de marcher. Pour le Cross country, les chaussures typiques sont assez rigides, proches de celles utilisée en vélo de route, mais pour plus de confort, choisissez des chaussures plus appropriées à la randonnée VTT, un peu moins rigides et plus polyvalentes.

Gardez à l’esprit qu’une paire de chaussures trop étroites ou trop justes :

  • empêchent la circulation sanguine dans vos pieds : on a tendance à se crisper un peu en descente et à l’appui,
  • empêchent de mettre des chaussettes chaudes en hiver.

Un avantage des pédales semi-automatique à aimant : à la place d’un mécanisme de fixation sous la chaussure, il suffit de visser une petite plaque en métal, très facile à nettoyer (quand on plonge toute la chaussure dans la boue !).

La selle

La selle est le contact quasi permanent entre votre postérieur et le VTT. À ce titre, elle ne doit pas être négligée. Si, dans un premier temps, la selle fournie avec votre vélo saura vous contenter, c’est à la longue que vous constaterez que, même si vous avez correctement réglé sa hauteur, quelques désagréments peuvent subsister, notamment les irritations.

En gros, il existe des selles arrondies et des selles plus plates. Les arrondies limiteront les irritation en cas de sorties longues distance. Certaines selles disposent aussi d’un canal central plus ou moins prononcé, voire parfois complètement évidé : c’est pour limiter la pression sur le périnée.

Quant à la largeur de la selle, elle doit être relative à votre morphologie. Que vous soyez homme ou femme, large ou étroit, c’est à vous de voir.

Mon conseil : préférez les selles arrondies et veillez à ce qu’elles ne soient pas trop larges, sans quoi une gêne au pédalage va s’installer. Il n’y a pas vraiment de recette. Vous pouvez avoir une selle qui ne vous pose aucun problème pour une heure de pratique, tandis qu’elle vous fera souffrir au bout de trois heures. Tout ne réside pas dans la qualité de votre cuissard.

Pour le VTT

La transmission

Le groupe de transmission regroupe tous les éléments qui transmettent l’énergie musculaire (ou électrique) au vélo. Un groupe de transmission est composé de dérailleurs, cassette, pédalier (boîtier, plateaux, manivelles, pédales), chaîne. On peut compter aussi les manettes (ou commandes) de vitesses et les câbles.

Pour choisir un groupe de transmission plutôt qu’un autre, il faut avoir de l’expérience. En effet, selon votre niveau, un groupe 1x11 (mono-plateau et 11 pignons) demandera plus ou moins d’efforts pour entraîner la machine par rapport à un 1x12.

Aujourd’hui le mono-plateau a le vent en poupe. Et il présente un double avantage : moins d’entretien et plus de légèreté. Là-dessus vous pourrez à la longue opter pour des cassettes différentes.

Image promotionnelle Shimano Deore XT - 1x11.

Et non, ce n’est pas parce que vous avez un mono-plateau que vous avez moins de vitesses : en double plateau vous avez la plupart du temps une cassette 10 pignons arrangés de 11 à 36 dents (on dit 10 x 11-36) mais en mono-plateau vous avez par exemple une cassette à 11 x 10-42 ou une cassette à 12 x 10-51. En clair : à l’arrière, le dernier pignon de votre cassette est juste énorme. Donc la plage de « choix » de vitesse n’est guère moins grande mais l’avantage est que vous n’avez plus à veiller à ne pas croiser la chaîne (il ne faut jamais mettre un couple grand plateau — petit pignon si on a plusieurs plateaux).

Pour un premier achat, je préconise pas moins que le couple mono-plateau et 12 vitesses. C’est ce qui est vendu la plupart du temps sur les entrées de (bonnes) gammes.

En termes de marques, vous avez grosso-modo l’essentiel du choix entre Shimano et Sram qui se partagent l’essentiel du marché VTT. Là encore, si vous débutez, choisir entre les deux ne consiste pas à trouver le meilleur point de performance, mais comprendre ce qui distingue les groupes entre eux, chez Shimano comme chez Sram. Pour faire simple, dans les deux marques, il y a une hiérarchie. À une ou deux exceptions près les marques sont incompatibles entre elles. Et entre les groupes au sein d’une même marque, il y a des tableaux de correspondances et c’est normal : vous ne pouvez pas tout mélanger, plateaux, pignons chaîne et manettes de vitesses.

Alors comment vous y retrouver ? Lorsqu’on achète un VTT, celui-ci est fourni avec un groupe de transmission donné. Pour juger du prix de votre vélo, au sein d’une même gamme, il faut aussi se demander avec quel niveau d’équipement il est fourni. Notez aussi que plus vous montez en gamme, plus les changements de pièces seront chers, pensez-y avant d’opter systématiquement pour le plus cher.

Le tableau suivant sera peut-être démodé au moment où vous le lirez, cependant, je pense que pour l’essentiel on s’y retrouve. Notez que ne mets pas les shifteur électroniques ni les groupes spécialisés descente. Je me concentre sur le Cross country.

Niveau Shimano Sram
1 XTR XX1
2 XT (Deore XT) X01, X1
3 SLX GX, X9
4 Deore X7, NX
5 Alivio X5
6 Acera X4
7 Altus X3
8 Tourney

Les freins

En matière de freinage, le choix ne doit pas être pris à la légère. Évidemment, les systèmes de freins dédiés à l’Enduro seront extrêmement puissants, la notion de dosage passant plutôt au second plan (même si elle est très utile), tandis que pour le Cross country c’est la fiabilité sur la durée du freinage qui sera recherchée. Mais la pratique n’est pas l’essentiel : votre poids et le terrain sont des données tout aussi essentielles et c’est fonction de cela que vous allez juger si vos freins vous conviennent ou pas.

Lorsque vous achèterez votre nouveau VTT, si c’est le premier, il va falloir faire confiance au vendeur. Un système de freinage va du levier aux plaquettes en passant par l’étrier, les durites et les disques. Tous ces composants ont leur importance dans l’efficacité et le ressenti.

Par exemple, s’il y a de fortes chances que votre premier VTT soit équipé de plaquettes de frein organiques, sachez qu’il en existe plusieurs variétés sur le marché, avec des caractéristiques différentes, de celles qui glacent dès le premier usage à celles qui entament méchamment votre disque.

Si vous vous reportez au tableau des groupes de transmission ci-dessus, les noms des groupes de frein sont les mêmes et obéissent plus ou moins à la même hiérarchie. Cela dit, en fonction des années et des séries, on peut trouver par exemple chez Shimano des freins Deore qui valent très largement la gamme supérieure. Encore une fois c’est fonction de l’expérience que vous pourrez vous faire une idée précise. Bien sûr, le bas de gamme… reste le bas de gamme.

Attention : si vous vous renseignez sur des sites internet spécialisés (c’est une bonne chose) veillez à noter la date de rédaction des comparatifs. Shimano et Sram sortent très régulièrement des nouvelles séries et vous risquez de vous y perdre. Mon conseil serait de voir d’abord, sur le VTT que vous voulez acheter quels types de freins sont proposés, puis vous renseigner sur leurs caractéristiques par la suite. Enfin, n’oubliez pas : des freins, cela se change si vraiment ils ne vous conviennent pas.

Les pneus

Alors là… pas moyen de s’entendre sur une loi précise dans le choix des pneus, que vous soyez en chambre à air ou en tubeless : c’est le terrain et la météo qui font la différence. Mes conseils sont les suivants :

  • analysez les terrains que vous avez l’habitude de fréquenter (si vous êtes dans les Hautes Vosges avec du granit mouillé, votre choix en sera pas le même que dans les Vosges du Nord avec du gré sableux, et bonne chance à ceux qui sont entre les deux)
  • ne soyez pas chiche (même si le prix d’un pneu n’est pas un gage) : de bons pneus (et un gonflage correct) conditionnent absolument votre tenue de route. C’est comme en voiture.
  • il n’y a aucune obligation à avoir les mêmes pneus à l’avant et à l’arrière : contacts, grip, adhérence, dureté de la gomme, tout cela joue.

Lors de votre premier achat, le VTT sera livré avec un jeu de pneus semblables avant et arrière. Usez-les… mais analysez votre besoin. Ensuite rendez-vous sur les sites de vente en ligne et regardez les descriptifs, ou allez chez votre vendeur et posez-lui la question.

Personnellement, je suis resté depuis les 6 dernières années avec la même référence de pneus qu’à l’achat de mon VTT, des Maxxis Forekaster. Le fabriquant écrit : « adapté à une pratique Cross country agressive et pour le All Mountain »… comme cela ne veut pas dire grand chose, je prétends simplement que ce type de pneus typé Cross country est plutôt adapté aux terrains vosgiens côté Alsace. Je vois souvent cette marque d’ailleurs chez les autres vététistes. Si vous êtes plutôt côté granit, ce ne sera pas forcément votre premier choix car je trouve qu’ils peinent un peu en traction sur du pierreux humide. C’est du ressenti personnel, pas une loi universelle.

Par contre, le moment venu de changer vos premiers pneus, il y a tout de même une bonne recette : leur largeur. Si vous faites du Cross Country, de quoi avez-vous besoin ? un pneu avant qui soit bien stable parce que c’est sur ce pneu avant que vous donnez la direction et un pneu arrière qui ne vous freine pas parce que c’est sur ce pneu arrière que vous envoyez la propulsion. La conclusion est simple : les deux pneus n’ont pas le même usage. Pourquoi auriez-vous les deux même pneus à l’avant et à l’arrière ?

On s’accorde à dire qu’il faut un pneu de bonne largeur à l’avant et un pneu plus étroit à l’arrière. Cela dit, il ne s’agit pas d’exagérer. Pour vous donner une idée, ma largeur de pneu arrière est de 2.25 tandis que j’ai du 2.40 à l’avant. Ferez-vous pour autant la différence si vous débutez ? il y a peu de chance. Alors vous vous poserez la question lorsque vous devrez changer vos pneus.

Tubeless ou chambre à air ?

Tubeless, sans hésitation. Cependant… Je m’adresse ici aux débutants. Alors commencez par la chambre à air. D’ailleurs, il y a des chances que votre VTT vous soit vendu avec un jeu de pneus + chambre à air même si les pneus et la jantes sont tubeless ready.

Pourquoi ? parce qu’il vous sera plus facile de gérer des chambres à air. Entraînez-vous chez vous à changer une chambre à air rapidement. Parce que si vous crevez en forêt quand il pleut, vous serez content de ne pas y passer trois heures. Rappelez-vous : autant pour amorcer le « déjantage » du pneu vous pouvez utiliser éventuellement un démonte-pneu (et encore, ça peut abîmer la jante), autant pour le remonter avec une chambre à air, bannissez absolument le démonte-pneu. D’ailleurs, cela s’appelle un démonte-pneu, pas un remonte-pneu, hein ? Il y a plusieurs vidéos sur Internet qui vous montreront comment procéder, c’est assez simple.

Le Tubeless, présente des avantages par rapport à la chambre à air. Déjà, c’est plus léger parce que vous économisez le poids de deux chambres à air. Ensuite, parce que vous n’aurez plus de crevaisons lentes (genre le pneu qui se dégonfle dans le garage et que vous vous en apercevez la veille de votre sortie), et aussi parce qu’en cas de crevaison, le liquide préventif à l’intérieur devrait faire son travail de « rebouche-trou ». Par contre :

  • en cas de grosse crevaison (un gros clou, par exemple), il vous faudra placer une mèche, c’est une autre technique à apprendre, même si ce n’est pas très compliqué non plus ;
  • il faut vérifier et remplacer régulièrement le liquide préventif à l’intérieur ;
  • pour changer un pneu Tubeless, il vous faudra un compresseur capable d’injecter une grosse quantité d’air d’un coup dans le pneu afin de le faire claquer ;
  • la valve n’est pas la même et votre fond de jante devra être parfaitement étanche.

Donc le Tubeless, ce n’est pas moins d’entretien que la chambre à air, mais c’est un peu plus de zénitude lors de vos balades.

Mon conseil aux débutants : commencez avec des chambres à air, vous verrez plus tard pour passer au Tubeless, à l’occasion de votre premier changement de pneu par exemple.

Les suspensions

À quoi servent les suspensions, à l’avant comme à l’arrière ? Non, elles ne sont pas faites pour sauver votre popotin des dégâts d’une réception un peu rude. Leur premier rôle consiste à optimiser le contact de votre roue avec le sol, donc favoriser le contrôle de votre VTT. Pour ce qui concerne les fourches (avant), le second rôle consiste à absorber les chocs pour vos bras (et aussi votre dos) et faciliter le pilotage.

Le réglage des suspensions, notamment en fonction de votre poids, est très important. Il s’agit de régler correctement la détente (le retour de la suspension à sa position initiale). Trop molle vous n’absorbez rien et vous risquez de l’abîmer, trop raide, autant rouler en tout rigide. Par ailleurs, si vous enfoncez trop, vous perdez en rendement de pédalage.

C’est pourquoi la plupart des VTT disposent d’un système de blocage de suspension, à l’avant comme à l’arrière. Je vous conseille vivement de choisir un système de blocage situé sur le guidon, beaucoup plus pratique, surtout si vous oubliez de débloquer votre suspension après avoir entamé votre descente.

Pour la pratique du Cross country, comme je l’ai affirmé plus haut, choisir un semi-rigide est sans doute le meilleur choix pour un premier VTT (et cela reste pertinent même si ce n’est pas votre premier VTT). Les suspensions pour cette pratique sont généralement faites pour un débattement beaucoup plus faible que pour l’Enduro. Généralement on parle de 90 à 120 mm de débattement. Avoir plus de débattement ne me semble pas très utile (en Enduro, on peut monter à 200 mm de débattement).

De même, on recherchera la légèreté. Donc il vaut mieux rechercher une fourche avec un système à air (ressort pneumatique) bien que certaines fourches avec ressort hélicoïdal peuvent s’avérer tout à fait pertinentes, bien que plus lourdes (on ne parle pas non plus d’une différence de 20 kg, hein?).

Suspension VTT = amortisseur (hydraulique) + ressort (hélicoïdal ou à air).

Donc si nous résumons :

  • Ressort pneumatique (air) : légèreté, ajustement progressif au poids du pilote, moins sensible aux petits chocs,
  • ressort hélicoïdal : il faut changer le ressort s’il est trop raide, plus lourd, sensation de raideur sur petits chocs.

Dans les deux cas, ces fourches font très bien leur travail à moins de choisir du trop bas de gamme, évidemment. Et n’oubliez pas : tout comme le reste, une fourche peut se changer, et il en existe des centaines de modèles… à tous les prix. Débuter avec une marque ? allez, je vous conseille Rockshox et Fox, vous trouverez dans ces marques des gammes assez étendues pour ajuster votre besoin à votre portefeuille (j’aime beaucoup les Fox racing 32, très classique, mais comme elle n’est pas trop chère, la changer pose moins de problème).

Ha oui, pour les suspensions arrières si vous tenez au tout-suspendu, c’est le même combat.

La petite sonnette

Hé oui, on l’oublie parfois, mais elle est très utile surtout lorsqu’on fréquente des sentiers de randonnée où il est difficile de contourner les marcheurs. Dans tous les cas : patientez le temps que les marcheurs réalisent votre présence, soyez très courtois et remerciez.

Il peut cependant être utile de signaler votre présence par un petit coup de sonnette. Le choix du son est important : trop bruyant, il sera perçu comme une agression (nous ne sommes pas sur une piste cyclable en centre urbain). Il existe des petites sonnettes légères en forme d’anneau à placer à peu près n’importe où sur le guidon pour plus de facilité. Elles produisent un tintement cristallin et assez aigu pour passer au-dessus du vent et de la voix, sans être désagréable.

Garde-boue, protections de cadre

Est-ce absolument nécessaire ? non. La première chose à éviter, dans le choix d’un garde-boue avant ou arrière, c’est essayer de composer entre l’encombrement et l’intérêt réel de cet équipement. Vous avez un VTT pour faire du sport, et oui c’est une activité salissante. Ne cherchez pas à éviter la boue, vous n’y arriverez pas.

Néanmoins, on peut essayer de limiter les projections dans le visage (et il peut s’agir parfois de cocottes de pins et de petites pierres) ainsi que dans le bas du dos. Pour cela, je préconise les garde-boue souples à fixer avec des colliers de serrage, sous la selle pour l’arrière et sur la fourche pour l’avant. ils n’alourdiront pas le VTT et limiteront les projections autant que faire se peut. C’est surtout le garde boue avant qui est important : si vous roulez assez vite sur un terrain très humide, vous pourrez comprendre plus facilement.

Enfin, ce type de garde-boue ne coûte pas cher, on le remplace facilement, on peut aussi le découper si les dimensions ne conviennent pas.

Allez, je vous donne un truc : achetez votre premier garde-boue et avant de le monter dessinez les contours sur une feuille de papier que vous conservez. Vous avez des vieux set de tables en plastique ? S’il ne sont pas trop moches ou kitch, ils peuvent faire l’affaire, il suffira de les découper.

Une autre protection concerne le cadre, si on veut le protéger des projections de pierres, notamment sur le bas du tube diagonal. Il existe des façades à fixer sur le tube, mais c’est une protection encombrante plutôt destinée aux pratiques de descentes, là où le risque de taper fortement le cadre est évident. Pour les petites projections qui pourtant à la longue abîment la peinture, il existe des films transparents qui jouent parfaitement ce rôle.

De la même manière, si votre VTT ne dispose pas déjà d’une protection, il peut être utile d’en mettre sur la base arrière côté transmission, là où la chaîne est parfois amenée à taper la peinture.

Toutefois certains VTT disposent maintenant de protection déjà en place, là où parfois, à la place de la peinture, un revêtement rugueux est posé dès l’usine. Cela n’empêche pas de rajouter un peu de film protecteur à certains endroits stratégiques si besoin, par exemple sur les côtés de la fourche avant.

Je préconise d’éviter les adhésifs, à cause de la colle. Cette dernière peut ne pas tenir et faire des traces inesthétiques. À la place (mais assez cher) il existe des films transparents en polyuréthane. La pose est extrêmement facile :

  • bien nettoyer et dégraisser le cadre avec de l’eau savonneuse,
  • découper soigneusement la bande aux dimensions voulues et appliquer avec un peu d’eau tout en prenant soin de ne pas faire de bulles.

Ce type de film ne garanti pas les gros chocs : il s’agit de protéger la peinture en ajoutant une sur-couche solide très discrète. Ce matériau résiste très bien à l’humidité. La marque Clearprotect est connue.

Garde-boue souple sur fourche - image by vikapproved, CC BY-NC 2.0.

Commencez à pédaler

Je pourrais ici commencer une longue section sur l’art et la manière de débuter le VTT en pratique. Pour simplifier, je dirais : pédalez d’abord. Si vous avez pris la décision d’acheter un VTT, il y a de fortes chances que vous ayez essayé au moins une fois que vous avez été séduit·e.

Néanmoins voici quelques conseils pour ne pas se mettre en difficulté dès le début et pouvoir progresser.

Réglez votre posture

Beaucoup de vidéos proposent des tutoriels pour régler correctement votre position sur le VTT. Celle-ci donne d’assez bons conseils, simples à mettre en œuvre.

  1. La hauteur de selle peut se régler facilement : une fois en selle, placez la plante du pied sur la pédale position basse, votre jambe doit être légèrement pliée. Trop pliée, votre selle est trop basse et vous allez vous faire mal aux genoux, trop haute, bobo le poum. Si vous y tenez, la solution mathématique est la suivante : soit EJ la hauteur de votre entrejambe du talon au périnée (pensez à vos chaussures !), et soit HS la hauteur de selle (du milieu de l’axe du pédalier jusqu’au creux de la selle) : HS = EJ x 0,885 (ou 0,875, cela varie).
  2. À moins d’avoir une tige de selle télescopique (dont l’utilité se discute en Cross country), si vous ne vous sentez pas à l’aise en cas de descente un peu raide, sachez vous arrêter pour abaisser votre selle et la re-régler ensuite. Si votre tige de selle n’a pas de traits de graduation, faites une marque au feutre (quitte à la refaire régulièrement), mais ne l’abîmez pas.
  3. L’avancée de la selle : cela se règle au centimètre près et sur les longues distances, on sent bien la différence. Votre VTT a une certaine géométrie, mais l’avancée horizontale de la selle va favoriser ou défavoriser votre puissance de pédalage. Très peu, bien sûr, mais l’amplitude, une fois changée, va aussi conditionner votre confort. Donc, il faut essayer… Une méthode consiste à utiliser un fil à plomb : votre pied en position de pédalage (cf. ci-dessous), placez le fil à plomb sur pointe de votre genou, le fil doit passer par l’axe central de la pédale.
  4. Placer son pied sur la pédale : l’avant du pied est sur la pédale, et non pas la plante du pied. Plus exactement la bosse à la base du gros orteil (l’articulation métatarso-phalangienne) doit se situer au niveau de l’axe de la pédale (ceci est valable pour tous les types de vélo, pédales automatiques ou pas).
  5. D’autres éléments peuvent se régler et dépendent beaucoup de votre morphologie : la longueur de la potence, la largeur du cintre. Mais dans un premier temps, contentez-vous du matériel tel quel : vous en jugerez à l’usage.
  6. Votre posture ne se détermine pas seulement matériellement : c’est aussi à vous d’adopter une bonne posture : épaules relâchées, ne vous crispez pas en serrant trop fort votre guidon (même en haut d’une descente), en forte montée sachez descendre vos coudes (ne les écartez pas), si vous n’avez pas de pédales automatiques (à régler correctement elles aussi !) sachez conserver vos pieds dans l’axe du vélo (et n’écartez pas les genoux), votre pédalage doit laisser l’axe de vos genoux parfaitement droit et parallèle au vélo. Bref, au début vous devrez penser très activement à votre posture.
  7. Vos poignées doivent toujours avoir un grip correct (surveillez l’état de vos poignées : trop sales, le grip est moins bon). Surtout en descente, vous saisissez vos poignées en laissant deux doigts (index et majeur) sur les leviers de freins, de chaque côté. Donc pensez aussi à relever ou abaisser ces leviers en fonction de votre morphologie. Le pouce doit servir à passer les vitesses sur les shifteurs. Ne roulez pas avec des gants de ski, même en hiver…

Les parcours et la performance

S’il peut sembler plus commode de toujours sortir dans un coin de montagne que l’on connaît bien, essayez de varier le plus possible. Vous ne progresserez pas si vous arpentez toujours les mêmes chemins, c’est-à-dire ceux qui vous semblent faciles aujourd’hui. Pour progresser, la nature de vos parcours doit être pensée.

Surtout en Cross country il n’est pas utile de toujours faire des sorties très longues. Certes, on en revient fort satisfait, et on en prend plein la vue, mais même si vous essayez de les faire toujours un peu plus vite, vous vous retrouverez assez vite au taquet. C’est comme la course à pied : parfois il faut savoir passer par des phases plus spécialisées, chronomètre en main, faire du fractionné, etc. En VTT, le fractionné existe aussi, de même la technicité du pilotage (en descente comme en montée), l’endurance sur des parcours pénibles avec des montées bien longues et régulières pour travailler le « foncier », etc.

Mon conseil : si vous débutez, avec deux sorties par semaine, essayez d’alterner une longue, une courte. Pour la sortie longue, faites-vous plaisir : points de vue, vieux châteaux, endroits insolites, faites du tourisme et recherchez le fun. Pour les sorties courtes, trouvez-vous deux ou trois terrains de jeu, même si vous passez deux fois au même endroit, et lancez-vous des défis. L’idéal est de trouver un parcours où vous aurez deux ou trois types de difficultés à affronter : à vous de voir sur quels points vous devez progresser.

Qu’est-ce qu’une sortie longue, qu’est-ce qu’une sortie courte ? il s’agit surtout du temps passé à VTT. On mesure une sortie à la fois en kilomètres et en dénivelé (d’où l’intérêt d’utiliser un GPS, ou au moins un appli sur smartphone). Faire 23 km avec 1000 m de dénivelé cumulé (d+), c’est déjà de la bonne grosse sortie pour un débutant. Cela me semble même déjà trop. Dans les Vosges il faut partir d’en bas côté Alsace, mais c’est assez faisable tout de même.

Donc n’ayez pas les yeux plus gros que le ventre. Essayez au début de faire des sorties de 20 à 25 km avec un max de 500 à 600 m d+. Ensuite sur le même dénivelé, rallongez le kilométrage, puis ensuite augmentez le dénivelé. Ce n’est pas forcément utile de le rappeler, mais cela va mieux en le disant : allez-y progressivement.

Avec les copain·es : les sorties à plusieurs, c’est super. Être seul dans la forêt, cela a un côté peu rassurant, surtout dans les descentes un peu techniques. Par contre, si vous roulez avec des personnes d’un niveau plus avancé, c’est bien pour progresser à la seule condition de ne pas le faire tout le temps et de rappeler à vos collègues de savoir respecter votre rythme : en effet, si vous êtes toujours en sur-régime (au seuil anaérobie), avec le cœur en dehors de sa boîte à chaque montée, ou si la sortie est trop longue pour vous, d’une part vous allez finir la sortie avec des jambes en coton et au bout de votre vie en jurant que jamais plus…, et d’autre part, le plus important, vous risquez de vous blesser (tendinite ou autre blessure musculaire) voire de solliciter trop votre système cardiaque et subir un malaise voire plus grave encore.

Donc être seul a aussi des avantages, mais restez prudent.

Enfin, trop de fatigue nuit au pilotage et vous savez quoi ? quand on roule en montagne, le parcours se termine le plus souvent par une descente. Le faire en état de trop grande fatigue réduit votre attention et vos réflexes, et augmente drastiquement le risque de chute.

Inutile d’ajouter que la fatigue gagne aussi si on ne dort pas assez. Alors, profitez de vos nuits, et cessez de vous coucher tard : un bon entraînement sportif s’accomplit aussi par le repos. Concernant les repas : mangez équilibré, ne vous empiffrez pas de pâtes (c’est une légende : les sucres lents se trouvent aussi dans d’autres aliments), respectez aussi votre rythme digestif. Plutôt que de chercher des régimes plus ou moins fiables, faites surtout preuve de bon sens.

Et, pour palier les éventuels risques cardiaques, si vous avez passé vos 40 bougies, je conseille vivement de faire un bilan cardiaque avec test d’effort (demandez-en un à votre médecin traitant), il permettra de déceler un éventuel souci et prendre des mesures adéquates.

Ha oui, dernier point : ne recherchez pas la performance. Laissez-cela aux sportifs de profession. D’abord, faites-vous plaisir. Votre performance, ce sera celle que vous constaterez à votre mesure : vous n’avez de compte à rendre à personne et encore une fois, il n’y a aucune honte à descendre du vélo lorsque la montée est trop dure ou si vous ne sentez pas ce petit passage de descente.

Les randos VTT organisées

Elsass Bike, Trace vosgienne, randonnées diverses organisées par des comités cyclistes locaux : tous ces événements sont des occasions de découvrir des circuits dans une ambiance sympathique et détendue. Généralement, ces randonnées sont organisées en plusieurs parcours de niveau, proposent des points de ravitaillement et se terminent avec une bonne bière au bar de l’amicale.

N’hésitez pas à vous inscrire à de tels évènements, il y en a sans doute près de chez vous. Vous y rencontrez d’autres cyclistes et vous pouvez y aller en famille. Il ne s’agit pas de courses proprement dites, pas besoin de faire partie d’un club ou d’être inscrit à la FFC. Les circuits sont balisés, les départs sont échelonnés (il y a quand même une heure limite et comme c’est en été, il est mieux de partir tôt) et vous faites le parcours à votre rythme. Gros avantage : vous n’avez qu’à suivre le balisage.

Pour des évènements comme la Trace Vosgienne VTT, par exemple, c’est un mixte. Il y a une partie course (un départ collectif et des gagnant·es) et une partie randonnée sans chrono. À vous de choisir : vous pouvez très bien faire le marathon tout en vous fichant du chrono, mais il va falloir tout de même dépoter un peu.

Vous pouvez vous fixer ces rendez-vous annuels comme des objectifs. Choisissez la rando qui vous paraît difficile (mais pas impossible) et préparez-vous pour la réaliser sans temps chrono, mais dans de bonnes conditions. Vous pourrez-vous dire que l’année prochaine, vous ferez la rando du niveau supérieur.

Une autre opportunité consiste à rejoindre une association de vététistes, ou un club cycliste qui possède une section VTT. Même certaines antennes du Club Vosgien possèdent une section VTT. Là aussi renseignez-vous près de chez vous. C’est la garantie de sortir à plusieurs et émuler une dynamique de motivation qu’on n’a pas forcément en solo. Et puis, à fréquenter des plus expérimentés que soit, on apprend toujours des choses…

L’entretien général

Si vous voulez faire durer votre VTT, son entretien après chaque sortie est une étape obligatoire. L’entretien concerne le nettoyage, le changement de certaines pièces et la révision générale.

Ne pas faire

Pour nettoyer votre VTT après une sortie boueuse, n’utilisez jamais – entendez-vous ? – jamais ! de nettoyeur haute pression. Si vraiment vous tenez à projeter de l’eau avec un tuyau, utilisez votre tuyau d’arrosage de jardin avec jet diffus.

Autre chose à ne pas faire : huiler la transmission sans l’avoir nettoyée auparavant. C’est le meilleur moyen pour tout encrasser et user prématurément les toutes les pièces.

Et n’utilisez pas non plus de combinés lubrifiant / nettoyant tout-en-un pour votre transmission. Cette dernière se soigne, se bichonne : elle ne mérite pas de traitement à la va-vite (cf. plus loin).

Et vous aurez compris : l’entretien d’un VTT, ce n’est pas seulement le garder à peu près propre, c’est vérifier les pièces et leur usure, prévenir la casse, et donc rouler dans des conditions de sécurité acceptables.

Nettoyage

Si vous revenez d’une sortie très humide, passez un coup de chiffon sec sur la chaîne, épongez ce que vous pouvez sur la transmission, passez un coup de jet d’eau ou un coup de brosse sur le cadre pour ôter le plus « épais » et laissez sécher pour revenir terminer ensuite.

Une fois sec, prenez une brosse et un pinceau plat rigide : la brosse pour ôter la terre collée, le pinceau pour aller dans les recoins (du genre : le dérailleur arrière).

Le cadre d’un VTT se nettoie à l’eau. On peut éventuellement ajouter un petit peu de liquide vaisselle dans la bassine, mais c’est tout. Cela dit, comme vous aurez débarrassé votre VTT de la terre avec une bonne vieille brosse, une microfibre humide fait très bien l’affaire pour la majorité des composants : vous n’aurez pas à attendre le séchage avant de passer à la transmission.

La transmission et les lubrifiants

La durabilité et le besoin de nettoyage de votre transmission dépend énormément du lubrifiant que vous utilisez.

Sur le marché vous trouverez beaucoup de lubrifiants huile adaptés aux conditions météo, mais qui attirent plus ou moins de saletés, avec du téflon ou sans téflon, etc. Il y a même de fortes chance que le premier conseil qu’on puisse vous donner est d’utiliser ce genre de produit.

Lubrifier à l’huile a pour caractéristique de coller la poussière et le sable, et d’user prématurément les dents de vos plateaux, pignons et galets. De plus il faut savoir utiliser la bonne huile en fonction des conditions météo (conditions sèches, conditions humides). Pour le vélo de route, par définition moins sujet à la boue et au sable, l’huile sera sans doute le lubrifiant le plus simple à l’usage.

Pour le VTT, rien ne vaut le lubrifiant à la cire. La cire a pour avantage d’enrober les pièces et empêche vraiment la poussière et le sable d’y adhérer. Les frottements des pièces entre elles est largement atténué ce qui prolonge indéniablement la durée de vie de votre transmission.

Si on a longtemps considéré que les lubrifiants cire étaient sensibles aux conditions humides, les nouvelles formules n’ont plus vraiment ce défaut. En revanche, si un lubrifiant huile peut être appliqué juste avant de pédaler, il vous faudra attendre deux ou trois heures de séchage après avoir appliqué un lubrifiant cire. Ce lubrifiant est composé d’eau et de particules de céramique (il est souvent de couleur blanche), et il pénètre vraiment les moindre espaces entre les composants de la chaîne.

L’autre avantage de la cire, c’est le nettoyage. Même au retour d’une sortie bien boueuse, vous pourrez simplement passer un coup de chiffon sur la chaîne (prenez la chaîne à pleine main avec un chiffon et frottez) et entre les pignons. Alors qu’une huile vous obligerait à dégraisser la transmission.

À propos de dégraissage : la première fois que vous appliquez un lubrifiant cire, et si le lubrifiant précédent était à l’huile, un dégraissage en détail est nécessaire, suivit de trois applications du lubrifiant cire espacées de deux à trois heures.

Enfin, il n’est pas toujours utile de re-lubrifier à chaque fois : l’avantage de la cire, c’est que si les conditions sont bien sèches, et si vous n’avez pas trop sali votre transmission, on peut enchaîner deux sorties sans appliquer le lubrifiant, ou alors un tout petit coup pour la forme (mais toujours après vous être assuré qu’il ne subsiste pas de terre sur la chaîne, donc coup de chiffon, toujours). Vous pouvez aussi réserver un pinceau pour votre chaîne et les pignons, histoire de frotter doucement, y compris entre les maillons.

Changer les pièces de votre transmission

C’est le sujet épineux : quand sait-on qu’il faut changer les pièces ? et si c’est le cas, que doit-on changer ?

Si votre chaîne se met à sauter, c’est soit un défaut de réglage soit une usure qu’il faut d’urgence corriger :

  • la chaîne qui devient trop lâche,
  • des dents des pignons ou des plateaux qui deviennent pointues et ne retiennent plus la chaîne correctement.

Si c’est le cas, je déconseille de changer la chaîne seule, ou les plateaux ou les pignons seuls : c’est un ensemble. Tout au plus on peut changer les galets d’entraînement du dérailleur, mais généralement on les change en même temps que le reste. Pourquoi ? parce que votre chaîne s’est adaptée aux autres éléments d’entraînement et inversement.

Donc : les dents pointues, c’est le signe d’usure à reconnaître. Ne cherchez pas à utiliser les indicateurs d’usure de chaîne. Je lis parfois qu’il est conseillé de changer la chaîne régulièrement… bof : une chaîne de VTT est solide, et à moins de vraiment la maltraiter (changer de vitesses, cela s’apprend) mieux vaut user l’ensemble et changer le tout lorsqu’il le faut. Bien sûr si vous cassez la chaîne, il faut la changer : si elle est neuve et qu’elle saute, c’est qu’il faut aussi changer le reste car l’usure était déjà là.

Concernant les autres pièces de votre transmission, l’élément qu’il peut vous arriver de changer, c’est le boîtier de pédalier. La cause est soit l’usure, soit des chocs dans le pédalier (par exemple, la pierre qu’on n’a pas vue et qui tape une manivelle verticalement) qui font prendre du jeu au boîtier.

Le faire soi-même ? en théorie, si vous êtes bricoleur·se, vous pouvez changer tout un groupe. Mais si vous débutez, contentez-vous dans un premier temps de diagnostiquer, puis faites un tour chez votre revendeur·se : iel a les bons outils, les bonnes pièces et le savoir-faire.

Système de frein

Oui, il faut s’assurer que vos plaquettes ne sont pas encrassées par la boue. Par contre faites bien attention à ne pas projeter de lubrifiant ou n’importe quel corps gras sur vos plaquettes ou le disque de frein.

Pour prévenir les accidents, vérifiez :

  • l’état d’usure des plaquettes : n’attendez pas de freiner sur l’armature pour faire des étincelles et amuser la galerie. Tout ce que vous risquez c’est abîmer votre disque et surtout vous casser le nez parce que vos freins ne sont plus efficaces. Les plaquettes se changent régulièrement : après chaque sortie, vérifiez-les.
  • votre disque de frein : est-il trop usé ? des rails se sont formés ? il faut le changer. Si vous venez de changer les plaquettes et que vous vous apercevez qu’elles rayent profondément votre disque, c’est qu’elles ne conviennent pas.

Quand purger les freins hydrauliques ? Ce n’est pas une opération à faire régulièrement mais lorsque qu’on constate que des bulles d’air sont présentes dans le système :

  • à l’arrêt votre levier de frein est très lâche,
  • lors d’une descente, le frein chauffe et pourtant vous devez pomper pour retrouver de la prise.

Remplacement des plaquettes et des disques : ces opérations peuvent être faites par vous même, c’est facile et accessible. En revanche, pour une bonne purge, je conseille plutôt d’aller voir un·e spécialiste.

Les suspensions

L’entretien complet de ces pièces se fait par un·e professionnel·le. D’ailleurs, certains revendeur·ses les envoient dans un centre spécialisé où l’on peut démonter les suspensions, procéder à une vidange, changer les joints et vérifier les pièces. Certains grand·es bricoleur·ses parviennent à le faire iels-mêmes mais honnêtement, je trouve que ce genre d’opération est très pénible.

Si l’on lit attentivement les modes d’emploi des suspensions, certains préconisent un entretien complet annuel voire tous les six mois. Un tel entretien coûte entre 100 et 150 euros par suspension et très franchement, à moins de vouloir y passer le prix d’une fourche neuve, il n’y a pas grand intérêt à faire une entretien complet tous les ans. Si vous prenez soin de votre matériel, une fourche rempli parfaitement son rôle des années durant, cependant, pour en garantir l’efficacité, pensez régulièrement à sa révision selon le rythme de vos sorties à l’année. Donc tous les ans ou tous les deux ans : au-delà, c’est que vous sortez peu.

On distingue :

  • la révision : tous les ans ou deux ans : vidange, vérification, nettoyage (à faire soi-même ou chez un professionnel),
  • l’entretien complet : idem + changement des joints, tous les ans ou deux ans (plutôt chez un professionnel).

Conseil : alternez :) et si vous loupez une séquence, ça ira quand même si vous prenez soin de votre matériel, rassurez-vous.

Autre solution : vous vous en fichez, vous roulez et lorsqu’il faut changer la fourche avant, vous la changez. Sur un semi-rigide, par exemple, qui ne nécessite pas d’entretien trop onéreux, et si la fourche n’est pas excessivement chère, c’est peut-être encore la solution la plus simple. Donc on se détend sur ce point.

Enfin, n’oubliez pas : les suspension avec ressort à air… cela se regonfle. Si vous perdez de l’air (cherchez la raison si vous en perdez trop), non seulement votre suspension ne sera plus réglée correctement (surtout en fonction de votre poids) mais aussi elle va s’user davantage vu que vous mettez à l’épreuve les matériaux. Si vous n’avez pas de pompe haute pression manuelle (cela vaut entre 20 et 40 euros), passez chez votre revendeur·se : il faut 30 secondes pour rajouter un peu d’air.

Autres dispositifs

La caisse à outils

Même si vous ne bricolez pas jusqu’à être capable de démonter et remonter chaque pièce de votre VTT, votre caisse à outil devra néanmoins comporter quelques éléments essentiels. La liste suivante n’est pas exhaustive mais elle vous permettra de survivre :

  • les outils que vous embarquez lors de vos sorties,
  • outils classiques : tous les outils que vous avez déjà à la maison, dont un jeu de clé allen (en T si possible) et au moins une petite pince coupante,
  • une clé à pédales (pour changer les pédales),
  • pompe à haute pression (pour suspension),
  • pompe à pied avec manomètre,
  • un pied d’atelier (ou si c’est trop encombrant pour vous, un simple pied béquille à crochets qui puisse vous permettre de soulever la roue arrière lorsque vous bricolez),
  • un dérive chaîne,
  • une pince attache rapide.

Si vous êtes en Tubeless, il faudra un compresseur. Pas besoin d’un compresseur électrique. Il s’agit d’un compresseur à gonfler jusque 8-10 bar capable de relâcher la pression très rapidement de manière à faire claquer le pneu. Cela vaut entre 50 et 80 euros.

Pour le reste, si vous voulez changer votre groupe de transmission, votre système de frein, ou vos suspensions, il y a des outils spécifiques à se procurer avant de faire quoi que ce soit. Et n’oubliez pas : il y a un début à tout, mais quand on n’a jamais fait… on n’a jamais fait. Donc faites vous accompagner, c’est mieux.

Préparer ses sorties et se repérer

À moins de connaître parfaitement les moindres sentiers sur des centaines de kilomètres carrés, vous devriez embarquer au moins une carte IGN lorsque vous sortez rouler.

Il y a deux manières d’envisager une sortie. La première, surtout s’il s’agit de vos premières sorties, c’est de partir comme vous le feriez en randonnée pédestre, avec une bonne carte, puis improviser votre parcours en vous fixant des objectifs et en suivant le balisage. C’est une bonne manière de découvrir le pays. En revanche, à moins d’avoir déjà pas mal de pratique, méfiez-vous de l’improvisation qui risque de vous amener à emprunter des chemins trop difficiles par rapport à votre niveau, voire des chemins carrément non praticables en VTT. Parfois, il peut être intéressant d’organiser une randonnée pédestre pour envisager certaines tranches du parcours.

C’est votre niveau que, justement, vous allez pouvoir améliorer si vous surveillez vos distances et vos dénivelés. De même, si vous préparez correctement un parcours, vous pouvez plus facilement veiller à ne pas présumer de vos forces.

Donc la seconde manière d’envisager vos sorties, c’est de manipuler un peu de matériel numérique.

Première solution. Préparez votre parcours en vous rendant par exemple sur Geoportail, ou encore VTTRack. La cartographie IGN est la plus appropriée pour préparer correctement une sortie pleine nature. Mais si vous pensez pouvoir vous satisfaire des cartes issues du projet OpenStreetMap (dont les couches OpenTopoMap, présentant les courbes de dénivelé), vous pouvez vous rendre sur le projet Umap ou utiliser un logiciel comme Viking ou QMapShack sous GNU/Linux.

Tracez le parcours grosso-modo avec l’outil de calcul de distance, mémorisez les principaux points de passage et prenez une carte « papier » qui vous servira à vous repérer sur place (astuce : au lieu de prendre toute une carte, faites des photocopie couleur des lieux que vous fréquentez, et utilisez une pochette plastique : sortir la carte directement depuis la poche arrière est moins contraignant que sortir une grande carte du sac à dos, la déplier, la replier…),

Seconde solution. Préparez votre parcours avec un logiciel qui permet de réaliser un tracé que vous pourrez ensuite importer sur un dispositif GPS que vous embarquez sur votre VTT (ou votre smartphone dans une poche facile d’accès). C’est de loin la solution la plus courante mais elle nécessite encore un achat, celui du GPS (c’est tellement pratique, aussi…). Notez qu’on ne compte plus le nombre d’écrans de smartphone cassés à force de le sortir et le ranger pour se repérer. Vous pouvez aussi avoir un support pour smartphone au guidon : c’est très bien sur route, mais en VTT quand ça secoue trop fort ou si vous tombez, votre smartphone risque de prendre cher (alors que les dispositifs GPS sont petits et peu encombrants au guidon).

Dans les deux cas, regardez-bien les distances, les dénivelés et identifiez les points difficiles.

Ma pratique personnelle est la suivante :

  1. Un dispositif GPS embarqué sur le vélo (marque Garmin et son support guidon),
  2. n’ayant jamais trouvé mieux que la cartographie IGN pour nos contrées, il est difficile de trouver un logiciel libre qui utilise efficacement cette cartographie pour tracer des parcours de manière fiable et en exporter des traces utilisables sur une dispositifs GPS. J’ai donc opté pour IGN Rando qui permet, outre l’application du téléphone portable, de préparer ses parcours à partir d’un simple navigateur Internet, afin de créer des traces et les exporter en différents formats (j’utilise le GPX). L’usage des cartes est payant pour quelques euros par an.
  3. Une fois le GPX créé, j’uploade sur le site de Garmin (qui se gave de mes données personnelles, aaargh!) et je balance le tout sur mon appli smartphone qui, couplée à mon dispositif GPS me permettra d’y uploader la trace afin d’être utilisable sur le vélo lors de la sortie.

IGN Rando est aussi une application sur Smartphone. Notez que depuis le mois de mai 20244, l’IGN a publié une autre application nommée Cartes IGN, qui est en fait un accès au Géoportail.

Pourquoi ne pas utiliser les cartes du projet OpenStreet Map ? et bien figurez-vous que c’est le cas. J’ai fait en sorte que mon dispositif GPS de vélo utilise ces cartes qui, en fait, sont plus lisibles et à jour que les cartes présentes par défaut. Par contre, pour préparer un parcours, l’IGN a produit des cartes bien plus adaptées et dont les données peuvent aussi être croisées.

Autre solution, si vous ne voulez pas téléverser vos cartes et vos données sur le site du fabricant :

  • préparez votre trace GPX à suivre ;
  • placez le fichier sur votre dispositif GPS relié à votre ordi (sous GNU Linux, c’est comme une clé USB, il suffit de choisir le bon dossier) ;
  • vous pouvez aussi y aller chercher le GPX de votre parcours effectué ;
  • et le lire avec un logiciel de lecture GPX libre.

Nettoyer sur place

Et pour finir, je reviens de nouveau sur la question du nettoyage. Si vous vous déplacez en voiture avec votre VTT ou si vous habitez en appartement, un petit matériel pourra vous être utile : un nettoyeur mobile. Il s’agit d’une petite station sur batteries, avec une contenance de 5 à 10 litres. Le jet d’eau n’est pas haute pression. La marque Kärcher en produit à prix raisonnable.

Utilité : si vous revenez d’une sortie très boueuse, avant de charger le VTT sur votre porte-vélo ou dans la voiture, passez-lui un coup de flotte avec cet outil. Idem si vous habitez en appartement, descendez sur le parking : vous pourrez nettoyer votre vélo sans encrasser votre balcon. Prenez aussi toujours une ou deux brosses avec vous pour enlever le plus gros avant de fignoler à la maison.

Notes

  1. L’autre option est d’acheter un vélo dit « Gravel », assez à la mode en ce moment : pour dire vite il s’agit d’un vélo de course (donc sportif) avec un cadre et des roues adaptés aux chemins forestiers peu accidentés. ↩︎

  2. À vrai dire, entre les études, la vie familiale et la pratique du trail, je n’ai pas fait que du VTT durant toutes ces années. ↩︎

  3. Non, je n’incite personne à emprunter le VTT d’un·e ami·e. Parce qu’il n’est pas conseillé de prêter son VTT chéri à un·e débutant·e, alors que la location, hein, on sait ce qu’on fait avec ce matériel… ↩︎


Publié le 02.06.2024 à 02:00

Avant un nouvel été de catastrophes climatiques, parlons de vraies solutions

Voici la traduction d’un texte de Peter Gelderloos paru sur Crimethinc le 08 mai 2024. J’ai déjà eu l’occasion de traduire un texte de P.G. en 2019. Celui-ci est court et même si je crois que l’auteur néglige des points importants (je pense à nos rapports avec les technologies de l’information et la surveillance), j’adhère en grande partie à son approche. Nous sommes actuellement en pleine période électorale Européenne, et pour ces mêmes raisons je suis convaincu qu’il n’y a guère d’espoir politique dans les logiques de partis, institutionnelles ou de plaidoyer, bien au contraire. Un attitude anarchiste (et préfigurative) me semble être une voie de sortie souhaitable.


Introduction sur Crimethinc :

En coopération avec Freedom, nous présentons un court texte de Peter Gelderloos explorant les raisons de l’échec des stratégies actuellement employées par les principaux mouvements environnementaux pour stopper le changement climatique d’origine industrielle, et ce que nous pourrions faire à la place. Pour un examen plus approfondi de ces questions, nous recommandons le nouveau livre de Peter, The Solutions are Already Here : Strategies for Ecological Revolution from Below.


Avant un nouvel été de catastrophes climatiques, parlons de vraies solutions

Le mouvement climatique dominant part d’un postulat qui garantit l’échec.

Pas seulement l’échec. Une catastrophe. Et plus il sera efficace, plus il causera de dégâts.

Voyons pourquoi.


Le réductionnisme climatique

Aujourd’hui, lorsque les gens pensent à l’environnement, ils se représentent généralement des actions de désobéissance civile dans les rues, un militantisme médiatique, un lobbying enthousiaste et des conférences visant à fixer des objectifs mondiaux en matière d’émissions de carbone, le tout sous la houlette d’organisations non gouvernementales, d’universitaires et de politiciens progressistes. Cependant, la lutte écologique a toujours inclus des courants anticapitalistes et anticoloniaux, et ces courants sont devenus plus forts, plus dynamiques et mieux connectés au cours des deux dernières décennies.

Cette évolution ne s’est toutefois pas faite sans revers, souvent en raison d’une intense répression qui laisse les mouvements épuisés et traumatisés, comme la « peur verte » (green scare1) qui a débuté en 2005 ainsi que la répression de Standing Rock et d’autres mouvements anti-pipelines menés par des populations indigènes dix ans plus tard. Systématiquement, au moment précis où les courants radicaux pansent leurs plaies, la vision de l’environnementalisme, majoritairement blanche et issue de la classe moyenne, prend le devant de la scène et entraîne le débat dans des directions réformistes2.

La crise à laquelle nous sommes confrontés est une crise écologique complexe, dans laquelle s’enchevêtrent les assassinats par les forces de police, les lois répressives, l’histoire du colonialisme et du suprématisme blanc, la dégradation de l’habitat, l’accaparement des terres, l’agriculture alimentaire, la santé humaine, l’urbanisme, les frontières et les guerres. Les principaux leaders du mouvement environnementaliste ont pris la décision stratégique de réduire tout cela à une question de climat ­— la crise climatique — et de positionner l’État en tant que protagoniste, en tant que sauveur potentiel. Cela signifie présenter l’Accord de Paris et les sommets de la COP comme les solutions au problème, et utiliser l’activisme performatif et la désobéissance civile pour exiger des changements de politique et des investissements en faveur de l’énergie verte.

Le climat se réchauffe, indépendamment des sommets internationaux sur le climat qui ne sont d'aucune utilité.

Un échec prévisible

Les deux piliers de leur stratégie pour résoudre la crise climatique sont, d’une part, l’augmentation de la production d’énergie verte et, d’autre part, la réduction des émissions de carbone.

Ils ont été très efficaces pour atteindre le premier objectif, mais totalement inefficaces pour le second. C’était tout à fait prévisible.

Quiconque comprend le fonctionnement de notre société, c’est-à-dire le fonctionnement du capitalisme, sait que la conséquence logique d’une augmentation des investissements dans les énergies vertes sera une augmentation de la production de combustibles fossiles. La raison principale en est que les centaines de milliards de dollars qui ont déjà été investis dans les pipelines, les mines de charbon, les raffineries de pétrole et les puits de forage sont du capital fixe. Ils valent beaucoup d’argent, mais ce n’est pas de l’argent sur un compte bancaire qui peut être rapidement investi ailleurs, transformé en actions ou en biens immobiliers ou encore converti dans une autre devise.

Une excavatrice à charbon de 14 000 tonnes, une plateforme pétrolière offshore : elles ne deviendront jamais quelque chose d’autre d’une valeur financière similaire. C’est de l’argent qui a été dépensé, un investissement qui n’est utile aux capitalistes que s’ils peuvent continuer à l’utiliser pour extraire du charbon ou forer du pétrole.

Cette règle économique prévaut, que l’entreprise capitaliste en question soit ExxonMobil, la compagnie pétrolière d’État saoudienne ou la China Petrochemical Corporation, propriété du parti communiste (qui a été classée plus grande entreprise énergétique du monde en 2021).

Le capitalisme (y compris celui pratiqué par tous les gouvernements socialistes du monde) est basé sur la croissance. Si les investissements dans les énergies vertes augmentent, entraînant une hausse de la production totale d’énergie, le prix de l’énergie diminuera, ce qui signifie que les grands fabricants produiront davantage de marchandises, quelles qu’elles soient, rendant leurs produits moins chers dans l’espoir que les consommateurs en achèteront davantage. Par conséquent, la consommation totale d’énergie augmentera. Cela s’applique à l’énergie provenant de toutes les sources disponibles, en particulier les plus traditionnelles, à savoir les combustibles fossiles.

Après des décennies d’investissement, l’énergie verte deviendra enfin concurrentielle, voire moins chère que l’énergie produite à partir de combustibles fossiles. Cela n’a débuté qu’au cours des dernières années, bien que les prix fluctuent encore en fonction de la région et du type de production d’énergie. L’industrie des combustibles fossiles n’a pas abandonné ses activités ni diminué sa production. De nombreuses entreprises ne couvriront même pas leurs investissements entre les combustibles fossiles et les énergies vertes. En revanche, elles investiront davantage dans de nouveaux projets liés aux combustibles fossiles. C’est l’économie capitaliste de base : si le prix marginal d’un produit diminue, le seul moyen de maintenir ou d’augmenter ses bénéfices est d’accroître la production totale. Cela explique pourquoi 2023 a été une année record pour les nouveaux projets de combustibles fossiles.

Il existe une autre façon d’augmenter les profits : en diminuant les coûts de production. Pour l’industrie des combustibles fossiles, cela se traduit par une réduction des normes de sécurité et environnementales, ce qui signifie plus d’accidents, plus de pollution, plus de morts.

Nous l’avons vu venir. Nous avons dit que cela arrivait. Et nous avons été exclus du débat, et dans de nombreux cas tués ou emprisonnés, parce que le besoin pathétique de croire que le gouvernement peut nous sauver est encore plus grand que l’addiction aux combustibles fossiles.

Mais le capitalisme n’a pas d’avenir sur cette planète. Nous aurons besoin d’une révolution de grande envergure pour faire face à cette crise.

Pour chaque barre, la barre bleu clair à gauche représente l'énergie « propre » ; la barre bleu foncé à droite représente les combustibles fossiles. Source : rapport The World Energy Investment 2023].
Bien que les investissements annuels dans les énergies « vertes » augmentent significativement, la production et la consommation de combustibles fossiles continuent également d'augmenter. Source : Statistical Review of World Energy 2023.

Alors, que faire ?

Nous devons réorienter le débat. Nous devons adopter une posture qui nous permette d’être prêts pour le long terme. Nous devons soutenir les luttes qui peuvent apporter de petites victoires et accroître notre pouvoir collectif, et approfondir notre relation avec le territoire qui peut nous soutenir. Par-dessus tout, nous devons imaginer des avenirs meilleurs que celui qu’ils nous réservent.

Parler

Le type de transformation sociale — de révolution mondiale — qui peut guérir les blessures que nous avons infligées à la planète elle-même et à tous ses systèmes vivants devra être plus ambitieux que tout ce que nous avons connu jusqu’à présent. Cette crise nous prend tous au piège et nuit à tout un chacun ; la réponse devra être apportée par le plus grand nombre possible d’entre nous.

Imaginez toutes les personnes de votre entourage dont vous ne voulez pas qu’elles meurent de faim ou de cancer, qu’elles soient soumises à des conditions météorologiques extrêmes ou qu’elles soient abattues par la police ou autres suprémacistes blancs.

Vous n’avez pas besoin de convaincre toutes ces personnes de devenir des révolutionnaires anarchistes. Il suffirait d’en convaincre certaines de rompre leur loyauté envers les institutions dominantes et les mouvements réformateurs classiques et de sympathiser avec une approche révolutionnaire, ou du moins de comprendre pourquoi une telle approche a du sens.

Pour ce faire, vous pouvez poser une question dont la réponse est incontestable, une question qui a un rapport direct avec un sujet qui les affecte ou les motive. Par exemple :

  • Combien de personnes meurent chaque année à cause du manque d’eau potable, de la famine, des conditions climatiques, de la pollution de l’air et autres causes liées à la crise écologique ? Au moins 10 à 20 millions chaque année, et ce chiffre ne cesse d’augmenter.
  • Depuis 2017, les investissements dans les énergies renouvelables augmentent chaque année. En 2022, les investissements dans les énergies renouvelables seront 15 fois plus importants qu’en 2004. Cela a-t-il été rentable pour les investisseurs ? Oui. Les investissements annuels s’élèvent à plus de mille milliards de dollars et les bénéfices à plus de cent milliards, même si les investisseurs ont montré qu’ils retiraient rapidement leur argent des énergies vertes lorsque les marges bénéficiaires diminuaient. Qu’est-il advenu des émissions mondiales de CO2 au cours de cette même période ? Elles ont grimpé d’un tiers. Et la production de combustibles fossiles au cours de la même période ? Elle a augmenté de 40 %. Ces chiffres correspondent-ils à peu près aux taux d’augmentation des émissions de carbone et de la production de combustibles fossiles au cours des décennies précédentes ? Oui. Et qu’est-ce que cela signifie ? L’explosion des investissements dans les énergies vertes n’a en rien ralenti la production de combustibles fossiles et les émissions de carbone, même si les nouveaux projets d’extraction de combustibles fossiles deviennent plus difficiles et plus coûteux.
  • Notre eau, notre air et nos aliments sont chargés de produits chimiques toxiques. Nombre d’entre eux sont liés à la production de plastiques, de pesticides, de substances chimiques persistantes (PFAS), à l’exploitation minière et à la combustion de carburants fossiles. Nous connaissons les dangers de la plupart de ces composés depuis des décennies, et plusieurs d’entre eux sont interdits ou réglementés par divers gouvernements. Dans l’ensemble, les quantités de ces toxines présentes dans notre environnement augmentent-elles ou diminuent-elles ? Elles augmentent. Qu’ont fait de nombreuses grandes entreprises chimiques en réponse à l’interdiction de l'APFO, un « produit chimique éternel » toxique ? Elles se sont tournées vers la production d’autres PFAS dont on sait ou dont on pense qu’ils sont toxiques. Savons-nous si ces interdictions sont effectivement respectées ? Cinq ans après avoir accepté de retirer progressivement l’APFO sous la pression du gouvernement, les usines chimiques de DuPont continuaient à rejeter de l’APFO dans les eaux souterraines. C’est probablement encore le cas aujourd’hui, mais les populations concernées n’ont pas les moyens de s’en rendre compte et le gouvernement ne surveille pas ces rejets.
  • Examinons un sujet analogue pour voir si un tel réformisme a donné des résultats dans d’autres contextes. En 2020, les villes et les États américains ont cherché à apaiser le mouvement contre les meurtres commis par la police en adoptant des mesures visant à garantir la responsabilité de la police, qu’il s’agisse de formations à la sensibilité raciale, de commissions de surveillance citoyenne, de lignes directrices plus strictes sur l’usage de la force ou de caméras corporelles obligatoires. Le nombre d’homicides commis par la police a-t-il diminué depuis lors ? Non, il a augmenté.

Après avoir fait part des réponses à ces questions, vous pouvez insister sur le fait que la réforme du système existant est une stratégie qui a échoué, et demander à vos interlocuteurs s’ils comptent essayer la même stratégie encore et encore, en espérant des résultats différents.

Cela devrait vous permettre de déterminer quelles sont les personnes autour de vous qui sont capables de remettre en question le paradigme dans lequel elles vivent, et quelles sont celles qui sont attachées aux fausses croyances qui sous-tendent ce paradigme. Ne perdez pas votre temps avec ce dernier groupe. Quelles que soient les velléités de rédemption et les belles valeurs qu’elles peuvent avoir, essayer de dialoguer avec ces personnes par le biais de la raison, de l’éthique et de la logique, c’est passer à côté de l’essentiel. Lorsque des gens s’obstinent à croire des choses dont la fausseté a été démontrée, c’est soit parce que ces croyances les réconfortent, soit parce qu’elles leur apportent pouvoir et profit. Il est peu probable que le débat puisse changer cela.

Nous devons faire évoluer la discussion au niveau de la société dans son ensemble. Nous avons besoin que les gens comprennent nos arguments ; nous devons nous assurer que les orthodoxies dominantes soient considérées comme controversées et non acceptables.

Cela signifie qu’il faut discréditer l’Accord de Paris, les Nations unies, Extinction Rebellion et les grandes ONG, ainsi que toute la stratégie consistant à remplacer les combustibles fossiles par des énergies vertes tout en laissant le système économique mondial inchangé. La seule chose qu’ils arriveraient à faire, c’est de gagner beaucoup d’argent. De même, nous devrions promouvoir une compréhension plus claire de la fonction de la police dans le contexte historique, de l'impact de la production économique basée sur la croissance sur notre santé et du fait qu’aucun gouvernement n’est susceptible de prendre des mesures pour atténuer l’un ou l’autre de ces méfaits.

Concentrons-nous sur les personnes qui sont capables de changer. Lorsque les gens commencent à changer d’avis, il est utile qu’ils puissent faire le lien avec un changement immédiat dans leurs actions. Aidez-les à trouver un petit geste à leur mesure. Par exemple :

  • Réorienter les dons aux grandes ONG vers des fonds de défense juridique des défenseurs de la terre, vers des collectes pour des projets de défense de la terre, et pour des médias et éditeurs alternatifs qui présentent une vision objective de la crise ;
  • Écrire une lettre à une personne emprisonnée pour sabotage dans un but écologique ou pour s’être défendue contre la police, ou à une personne qui cherche à obtenir un meilleur traitement et des moyens de survie à l’intérieur du système carcéral ;
  • Diffuser sur les médias sociaux des informations sur les luttes pour la défense des terres Indigènes dans le monde entier ;
  • Réagir aux campagnes conventionnelles de sensibilisation à l’environnement ou au cadre des Nations Unies sur le changement climatique, en soulignant qu’il s’agit d’une escroquerie et en renvoyant à des articles destinés à une large diffusion, comme celui-ci ;
  • Demander aux bibliothèques et aux librairies locales de commander des livres qui présentent une vision honnête de la crise écologique ;
  • Créer un groupe de lecture avec des amis ;
  • Assister à une manifestation ;
  • Soutenir un jardin communautaire local, un point de distribution de nourriture ou de vêtements gratuits, un groupe de réduction des risques ou une initiative de justice réparatrice ;
  • Transformer une pelouse en un jardin de fleurs sauvages et de plantes comestibles autochtones ;
  • Expérimenter la guérilla jardinière.
South Central Farm. Mentionné dans Rolling Thunder #4, ce jardin de Los Angeles a nourri des centaines de familles, préservant un espace vert dans la friche urbaine.

Être honnête

L’apocalypse a déjà commencé. Depuis des décennies, des millions d’humains — et maintenant des dizaines de millions d’humains — meurent chaque année des effets de cette crise écologique. Nous avons dépassé les taux de mortalité des pires années de la Seconde Guerre mondiale et de l’Holocauste, même si nous ne comptons pas les chiffres des victimes des guerres chaudes que les puissances suprématistes blanches mènent du Niger à la Palestine — bien que ces guerres soient également liées à cette crise.

En outre, un nombre inconnu d’espèces — probablement des milliers — sont condamnées à l’extinction chaque année. De nombreux habitats et écosystèmes disparaissent à jamais. La biomasse globale, c’est-à-dire la masse totale de tous les êtres vivants sur la planète, diminue considérablement. L’eau, l’air et le sol sont remplis de poisons. Les objectifs climatiques de réduction des émissions de carbone sont probablement trop optimistes ; nous avons déjà franchi de nombreux points de basculement à 26 ans de 2050 (l’objectif de l’ONU pour atteindre l’objectif « zéro émission nette »), et les projections des États les plus puissants et des plus grandes entreprises indiquent que nous ne parviendrons pas à respecter la date butoir tant souhaitée de 2050. La fin d’un monde est déjà en marche.

Pour faire ce que nous avons à faire, nous devons accepter cette réalité et nous y atteler. La souffrance est déjà là. La mortalité massive est déjà là. Mais après chaque mort, il y a une nouvelle vie, et il y aura encore de la vie sur cette planète jusqu’à la dilatation du soleil dans quelques milliards d’années. C’est une question de vie ou de mort pour nous, et nous devons donc la prendre au sérieux, faire des sacrifices, mais comme il est déjà « trop tard », nous pouvons nous concentrer sur des cadrages qualitatifs et à long terme, plutôt que de nous laisser guider par une urgence trop superficielle et épuisante.

Une chose au moins est certaine : les communautés vivantes de cette planète se porteront beaucoup mieux si nous abolissons l’État et le capitalisme. Si nous n’y parvenons pas de notre vivant, elles se porteront quand même mieux — nous nous porterons mieux — si nous érodons leur hégémonie, si la plupart des gens peuvent voir que les institutions dominantes sont responsables de ce qui se passe, si nous avons augmenté notre capacité de guérison et de survie collective.

Commencer

Il existe de nombreuses façons de soutenir une lutte. Bien qu’il soit facile de se démoraliser lorsque la plupart des pipelines, bases militaires, mines et autres mégaprojets auxquels nous nous opposons sont néanmoins construits, il est vital de s’engager. La révolution n’est pas une progression linéaire — ce n’est pas un millier de petites victoires qui s’accumulent en une grande victoire. Oui, il est nécessaire de montrer que nous pouvons parfois gagner, mais il s’agit aussi de la joie et de l’expérience que nous emportons avec nous, des instincts tactiques et stratégiques que nous développons, du savoir-faire technique, des relations que nous construisons, de la jubilation à forcer la police à tourner les talons pour s’enfuir, de la conscience que les figures d’autorité à l’intérieur et à l’extérieur du mouvement ne font que nous entraver, de la façon dont, dans la lutte, il devient clair que sont liées entre elles toutes les questions qui sont cloisonnées et toutes les formes d’oppression.

Nous devons nous engager dans des luttes intermédiaires de manière à aider les gens à découvrir et à pratiquer les types de tactiques et de stratégies qui seront nécessaires pour un changement à long terme.

De nombreuses luttes menées au cours des dernières décennies nous ont donné de l’énergie et nous ont appris des leçons que nous ne devrions jamais oublier : les insurrections à Oaxaca, en Grèce, en France, à Hong Kong et au Chili, les assemblées décentralisées du mouvement d’occupation des places, l’antiracisme sans compromis des rébellions anti-policières, la joyeuse reconquête de l’espace public exprimée par Reclaim the Streets, les occupations de forêts de Hambach à Khimki, la ligne stratégique de Stop Cop City, et bien d’autres choses encore.

Creuser

La survie a commencé hier. Les habitants des pays qui ont déjà subi un effondrement, ainsi que les communautés autochtones et les communautés noires défavorisées du monde entier, ont déjà une longueur d’avance. Apprenez de ceux qui ont vécu ces expériences. Ensuite, apprenez à connaître intimement votre territoire. Apprenez d’où peut provenir la nourriture et quelles modifications devront être apportées aux habitations pendant les saisons les plus extrêmes en cas de panne du réseau électrique. Établissez des méthodes de communication et de coordination pour le cas où les téléphones et les connexions Internet ne fonctionneraient plus. Renseignez-vous sur les moyens d’accéder à de l’eau potable. Identifiez les lieux où le sol est le plus contaminé afin que personne ne puisse y cultiver de la nourriture. Apprenez à quel point les suprémacistes blancs sont coordonnés.

Et ensuite, mettez-vous au travail pour créer plus de ressources alimentaires communautaires, un meilleur accès au logement et plus de réseaux d’autodéfense collective. Soutenez tout projet qui vous inspire et qui nous rend tous plus forts, à la fois aujourd’hui et dans l’avenir probable, qu’il s’agisse d’un effondrement, d’une montée de l’autoritarisme ou d’une guerre civile révolutionnaire.

Se connecter à nos territoires spécifiques signifiera probablement rompre avec les idéologies homogénéisantes qui prétendent que nous sommes tous les mêmes, qui ne peuvent pas tenir compte du fait que nous avons tous des histoires et des besoins différents et que ces histoires sont parfois sources de conflits, ou qui basent leur idée de la transformation sociale sur un programme prédéterminé ou sur une certaine idée de l’unité forcée. L’avenir que nous devons créer est un écosystème sans centre.

Rêver en grand

La révolution est encore possible. Nous pouvons l’affirmer avec conviction parce que l’histoire nous livre certains modèles au fil des siècles, et aussi parce que nous entrons dans une période sans précédent, où les institutions dominantes utilisent des plans et des modèles qui sont déjà obsolètes.

Toutes les révolutions des derniers siècles ont finalement été des échecs. Cela signifie que nous pouvons en tirer des leçons sans bloquer notre imagination ou présumer que nous savons à quoi ressemblera une transformation réussie de l’ensemble de la société.

Elle ne découlera pas d’un plan prédéfini. Elle ne sera pas le résultat du triomphe d’un parti. Elle sera le résultat d’innombrables rêves, plans, complots, espoirs fous et batailles que nous ne pouvons pas encore prévoir. Nous y parviendrons ensemble, en rêvant sans cesse, en tricotant sans cesse, parce que c’est cela, vivre libre.


  1. NdT : la « menace éco-terroriste », pourrait-on dire. L’expression est reprise de red scare, la peur rouge, celle du communisme. Voir la page Wikipédia Green Scare. ↩︎

  2. J’examine des exemples de cette répression dans le monde et la manière dont elle est systématiquement liée au remplacement des mouvements radicaux par des courants réformistes dans The Solutions Are Already Here: Strategies for Ecological Revolution from Below et They Will Beat the Memory Out of Us: Forcing Nonviolence on Forgetful Movements. ↩︎


Publié le 17.03.2024 à 01:00

Bibliographie : aidez vos étudiants !

Dans ce court billet, je questionne le rapport à la gestion bibliographique dans l’enseignement supérieur. Souvent, les exigences de rendus (devoirs et rapports) précisent combien la présentation de la bibliographie est importante, alors qu’on néglige son apprentissage. Ne serait-ce pas souhaitable d’enseigner l’automatisation de la gestion bibliographique plutôt que de se contenter de distribuer des documents exhortant à reproduire des modèles plus ou moins fiables ?

Chacun sait combien il est important, lors de toute activité scientifique, d’être en mesure de citer des références bibliographiques. Les raisons sont multiples : la première consiste à prouver de cette manière dans quel domaine, dans quelle école de pensée, ou dans quelle discipline on souhaite inscrire ce qu’on est en train d’écrire. Une seconde raison consiste à démontrer la maîtrise du sujet qu’on prétend aborder, c’est-à-dire démontrer qu’une recherche préalable a été effectuée et permettre aux lecteur·ices de considérer la pertinence de l’argumentation. Une troisième raison concerne les sources qu’on utilise pour les besoins de l’argumentation. Ces sources doivent être convenablement citées de manière à ce que les lecteur·ices puissent s’y rapporter et juger ainsi de la fiabilité autant que de la scientificité de la démonstration.

C’est pourquoi l’apprentissage de la gestion bibliographique doit commencer très tôt dans la formation des étudiants. Elle doit faire partie intégrante des enseignements, et non se présenter comme un vague module optionnel offert par un service interne dont la plupart des étudiants ignorent l’existence. D’autant plus qu’une initiation ne demande pas énormément d’heures d’enseignement et reste d’autant plus efficace qu’elle est adaptée à la discipline concernée.

Elle est même nécessaire si on compare l’état de l’enseignement supérieur d’une vingtaine d’années plus tôt. Les étudiants ont aujourd’hui à rendre des travaux écrits qui demandent davantage de travail rédactionnel sous format numérique, en particulier les différents rapports d’activité ou de stage. Avec la progression des outils numériques, on attend des étudiants dès la première année une certaine maîtrise des logiciels bureautiques dans la préparation de documents longs. Or, bien que les formations du secondaire aient quelque peu progressé, très rares sont les étudiants qui, dès la première année, sont capables d’utiliser correctement un logiciel de traitement de texte comme LibreOffice dans cet objectif, car ils n’ont jamais eu à écrire de longs textes rigoureux. Les éléments à maîtriser sont, en vrac : la gestion des styles, la gestion des index, les règles de mise en page, la correction ortho-typographique, et… la bibliographie. Autant d’éléments dont on ne se souciait guère lorsqu’il s’agissait de rendre un devoir de 4 copies doubles manuscrites (dans le cas des études en humanités).

De même, très peu d’étudiants ont déjà mis en place, avec leurs propres compétences numériques, une sorte de chaîne éditoriale qui leur permettrait d’écrire, d’organiser leurs fichiers correctement et de gérer leur documentation. L’exemple de la gestion de prise de notes avec une méthodologie de type Zettelkasten, un format malléable comme le markdown (y compris avec des logiciels spécialisés permettant de saisir des mathématiques), des sorties d’exportation vers du PDF ou des formats .odt, docx, ou LaTeX… tout cela ne s’acquiert finalement qu’assez tard dans les études supérieures.

Pourtant, beaucoup de formations ont tendance à considérer ces questions comme étant annexes. Pire, elles incitent les étudiants à utiliser des outils tout intégrés et privateurs chez Microsoft et Google parce que les universités passent des marchés avec des prestataires, et non pour aider vraiment les étudiants à maîtriser les outils numériques. Dans ce contexte, la question de la gestion bibliographique devient vite un bazar :

  • les enseignants qui s’y collent ont souvent leurs propres (mauvaises) habitudes,
  • on s’intéresse à la présentation de la bibliographie uniquement, sans chercher à former l’étudiant à la gestion bibliographique,
  • les modèles proposés sont souvent complètement inventés, tirés de revues diverses, alors qu’une seule norme devrait servir de repère : ISO 690.

On constate que presque aucune université ou école française ne propose de style bibliographique à utiliser dans un format de type CSL (et ne parlons même pas de BibTeX). À la place on trouve tout un tas de documents téléchargeables à destination des étudiants. Ces documents ne se ressemblent jamais, proposent des styles très différents et, lorsque les rédacteurs y pensent, renvoient les étudiants aux logiciels de gestion bibliographique comme Zotero sans vraiment en offrir un aperçu, même succinct.

Prenons deux exemples : ce document de l’Université Paris 8 et ce document de l’Université de Lorraine. Seul le second mentionne « en passant » la question de l’automatisation de la gestion bibliographique et propose d’utiliser le style APA de l’Université de Montréal (en CSL). Mais les deux documents proposent des suites d’exemples qu’on peut s’amuser à comparer et deviner le désarroi des étudiants : les deux proposent un style auteur-date, mais ne sont pas harmonisés quand à la présentation. Il s’agit pourtant de deux universités françaises. Il y a pléthore de documents de cet acabit. Tous ne visent qu’à démontrer une chose : pourvu que la bibliographie soit présentée de manière normalisée, il est inutile de dresser des listes interminables d’exemples, mieux vaut passer du temps à apprendre comment automatiser et utiliser un style CSL une fois pour toute.

Ce qui se produit in fine, c’est une perte de temps monstrueuse pour chaque étudiant à essayer de faire ressembler sa liste bibliographique au modèle qui lui est présenté… et sur lequel il peut même être noté ! Et tout cela lorsqu’on ne lui présente pas plusieurs modèles différents au cours d’une même formation.

Je vais l’affirmer franchement : devrait se taire sur le sujet de la bibliographie qui n’est pas capable d’éditer un fichier CSL (en XML) correctement (en suivant la norme ISO 690), le donner à ses étudiants pour qu’ils s’en servent avec un logiciel comme Zotero et un plugin pour traitement de texte. À la limite, on peut accepter que savoir se servir d’un fichier CSL et montrer aux étudiants comment procéder pour l’utiliser peut constituer un pis-aller, l’essentiel étant de faciliter à la fois la gestion bibliographique et la présentation.

Oui, c’est élitiste ! mais à quoi servent les documents visant à montrer comment présenter une bibliographie s’ils ne sont pas eux-mêmes assortis du fichier CSL qui correspond à la présentation demandée ?

Ce serait trop beau de penser que les rédacteurs de tels documents proposent rigoureusement les mêmes exigences de présentation. Il y a toujours des variations, et souvent, pour une même ressource bibliographique, des présentations très différentes, voire pas du tout normalisées. S’il existe un tel flou, c’est pour ces raisons :

  1. la norme ISO (lorsqu’elle est respectée) permet toujours de petites variations selon la présentation voulue, et ces petites variations sont parfois interprétées comme autant de libertés que s’octroie arbitrairement le corps enseignant jusqu’à croire détenir le modèle ultime qui devient alors la « norme » à utiliser,
  2. toutes les bibliographies ne sont pas censées utiliser la méthode auteur-date (certains s’évertuent toujours à vouloir citer les références en notes de bas de page…), et le style APA fait tout de même dans les 400 pages,
  3. les abréviations ne sont pas toujours toutes autorisées,
  4. des questions ne sont pas toujours résolues de la même manière, par exemple : lorsqu’un document possède une URL, faut-il écrire : « [en ligne] », « URL », « DOI », « [consulté le xxx] », « [date de dernière consultation : xxx] »… etc.

Pour toutes ces raisons, on ne peut pas se contenter de donner aux étudiants un document illustratif, il faut les aider à automatiser la bibliographie et sa présentation de manière à ce que le document final soit harmonisé de manière efficace tout en permettant à l’étudiant de stocker ses références pour une utilisation ultérieure.

Pour finir, quelques liens :


Publié le 22.11.2023 à 01:00

Les IA génératives ? Jorge nous en parlait déjà

Les IA génératives. Sujet à la mode s’il en est. J’avoue qu’en la matière je n’y connais goutte sur le plan technique. Par contre à travers le tintamarre des médias à ce propos, on peut capter quelques bribes intéressantes et s’amuser à faire des parallèles. Ici, on va se référer au célèbre roman d’Umberto Eco, Le Nom de la Rose.


Les IA génératives c’est quoi ? ce sont des systèmes dits d’Intelligence Artificielle (cybernétiques pourrait-on dire), qui sont entraînés selon des modèles d’apprentissage sur des panels de données agrégées de différents types, les plus exhaustifs possibles, de manière à être capables de générer d’autres données. Notons que ces données sont générées à partir de ce qu’on donne « à manger » à l’entraînement. On pourra glauser sur les modèles en question, leurs puissances et leurs intérêts, toujours est-il que l’IA générative ne génère quelque chose qu’à partir de ce qu’elle connaît. Sa puissance combinatoire ne peut en aucun cas être de la même nature que notre intelligence à nous autres humains. J’arrête-là car nous entrons dans un débat philosophique qui risque de nous entraîner un peu trop loin et je voudrais, pour changer, faire un billet court.

J’ai pensé à cela lorsque j’écoutais ce matin Xavier Niel sur F. Inter, vantant son projet Kyutai, un projet de laboratoire ouvert en AI. Il parlait des IA génératives et trouvait cela géniâââl. Je le cite à peu près à 10'25 (de cette vidéo) : on agrège un maximum de données, par exemple tout ce qui s’est dit depuis 30 ans dans cette émission et quand vous allez me poser une question, je vais vous donner la meilleure réponse. Donc l’IA générative, c’est mixer des données et apporter les meilleures réponses.

C’est pas rien comme objectif tout de même. « Meilleure réponse », cela veut dire que la réponse n’est pas forcément exacte ou vraie mais qu’en l’état des connaissances disponibles on ne peut pas mieux faire. In extenso : les meilleures réponses ne s’obtiennent pas en réfléchissant à la question mais en réfléchissant à comment agréger et combiner pour générer l’information la plus pertinente. On ne s’intéresse plus aux connaisances disponibles (considérées comme un déjà-là disponible), mais aux modèles dont on choisira toujours le plus performant.

Allons plus loin, en prenant le scénario par l’absurde. Si les IA génératives apportent les meilleures réponses, on va finir par ne combiner que ces réponses. En effet, toute démarche visant à créer de la connaissance commence par distinguer les questions auxquelles on peut répondre (et vérifier) de celles qui restent sans réponse valide. Les sciences formulent des hypothèses et tentent d’en tirer des lois (grosso modo), mais si nous partons de la certitude que les meilleures réponses sont celles des IA génératives, c’est-à-dire une formulation idéale des connaissances disponibles, les hypothèses qu’un scientifique est censé émettre devront non seulement être des hypothèses plausibles au regard de ses connaissances à lui, mais aussi plausibles au regard de ce qui échapperait à l’IA générative (puisqu’elle donnerait toujours la meilleure réponse). Or, il n’y a déjà plus de place pour la conjecture puisque toute conjecture attend d’être vérifiée et il n’y a plus besoin de vérifier quoi que ce soit puisque nous avons déjà les meilleures réponses. Quand aux hypothèses, les seules qui seraient pertinentes pour l’avancement scientifique devront échapper à l’esprit humain car ce dernier, de manière à créer une hypothèse qui échapperait à la contre-hypothèse donnée par les « meilleures réponses », n’est pas capable d’agréger toutes les connaissances sur lesquelles un système d’IA peut être entraîné. De même la déductibilité à partir de ces hypothèses trouverait toujours une impossibiltié formelle si la « meilleure réponse » donne toujours tort à celui qui formule la déduction : ce qui fait un avancement scientifique, c’est un changement de paradigme, or si on reste toujours volontairement enfermé dans le même paradigme, aucune chance de révolutionner les sciences ni de faire des expérimentations cruciales (inutile puisque nous partons du principe que nous savons déjà tout ce qu’il faut savoir).

Je sais bien que je caricature et que je tire un peu trop loin les implications de l’expression « meilleure réponse ». Mais vous avez saisi l’idée générale. Pour l’avancement scientifique, l’utilisation des IA génératives nous promet de belles discussions épistémologiques. Et cela se double d’une aporie intéressante. En l’état actuel, si on part du principe exprimé par X. Niel selon lequel les IA génératives donnent les « meilleures réponses », toute IA générative devrait donc logiquement être entraînée sur la base de ces meilleures réponses pour être performantes, d’où la création de nouveaux modèles, et ainsi de suite. Si bien que les IA génératives vont finir par n’être nourries que par elles-mêmes. Bref, une gigantesque tautologie : 1=1.

Et puis, j’ai pensé au roman Le Nom de la Rose de Umberto Eco. Un ouvrage qui, chez moi, a fait tilt dans mon adolescence (je l’ai lu avant de voir le film à la TV, je n’avais rien compris, du coup je l’ai relu 3-4 fois par la suite, citations latines comprises). On y trouve ce personnage fascinant, le vénérable Jorge, doyen de l’abbaye, incarné dans le film par le magnifique Fiodor Chaliapin Jr., qui faisait vraiment peur ! À côté de lui, bouffant les pages empoisonnées du vrai-faux livre d’Aristote dans la bibliothèque à la lumière vacillante d’une bougie, les films de morts-vivants sont des blagues.

Bref, ce Jorge me fascinait, et surtout son discours qui dévoile le fin mot de l’intrigue. Pourquoi ce livre est-il interdit ? Non pas parce qu’il est censé être l’ouvrage perdu d’Aristote (le second tome de La Poétique, censé porter sur la comédie, alors que le premier porte sur la tragédie et que seule la tragédie est capable de catharsis, c’est-à-dire l’apprentissage des mœurs). Non pas parce que, portant sur la comédie, il porte sur la question du rire, propre de l’homme (même les saints hommes riaient ou avaient des situations comiques, cf. le passage du scriptorium dans le roman). Non pas enfin parce qu’il serait interdit de rire dans cette épouvantable abbaye.

Alors, pourquoi donc ? parce que le savoir authentique (la bibliothèque) n’est ni dynamique ni novateur, pour Jorge. L’important n’est pas ce qu’il y a d’écrit dans le livre, mais le fait même de vouloir chercher un livre qui n’est pas censé exister : la recherche du savoir doit se borner à ce qu’on peut tirer de la bibliothèque sous surveillance, car c’est un labyrinthe où seuls les initiés peuvent circuler et venir en retirer les bribes de savoirs jugés utiles aux simples lecteurs ou enlumineurs. Rien d’autre ne peut venir en surplus car qu’y a t-il de mieux, de plus sécurisant, que de savoir que tout le savoir est en un seul lieu et que toutes les questions y trouvent leurs réponses ? Pas de place au doute. C’est le sens de la « sublime récapitulation » dans le monologue de Jorge (cf. l’extrait ci-dessous).

Le rapport avec les IA générative ? la récapitulation. « Continue et sublime ». Voilà ce qu’est le monde des IA génératives. Elle ne sont novatrices que par leur propre nouveauté, mais elles nous mènent dans un monde où il ne peut plus y avoir d’innovation. Elles sont le reflet de ce début de siècle : nous cherchons des certitudes. Et qu’y a-t-il de plus sécurisant que de se persuader que les meilleures réponses sont dans le savoir déjà produit ?

Extrait :

« […] notre unique vraie richesse était l’observance de la règle, la prière et le travail. Mais de notre travail, du travail de notre ordre, et en particulier du travail de ce monastère fait partie – ou plutôt en est la substance – l’étude, et la garde du savoir. La garde, dis-je, pas la recherche, car le propre du savoir, chose divine, est d’être complet et défini dès le commencement, dans la perfection du verbe qui s’exprime à lui-même. La garde, dis-je, pas la recherche, car le propre du savoir, chose humaine, est d’avoir été défini et complété dans l’espace des siècles qui va de la prédication des prophètes à l’interprétation des Pères de l’Eglise. Il n’est point de progrès, il n’est point de révolution d’âges, dans les vicissitudes du savoir, mais au mieux une continue et sublime récapitulation. L’histoire de l’humanité marche d’un mouvement irrépressible depuis la création, à travers la rédemption, vers le retour du Christ triomphant, qui apparaîtra auréolé d’un nimbe pour juger les vivants et les morts, mais le savoir divin ne suit pas ce cours : immobile comme une forteresse indestructible, il nous permet, quand nous nous faisons humbles et attentifs à sa voix, de suivre, de prédire ce cours, sans en être entamé. »


Publié le 09.10.2023 à 02:00

Logiciel libre et anarchisme

Quels liens peut-on faire entre le mouvement pour le logiciel libre et l’anarchisme ? Se poser la question revient à s’interroger sur la place que nous réservons à la production des communs numériques dans la société. C’est aussi l’occasion de voir comment les mouvements peuvent converger et apprendre les uns des autres.

Table des matières


Cet article a été publié sur le Framablog, le 09/10/2023


Introduction

À travers le monde et à travers l’histoire, les mouvements anarchistes ont toujours subi la surveillance des communications. Interdiction des discours publics et rassemblements, arrestations d’imprimeurs, interceptions téléphoniques, surveillance numérique. Lorsque je parle ici de mouvements anarchistes, je désigne plutôt tous les mouvements qui contiennent des valeurs libertaires. Bien au-delà des anciennes luttes productivistes des mouvements ouvriers, anarcho-syndicalistes et autres, le fait est qu’aujourd’hui énormément de luttes solidaires et pour la justice sociale ont au moins un aspect anarchiste sans pour autant qu’elles soient issues de mouvements anarchistes « historiques ». Et lorsqu’en vertu de ce « déjà-là » anarchiste qui les imprègne les sociétés font valoir leurs libertés et leurs souhaits en se structurant en organes collectifs, les États et les organes capitalistes renforcent leurs capacités autoritaires dont l’un des aspects reconnaissables est le contrôle des outils numériques.

Cela aboutit parfois à des mélanges qu’on trouverait cocasses s’ils ne démontraient pas en même temps la volonté d’organiser la confusion pour mieux dénigrer l’anarchisme. Par exemple cette analyse lamentable issue de l’École de Guerre Économique, au sujet de l’emploi du chiffrement des communications, qui confond anarchisme et crypto-anarchisme comme une seule « idéologie » dangereuse. Or il y a bien une différence entre prémunir les gens contre l’autoritarisme et le contrôle numérique et souhaiter l’avènement de nouvelles féodalités ultra-capitalistes au nom dévoyé de la liberté. Cette confusion est d’autant plus savamment orchestrée qu’elle cause des tragédies. En France, l’affaire dite du 8 décembre 20201, sorte de remake de l’affaire Tarnac, relate les gardes à vue et les poursuites abusives à l’encontre de personnes dont le fait d’avoir utilisé des protocoles de chiffrement et des logiciels libres est déclaré suspect et assimilable à un comportement dont le risque terroriste serait avéré – en plus d’avoir lu des livres d’auteurs anarchistes comme Blanqui et Kropotkine. Avec de tels fantasmes, il va falloir construire beaucoup de prisons.

Le logiciel libre a pourtant acquis ses lettres de noblesses. Par exemple, si Internet fonctionne aujourd’hui, c’est grâce à une foule de logiciels libres. Ces derniers sont utilisés par la plupart des entreprises aujourd’hui et il n’y a guère de secteurs d’activités qui en soient exempts. En revanche, lorsqu’on considère l’ensemble des pratiques numériques basées sur l’utilisation de tels communs numériques, elles font très souvent passer les utilisateurs experts pour de dangereux hackers. Or, lorsque ces utilisations ont pour objectif de ne pas dépendre d’une multinationale pour produire des documents, de protéger l’intimité numérique sur Internet, de faire fonctionner des ordinateurs de manière optimale, ne sont-ce pas là des préoccupations tout à fait légitimes ? Ces projections établissent un lien, souvent péjoratif, entre logiciel libre, activité hacker et anarchisme. Et ce lien est postulé et mentionné depuis longtemps. Le seul fait de bricoler des logiciels et des machines est-il le seul rapport entre logiciel libre et anarchisme ? Que des idiots trouvent ce rapport suspect en fait-il pour autant une réalité tangible, un lien évident ?

Le logiciel libre comporte quatre libertés : celle d’utiliser comme bon nous semble le logiciel, celle de partager le code source tout en ayant accès à ce code, celle de le modifier, et celle de partager ces modifications. Tout cela est contractuellement formalisé par les licences libres et la première d’entre elles, la Licence Publique Générale, sert bien souvent de point de repère. L’accès ouvert au code combiné aux libertés d’usage et d’exploitation sont communément considérés comme les meilleurs exemples de construction de communs numériques et de gestion collective, et représentent les meilleures garanties contre l’exploitation déloyale des données personnelles (on peut toujours savoir et expertiser ce que fait le logiciel ou le service). Quelle belle idée que de concevoir le Libre comme la traduction concrète de principes anarchistes : la lutte contre l’accaparement du code, son partage collaboratif, l’autogestion de ce commun, l’horizontalité de la conception et de l’usage (par opposition à la verticalité d’un pouvoir arbitraire qui dirait seul ce que vous pouvez faire du code et, par extension, de la machine). Et tout cela pourrait être mis au service des mouvements anarchistes pour contrecarrer la surveillance des communications et le contrôle des populations, assurer la liberté d’expression, bref créer de nouveaux communs, avec des outils libres et une liberté de gestion.

Belle idée, partiellement concrétisée à maints endroits, mais qui recèle une grande part d’ombre. Sur les communs que composent les logiciels libres et toutes les œuvres libres (logiciels ou autres), prolifère tout un écosystème dont les buts sont en réalité malveillants. Il s’agit de l’accaparement de ces communs par des acteurs moins bien intentionnés et qui paradoxalement figurent parmi les plus importants contributeurs au code libre / open source. C’est que face à la liberté d’user et de partager, celle d’abuser et d’accaparer n’ont jamais été contraintes ni éliminées : les licences libres ne sont pas moralistes, pas plus qu’elles ne peuvent légitimer une quelconque autorité si ce n’est celle du contrat juridique qu’elles ne font que proposer. On verra que c’est là leur fragilité, nécessitant une identification claire des luttes dont ne peut se départir le mouvement du logiciel libre.

Collaboration sans pouvoir, contribution et partage : ce qui pourrait bien s’apparenter à de grands principes anarchistes fait-il pour autant des mouvements libristes des mouvements anarchistes et du logiciel libre un pur produit de l’anarchie ? Par exemple, est-il légitime que le système d’exploitation Android de Google-Alphabet soit basé sur un commun libre (le noyau Linux) tout en imposant un monopole et des contraintes d’usage, une surveillance des utilisateurs et une extraction lucrative des données personnelles ? En poussant un peu plus loin la réflexion, on constate que la création d’un objet technique et son usage ne sont pas censés véhiculer les mêmes valeurs. Pourtant nous verrons que c’est bien à l’anarchie que font référence certains acteurs du logiciel libre. Cette imprégnation trouve sa source principale dans le rejet de la propriété intellectuelle et du pouvoir qu’elle confère. Mais elle laisse néanmoins l’esprit anarchiste libriste recroquevillé dans la seule production technique, ouvrant la voie aux critiques, entre tentation libertarienne, techno-solutionnisme et mépris de classe. Sous certains aspects, l’éthique des hackers est en effet tout à fait fongible dans le néolibéralisme. Mais il y a pourtant un potentiel libertaire dans le libre, et il ne peut s’exprimer qu’à partir d’une convergence avec les luttes anticapitalistes existantes.

Des libertés fragiles

Avant d’entrer dans une discussion sur le rapport historique entre logiciel libre et anarchie, il faut expliquer le contexte dans lequel un tel rapport peut être analysé. Deux points de repère peuvent être envisagés. Le premier point de repère consiste à prendre en compte que logiciel libre et les licences libres proposent des développements et des usages qui sont seulement susceptibles de garantir nos libertés. Cette nuance a toute son importance. Le second point consiste à se demander, pour chaque outil numérique utilisé, dans quelle mesure il participe du capitalisme de surveillance, dans quelle mesure il ouvre une brèche dans nos libertés (en particulier la liberté d’expression), dans quelle mesure il peut devenir un outil de contrôle. C’est ce qui ouvre le débat de l’implication des mouvements libristes dans diverses luttes pour les libertés qui dépassent le seul logiciel en tant qu’objet technique, ou l’œuvre intellectuelle ou encore artistique placée sous licence libre.

Ce sont des techniques…

Il ne faut jamais perdre de vue que, en tant que supports de pensée, de communication et d’échanges, les logiciels (qu’ils soient libres ou non) les configurent en même temps2. C’est la question de l’aliénation qui nous renvoie aux anciennes conceptions du rapport production-machine. D’un point de vue marxiste, la technique est d’abord un moyen d’oppression aux mains des classes dominantes (l’activité travail dominée par les machines et perte ou éloignement du savoir technique). Le logiciel libre n’est pas exempt de causer cet effet de domination ne serait-ce parce que les rapports aux technologies sont rarement équilibrés. On a beau postuler l’horizontalité entre concepteur et utilisateur, ce dernier sera toujours dépendant, au moins sur le plan cognitif. Dans une économie contributive idéale du Libre, concepteurs et utilisateurs devraient avoir les mêmes compétences et le même degré de connaissance. Mais ce n’est généralement pas le cas et comme disait Lawrence Lessig, « Code is law »3.

Le point de vue de Simondon, lui, est tout aussi acceptable. En effet l’automatisation - autonomisation de la technique (émancipation par rapport au travail) suppose aussi une forme d’aliénation des possédants vis-à-vis de la technique4. Le capital permet la perpétuation de la technique dans le non-sens du travail et des comportements, leur algorithmisation, ce qui explique le rêve de l’usine automatisée, étendu à la consommation, au-delà du simple fait de se débarrasser des travailleurs (ou de la liberté des individus-consommateurs). Cependant la culture technique n’équivaut pas à la maîtrise de la technique (toujours subordonnée au capital). Censé nous livrer une culture technique émancipatrice à la fois du travail et du capital (la licence libre opposée à la propriété intellectuelle du « bien » de production qu’est le logiciel), le postulat libriste de l’équilibre entre l’utilisateur et le concepteur est dans les faits rarement accompli, à la fois parce que les connaissances et les compétences ne sont pas les mêmes (voir paragraphe précédent) mais aussi parce que le producteur lui-même dépend d’un système économique, social, technique, psychologique qui l’enferme dans un jeu de dépendances parfois pas si différentes de celles de l’utilisateur. L’équilibre peut alors être trouvé en créant des chaînes de confiance, c’est-à-dire des efforts collectifs de création de communs de la connaissance (formations, entraide, vulgarisation) et des communs productifs : des organisations à tendances coopératives et associatives capables de proposer des formules d’émancipation pour tous. Créer du Libre sans proposer de solutions collectives d’émancipation revient à démontrer que la liberté existe à des esclaves enchaînés tout en les rendant responsables de leurs entraves.

…Issues de la culture hacker

La culture hacker est un héritage à double tranchant. On a longtemps glorifié les communautés hackers des années 1960 et 1970 parce qu’elles sont à l’origine de l’aventure libératrice de l’ordinateur et des programmes hors du monde hiérarchisé de la Défense et de l’Université. Une sorte de « démocratisation » de la machine. Mais ce qu’on glorifie surtout c’est le mode de production informatique, celui qui a donné lieu aux grandes histoires des communautés qui partageaient la même éthique des libertés numériques et que Steven Lévy a largement popularisé en définissant les contours de cette « éthique hacker »5. Le projet GNU de R. M. Stallman, à l’origine dans les années 1980 de la Licence Publique Générale et de la formulation des libertés logicielles en droit, est surtout l’illustration d’une économie logicielle qui contraint la contribution (c’est la viralité de la licence copyleft) et promeut un mode de développement collectif. Ce qu’on retient aussi de la culture hacker, c’est la réaction aux notions de propriété intellectuelle et d’accaparement du code. On lui doit aussi le fait qu’Internet s’est construit sur des protocoles ouverts ou encore les concepts d’ouverture des formats. Pourtant l’état de l’économie logicielle et de l’Internet des plateformes montre qu’aujourd’hui nous sommes loin d’une éthique de la collaboration et du partage. Les enjeux de pouvoir existent toujours y compris dans les communautés libristes, lorsque par exemple des formats ou des protocoles sont imposés davantage par effet de nombre ou de mode que par consensus6.

Comme le montre très bien Sébastien Broca7, l’éthique hacker n’est pas une simple utopie contrariée. Issue de la critique antihiérarchique des sixties, elle a aussi intégré le discours néomanagérial de l’accomplissement individuel qui voit le travail comme expression de soi, et non plus du collectif. Elle a aussi suivi les transformations sociales qu’a entraîné le capitalisme de la fin du XXe siècle qui a remodelé la critique artistique des sixties en solutionnisme technologique dont le fleuron est la Silicon Valley. C’est Fred Tuner qui l’écrit si bien dans un ouvrage de référence, Aux sources de l’utopie numérique : de la contre culture à la cyberculture8. Et pour paraphraser un article récent de ma plume à son propos9 : quelle ironie de voir comment les ordinateurs sont devenus synonymes d’émancipation sociale et de rapprochements entre les groupes sociaux, alors qu’ils sont en même temps devenus les instruments du capitalisme, du nouveau management et de la finance (ce que Detlef Hartmann appelait l'offensive technologique10), aussi bien que les instruments de la surveillance et de la « société du dossier ». C’est bien en tant que « menaces sur la vie privée » que les dépeignaient les premiers détracteurs des bases de données gouvernementales et des banques à l’instar d’Alan Westin11 au soir des années 1960. Tout s’est déroulé exactement comme si les signaux d’alerte ne s’étaient jamais déclenchés, alors que depuis plus de 50 ans de nombreuses lois entendent réguler l’appétit vorace des plateformes. Pourquoi ? Fred Turner y répond : parce que la priorité avait été choisie, celle de transformer le personal is political12 en idéologie néolibérale par le biais d’une philosophie hacker elle-même dévoyée au nom de la liberté et de l’accomplissement de soi.

Des communs mal compris et mal protégés

Ces communs sont mal compris parce qu’ils sont la plupart du temps invisibilisés. La majorité des serveurs sur Internet fonctionnent grâce à des logiciels libres, des protocoles parmi les plus courants sont des protocoles ouverts, des systèmes d’exploitation tels Android sont en fait construits sur un noyau Linux, etc. De tout cela, la plupart des utilisateurs n’ont cure… et c’est très bien. On ne peut pas attendre d’eux une parfaite connaissance des infrastructures numériques. Cela plonge néanmoins tout le monde dans un univers d’incompréhensions.

D’un côté, il y a l’ignorance du public (et bien souvent aussi des politiques publiques) du fait que la majeure partie des infrastructures numériques d’aujourd’hui reposent sur des communs, comme l’a montré N. Egbhal13. Ce fait crée deux effets pervers : le ticket d’entrée dans la « nouvelle économie », pour une start-up dont le modèle repose sur l’exploitation d’un système d’information logiciel, nécessite bien moins de ressources d’infrastructure que dans les années 1990 au point que la quasi-exclusivité de la valeur ajoutée repose sur l’exploitation de l’information et non la création logicielle. Il en résulte un appauvrissement des communs (on les exploite mais on ne les enrichit pas14) et un accroissement de l’économie de plateforme au détriment des infrastructures elles-mêmes : pour amoindrir encore les coûts, on s’en remet toujours plus aux entreprises monopolistes qui s’occupent de l’infrastructure matérielle (les câbles, les datacenter). D’un autre côté, il y a le fait que beaucoup d’organisations n’envisagent ces communs numériques qu’à l’aune de la rentabilité et de la compromission avec la propriété productive, ce qui a donné son grain à moudre à l’Open Source Initiative et sa postérité, reléguant les libristes dans la catégorie des doux utopistes. Mais l’utopie elle-même a ses limites : ce n’est pas parce qu’un service est rendu par des logiciels libres qu’il est sécurisé, durable ou protège pour autant les utilisateurs de l’exploitation lucrative de leurs données personnelles. Tout dépend de qui exploite ces communs. Cela relève en réalité du degré de confiance qu’on est capable de prêter aux personnes et aux organisations qui rendent le service possible.

Les licences libres elles-mêmes sont mal comprises, souvent vécues comme un abandon de l’œuvre et un manque à gagner tant les concepts de la « propriété intellectuelle » imprègnent jusqu’à la dernière fibre le tissu économique dans lequel nous sommes plus ou moins contraints d’opérer. Cela est valable pour les logiciels comme pour les productions intellectuelles de tous ordres, et cela empêche aussi le partage là où il pourrait être le plus bénéfique pour tous, par exemple dans le domaine de la recherche médicale.

Au lieu de cela, on assiste à un pillage des communs15, un phénomène bien identifié et qui connaît depuis les années 2000 une levée en force d’organisations de lutte contre ce pillage, qu’il s’agisse des biens communs matériels (comme l’eau, les ressources cultivables, le code génétique…) ou immatériels (l’art, la connaissance, les logiciels…). C’est la raison pour laquelle la décentralisation et l’autogestion deviennent bien plus que de simples possibilités à opposer à l’accaparement général des communs, mais elles sont aussi autant de voies à envisager par la jonction méthodologique et conceptuelle des organisations libristes, de l’économie solidaire et des mouvements durabilistes16.

Le libre et ses luttes, le besoin d’une convergence

Alors si le Libre n’est ni l’alpha ni l’oméga, si le mouvement pour le logiciel Libre a besoin de réviser sa copie pour mieux intégrer les modèles de développement solidaires et émancipateurs, c’est parce qu’on ne peut manifestement pas les décorréler de quatre autres luttes qui structurent ou devraient structurer les mouvements libristes aujourd’hui.

Une lutte pour imposer de nouveaux équilibres en droit

Les licences libres et leurs domaines d’application, en particulier dans les communs immatériels, ont besoin de compétences et d’alliances pour ne plus servir d’épouvantail, de libre-washing ou, pire, être détournés au profit d’une lucrativité de l’accès ouvert (comme c’est le cas dans le monde des revues scientifiques). Elles ont aussi besoin de compétences et d’alliances pour être mieux défendues : même si beaucoup de juristes s’en sont fait une spécialité, leur travail est rendu excessivement difficile tant le cadre du droit est rigide et fonctionne en référence au modèle économique dominant.

Une lutte pour imposer de nouveaux équilibres en économie

Pouvons-nous sciemment continuer à fermer les yeux sur l’usage d’une soi-disant éthique hacker au nom de la liberté économique sachant qu’une grande part des modèles économiques qui reposent sur des communs immatériels ont un intérêt public extrêmement faible en proportion des capacités d’exploitation lucrative et de la prolétarisation17 qu’ils entraînent. Cela explique par exemple que des multinationales telles Intel et IBM ou Google et Microsoft figurent parmi les grands contributeurs au Logiciel libre et open source18 : ils ont besoin de ces communs19. Et en même temps, on crée des inégalités sociales et économiques : l’exploitation de main-d’œuvre bon marché (comme les travailleurs du clic20) dont se gavent les entreprises du numérique repose elle aussi sur des infrastructures numériques libres et open source. Les communs numériques ne devraient plus être les supports de ce capitalisme21.

Une lutte pour un rééquilibrage infrastructurel

Parce que créer du code libre ne suffit pas, encore faut-il s’assurer de la protection des libertés que la licence implique. En particulier la liberté d’usage. À quoi sert un code libre si je ne peux l’utiliser que sur une plateforme non libre ? à quoi sert un protocole ouvert si son utilisation est accaparée par des systèmes d’information non libres ? À défaut de pouvoir rendre collectifs les câbles sous-marins (eux-mêmes soumis à des contraintes géopolitiques), il est toutefois possible de développer des protocoles et des logiciels dont la conception elle-même empêche ces effets d’accaparement. Dans une certaine mesure c’est ce qui a été réalisé avec les applications du Fediverse22. Ce dernier montre que la création logicielle n’est rien si les organisations libristes ne se mobilisent pas autour d’un projet commun et imaginent un monde numérique solidaire.

Une lutte contre les effets sociaux du capitalisme de surveillance

Qu’il s’agisse du conformisme des subjectivités engendré par l’extraction et l’exploitation des informations comportementales (ce qui dure depuis très longtemps23) ou du contrôle des populations rendu possible par ces mêmes infrastructures numériques dont la technopolice se sert (entre autres), les communautés libristes s’impliquent de plus en plus dans la lutte anti-surveillance et anti-autoritaire. C’est une tradition, assurément, mais ce qu’il manque cruellement encore, c’est la multiplication de points de contact avec les autres organisations impliquées dans les mêmes luttes et qui, bien souvent, se situent sur la question bien plus vaste des biens communs matériels. Combien d’organisations et de collectifs en lutte dans les domaines durabilistes comme l’écologie, le partage de l’eau, les enjeux climatiques, en sont encore à communiquer sur des services tels Whatsapp alors qu’il existe des canaux bien plus protégés24 ? Réciproquement combien d’associations libristes capables de déployer des solutions et de les vulgariser ne parlent jamais aux durabilistes ou autres ? Or, penser les organisations libristes sur un mode solidaire et anti-capitaliste revient à participer concrètement aux luttes en faveur des biens communs matériels, créer des alliances de compétences et de connaissances pour rendre ces luttes plus efficaces.

Le (mauvais) calcul anarchiste

Il y a toute une littérature qui traite du rapport entre librisme et anarchisme. Bien qu’elle ne soit pas toujours issue de recherches académiques, cela n’enlève rien à la pertinence et la profondeur des textes qui ont toujours le mérite d’identifier les valeurs communes tels l’anti-autoritarisme de l’éthique hacker, le copyleft conçu comme une lutte contre la propriété privée, le partage, ou encore les libertés d’usage. Et ces valeurs se retrouvent dans de nombreuses autres sphères inspirées du modèle libriste25 et toutes anticapitalistes. Pour autant, l’éthique hacker ou l’utopie « concrète » du logiciel libre, parce qu’elles sont d’abord et avant tout des formes de pratiques technologiques, ne portent pas per se ces valeurs. Comme je l’ai mentionné plus haut, l’éthique hacker et les utopies plus ou moins issues de la tradition hippie des années 1960 et 1970 sont aussi dépositaires du capitalisme techno-solutionniste exprimé, pour les besoins de la cause, par l’idéologie de la Silicon Valley.

C’est ce point de tension qui a tendance aujourd’hui à causer la diffusion d’une conception binaire du lien entre anarchisme et philosophie hacker. Elle repose sur l’idée selon laquelle c’est l’anarchisme américain qui donne une part fondatrice à la philosophie hacker et qui crée en quelque sorte une opposition interne entre une faction « de gauche » attachée aux combats contre la propriété et une faction « de droite » fongible dans le capitalisme dans la mesure où c’est l’efficacité dans l’innovation qui emporte le reste, c’est-à-dire un anarchisme réduit à être un mode d’organisation de la production et un faire-valoir d’une liberté de lucrativité « décomplexée ».

C’est caricatural, mais la première partie n’est pas inexacte. En effet, nous parlons pour l’essentiel d’un mouvement né aux États-Unis et, qui plus est, dans une période où s’est structurée la Nouvelle Gauche Américaine en phase avec des mouvements libertaires et/ou utopistes issus de la génération anti-guerre des années 1950. Simultanément, les ordinateurs mainframe ont commencé à être plus accessibles dans les milieux universitaires et les entreprises, favorisant la naissance des communautés hackers dans un mouvement d’apprentissage, de partage de connaissances et de pratiques. Par la suite ces communautés se structurèrent grâce aux communications numériques, en particulier Internet, et s’agrandirent avec l’apparition de la microinformatique.

Se reconnaissent-elles dans l’anarchisme ? Même si ses pratiques sont anarchistes, un collectif n’a nul besoin de se reconnaître en tant que tel. Il peut même ne pas en avoir conscience. C’est donc du côté des pratiques et in situ qu’il faut envisager les choses. Les communautés hacker sont issues d’une conjonction historique classique entre la cristallisation des idées hippies et libertaires et l’avènement des innovations techniques qui transforment alors radicalement l’économie (les systèmes d’information numériques). Cela crée par effet rétroactif des communautés qui génèrent elles-mêmes des objets techniques en se réappropriant ces innovations, et en changeant à leur tour le paysage économique en proposant d’autres innovations. On pense par exemple aux Bulletin Board Systems (par exemple le projet Community Memory, premier forum électronique géant et collaboratif), aux systèmes d’exploitation (comment Unix fut créé, ou comment Linux devint l’un des plus grands projets collaboratifs au monde), à des logiciels (le projet GNU), etc. Toutes ces pratiques remettent en cause la structure autoritaire (souvent académique) de l’accès aux machines, provoquent une démocratisation des usages informatiques, incarnent des systèmes de collaboration fondés sur le partage du code et des connaissances, permettent l’adoption de pratiques de prise de décision collective, souvent consensuelles. Couronnant le tout, l’apparition de la Licence Publique Générale initiée par Richard M. Stallman et Eben Moglen avec la Free Software Foundation propose une remise en question radicale de la propriété intellectuelle et du pouvoir qu’elle confère.

Le rapport avec l’anarchisme est de ce point de vue exprimé à maintes reprises dans l’histoire des communautés hacker. On y croise très souvent des références. Dans la biographie de Richard M. Stallman26, par exemple, le AI Lab qui devient le haut lieu de la « Commune Emacs », est décrit ainsi : « La culture hacker qui y régnait et sa politique d’anarchie allaient conférer au lieu l’aura d’éternel rebelle ». Plus loin dans le même livre, E. Moglen se remémore sa rencontre avec R. M. Stallman qu’il décrit comme la rencontre de deux anarchistes. Inversement, R. M. Stallman ne s’est jamais défini comme un anarchiste. Il va même jusqu’à soutenir que le logiciel libre est un mélange de communisme (au sens d’appropriation collective de la production), de capitalisme « éthique » (pouvoir en tirer des avantages lucratifs tant qu’on respecte les libertés des autres), et d’anarchisme (réduit à la liberté de contribuer ou non et d’user comme on veut)27.

Une approche fondée sur une enquête plus solide montre néanmoins que les principes anarchistes ne sont pas considérés comme de simples étiquettes dans les communautés hacker d’aujourd’hui. Menée au cœur des communautés libristes californiennnes, l’enquête de Michel Lallement dans L’âge du faire28 montre une typologie intéressante chez les hackers entre les « pur jus », parmi les plus anciens le plus souvent des hommes au charisme de leader ou de gourous et qui se réclament d’un certain radicalisme anarchiste (sur lequel je vais revenir plus loin) et la masse plus diffuse, plus ou moins concernée par l’aspect politique. Majoritaires sont cependant ceux qui ont tendance à la compromission, jusqu’au point où parfois le travail à l’intérieur de la communauté est valorisé dans l’exercice même de la réussite capitaliste à l’extérieur. J’irais même jusqu’à dire, pour en avoir côtoyé, que certains voient dans le hacking et l’éthique hacker une sorte d’exutoire de la vie professionnelle étouffée par l’économie capitaliste.

Sur l’aspect proprement américain, ce qui est surtout mis en avant, c’est l’opposition entre la bureaucratie (entendue au sens de l’action procédurière et autoritaire) et l’anarchisme. À l’image des anciennes communautés hacker calquées sur l’antique Homebrew Club, ce refus de l’autorité institutionnelle s’apparente surtout à une forme de potacherie corporatiste. Le point commun des communautés, néanmoins, consiste à s’interroger sur les process de prise de décision communautaire, en particulier la place faite au consensus : c’est l’efficacité qui est visée, c’est-à-dire la meilleure façon de donner corps à une délibération collective. C’est ce qui permet de regrouper Noisebridge, MetaLab ou le Chaos Computer Club. Certes, au point de vue du fonctionnement interne, on peut invoquer beaucoup de principes anarchistes. Une critique pointerait cependant que ces considérations restent justement internalistes. On sait que le consensus consolide le lien social, mais la technologie et les savoir-faire ont tendance à concentrer la communauté dans une sorte d’exclusion élective : diplômée, issue d’une classe sociale dominante et bourgeoise, en majorité masculine (bien que des efforts soient menés sur la question du genre).

Si nous restons sur le plan internaliste, on peut tenter de comprendre ce qu’est ce drôle d’anarchisme. Pour certains auteurs, il s’agit de se concentrer sur l’apparente opposition entre libre et open source, c’est-à-dire le rapport que les communautés hacker entretiennent avec le système économique capitaliste. On peut prendre pour repères les travaux de Christian Imhorst29 et Dale A. Bradley30. Pour suivre leur analyse il faut envisager l’anarchisme américain comme il se présentait à la fin des années 1970 et comment il a pu imprégner les hackers de l’époque. Le sous-entendu serait que cette imprégnation perdure jusqu’à aujourd’hui. Deux étapes dans la démonstration.

En premier lieu, la remise en cause de la propriété et de l’autorité est perçue comme un radicalisme beaucoup plus fortement qu’elle ne pouvait l’être en Europe au regard de l’héritage de Proudhon et de Bakhounine. Cela tient essentiellement au fait que la structuration du radicalisme américain s’est établie sur une réverbération du bipartisme américain. C’est ce qu’analyse bien en 1973 la chercheuse Marie-Christine Granjon au moment de l’éveil de la Nouvelle Gauche aux États-Unis : chasser les radicaux du paysage politique en particulier du paysage ouvrier dont on maintenait un niveau de vie (de consommation) juste assez élevé pour cela, de manière à « maintenir en place la structure monopolistique de l’économie sur laquelle repose le Welfare State — l’État des monopoles, des managers, des boss du monde syndical et de la politique —, pour protéger cette Amérique, terre de l’égalité, de la liberté et de la poursuite du bonheur, où les idéologies n’avaient plus de raison d’être, où les radicaux étaient voués à la marginalité et tolérés dans la mesure de leur inaction et de leur audience réduite »31. En d’autres termes, être radical c’est être contre l’État américain, donc soit contre le bien-être du peuple et ses libertés, soit le contraire (et chercher à le démontrer), mais en tout cas, contre l’État américain.

En second lieu, la dichotomie entre anarchisme de droite et anarchisme de gauche pourrait se résumer à la distinction entre libertariens et communautaires anticapitalistes. Ce n’est pas le cas. Mais c’est ainsi que posent les prémisses du problème C. Imhorst comme D. A. Bradley et avec eux beaucoup de ceux qui réduisent la distinction open-source / librisme. Sur ce point on reprend souvent la célèbre opposition entre les grandes figures des deux « camps », d’un côté R. M. Stallman, et de l’autre côté Eric S. Raymond, auteur de La Cathédrale et le bazar, évangéliste du marché libre ne retenant de la pensée hacker que l’efficacité de son organisation non hiérarchique. Cette lecture binaire de l’anarchisme américain, entre droite et gauche, est exprimée par David DeLeon en 1978 dans son livre The American as Anarchist32, assez critiqué pour son manque de rigueur à sa sortie, mais plusieurs fois réédité, et cité de nombreuses fois par C. Imhorst. Dans la perspective de DeLeon, l’anarchisme américain est essentiellement un radicalisme qui peut s’exprimer sur la droite de l’échiquier politique comme le libertarianisme, profondément capitaliste, individualiste-propriétariste et contre l’État, comme sur la gauche, profondément anticapitaliste, communautaire, contre la propriété et donc aussi contre l’État parce qu’il protège la propriété et reste une institution autoritaire. En écho, réduire le mouvement libriste « radical » à la figure de R. M. Stallman, et l’opposer au libertarianisme de E. S. Raymond, revient à nier toutes les nuances exprimées en quarante ans de débats et de nouveautés (prenons simplement l’exemple de l’apparition du mouvement Creative Commons).

Le but, ici, n’est pas tant de critiquer la simplicité de l’analyse, mais de remarquer une chose plus importante : si le mouvement hacker est perçu comme un radicalisme aux États-Unis dès son émergence, c’est parce qu’à cette même époque (et c’est pourquoi j’ai cité deux références de l’analyse politique des années 1970) le radicalisme est conçu hors du champ politique bipartite, contre l’État, et donc renvoyé à l’anarchisme. En retour, les caractéristiques de l’anarchisme américain offrent un choix aux hackers. Ce même choix qui est exprimé par Fred Turner dans son analyse historique : comment articuler les utopies hippies de la Nouvelle Gauche avec la technologie d’un côté, et le rendement capitaliste de l’autre. Si on est libertarien, le choix est vite effectué : l’efficacité de l’organisation anarchiste dans une communauté permet de s’affranchir de nombreux cadres vécus comme des freins à l’innovation et dans la mesure où l’individualisme peut passer pour un accomplissement de soi dans la réussite économique, la propriété n’a aucune raison d’être opposée au partage du code et ce partage n’a pas lieu de primer sur la lucrativité.

Considérer le mouvement pour le logiciel libre comme un mouvement radical est une manière d’exacerber deux positions antagonistes qui partent des mêmes principes libertaires et qui aboutissent à deux camps, les partageux qui ne font aucun compromis et les ultra-libéraux prêts à tous les compromis avec le capitalisme. On peut néanmoins suivre D. A. Bradley sur un point : le logiciel libre propose à minima la réorganisation d’une composante du capitalisme qu’est l’économie numérique. Si on conçoit que la technologie n’est autre que le support de la domination capitaliste, penser le Libre comme un radicalisme reviendrait en fait à une contradiction, celle de vouloir lutter contre les méfaits de la technologie par la technologie, une sorte de primitivisme qui s’accommoderait d’une éthique censée rendre plus supportable le techno-capitalisme. Or, les technologies ne sont pas intrinsèquement oppressives. Par exemple, les technologies de communication numérique, surtout lorsqu’elles sont libres, permettent la médiatisation sociale tout en favorisant l’appropriation collective de l’expression médiatisée. Leurs licences libres, leurs libertés d’usages, ne rendent pas ces technologies suffisantes, mais elles facilitent l’auto-gestion et l’émergence de collectifs émancipateurs : ouvrir une instance Mastodon, utiliser un système de messagerie sécurisée, relayer les informations anonymisées de camarades qui subissent l’oppression politique, etc.

L’anarchisme… productiviste, sérieusement ?

Le Libre n’est pas un existentialisme, pas plus que l’anarchisme ne devrait l’être. Il ne s’agit pas d’opposer des modes de vie où le Libre serait un retour idéaliste vers l’absence de technologie oppressive. Les technologies sont toujours les enfants du couple pouvoir-connaissance, mais comme disait Murray Bookchin, si on les confond avec le capitalisme pour en dénoncer le caractère oppresseur, cela revient à «  masquer les relations sociales spécifiques, seules à même d’expliquer pourquoi certains en viennent à exploiter d’autres ou à les dominer hiérarchiquement ». Il ajoutait, à propos de cette manière de voir : « en laissant dans l’ombre l’accumulation du capital et l’exploitation du travail, qui sont pourtant la cause tant de la croissance que des destructions environnementales, elle ne fait ainsi que leur faciliter la tâche. »33

Le rapport entre le libre et l’anarchisme devrait donc s’envisager sur un autre plan que l’opposition interne entre capitalistes et communistes et/ou libertaires (et/ou commonists), d’autant plus que ce type de brouillage n’a jusqu’à présent fait qu’accréditer les arguments en faveur de la privatisation logicielle aux yeux de la majorité des acteurs de l’économie numérique34. Ce rapport devrait plutôt s’envisager du point de vue émancipateur ou non par rapport au capitalisme. De ce point de vue, exit les libertariens. Mais alors, comme nous avons vu que pour l’essentiel l’anarchisme libriste est un mode de production efficace dans une économie contributive (qui devrait être néanmoins plus équilibrée), a-t-il quelque chose de plus ?

Nous pouvons partir d’un autre texte célèbre chez les libristes, celui d’Eben Moglen, fondateur du Software Freedom Law Center, qui intitulait puissamment son article : « L’anarchisme triomphant : le logiciel libre et la mort du copyright »35. Selon lui, le logiciel conçu comme une propriété crée un rapport de force dont il est extrêmement difficile de sortir avec les seules bonnes intentions des licences libres. E. Moglen prend l’exemple du très long combat contre la mainmise de Microsoft sur les ordinateurs neufs grâce à la vente liée, et nous n’en sommes pas complètement sortis. Aujourd’hui, nous pourrions prendre bien d’autres exemples qui, tous, sont le fait d’alliances mondialisées et de consortiums sur-financiarisés de fabricants de matériel et de fournisseurs de services. Il faut donc opposer à cette situation une nouvelle manière d’envisager la production et la créativité.

Code source et commentaires désignent le couple entre fonctionnalité et expressivité des programmes. En tant que tels, ils peuvent être considérés comme autant de preuves que le travail intellectuel nécessaire à l’élaboration d’un programme n’est pas uniquement le fait de travailler sur des algorithmes mais aussi en inventer les propriétés. Dès lors, on peut comprendre que le copyright puisse s’appliquer à plein. Dès l’instant que les ordinateurs ont cessé d’être des machines centrales aux coûts extrêmement élevés, et que pour les faire fonctionner les logiciels ont cessé d’être donnés (car le coût marginal de la création logicielle était faible en comparaison du coût de fabrication d’une grosse machine), l’ordinateur personnel a multiplié mécaniquement le besoin de réaliser des plus-values sur le logiciel et enfermé ce dernier dans une logique de copyright. Seulement voilà : lorsqu’une entreprise (par exemple Microsoft) exerce un monopole sur le logiciel, bien qu’elle puisse embaucher des centaines de développeurs, elle ne sera jamais en mesure d’adapter, tester à grande échelle, proposer des variations de son logiciel en quantités suffisantes pour qu’il puisse correspondre aux besoins qui, eux, ont tendance à se multiplier au fur et à mesure que les ordinateurs pénètrent dans les pratiques sociales et que la société devient un maillage en réseau. Si bien que la qualité et la flexibilité des logiciels privateurs n’est jamais au rendez-vous. Si ce défaut de qualité passe souvent inaperçu, c’est aux yeux de l’immense majorité des utilisateurs qui ne sont pas techniciens, et pour lesquels les monopoles créent des cages d’assistanat et les empêche (par la technique du FUD) d’y regarder de plus près. Après tout, chacun peut se contenter du produit et laisser de côté des défauts dont il peut toujours (essayer de) s’accommoder.

En somme, les utilisateurs ont été sciemment écartés du processus de production logicielle. Alors qu’à l’époque plus ancienne des gros ordinateurs, on adaptait les logiciels aux besoins et usages, et on pouvait les échanger et les améliorer en partant de leur utilisation. Or, l’histoire des sciences et des technologies nous apprend que l’avancement des sciences et technologies dépendent d’apprentissages par la pratique, d’appropriations collectives de l’existant, d’innovation par incrémentation et implications communautaires (c’est ce qu’ont montré David Edgerton36 et Clifford Conner37). En ce sens, le modèle économique des monopoles du logiciel marche contre l’histoire.

C’est de ce point de vue que le logiciel libre peut être envisagé non seulement comme la production d’un mouvement de résistance38, mais aussi comme un mode de production conçu avant tout comme une réaction à la logique marchande, devant lutter sans cesse contre la « plasticité du capitalisme » (au sens de F. Braudel39), avec des résultats plus ou moins tangibles. Même si la question de l’écriture collective du code source mériterait d’être mieux analysée pour ses valeurs performatives intrinsèques40.

Comme le dit Eben Moglen racontant le projet GNU de R. M. Stallman : le logiciel libre pouvait « devenir un projet auto-organisé, dans lequel aucune innovation ne serait perdue à travers l’exercice des droits de propriété ». Depuis le milieu des années 1980 jusqu’à la fin des années 1990, non seulement des logiciels ont été produits de manière collective en dehors du copyright, mais en plus de cela, des systèmes d’exploitation comme GNU Linux aux logiciels de serveurs et à la bureautique, leur reconnaissance par l’industrie elle-même (normes et standards) s’est imposée à une échelle si vaste que le logiciel libre a bel et bien gagné la course dans un monde où la concurrence était faussée si l’on jouait avec les mêmes cartes du copyright.

C’est ce qui fait dire à Eben Moglen que « lorsqu’il est question de faire de bons logiciels, l’anarchisme gagne ». Il oppose deux choses à l’industrie copyrightée du logiciel :

  • les faits : le logiciel libre est partout, il n’est pas une utopie,
  • le mode de production : l’anarchisme est selon lui la meilleure « organisation » de la production.

Reste à voir comment il conçoit l’anarchisme. Il faut confronter ici deux pensées qui sont contemporaines, celle d’Eben Moglen et celle de Murray Bookchin. Le second écrit en 1995 que le mot « anarchisme » allait bientôt être employé comme catégorie d’action bourgeoise41 :

«  les objectifs révolutionnaires et sociaux de l’anarchisme souffrent d’une telle dégradation que le mot « anarchie » fera bientôt partie intégrante du vocabulaire chic bourgeois du siècle à venir : une chose quelque peu polissonne, rebelle, insouciante, mais délicieusement inoffensive ».

Bookchin écrivait aussi « Ainsi, chez nombre d’anarchistes autoproclamés, le capitalisme disparaît, remplacé par une « société industrielle » abstraite. »

Mais d’un autre côté, à peine six ans plus tard, il y a cette volonté d’E. Moglen d’utiliser ce mot et d’entrer en confrontation assez directe avec ce que M. Bookchin disait de la tendance new age férue d’individualisme et de primitivisme et qui n’avait plus de rien de socialiste. En fin de compte, si on conçoit avec E. Moglen l’anarchisme comme un mode de production du logiciel libre, alors on fait aussi une jonction entre la lutte contre le modèle du monopole et du copyright et la volonté de produire des biens numériques, à commencer par des logiciels, tout en changeant assez radicalement l’organisation sociale de la production contre une machinerie industrielle. Et cette lutte n’a alors plus rien d’abstrait. La critique de M. Bookchin, était motivée par le fait que l’anarchisme s’est transformé des années 1970 aux années 1990 et a fini par dévoyer complètement les théories classiques de l’anarchisme au profit d’une culture individualiste et d’un accomplissement de soi exclusif. Le logiciel libre, de ce point de vue, pourrait avoir le mérite de resituer l’action anarchiste dans un contexte industriel (la production de logiciels) et social (les équilibres de conception et d’usage entre utilisateurs et concepteurs).

Et l’État dans tout cela ? est-il évacué de l’équation ? Ces dernières décennies sont teintées d’un néolibéralisme qui façonne les institutions et le droit de manière à créer un espace marchand où les êtres humains sont transformés en agents compétitifs. La production communautaire de logiciel libre ne serait-elle qu’un enfermement dans une plasticité capitaliste telle qu’elle intègre elle-même le mode de production anarchiste du libre dans une compétition dont le grand gagnant est toujours celui qui réussit à piller le mieux les communs ainsi produits ? Car si c’est le cas, alors M. Bookchin avait en partie raison : l’anarchisme n’a jamais pu résoudre la tension entre autonomie individuelle et liberté sociale autrement qu’en se contentant de s’opposer à l’autorité et à l’État, ce qu’on retrouve dans la reductio de l’anarchisme des libertariens – et contre cela M. Bookchin propose un tout autre programme, municipaliste et environnementaliste. Or, si on suit E. Moglen, on ne perçoit certes pas d’opposition frontale contre l’État, mais dans un contexte néolibéral, les monopoles industriels ne peuvent-ils pas être considérés comme les nouvelles figures d’opposition d’autorité et de pouvoir ?

Pour ma part, je pense que qu’État et monopoles se contractent dans le capitalisme de surveillance, un Léviathan contre lequel il faut se confronter. Toute la question est de savoir à quelle société libertaire est censé nous mener le logiciel libre. J’ai bien l’impression que sur ce point les libristes old school qui s’autoproclament anarchistes se trompent : ce n’est pas parce que le mouvement du logiciel libre propose une auto-organisation de la production logicielle et culturelle, contre les monopoles mais avec une simple injonction à l’émancipation, que cela peut déboucher sur un ordre social libertaire.

Là où le logiciel libre pourrait se réclamer de l’anarchisme, c’est dans le fait qu’il propose une très forte opposition aux institutions sociales oppressives que sont les monopoles et l’État, mais seulement à partir du moment où on conçoit le mouvement du logiciel libre non comme un mode de production anarchiste, mais comme un moment qui préfigure42 un ordre social parce qu’il s’engage dans une lutte contre l’oppression tout en mettant en œuvre un mode de production alternatif, et qu’il constitue un modèle qui peut s’étendre à d’autres domaines d’activité (prenons l’exemple des semences paysannes). Et par conséquent il devient un modèle anarchiste.

Si on se contente de n’y voir qu’un mode de production, le soi-disant anarchisme du logiciel libre est voué à n’être qu’un modèle bourgeois (pour reprendre l’idée de M. Bookchin), c’est à dire dénué de projet de lutte sociale, et qui se contente d’améliorer le modèle économique capitaliste qui accapare les communs : il devient l’un des rouages de l’oppression, il n’est conçu que comme une utopie « bourgeoisement acceptable ». C’est-à-dire un statut duquel on ne sort pas ou bien les pieds devant, comme un mode de production que le néomanagement a bel et bien intégré. Or, s’il y a une lutte anarchiste à concevoir aujourd’hui, elle ne peut pas se contenter d’opposer un modèle de production à un autre, elle doit se confronter de manière globale au capitalisme, son mode de production mais aussi son mode d’exploitation sociale.

Les limites de l’anarchisme utopique du Libre ont été révélées depuis un moment déjà. L’Electronic Frontier Foundation (où Eben Moglen officie) le reconnaît implicitement dans un article de mai 2023 écrit par Cory Doctorow et publié par l’EFF43 :

« Alors que les régulateurs et les législateurs réfléchissent à l’amélioration de l’internet pour les êtres humains, leur priorité absolue devrait être de redonner du pouvoir aux utilisateurs. La promesse d’Internet était de supprimer les barrières qui se dressaient sur notre chemin : la distance, bien sûr, mais aussi les barrières érigées par les grandes entreprises et les États oppressifs. Mais les entreprises ont pris pied dans cet environnement de barrières abaissées, se sont retournées et ont érigé de nouvelles barrières de leur côté. Des milliards d’entre nous se sont ainsi retrouvés piégés sur des plateformes que beaucoup d’entre nous n’aiment pas, mais qu’ils ne peuvent pas quitter. »

Il faut donc des alternatives parce que les acteurs qui avaient promis de rendre les réseaux plus ouverts (le Don’t be evil de Google) ont non seulement failli mais, en plus, déploient des stratégies juridiques et commerciales perverses pour coincer les utilisateurs sur leurs plateformes. Dès lors, on voit bien que le problème qui se pose n’est pas d’opposer un mode de production à un autre, mais de tenter de gagner les libertés que le capitalisme de surveillance contient et contraint. On voit aussi que depuis 2001, les problématiques se concentrent surtout sur les réseaux et le pouvoir des monopoles. Là, on commence à toucher sérieusement les questions anarchistes. Dès lors l’EFF propose deux principes pour re-créer un Internet « d’intérêt public » :

  • le chiffrement de bout en bout et la neutralité du Net,
  • contourner les grandes plateformes.

Faut-il pour autant, comme le propose Kristin Ross44, pratiquer une sorte d’évacuation générale et se replier, certes de manière constructive, sur des objets de lutte plus fondamentaux, au risque de ne concevoir de lutte pertinente que des luttes exclusives, presque limitées à la paysannerie et l’économie de subsistance ? Je ne suis pas d’accord. Oui, il faut composer avec l’existant mais dans les zones urbaines, les zones rurales comme dans le cyberespace on peut préfigurer des formes d’organisation autonomes et des espaces à défendre. Le repli individualiste ou collectiviste-exclusif n’est pas une posture anarchiste. Premièrement parce qu’elle n’agit pas concrètement pour les travailleurs, deuxièmement parce que cela revient à abandonner ceux qui ne peuvent pas pratiquer ce repli de subsistance au risque de ce qu’on reprochait déjà aux petits-bourgeois communautaires hippies des années 1970, et troisièmement enfin, parce que je ne souhaite pas vivre dans une économie de subsistance, je veux vivre dans l’abondance culturelle, scientifique et même technique et donc lutter pour un nouvel ordre social égalitaire général et pas réservé à ceux qui feraient un choix de retrait, individuel et (il faut le reconnaître) parfois courageux.

Alors, vers quel anarchisme se diriger ?

Le potentiel libertaire de la technologie

En 1971, Sam Dolgoff publie un article sans concession dans la petite revue Newyorkaise Libertarian Analysis. L’article fut ensuite tiré à part à plusieurs reprises si bien que, sous le titre The Relevance of Anarchism to Modern Society45, le texte figure parmi les must read de la fin des années 1970. Dolgoff y décrit l’état de l’anarchisme dans une société prise dans les contradictions de la contre-culture des années 1960, et dont les effets se rapportent à autant de conceptions erronées de l’anarchisme qui se cristallisent dans un « néo-anarchisme » bourgeois discutable. Ce contre quoi S. Dolgoff avance ses arguments est l’idée selon laquelle l’anarchisme « filière historique » serait dépassé étant donné la tendance mondiale vers la centralisation économique, fruit des récents développements des sciences et des techniques, une sorte de fin de l’histoire (avant l’heure de celle de Fukuyama en 1992) contre laquelle on ne pourrait rien. Le sous-entendu met en avant la contradiction entre le positivisme dont s’inspire pourtant l’anarchisme de Proudhon à Bakounine, c’est-à-dire le développement en soi émancipateur des sciences et des techniques (à condition d’une éducation populaire), et le fait que cet élan positiviste a produit une mondialisation capitaliste contre laquelle aucune alternative anarchiste n’a pu s’imposer. Le réflexe social qu’on retrouve dans le mouvement contre-culturel des années 1960 et 1970, associé à ce que S. Dolgoff nomme le néo-anarchisme (bourgeois)46 (et qui sera repris en partie par M. Bookchin plus tard), amène à penser l’anarchisme comme une réaction à cette contradiction et par conséquent un moment de critique de l’anarchisme classique qui n’envisagerait pas correctement la complexité sociale, c’est-à-dire la grande diversité des nuances entre compromission et radicalisme, dans les rapports modernes entre économie, sciences, technologies et société. Ce qui donne finalement un anarchisme réactionnaire en lieu et place d’un anarchisme constructif, c’est-à-dire une auto-organisation fédéraliste qui accepte ces nuances, en particulier lors de l’avènement d’une société des médias, du numérique et de leur mondialisation (en plus des inégalités entre les pays).

Or, S. Dolgoff oppose à cette idée pessimiste le fait que la pensée anarchiste a au contraire toujours pris en compte cette complexité. Cela revient à ne justement pas penser l’anarchisme comme une série d’alternatives simplistes au gouvernementalisme (le contrôle de la majorité par quelques-uns). Il ne suffit pas de s’opposer au gouvernementalisme pour être anarchiste. Et c’est pourtant ce que les libertariens vont finir par faire, de manière absurde. L’anarchisme, au contraire a toujours pris en compte le fait qu’une société anarchiste implique une adaptation des relations toujours changeantes entre une société et son environnement pour créer une dynamique qui recherche équilibre et harmonie indépendamment de tout autoritarisme. Dès lors les sciences et techniques ont toujours été des alliées possibles. Pour preuve, cybernétique et anarchisme ont toujours fait bon ménage, comme le montre T. Swann dans un article au sujet de Stafford Beer, le concepteur du projet Cybersyn au Chili sous la présidence S. Allende47 : un mécanisme de contrôle qui serait extérieur à la société implique l’autoritarisme et un contrôle toujours plus contraignant, alors qu’un mécanisme inclus dans un système auto-organisé implique une adaptation optimale au changement48. L’optimisation sociale implique la décentralisation, c’est ce qu’ont toujours pensé les anarchistes. En ce sens, les outils numériques sont des alliés possibles.

En 1986, quinze ans après son article de 1971, dans le premier numéro de la revue qu’il participe à fonder (la Libertarian Labor Review), S. Dolgoff publie un court article intitulé « Modern Technology and Anarchism »49. Il revient sur la question du lien entre l’anarchisme et les nouvelles technologies de communication et d’information qu’il a vu naître et s’imposer dans le mouvement d’automatisation de l’industrie et plus généralement dans la société. Les réseaux sont pour lui comme un pharmakon (au sens de B. Stiegler), ils organisent une dépossession par certains aspects mais en même temps peuvent être des instruments d’émancipation.

Cet article de 1986 est quelque peu redondant avec celui de 1971. On y retrouve d’ailleurs à certains endroits les mêmes phrases et les mêmes idées. Pour les principales : il y a un déjà-là anarchiste, et la société est un réseau cohérent de travail coopératif. Pour S. Dolgoff, la technologie moderne a résolu le problème de l’accès aux avantages de l’industrie moderne, mais ce faisant elle a aussi accru significativement la décentralisation dans les entreprises avec la multiplication de travailleurs hautement qualifiés capables de prendre des décisions aux bas niveaux des organisations. S. Dolgoff cite plusieurs auteurs qui ont fait ce constat. Ce dernier est certes largement terni par le fait que cette décentralisation fait écho à la mondialisation qui a transformé les anciennes villes industrielles en villes fantômes, mais cette mondialisation est aussi un moment que l’anarchie ne peut pas ne pas saisir. En effet, cette mise en réseau du monde est aussi une mise en réseau des personnes. Si les technologies modernes d’information, les ordinateurs et les réseaux, permettent d’éliminer la bureaucratie et abandonner une fois pour toutes la centralisation des décisions, alors les principes de coopération et du déjà-là anarchiste pourront se déployer. Faire circuler librement l’information est pour S. Dolgoff la condition nécessaire pour déployer tout le « potentiel libertaire de la technologie ». Mais là où il pouvait se montrer naïf quinze ans auparavant, il concède que les obstacles sont de taille et sont formés par :

« Une classe croissante de bureaucraties étatiques, locales, provinciales et nationales, de scientifiques, d’ingénieurs, de techniciens et d’autres professions, qui jouissent tous d’un niveau de vie bien supérieur à celui du travailleur moyen. Une classe dont le statut privilégié dépend de l’acceptation et du soutien du système social réactionnaire, qui renforce considérablement les variétés « démocratiques », « sociales » et « socialistes » du capitalisme. (…) Tous reprennent les slogans de l’autogestion et de la libre association, mais ils n’osent pas lever un doigt accusateur sur l’arc sacré de l’État. Ils ne montrent pas le moindre signe de compréhension du fait évident que l’élimination de l’abîme séparant les donneurs d’ordres des preneurs d’ordres – non seulement dans l’État mais à tous les niveaux – est la condition indispensable à la réalisation de l’autogestion et de la libre association : le cœur et l’âme même de la société libre. »

Peu d’années avant son décès, et après une longue carrière qui lui avait permis de prendre la mesure de l’automatisation de l’industrie et voir l’arrivée des ordinateurs dans les processus de production et de contrôle, Sam Dolgoff a bien saisi la contradiction entre le « potentiel libertaire de la technologie » et l’apparition d’une classe sociale qui, avec l’aide de l’État et forte de subventions, réussit le tour de force d’accaparer justement ce potentiel dans une démarche capitaliste tout en parant des meilleures intentions et des meilleurs slogans ce hold-hup sur le travail collectif et la coopération.

C’est pourquoi il est pertinent de parler d’idéologie concernant la Silicon Valley, et c’est d’ailleurs ce que Fred Turner avait bien vu50 :

« La promesse utopique de la Valley est la suivante : Venez ici, et construisez-y l’avenir avec d’autres individus partageant les mêmes idées. Immergez-vous dans le projet et ressortez-en en ayant sauvé l’avenir. »

Les nouvelles frontières sociales des utopistes de la Silicon Valley ont été une interprétation du potentiel libertaire de la technologie, faite de néo-communautarisme et de cette Nouvelle Gauche que S. Dolgoff critiquait dès 1971. Mais ces nouvelles frontières ont été transformées en mythe parce que la question est de savoir aujourd’hui qui décide de ces nouvelles frontières, qui décide de consommer les technologies de communication censées permettre à tous d’avoir accès à l’innovation. Qui décide qu’un téléphone à plus de 1000€ est la meilleure chose à avoir sur soi pour une meilleure intégration sociale ? Qui décide que la nouvelle frontière repose sur la circulation de berlines sur batteries en employant une main-d’œuvre bon marché ?

Ouvrir le Libre

Il est temps de réhabiliter la pensée de Sam Dolgoff. Le Libre n’est pas qu’un mode de production anarchiste, il peut être considéré comme un instrument de libération du potentiel libertaire de la technologie.

Scander haut et fort que les hackers sont des anarchistes ne veut rien dire, tant que le modèle organisationnel et économique ne sert pas à autre chose que de développer du code. Rester dans le positivisme hérité des anarchistes de la première moitié du XXe siècle a ce double effet : un sentiment de dépassement lorsqu’on considère combien le « progrès » technologique sert à nous oppresser, et un sentiment d’abandon parce que celleux qui sont en mesure de proposer des alternatives techniques d’émancipation ont tendance à le faire en vase clos et reproduisent, souvent inconsciemment, une forme de domination.

Ce double sentiment a des conséquences qui dépassent largement la question des logiciels. Il est toujours associé à la tendance toujours plus grande de l’État à accroître les inégalités sociales, associé aux conséquences climatiques du système économique dominant qui nous conduit au désastre écologique, associé à la répression toujours plus forte par l’autoritarisme des gouvernements qui défendent les intérêts des plus riches contre les travailleurs et contre tout le reste. Il en résulte alors un désarmement technologique des individus là où il faut se défendre. À défaut, les solutions envisagées ont toujours petit goût pathétique : des plaidoyers qui ne sont jamais écoutés et trouvent encore moins d’écho dans la représentation élective, ou des actions pacifiques réprimées dans la violence.

Le potentiel libertaire du logiciel libre a cette capacité de réarmement technologique des collectifs car nous évoluons dans une société de la communication où les outils que nous imposent les classes dominantes sont toujours autant d’outils de contrôle et de surveillance. Il a aussi cette capacité de réarmement conceptuel dans la mesure où notre seule chance de salut consiste à accroître et multiplier les communs, qu’ils soient numériques ou matériels. Or, la gestion collective de ces communs est un savoir-faire que les mouvements libristes possèdent et diffusent. Ils mettent en pratique de vieux concepts comme l’autogestion, mais savent aussi innover dans les pratiques coopératives, collaboratives et contributives.

Occupy Wall Street, Nuit Debout, et bien d’autres évènements du genre, ont été qualifiés de préfiguratifs parce qu’ils opposaient de nouveaux imaginaires et de nouvelles manières de penser le monde tout en mettant en pratique les concepts mêmes qu’ils proposaient. Mais ce spontanéisme a tendance à se montrer évanescent face à des concrétisations préfiguratives comme les ZAD, la Comuna de Oaxaca, le mouvement zapatiste, et des milliers d’autres concrétisations à travers le monde et dont la liste serait fastidieuse. Rien qu’en matière d’autogestion, il suffit de jeter un œil sur les 11 tomes (!) de l’encyclopédie de l’Association Autogestion (2019)51. Or, dans tous ces mouvements, on retrouve du logiciel libre, on retrouve des libristes, on retrouve des pratiques libristes. Et ce n’est que très rarement identifié et formalisé.

Que faire ? Peut-être commencer par s’accorder sur quelques points, surtout entre communautés libristes et communautés libertaires :

  1. Ce n’est pas parce qu’on est libriste qu’on est anarchiste, et l’éthique hacker n’est pas un marqueur d’anarchisme. De manière générale, mieux vaut se méfier de l’autoproclamation dans ce domaine, surtout si, en pratique, il s’agit de légitimer le pillage des communs. Par contre il y a beaucoup d’anarchistes libristes.
  2. Les pratiques anarchistes n’impliquent pas obligatoirement l’utilisation et/ou la création de logiciels libres ou d’autres productions libres des communs numériques. Le Libre n’a pas à s’imposer. Mais dans notre monde de communication, le Libre en tant qu’outil est un puissant moteur libertaire. Il permet aux libertaires de mettre en œuvre des actions de communication, de coopération et de stratégie.
  3. Proposer le logiciel libre ou les licences libres n’est pas un acte altruiste ni solidaire s’il n’est pas accompagné de discours ou d’actes émancipateurs. Il peut même créer l’inverse par excès, submersion de connaissances et finalement exclusion. Il faut travailler de plus en plus les conditions d’adoption de solutions techniques libres dans les collectifs, mieux partager les expériences, favoriser l’inclusion dans la décision d’adoption de telles ou telles techniques. Elles doivent apporter du sens à l’action (et nous revoici dans la réflexion déjà ancienne du rapport entre travailleurs et machines).
  4. Il vaut mieux privilégier l’émancipation non-numérique à la noyade techno-solutionniste qui résulte d’un manque de compétences et de connaissances.
  5. La solidarité doit être le pilier d’une éducation populaire au numérique. Cela ne concerne pas uniquement l’anarchisme. Mais un collectif ne peut pas seul effectuer une démarche critique sur ses usages numériques s’il n’a pas en même temps les moyens de les changer efficacement. Les collectifs doivent donc échanger et s’entraider sur ces points (combien de groupes anarchistes utilisent Facebook / Whatsapp pour s’organiser ? ce n’est pas par plaisir, sûr !).

Notes


  1. La Quadrature du Net, « Affaire du 8 décembre : le chiffrement des communications assimilé à un comportement terroriste », 5 juin 2023, URL. ↩︎

  2. On peut prendre un exemple trivial, celui du microblogage qui transforme la communication en flux d’information. Le fait de ne pouvoir s’exprimer qu’avec un nombre limité de caractère et de considérer l’outil comme le support d’un réseau social (où le dialogue est primordial), fait que les idées et les concepts ne peuvent que rarement être développés et discutés, ce qui transforme l’outil en support de partage d’opinions non développées, raccourcies, caricaturales. Ajoutons à cela le fait que, sur un système de microblogage commercial, les algorithmes visant à générer de la lucrativité attentionnelle, ce sont les contenus les poins pertinents pour la pensée et les plus pertinents pour le trafic qui sont mis en avant. Contrairement à ce qu’annoncent les plateformes commerciales de microblogage, ce dernier ne constitue absolument pas un support d’expression libre, au contraire il réduit la pensée à l’opinion (ou ne sert que de support d’annonces diverses). Un autre exemple concerne la « rédaction web » : avec la multiplication des sites d’information, la manière d’écrire un article pour le web est indissociable de l’optimisation du référencement. Le résultat est que depuis les années 2000 les contenus sont tous plus ou moins calibrés de manière identique et les outils rédactionnels sont configurés pour cela. ↩︎

  3. Lawrence Lessig, « Code is Law – On Liberty in Cyberspace », Harvard Magazine, janvier 2000. Trad. Fr sur Framablog.org, 22 mai 2010. ↩︎

  4. Aliénation de tout le monde en fait. « L’aliénation apparaît au moment où le travailleur n’est plus propriétaire de ses moyens de production, mais elle n’apparaît pas seulement à cause de cette rupture du lien de propriété. Elle apparaît aussi en dehors de tout rapport collectif aux moyens de production, au niveau proprement individuel, physiologique et psychologique (…) Nous voulons dire par là qu’il n’est pas besoin de supposer une dialectique du maître et de l’esclave pour rendre compte de l’existence d’une aliénation dans les classes possédantes ». G. Simondon, Du mode d’existence des objets techniques, Paris, Aubier, 1989, p. 118. ↩︎

  5. Steven Levy, Hackers. Heroes of the Computer Revolution, New York, Dell Publishing, 1994. Steven Lévy, L’éthique des hackers, Paris, Globe, 2013. ↩︎

  6. Ainsi on peut s’interroger sur la tendance du protocole ouvert ActivityPub (qui fait fonctionner Mastodon, par exemple) à couvrir de nombreuses applications du Fediverse sans qu’une discussion n’ait été réellement menée entre les collectifs sur une stratégie commune multiformats dans le Fediverse. Cela crée une brèche récemment exploitée par l’intention de Meta de vouloir intégrer le Fediverse avec Threads, au risque d’une stratégie de contention progressive des utilisateurs qui mettrait en danger l’utilisation même d’ActivityPub et par extension l’ensemble du Fediverse. On peut lire à ce sujet la tribune de La Quadrature du Net : « L’arrivée de Meta sur le Fédivers est-elle une bonne nouvelle ? », 09 août 2023, URL. ↩︎

  7. Sébastien Broca, Utopie du logiciel libre. Lyon, Éditions le Passager clandestin, 2018. ↩︎

  8. Fred Turner, Aux sources de l’utopie numérique : De la contre culture à la cyberculture. Stewart Brand, un homme d’influence, Caen, C&F Editions, 2012. ↩︎

  9. Christophe Masutti, « Lire Fred Turner : de l’usage de l’histoire pour préfigurer demain », dans Retour d’Utopie. De l’influence du livre de Fred Turner, Caen, Les cahiers de C&F éditions 6, juin 2023, p. 70-82. ↩︎

  10. Detlef Hartmann, Die Alternative: Leben als Sabotage – zur Krise der technologischen Gewalt, Tübingen: IVA-Verlag, 1981. Voir aussi Capulcu Kollektiv, DISRUPT ! - Widerstand gegen den technologischen Angriff, sept. 2017 (URL). ↩︎

  11. Alan F. Westin, Privacy and Freedom, New York, Atheneum, 1967. ↩︎

  12. C’est le ralliement des mouvements pour les droits et libertés individuels, le lien entre l’expérience personnelle (par exemple les inégalités de race ou de genre dont des individus pourraient faire l’expérience quotidienne) et les structures politiques et sociales qui sont à la source des problèmes et dont il fallait procéder à la remise en question. ↩︎

  13. Nadia Eghbal, Sur quoi reposent nos infrastructures numériques ? : Le travail invisible des faiseurs du web. Marseille, OpenEdition Press, 2017. https://doi.org/10.4000/books.oep.1797. ↩︎

  14. Dans le cas de communs numériques, qui sont des biens non rivaux, il peut être difficile de comprendre cette notion d’appauvrissement. Comme le montrent Pierre Dardot et Christian Laval dans leur livre Communs, pour un commun, la richesse dépend autant du processus contributif (l’activité collective qui consiste à en faire un commun) que du bien lui-même, même s’il peut être dupliqué à l’infini dans le cas des biens non rivaux. Prenons deux exemples : 1) pour un champ cultivé, si tout le monde se sert et en abuse et personne ne sème ni n’entretient et qu’il n’y a pas d’organisation collective pour coordonner les efforts et décider ensemble que faire du champ, ce dernier reste bien un commun mais il ne donne rien et va disparaître. 2) Pour un logiciel, si personne ne propose de mise à jour, si personne n’enrichit ou corrige régulièrement le code et s’il n’y a pas d’organisation des contributions, ce logiciel aura tendance à disparaître aussi. Voir Pierre Dardot et Christian Laval, Communs. Essai sur la révolution au XXIe siècle, Paris, La Découverte, 2014. ↩︎

  15. Pierre Crétois (dir.), L’accaparement des biens communs, Paris, Presses universitaires de Paris Nanterre, 2022. ↩︎

  16. On peut voir sur ce point le travail que réalise Laurent Marseault : https://cocotier.xyz/?ConfPompier. ↩︎

  17. Au sens où l’entendait Bernard Stiegler, c’est-à-dire la privation d’un sujet de ses savoirs (savoir-faire, savoir-vivre, savoir concevoir et théoriser). Voir Bernard Stiegler, États de choc: bêtise et savoir au XXIe siècle, Paris, France, Mille et une nuits, 2012. ↩︎

  18. On peut voir les statistiques sur l’Open Source Contributor Index : https://opensourceindex.io/. ↩︎

  19. Simon Butler et al., « On Company Contributions to Community Open Source Software Projects », IEEE Transactions on Software Engineering, 47-7, 2021, p. 1381‑1401. ↩︎

  20. Antonio A. Casilli, En attendant les robots: enquête sur le travail du clic, Paris, France, Éditions du Seuil, 2019. ↩︎

  21. Et ils sont souvent les dindons de la farce. En Europe, la situation est équivoque. D’un côté, un espace est ouvert grâce aux dispositifs juridiques censés protéger l’économie européenne et les européens contre les effets des multinationales à l’encontre de la vie privée, au nom de la défense des consommateurs, et en faveur de la souveraineté numérique. Les logiciels libres y trouvent quelques débouchés pertinents auprès du public et des petites structures. Mais d’un autre côté, une grande part de la production libre et open source repose sur des individus et des petites entreprises, alors même que les gouvernements (et c’est particulièrement le cas en France) leur créent des conditions d’accès au marché très défavorables et privilégient les monopoles extra-européens par des jeux de partenariats entre ces derniers et les intégrateurs, largement subventionnés. Voir Jean-Paul Smets, « Confiance numérique ou autonomie, il faut choisir », in Annales des Mines, 23, La souveraineté numérique : dix ans de débat, et après ?, Paris, 2023., p. 30-38. ↩︎

  22. Même si le protocole ActivityPub pourrait être suffisamment détourné ou influencé pour ne plus assurer l’interopérabilité nécessaire. La communauté du Fediverse doit pour cela s’opposer en masse à Thread, la solution que commence à imposer l’entreprise Meta (Facebook), dans l’optique de combler le manque à gagner que représente le Fediverse par rapport aux média sociaux privateurs. ↩︎

  23. Christophe Masutti, « En passant par l’Arkansas. Ordinateurs, politique et marketing au tournant des années 1970 », Zilsel, 9-2, 2021, p. 29‑70. ↩︎

  24. On peut se reporter à cette louable tentative issue de It’s Going Down, et que nous avons publiée sur le Framablog. Il s’agit d’un livret d’auto-défense en communication numérique pour les groupes anarchistes. Bien qu’offrant un panorama complet et efficace des modes de communications et rappelant le principe de base qui consiste en fait à les éviter pour privilégier les rencontres physiques, on voit tout de même qu’elle souffre d’un certain manque de clairvoyance sur les points d’achoppement techniques et complexes qu’il serait justement profitable de partager. Voir « Infrastructures numériques de communication pour les anarchistes (et tous les autres…) », Framablog, 14 avril 2023. ↩︎

  25. Philippe Borrel, La bataille du Libre (documentaire), prod. Temps Noir, 2019, URL. ↩︎

  26. Sam Williams, Richard Stallman et Christophe Masutti, Richard Stallman et la révolution du logiciel libre. Une biographie autorisée, 1re éd., Eyrolles, 2010. ↩︎

  27. Richard Stallman (interview), « Is Free Software Anarchist? », vidéo sur Youtube. ↩︎

  28. Michel Lallement, L’âge du faire: hacking, travail, anarchie, Paris, France, Éditions Points, 2018. ↩︎

  29. Christian Imhorst, Die Anarchie der Hacker, Marburg, Tectum - Der Wissenschaftsverlag, 2011. Christian Imhorst, « Anarchie und Quellcode - Was hat die freie Software-Bewegung mit Anarchismus zu tun? », in Open Source Jahrbuch 2005, Berlin, 2005. ↩︎

  30. Dale A. Bradley, « The Divergent Anarcho-utopian Discourses of the Open Source Software Movement », Canadian Journal of Communication, 30-4, 2006, p. 585‑612. ↩︎

  31. Marie-Christine Granjon, « Les radicaux américains et le «système» », Raison présente, 28-1, 1973, p. 93‑112. ↩︎

  32. David DeLeon, The American as Anarchist: Reflections on Indigenous Radicalism, Baltimore, Johns Hopkins University Press, 2019. ↩︎

  33. Murray Bookchin, Changer sa vie sans changer le monde. L’anarchisme contemporain entre émancipation individuelle et révolution sociale, Marseille, Agone, 2019, pp. 61-63. ↩︎

  34. En 2015, c’est ce qui a permis à Bill Gates de caricaturer, sans les citer, des personnes comme Joseph Stiglitz et d’autres partisans pour une réforme des brevets (pas seulement logiciels) en sortes de néocommunistes qui avanceraient masqués. Voir cet entretien, cet article de Libération, et cette « réponse » de R. M. Stallman. ↩︎

  35. Eben Moglen, « L’anarchisme triomphant. Le logiciel libre et la mort du copyright », Multitudes, 5-2, 2001, p. 146‑183. ↩︎

  36. David Edgerton, « De l’innovation aux usages. Dix thèses éclectiques sur l’histoire des techniques », Annales. Histoire, sciences sociales, 53-4, 1998, p. 815‑837. ↩︎

  37. Clifford D. Conner, Histoire populaire des sciences, Montreuil, France, Éditions L’Échappée, 2011. ↩︎

  38. Amaelle Guiton, Hackers: au cœur de la résistance numérique, Vauvert, France, Au diable Vauvert, 2013. ↩︎

  39. « Le capitalisme est d’essence conjoncturelle. Aujourd’hui encore, une de ses grandes forces est sa facilité d’adaptation et de reconversion », Fernand Braudel, La dynamique du capitalisme, Paris, Flammarion, 2018. ↩︎

  40. Stéphane Couture, « L’écriture collective du code source informatique. Le cas du commit comme acte d’écriture », Revue d’anthropologie des connaissances, 6, 1-1, 2012, p. 21‑42. ↩︎

  41. Murray Bookchin, Changer sa vie sans changer le monde, op. cit., p. 12 et p. 10. ↩︎

  42. Comme je l’ai écrit dans un précédent billet de blog, plusieurs auteurs donnent des définitions du concept de préfiguration. À commencer par David Graeber, pour qui la préfiguration est « l’idée selon laquelle la forme organisationnelle qu’adopte un groupe doit incarner le type de société qu’il veut créer ». Un peu plus de précision selon Darcy Leach pour qui la préfigurativité est « fondée sur la prémisse selon laquelle les fins qu’un mouvement social vise sont fondamentalement constituées par les moyens qu’il emploie, et que les mouvements doivent par conséquent faire de leur mieux pour incarner – ou “préfigurer” – le type de société qu’ils veulent voir advenir. ». David Graeber, Comme si nous étions déjà libres, Montréal, Canada, Lux éditeur, 2014. Darcy K. Leach, « Prefigurative Politics », in The Wiley-Blackwell Encyclopedia of Social and Political Movements, John Wiley & Sons, Ltd, 2013. ↩︎

  43. Cory Doctorow, « As Platforms Decay, Let’s Put Users First », 09 mai 2023, URL. ↩︎

  44. Kristin Ross, La forme-Commune. La lutte comme manière d’habiter, Paris, La Fabrique Editions, 2023. ↩︎

  45. Sam Dolgoff, The relevance of anarchism to modern society, Troisième édition., Tucson, AZ, See Sharp Press, 2001. ↩︎

  46. Sam Dolgoff, « Le Néo-anarchisme américain. Nouvelle gauche et gauche traditionnelle », Le Mouvement social, num. 83, 1973, p. 181‑99. « (…) intellectuels petits-bourgeois, des étudiants et des « hippies » qui constituaient l’essentiel de la nouvelle gauche ». ↩︎

  47. Thomas Swann, « Towards an anarchist cybernetics: Stafford Beer, self-organisation and radical social movements | Ephemeral Journal », Ephemera. Theory and politics in organization, 18-3, 2018, p. 427‑456. ↩︎

  48. En théorie du moins. Si on regarde de plus près l’histoire du projet Cybersyn, c’est par la force des choses que le système a aussi été utilisé comme un outil de contrôle, en particulier lorsque les tensions existaient entre les difficultés d’investissement locales et les rendements attendus au niveau national. En d’autres termes, il fallait aussi surveiller et contrôler les remontées des données, lorsqu’elles n’étaient pas en phase avec la planification. Cet aspect technocratique a vite édulcoré l’idée de la prise de décision collective locale et de la participation socialiste, et a fini par classer Cybersyn au rang des systèmes de surveillance. Hermann Schwember, qui était l’un des acteurs du projet est revenu sur ces questions l’année du coup d’État de Pinochet et peu de temps après. Hermann Schwember, « Convivialité et socialisme », Esprit, juil. 1973, vol. 426, p. 39-66. Hermann Schwember, « Cybernetics in Government: Experience With New Tools for Management in Chile 1971-1973 », In : Hartmut Bossel (dir.), Concepts and Tools of Computer Based Policy Analysis, Basel, Birkhäuser - Springer Basel AG, 1977, vol.1, p. 79-138. Pour une histoire complète, voir Eden Medina, Cybernetic Revolutionaries. Technology and Politics in Allende’s Chile, Boston, MIT Press, 2011. Et une section de mon ouvrage Christophe Masutti, Affaires privées. Aux sources du capitalisme de surveillance, Caen, C&F Éditions, 2020. ↩︎

  49. Sam Dolgoff, « Modern Technology and Anarchism », Libertarian Labor Review, 1, 1986, p. 7‑12. ↩︎

  50. Fred Turner, « Ne soyez pas malveillants. Utopies, frontières et brogrammers », Esprit, 434, mai 2019, URL. ↩︎

  51. Association Autogestion, Autogestion. L’encyclopédie internationale, Paris, Syllepse, 2019, vol. 1-11. ↩︎


Publié le 28.06.2023 à 02:00

Déviances

Concept sociologique par excellence (cf. Outsiders de H. Becker), la déviance interroge les normes sociales et ce qui est acceptable ou non. Dans un moment où nous avons un gouvernement qui fait tout pour se transformer en dépositaire des normes « Républicaines », il est intéressant d’y regarder d’un peu plus près et justement, Jacques Ellul nous a laissé du matériel dans son livre Déviances et déviants dans notre société intolérante (1992).

On retient surtout de cet auteur ses réflexions sur le rapport entre technique et société. Mais ce sujet est indissociable de l’étude de la société elle-même, dans ce qu’elle a de contradictoire par rapport non seulement à la technique mais aussi par rapport à la compréhension des faits sociaux. Système technicien et système social entrent en relations contradictoires mais en eux-mêmes ils recèlent aussi des contradictions. Le rapport à la technique n’est pas qu’un rapport individuel, et dans le monde contemporain, la société technicienne en arrive à prendre en compte que tous ses processus et comportements peuvent et doivent être étudiés. Aux structures techniques, traditionnelles ou non, aux métiers, aux activités économiques, répond la conformisation au système car tout groupe social recèle en lui des discours et des règles qui concernent la conformité et la déviance, l’acceptation et le refus, la tolérance et l’exclusion. L’acceptation de la différence (Ellul prend l’exemple de l’homosexualité, de la religion, ou même la spécialisation d’un métier) est aussi le reflet de ce qu’un comportement était auparavant considéré comme déviant (incohérent, erratique, suspect) : la déviance et les multiples manières dont les comportements déviants accèdent à une forme de normalité ou du moins d’acceptation, forment l’Histoire.

Pour Ellul, le moment où les comportements déviants commencent à être étudiés à part entière correspond au moment où ces comportements deviennent assez nombreux pour être intellectuellement visibles. Cela commence selon lui par le rapport de La Rochefoucauld Liancourt en 1790 sur la misère : en analysant les causes, on s’interroge fatalement sur la marginalité et la déviance sociale. C’est à ce point de son livre — au début, donc — qu’à la manière d’un M. Foucault, il pointe le caractère éminemment politique du concept de déviance :

« (…) il fallait d’une part que la déviance soit devenue un phénomène quantitativement très important, et ensuite qu’un changement s’opère dans la façon de considérer le fait social, la société, le rapport de l’individu à la société : celle-ci ayant un certain nombre de conditions d’existence, et l’individu étant considéré non plus comme une cellule organique du corps social, mais comme ayant sa spécificité propre, et étant capable d’appartenir ou non, de participer à la volonté générale ou non, de procéder à des choix envers les conditions d’existence du corps social. C’est constamment autour de ces questions que se nouent les débats du XIXe siècle, sur la démocratie par exemple. La minorité dans la démocratie n’est pas forcément une déviance, mais elle est exactement à la limite. À partir de quand, de quel point une minorité devient-elle déviante ? La Convention a été amenée à identifier très vite les deux : élimination de la minorité de droite, puis de la minorité d’extrême gauche… qui étaient déviantes par rapport à une ligne politique dorénavant unique et ne tolérant plus l’opposition. »

Commençons par un truisme : tout comportement déviant est relatif à la norme sociale du groupe dans lequel on évolue. Mais la différence entre une norme imposée politiquement et une norme sociale vécue à travers son histoire et donc ses transformations, c’est que le fait d’imposer une norme en fonction d’intérêts politiques revient à arrêter le processus historique d’acceptation de la différenciation. La minorité dans la démocratie est donc à la limite de la déviance parce qu’elle est nécessaire à la démocratie.

La démocratie est un système politique qui comprend les contradictions sociales au point où elle organise elle-même les conditions de ses déviances (comme la présence de partis majoritaires et minoritaires) et de leurs multiples expressions. Contrairement à d’autres sociétés dans l’Histoire, une démocratie contemporaine ne ramène pas systématiquement à l’individu seul le caractère déviant du comportement (les fous, les marginaux, les mendiants du Moyen-âge, les immigrés) mais réussi à identifier les comportements à leur groupe comme l’expression d’une différenciation qu’il faut étudier, entendre, accepter.

À défaut, le comportement déviant est lui-même auto-politisé. Il devient résistance : stratégies de contournements, sabotage, insubordination… La marginalité elle-même peut être vécue politiquement. Du point de vue individuel, et depuis fort longtemps, c’est le message originel et radical de Diogène de Sinope, rejetant les conventions sociales : quoiqu’il en soit (et quoi qu’il en coûte) il y a toujours quelque chose d’ingouvernable en l’homme, quelque chose en vertu duquel on peut se dire absolument libre, même (surtout) dans le dénuement, le rejet de l’artifice. La résistance collective, elle, a ceci de particulier qu’elle devient le miroir de l’intolérance et de la finitude des normes : en tant qu’expression du groupe social, si la résistance devient le message, il exprime un besoin d’Histoire.

Et alors nous y voilà. Ou bien la différenciation, la diversité, devient la norme, ou bien on s’installe dans le rejet Stalinien et la criminalisation. Car l’alternative se pose en ces termes. Accepter le fou, autrefois, c’était accepter l’existence de cadres de conduite dans lesquels les fous pouvaient encore évoluer, marginalisés mais non exclus. Ce n’est que lorsque le tabou est transgressé qu’on exclu et qu’on bannit, fait extrêmement rare mais dont la seule éventualité permettait de construire des normes et les faire évoluer. Les sociétés modernes sont passées à un autre registre depuis longtemps : soit on étudie les phénomènes sociaux pour ce qu’ils sont et ce qu’ils disent de la société, soit on les étudie pour les refuser et les briser. Tolérance ou intolérance. Avancement social dans l’intérêt historique de tous les groupes, ou immobilisme dans l’intérêt d’un seul. Le choix est devenu binaire. L’anthropologie anarchiste nous montre combien la question est ancienne, certaines sociétés ayant fait justement le choix collectif de refuser des structures qui recèlent justement la possibilité de ce choix dangereux.

Dans le contexte moderne, la résistance est le premier mouvement vers un changement plus général. Il crée un rapport de force, contrairement aux apparences : la minorité n’est jamais une faiblesse. Il porte le message de l’existence d’une force contre laquelle le pouvoir chancelle : l’immobilisme doit alors répondre lui-même par une résistance active. L’immobilisme est impossible. Là où le choix devient historique, c’est lorsque ce nouveau rapport de force bascule dans un nouvel équilibre, une nouvelle cohésion sociale. Là où le choix devient an-historique — et donc assez paradoxalement, déviant — c’est lorsqu’il confronte les intérêts au lieu de les comprendre.

Dans cet espace de résistance-confrontation, joue le langage. L’appropriation des mots et la qualification des faits n’est plus seulement l’apanage d’un pouvoir qui réagit à la déviance. Le langage se cristallise dans un nouveau cadre normatif, une grammaire dont il est presque impossible de faire bouger les lignes. La question est d’ordre épistémologique. Ian Hacking, décédé récemment, nous a laissé (parmi beaucoup d’autres réflexions) un élément très important pour l’histoire de la psychiatrie et de la psychologie : les concepts avec lesquels nous classifions et catégorisons ne créent pas seulement un ordre, mais de nouveau comportements. Et Ian Hacking a travaillé notamment sur la question du diagnostic des personnalités multiples dans les années 1980.

En effet, on en reste souvent à une conception étriquée de la compréhension scientifique, comme un nominalisme rigide, une classification qui nous permettrait, une fois pour toutes, de catégoriser et représenter le monde comme un système stable. Certes nous avons besoin de stabilité. La science politique a tendance ainsi à ne pas prendre en compte la dynamique qu’elle crée à chaque fois qu’elle analyse les faits. Les institutions ont une représentation conjecturale des groupes et de leurs déviances. Et c’est là que se crée un schisme, entre une connaissance conjecturale et l’émergence d’un fait social qui, parce qu’il est identifié comme déviant, devient une création nouvelle. C’est là qu’émergent les néologismes : ils ne sont pas seulement un diagnostic. Ils appartiennent à une certaine grammaire qui, lorsqu’elle énonce le mot, crée une réaction comportementale, le plus souvent de résistance (nous ne nous reconnaissons pas comme tels). Cette grammaire a un but, celui des institutions gardiennes de la stabilité du pouvoir : lorsqu’elle nomme, elle affirme en même temps s’il s’agit d’une déviance ou non.

Il en va ainsi, par exemple, de l’écoterrorisme. Le terme est déjà ancien et s’est toujours appliqué aux actions collectives de résistance à des pratiques institutionnelles. En premier, la défense des droits animaux auparavant niés par le Droit puis finalement peu à peu inclus dans le concept de libération animale et, tant bien que mal, plus ou moins pris en compte dans les juridictions (on est d’accord qu’il y a encore du travail). L’écoterrorisme a perduré comme catégorie et adresse désormais toute action de résistance, de la manifestation de rue au sabotage. Il est formé par la juxtaposition contradictoire de deux mots : l’écologie, qui est devenu un concept porteur de valeurs acceptables et le terrorisme, acte déviant par nature puisque non seulement contraire au droit mais aussi à la morale.

Cette grammaire — ou ce nominalisme — montre comment la confrontation entre deux systèmes de pensée contradictoires est en réalité une fabrication. Elle amène la déviance à la limite de l’entendement et tente toujours de rendre les choses incompréhensibles, c’est-à-dire en dehors du système nominaliste stable auquel chacun est habitué. Ce faisant, elle effectue deux mouvements : 1/ elle déplace évidemment le contexte du jugement : on ne juge plus une cause en fonction de sa justesse et des valeurs, mais en fonction de la contradiction qu’elle est censée porter (écologie contre terrorisme) et 2/ elle traduit l’enjeu social, toujours complexe et difficile à intégrer dans le cadre normatif, dans une logique purement formelle : écologie ou terrorisme (ou bien liberté ou surveillance, par exemple). À cet ordre formel, répond un « effet de boucle » pour reprendre les termes de I. Hacking, expliqués par M. Vagelli : « le sujet qui se reconnaît comme classé réagit et modifie son comportement de manière conséquente, de sorte que les scientifiques se trouvent face à un « type » lui-même dévié. »

Donc de quelle déviance de déviance s’agit-il ? La déviance originelle à affaire à une grammaire réactionnaire qui ne la comprend pas. S’agissant d’une construction sociale, cette grammaire est le fait d’intérêts contraires, qu’il s’agisse du pouvoir en soi ou d’intérêts financiers, capitalistes, ou autres. Les actes de résistance doivent donc être non seulement des messages de différenciation, c’est-à-dire démonstratifs d’une alternative aux normes qu’on souhaite changer, mais aussi le reflet d’un autre cadre normatif toujours plus difficile à remettre en cause que le premier, en l’occurrence la démonstration scientifique (donc ultra-normée) du changement climatique et du fait que les pratiques en cours doivent changer de manière plus ou moins urgente.

Et là entre encore un autre paradoxe, c’est que la déviance se réclame finalement d’autres normes. Tragédie de la déviance. Et comme on ne comprend plus de quelle déviance il s’agit, s’instaure un climat de suspicion généralisée où tous les comportements sont susceptibles d’être qualifiés de déviants. C’est parce que le pouvoir conserve sa vision étriquée : il y aurait une déviance en soi. Pour lui, si le groupe est déviant c’est parce que ses comportements sont déviants non pas relativement au cadre normatif du moment (puisqu’il est considéré comme éternel et sans alternative) mais déviant en fonction d’un cadre universel : la morale et le droit. Or, comme le rappelle Ellul dans le même livre, tout regroupement qui manifeste une volonté de marginalisation le fait relativement à une normalisation globale en recherche d’une autre norme, une légitimité différente, une autre condition d’existence qui ne peut se faire qu’en société, et jamais en dehors. Quel que soit le régime (socialiste, capitaliste, Hitlérien ou Stalinien), l’erreur consiste à croire que la déviance est le fait de l’individu seul (ou de sa nature biologique) ou de croire qu’elle n’est que le résultat des conditions sociales : ce qui fait la déviance c’est la relation sociale qu’elle implique. Pour reprendre Ellul, encore une fois : « En tout cas dans l’estimation générale de notre société, le déviant est catalogué soit comme un malade soit comme un délinquant. C’est de cette classification qu’il faut sortir. »

Tant que nous n’en sortons pas, le pouvoir est lui-même porteur de déviance. Le fait de qualifier de déviants les membres individuels du groupe d’activistes est un signe évident. Puisqu’il est impossible de démontrer que tout un groupe est déviant (l’écologie n’est pas déviante et tout le monde peut s’inclure dans cette catégorie des personnes sensibilisées aux enjeux de l’écologie), il faut alors considérer que le groupe écoterroriste est un amas d’individus déviants et dont la déviance s’étend à l’ensemble par un jeu de contamination imaginaire inter-individuelle : certains sont des casseurs, certains sont des radicaux, certains sont des membres de « l’utra-gauche », donc tous les autres cautionnent la violence, ne la condamnent pas et ont des comportements dont on peut affirmer qu’ils sont suspects en soi (comme on aurait pu dire que ne pas s’opposer au régime hitlérien faisait automatiquement de tout allemand un soutien du régime). On essentialise alors certains comportements plus que d’autres, là encore selon une grammaire faite de sophismes et de périphrases. Il importera donc d’individualiser les responsabilités quitte à faire de la somme de comportements apparemment anodins des indices d’une intention déviante, comme ce fut le cas pour l’affaire de Tarnac ou l’affaire en cours dite du 8 décembre où le simple fait de chiffrer ses communications et installer GNU Linux sont assimilés à des comportements terroristes.

La déviance, dans ces cas, consiste à se situer dans la limite du droit et instrumentaliser ce dernier, non pas tant pour porter des affaires judiciaires que pour forcer les policiers comme les magistrats à chercher à justifier leurs comportements devant la norme : qui sont les déviants ? En retour, non exempt de tout reproche, on pourra assister à une essentialisation des policiers et des magistrats accusés devant l’ordre universel de la justice d’être justement des instruments partiaux et violents (Acab).

Résister, c’est faire l’Histoire. « (…) la déviance est non seulement inévitable dans toute forme de société, mais en outre, elle est indispensable, elle est le principal facteur de vie, d’évolution de la société », nous disait encore J. Ellul. Mais cette évolution est-elle encore acceptable lorsqu’elle a lieu dans la violence, c’es-à-dire l’échec de la discussion ? Le langage n’a plus sa place dans un contexte violent. J. Ellul posait déjà la question :

« Des écologistes non violents peuvent, dans certaines circonstances, entrer dans le cycle de la violence.(…) la violence des habitants de Plougastel pour lutter contre la centrale nucléaire ou celle des marins pêcheurs pour la défense de leur profession n’est pas la même que celle des terroristes, assassins conscients à finalité politique. »

Assimiler les faits de violence dans les mouvements déviants à des faits de gangstérisme relevant du droit commun est une profonde erreur. Parce qu’encore une fois la déviance est d’abord le reflet d’une relation sociale et n’est pas le fait d’individus atomisés. Mais d’un autre côté, ce n’est pas non plus parce que la violence se drape idéologiquement qu’elle est pour autant l’expression d’une déviance pouvant donner lieu à discussion. Il y a une pointe extrême dans la déviance qui peut toujours la confondre dans le crime le plus odieux, par exemple l’assassinat en bande organisée pour des motifs plus ou moins révolutionnaires. Mais même le terrorisme a au moins une particularité, car il pose « la question du pourquoi et du sens ». Le terroriste ne peut donc pas relever tout à fait du droit commun (c’est pour cela qu’il existe des dispositifs institutionnels adéquats). Mais c’est aussi la raison pour laquelle il ne s’agit en réalité que d’un crime politisé, alors qu’un acte collectif et médiatique de sabotage ou une confrontation violente d’un groupe avec les représentants de l’ordre ne peuvent justement pas relever du terrorisme parce leur qualité politique est évidente. Les accuser à tort d’actes terroristes est tout aussi paradoxalement donner davantage de crédit politique à ces actions : c’est leur nier le droit à l’expression d’une éthique différente là où le terrorisme ne fait que porter la haine de l’autre.

Ce qui fait peur dans la déviance, c’est d’entrevoir que le contrôle de l’autre est parfois impossible, qu’il peut éventuellement en pas y avoir de limite à la déviance. Pire : que la limite entre la déviance tolérable et la déviance intolérable devienne floue. Là se noue tout l’enjeu du choix entre la réponse arbitraire et la négociation. La déviance peut être mortifère pour le groupe, comme un pharmakon dont on aurait oublié la posologie, ou au contraire une provocation saine pour édifier la société et accomplir un acte historique de progrès. Dans les deux cas, imposer par avance le cadre d’expression revient à confronter d’anciennes normes à ce pharmakon qui vise justment à les soigner. C’est tout l’objet des laudateurs de la non-violence ou les « paciflics » des manifestations (pour reprendre le terme de Peter Gelderloos). La violence qui serait l’expression d’un groupe opprimé ou revendicateur n’est pas la violence des dominants. Preuve : plus les actions déviantes des dominés se répètent plus la violence du groupe dominant s’accentue, se radicalise, blesse, tue.

Sous couvert de précaution non violente, on assiste alors à l’instauration de dispositifs institutionnels visant à empêcher non pas la violence, mais l’expression de la déviance. Le Service National Universel, le Contrat d’Engagement Républicain et le Serment Doctoral sont des exemples d’une forme d’artificialisation de l’adhésion aux normes permettant de rendre encore plus violente la répression aux actes déviants. Par exemple, si des membres d’une association venaient à manifester alors qu’une Préfecture l’a auparavant interdit, l’existence du Contrat d’Engagement Républicain suffit à elle seule à porter la charge plus lourde de l’accusation et donc de la sanction. Un problème qui ne se posait pas auparavant en ces termes. Car en effet le premier pas vers la compréhension et éventuellement la tolérance — à moins de poser d’emblée l’intolérance comme principe d’action — c’est de poser la question de savoir ce qui, dans la déviance, met en critique les institutions et les normes actuelles, et non pas de savoir ce qui dans la déviance permet de la sanctionner toujours davantage.

Pour terminer, comme dit J. Ellul :

« (…) l’important est de reconnaître la sollicitation au changement dans toute déviance, sollicitation plus ou moins anxieuse et tragique, plus ou moins juste et légitime, mais il faut au moins recevoir cette sollicitation. Au moins rechercher quelle issue ferait en même temps évoluer notre corps social de façon à réduire la déviance profonde, et à inventer un nouveau mode d’être ensemble plus satisfaisant. »

Répondre non pas par une société complètement permissive (car il y aura toujours des déviances), mais proposer « une nouvelle morale et un nouveau droit » :

« (…) sans une nouvelle morale, c’est-à-dire l’élaboration d’une visée sociale commune, de comportements communs et d’une acceptation d’un changement de nos idéaux, de nos jugements, de notre échelle de valeurs, aucune mutation institutionnelle ne peut porter de fruits. C’est toujours le même problème : l’institution ne vaut que par la qualité des hommes qui en utilisent les organismes, réciproquement, sur le plan social, le changement moral ou idéologique ne peut suffire, il implique pour prendre corps un changement institutionnel. »


Publié le 08.05.2023 à 02:00

Mouvements préfiguratifs

Lorsque le ministre de l’Intérieur français déclare avec conviction début avril 2023 que « plus aucune ZAD ne s’installera dans notre pays » (version polie de « pas d’ça chez nous »), il est important d’en saisir le sens. Dans une ambiance où la question du maintien de l’ordre en France se trouve questionnée, y compris aux plus hauts niveaux des instances Européennes, détourner le débat sur les ZAD relève d’une stratégie assez tordue. Les ZAD, sont un peu partout en Europe et font partie de ces mouvements sociaux de défense environnementale qui s’opposent assez frontalement aux grands projets capitalistes à travers de multiples actions dont l’occupation de zones géographiques. Or, dans la mentalité bourgeoise-réactionnaire, les modes de mobilisation acceptables sont les manifestations tranquilles et les pétitions, en d’autres termes, les ZAD souffrent (heureusement de moins en moins) du manque de lisibilité de leurs actions : car une ZAD est bien plus que la simple occupation d’une zone, c’est tout un ensemble d’actions coordonnées et de réflexions, de travaux collectifs et de processus internes de décision… en fait une ZAD est un exemple de politique préfigurative. Pour le ministre de l’Intérieur, ce manque de lisibilité est un atout : il est très facile de faire passer les ZAD pour ce qu’elles ne sont pas, c’est-à-dire des repères de gauchos-anarchiss’ qui ne respectent pas la propriété privée. Parler des ZAD, c’est renvoyer la balle aux autres pays Européens qui viendraient à critiquer le maintien de l’ordre à la Française : regardez d’abord chez vous.

Pourquoi cette caricature réactionnaire ? elle ne concerne pas seulement les ZAD, mais aussi toutes les actions d’occupation, y compris les plus petites comme le simple fait qu’un groupe d’étudiants ingénieurs se mette à racheter une ferme pour y vivre sur un mode alternatif. Cette caricature est sciemment maintenue dans les esprits parce que ce que portent en elles les politiques préfiguratives est éminemment dangereux pour le pouvoir en place : la démonstration en acte d’une autre vision du monde possible. Beaucoup d’études, souvent américaines (parce que le concept y est forgé) se sont penchées sur cette question et ont cherché à définir ce qu’est la préfigurativité dans les mouvements sociaux. Ces approches ont désormais une histoire assez longue, depuis la fin des années 1970. On ne peut donc pas dire que le concept soit nouveau et encore moins le mode d’action. Seulement voilà, depuis les années 1990, on en parle de plus en plus (j’essaie d’expliquer pourquoi plus loin). Je propose donc ici d’en discuter, à partir de quelques lectures commentées et ponctuées de mon humble avis.

Table des matières


Quotidien et transformation individuelle

Dans son chapitre « Exemplarité et mouvements sociaux » (Renou 2020), G. Renou fait l’inventaire des types de mouvements sociaux dont l’exemplarité joue un rôle stratégique. Le phénomène de quotidianisation revendiquée recouvre ces mouvements dont le raisonnement repose sur l’articulation entre changement personnel (individuel mais on pourrait rajouter, je pense, aussi celui du collectif comme personne « morale ») et changement sociopolitique. On peut les appeler mouvements « d’exemplarité », « préfiguratifs » ou « de mode de vie », ils proposent tous des alternatives à l’existant mais présentent certaines nuances. On peut ainsi distinguer, en suivant G. Renou :

  • les mouvements d’exemplarité proprement dite : mouvements fondés sur l’imitation de pratiques, plus ou moins rigides et exigeantes,
  • les mouvements préfiguratifs autrement nommés « politiques préfiguratives » : ils incarnent par leurs pratiques et leurs moyens la société souhaitée, ces pratiques et ces moyens évoluent en fonction de la manière dont est conçu ce chevauchement des moyens et de la fin,
  • les mouvements dits de mode de vie (lifestyle movements) : c’est le mode de vie lui-même qui est censé changer la société, comme démonstration de la contestation, le mode de vie est en soi revendicateur.

Il y a trois caractéristiques importantes que l’on retrouve dans tous ces mouvements :

  • la cohérence entre le discours et les pratiques (ce qui conduit parfois à prendre des positions radicalement opposées à l’ordre établi, comme c’est le cas avec des actions de désobéissance civile),
  • l’ancrage sur un territoire (« on est là ») : la transformation structurelle de la société implique une prise de position dans un espace. Ce peut être un pays ou un territoire complet (le Chiapas, le Rojava) ou une place (Nuit Debout, Occupy),
  • la transformation individuelle comme acte politique.

Sur ce troisième point, G. Renou explique :

« Le troisième déplacement opéré par la problématique de l’exemplarité a trait à la subversion des articulations individuel/collectif, privé/public et à la définition même de l’action collective. Si on accepte que la transformation de l’existence personnelle devienne, aux yeux des activistes, un enjeu pleinement politique, au sens où celle-ci n’est plus rabattue sur la vie privée opposée à la vie citoyenne et publique (cadrage juridique), ni même sur le for intérieur ou la conscience (cadrage psychologique), un corollaire s’impose. L’action collective tend à ne plus être assimilable à la défense des intérêts d’un groupe identifié par la médiation d’une action sur l’appareil d’État, traditionnellement considéré comme le lieu d’impulsion de tout changement politique d’ampleur, ainsi que le présupposaient les grandes organisations militantes de masse, depuis la fin de la première guerre mondiale. »

Pour moi, ce point de vue est en partie discutable. Les mouvements préfiguratifs ne cherchent pas à rompre avec une certaine tradition qui ne serait incarnée que par les organisations « de masse » qui œuvraient dans un cadre institutionnel de revendication « depuis la fin de la Première Guerre Mondiale ». Cela situe la définition de la politique préfigurative dans les présupposés où elle a été définie la première fois. Et il semble que l’approche de G. Renou soit en quelque sorte victime d’une vision quelque peu figée. On peut le comprendre, car son article figure dans un dictionnaire (Dictionnaire des mouvements sociaux) et à ce titre l’approche ne saurait être prospective.

Qui le premier a forgé ce concept de prefigurative politics ? Il s’agit de Carl Boggs en 1977 (Boggs 1977a, 1977b). Boggs fait remonter le concept à la tradition anarchiste et syndicaliste du XIXᵉ siècle et sa définition se confronte avec le marxisme classique :

« Par “préfiguration”, j’entends l’incarnation, dans la pratique politique permanente d’un mouvement, des formes de relations sociales, de prise de décision, de culture et d’expérience humaine qui constituent l’objectif ultime. Développée principalement en dehors du marxisme, elle a produit une critique de la domination bureaucratique et une vision de la démocratie révolutionnaire que le marxisme n’avait généralement pas. »1

Cette définition projette de manière évidente les mouvements sociaux qui s’en réclament dans une dynamique de la quotidienneté. Mais cette dynamique est historique. Elle va se chercher dans l’héritage contre-institutionnel des soviets ou, mieux, celui de la Commune de Paris en 1870. Dans le cas de la Commune, il s’agissait des institutions d’enseignement scolaire ou des hôpitaux, d’un Conseil, ou encore des institutions créatives (comme les Clubs), toutes placées sous le contrôle du peuple et cherchant à supplanter celles du pouvoir en place tout en les fondant sur un ensemble de pratiques démocratiques. La préfiguration s’inscrit donc dans l’Histoire mais, de plus, dans une tradition anarchiste, elle consiste à entrer en lutte contre le pouvoir en opposant l’intérêt collectif à l’organisation du pouvoir (l’État, en l’occurrence).

L’approche de C. Boggs est cependant elle-même inscrite dans la pensée des années 1970 et du néo-marxisme ambiant : anti-institutionnel (héritage de A. Gramsci2), antipositiviste, et faisant la jonction entre matérialisme historique et conscience de soi (on pense à J.-P. Sartre ou H. Marcuse, d’où l’importance de la transformation individuelle comme acte politique). Cela entre dans la « New Left » américaine3, cela intègre une partie des études féministes ou encore les cultural studies, et bien sûr l’anarchisme. Dans cette perspective et dans le contexte des années 1970, le préfigurativisme est une forme de socialisme décentralisé (Kann 1983) tout en prônant l’insurrection populaire. Du point de vue d’aujourd’hui, on pourra néanmoins ajouter que ce furent essentiellement des postures qui, comme le rappelle C. Malabou (Malabou 2022) sont surtout philosophiques et diffusées par des philosophes qui jamais ne se reconnaissent anarchistes et encore moins dans les faits (car ils sont détenteurs eux-mêmes de positions de pouvoir, à commencer par leurs statuts d’universitaires et d’intellectuels).

Pour autant, si les moyens structurels et les pratiques jouent un rôle fondamental dans les politiques préfiguratives, c’est parce que leur tradition est d’essence anarchiste sans pour autant se reconnaître et se théoriser comme telle (comme c’est souvent le cas dans les pratiques anarchistes de beaucoup de mouvements). Je pense que les néo-marxistes n’ont pas vraiment saisi les opportunités de la préfiguration comme mode d’action directe et de revendication. Par action directe, on pense bien sûr à ce que Boggs identifiait comme pratiques contre-institutionnelles (ce qui est toujours d’actualité, voir (Murray 2014)), mais comme revendication il s’agissait aussi de faire la démonstration des alternatives à l’ordre établi, tout comme aujourd’hui nous reconnaissons cette dimension aux mouvements dits « altermondialistes ». Il ne s’agit donc pas tant de remplacer la défense et la revendication de l’intérêt collectif par la mise en œuvre de pratiques quotidiennes (aussi démonstratives qu’elles puissent être), mais d’articuler l’intérêt collectif avec des moyens, des valeurs et des routines de manière cohérente, et c’est cette cohérence qui fonde la légitimité de l’alternative proposée. On peut illustrer cela, par exemple :

  • pour échapper à la dissonance cognitive permanente qu’un système capitaliste nous impose en nous obligeant à choisir entre sa justification permanente du progrès matériel et la défense de l’environnement soi-disant rétrograde, on peut proposer des modes de décision collective et mettre en pratique des systèmes de production et d’échanges économiques en dehors des concepts du capitalisme tout en montrant que les institutions classiques ne sont pas en mesure de défendre l’intérêt collectif,
  • à un bas niveau, on peut aussi démontrer que les mouvements sociaux (préfiguratifs ou non) ont tout intérêt à utiliser des logiciels libres en accord avec les valeurs qu’ils défendent (solidarité, partage…) plutôt que de se soumettre à la logique des plateformes proposées par les multinationales du numérique. C’est notamment le credo de Framasoft, une pierre à l’édifice de l’altermondialisation.

Ne pas oublier Marx

Pour revenir au néo-marxistes, je pense que leur point de vue pas-tout-à-fait-anarchiste vient de ce qu’ils sont eux-mêmes victimes de la tension qui s’est déclarée dès la Première Internationale entre les libertaires et les marxistes-collectivistes, et dont les résonances sont identifiées dans le texte de C. Boggs comme les obstacles à la préfiguration (cf. plus bas). Le premier élément qui vient en tête est ce conflit larvé entre Marx et Bakounine, où (pour grossièrement résumer4) le second oppose à l’organisation Internationale cette tendance à la bureaucratisation et à l’acceptation de fait de positions de pouvoirs. C’est-à-dire une opposition de deux types de militance. Celle des libertaires n’a pas pris le dessus, c’était celle de l’autonomie des sections et l’exercice démocratique de la prise de décision en assemblée et non par délégués interposés. En cela, les positions marxistes ont fini par se structurer autour de la revendication et la grève par une forme syndicaliste hiérarchisée et centralisée. Si on considère que c’est là l’un des points de rupture entre libertaires et marxistes, alors la préfiguration n’a effectivement pas pu être saisie toute entière par les néo-marxistes. Un autre point est qu’historiquement les anarchistes n’ont pas toujours cherché à inscrire la préfiguration dans le cadre d’une lutte de classe, mais souvent comme une présentation d’alternatives, au pluriel. Pourquoi au pluriel ? parce que un bonne politique préfigurative avance par essai et erreurs, « elle est expérimentale autant qu’expérientielle » (van de Sande 2015) et doit toujours se réajuster pour être formulée comme alternative aux formes d’injustices, d’inégalité et de répression que porte notamment le capitalisme.

À cela on peut cependant opposer que la pensée pratique de Marx recèle des éléments tout à fait pertinents pour une politique préfigurative. C’est la thèse de Paul Raekstad (Raekstad 2018) qui explore la philosophie de Marx dans ce sens. Selon Marx, pour mener une politique révolutionnaire, il ne faut pas seulement des sujets révolutionnaires, il faut aussi des sujets chez qui il y a un besoin révolutionnaire à satisfaire, c’est-à-dire une conscience révolutionnaire. Ainsi, une politique préfigurative est à même de produire cette conscience révolutionnaire dans la mesure où elle permet à « l’éducateur de s’éduquer ». Du point de vue de la transformation individuelle, si le comportement et les choix de vie peuvent être préfiguratifs, ils participent à une conscience de soi révolutionnaire et pour Marx, c’est ce qui fait la pratique révolutionnaire.

Ainsi, dans les Thèses sur Feuerbach (numéro 3), Marx écrit :

« La doctrine matérialiste du changement des circonstances et de l’éducation oublie que les circonstances sont changées par les hommes et que l’éducateur doit lui-même être éduqué. C’est pourquoi elle doit diviser la société en deux parties — dont l’une est élevée au-dessus d’elle.
La coïncidence du changement des circonstances et de l’activité humaine ou autochangement ne peut être saisie et rationnellement comprise que comme pratique révolutionnaire. »

Cette pratique s’accomplit aussi à travers l’assemblée qui n’est pas seulement une assemblée d’ouvriers, mais une assemblée où s’exerce une sorte de phénoménologie de la conscience collective révolutionnaire et où les moyens deviennent aussi la fin. Se rassembler et discuter est aussi important que le but du rassemblement :

Ainsi dans le Troisième Manuscrit de 1844, Marx écrit :

« Lorsque les ouvriers communistes se réunissent, c’est d’abord la doctrine, la propagande, etc., qui est leur but. Mais en même temps ils s’approprient par là un besoin nouveau, le besoin de la société, et ce qui semble être le moyen est devenu le but. »

Pour autant, il y a d’autres philosophies pratiques, plus modernes et plus à même de fonder une véritable philosophie préfigurativiste. Je crois que non seulement elle à chercher dans les approches anarchistes, mais aussi que Marx n’est pas le plus indiqué. Non pas que la philosophie de Marx ne s’y prêterait absolument pas mais vouloir tirer absolument de Marx des principes d’action qui à l’époque ne se posaient carrément pas en ces termes, me semble assez anachronique. La question est plutôt de savoir comment les actions des politiques préfiguratives sont rendues visibles, quel est leur caractère performatif et quels principes d’action on peut en tirer aujourd’hui.

Rendre visibles les mouvements préfiguratifs

Nous avons vu que chercher à définir les politiques préfiguratives ne les rend pas pour autant évidentes. Tantôt il s’agit de mouvements sociaux « exemplaires », tantôt une dialectique entre moyen et fin, tantôt une approche néo-marxiste anti-institutionnelle, tantôt une résurgence des idées libertaires qui pourtant n’échappent pas à la pensée pratique de Marx… L’erreur consiste peut-être à trop chercher à en saisir le concept plutôt que la portée. N’est-ce pas en fonction du caractère opérationnel de l’action directe que l’on peut en saisir le sens ?

Retournons du coté des définitions. On peut se pencher sur celle que donne Darcy Leach (Leach 2013), courte et élégante. Pour elle, la préfigurativité est…

« fondée sur la prémisse selon laquelle les fins qu’un mouvement social vise sont fondamentalement constituées par les moyens qu’il emploie, et que les mouvements doivent par conséquent faire de leur mieux pour incarner – ou “préfigurer” – le type de société qu’ils veulent voir advenir. »

En se reportant au texte (court) de Darcy Leach, on voit qu’elle ne cherche pas tant à présenter en long et en large ce que sont les « politiques préfiguratives ». En effet, un tel exercice n’aurait pas d’autre choix que de s’adonner à une litanie d’exemples. Exactement comme lorsqu’on présente des idées anarchistes et que, toujours confronté au défi de démontrer que ces idées peuvent « fonctionner », on se met invariablement à citer des exemples dont la démonstration est aussi longue que laborieuse. C’est tout simplement parce que les anarchistes théorisent l’anarchie mais l’anarchie, elle, est toujours en pratique, elle est même parfois indicible. Au lieu de cela D. Leach préfère résumer les trois raisons principales pour lesquelles elles peuvent échouer, celles identifiées déjà par C. Boggs, ce qui revient à définir par la négative :

  • « le jacobinisme, dans lequel les forums populaires sont réprimés ou leur souveraineté usurpée par une autorité révolutionnaire centralisée ;
  • le spontanéisme, une paralysie stratégique causée par des inclinations paroissiales ou antipolitiques qui empêchent la création de structures plus larges de coordination efficace ;
  • et le corporatisme, qui se produit lorsqu’une strate oligarchique d’activistes est cooptée, ce qui les conduit à abandonner les objectifs initialement radicaux du mouvement afin de servir leurs propres intérêts dans le maintien du pouvoir. »

Elle résume aussi pourquoi les mouvements préfiguratifs ont tant de mal à être correctement identifiés : c’est parce que dans les représentations courantes, ont s’attend toujours à voir dans les collectifs une forme hiérarchique stable, avec un leader et des suiveurs, ou avec un bureau (dans le cas d’une association), en somme, une représentation du mouvement selon une division des rôles bien rationnelle :

« Comme les théories des mouvements sociaux ont souvent supposé des acteurs instrumentalement rationnels et une organisation bureaucratique, les mouvements préfiguratifs sont souvent mal interprétés ou apparaissent comme des cas anormaux dans la recherche sur les mouvements sociaux. »

Il n’en demeure pas moins que lorsqu’on s’intéresse aux mouvements sociaux dans différents pays, les études sont loin d’être aussi pusillanimes quant à la lecture de ces mouvements à travers le prisme de la préfigurativité. Il y a même une tendance universaliste de ce point de vue. Ainsi Marina Sitrin (Sitrin 2012), qui s’intéresse à l’Argentine du début des années 2000 , affirme que la politique préfigurative est une manière d’envisager les relations sociales et économiques comme nous voudrions qu’elles soient. Si cette manière d’envisager les choses a des sources historiques profondes, c’est aussi parce qu’elle est loin d’être anecdotique :

« Dans le monde entier, il ne s’agit pas de petites « expériences », mais de communautés comprenant des centaines de milliers, voire des millions de personnes – des personnes et des communautés qui ouvrent des brèches dans l’histoire et créent quelque chose de nouveau et de beau dans cette brèche. »

Et on est bien tenté d’être d’accord avec ceci : pour peu que l’on regarde les mouvements sociaux depuis les années 2000, ceux qui prennent modèle sur les mouvements plus historiques ou les plus récents qu’ils soient internationaux ou plus locaux (comme les Zad en France), il est désormais très difficile de passer à côté de leur caractère préfiguratif tant il est porté systématiquement à la connaissance des observateurs comme une sorte d’identité revendicatrice et à portée universelle… altermondialiste ! Pour M. Sitrin, il faut surtout prendre en compte les mouvements apparemment spontanés mais qui se sont cristallisés sur un mode préfiguratif (justement pour limiter ce spontanéisme, cf. ci-dessus), pour répondre à une situation donnée, sans que pour autant on en voie les conséquences immédiates :

« Ces expériences à court terme vont de la France en mai 1968 à ce que l’on appelle aujourd’hui la Comuna de Oaxaca, en référence aux quatre-vingt-dix jours de 2006 pendant lesquels la population a occupé le zócalo (parc central), mettant en place des formes alternatives de prise de décision et de survie (…) ; ces deux expériences constituent le type de rupture auquel les zapatistes font référence, la création d’une pause dans une situation politiquement insoutenable. Des assemblées et des démocraties de masse similaires ont été observées en 2011 en Égypte, en Grèce et en Espagne. Les résultats de ces rassemblements de masse et de ces formations politiques préfiguratives n’ont pas encore été déterminés, mais ce qui est certain, c’est que de nouvelles relations sont en train de se créer. Les ruptures provoquées par des événements « naturels » – ou du moins par un moment d’étincelle, comme un tremblement de terre ou un attentat terroriste – ont donné lieu à des versions à court terme de ces mêmes événements. C’est ce qui s’est passé à New York pendant et immédiatement après le 11 septembre. »

Dans les années 1990, de nombreux mouvements sociaux se sont dressés de cette manière, sur un mode apparemment spontané et improvisé. En apparence seulement car les racines conceptuelles sont profondes.

L’avenir est contagieux : depuis les années 1990

Prenons par exemple ces deux évènements : la Conférence des Nations Unies sur l’environnement et le Développement, autrement nommée Sommet de la Terre à Rio en 1992, et la même année la publication du livre de F. Fukuyama La fin de l’histoire et le dernier homme. Le Sommet de la Terre proposait pour la première fois un texte fondateur de 27 principes, intitulé « Déclaration de Rio sur l’environnement et le développement », précisait la notion de développement durable, et proposait une série d’action pour le 21ᵉ siècle, l’« Agenda 21 ». Ce faisant, la renommée de ce Sommet aidant, le message qui était alors compris par bon nombre d’ONG et autres mouvements était celui d’une projection générale de l’économie dans un 21ᵉ siècle dont on espérait qu’il soit le moment d’un rééquilibrage des forces entre l’extraction capitaliste de la nature et l’avenir de la Terre. La même année le livre de Fukuyama proposait de voir dans la fin de la Guerre Froide la victoire définitive de la démocratie libérale sur les idéologies, c’est-à-dire que la politique était désormais réduite à n’être que le bras de la nécessité économique instruite par le néolibéralisme (j’extrapole un peu mais c’est l’idée reçue). Fukuyama n’était pas célèbre, ce qui le rendit célèbre durant les deux ou trois années suivantes, c’est la réception qu’a eu son livre dans les milieux néolibéraux et la caisse de résonance de certains médias, alors même que la plupart des philosophes regardaient cela d’un air plutôt goguenard (je m’en souviens un peu, j’étais en fac de philo ces années-là). Donc deux discours sur le futur s’affrontaient : le premier donnait de l’espoir dans les politiques publiques, le second privait complètement les populations de la construction de futurs alternatifs, et c’est ce qui fut finalement rabâché à partir du slogan (certes un peu plus ancien) thatchérien « There is no alternative », y compris jusqu’à aujourd’hui.

La conséquence de cette dissonance touche tous les individus parce que l’avenir est plus qu’incertain, il devient une menace pour chacun lorsque la politique n’est plus en mesure de proposer de « plan B », ni même de négociation, lorsque la « nécessité économique » sert de justification systématique au recul des conquêtes sociales, là, toute proposition progressiste d’un parti ou d’une idéologie n’est même plus crédible (la longue chute du socialisme français en est l’illustration éclatante).

Comme le philosophe italien Franco Berardi (Bifo) l’affirme dans Dopo il futuro (Berardi 2011), cette lente « annulation de l’avenir » c’est désormais bien plus que le vieux slogan punk, cela fait plus que toucher les gens, cela touche la chair et le mental :

« L’avenir devient une menace lorsque l’imagination collective devient incapable d’envisager des alternatives aux tendances qui conduisent à la dévastation, à l’augmentation de la pauvreté et de la violence. C’est précisément notre situation actuelle, car le capitalisme est devenu un système d’automatismes technico-économiques auxquels la politique ne peut se soustraire. La paralysie de la volonté (l’impossibilité de la politique) est le contexte historique de l’épidémie de dépression actuelle. »

Et c’est justement ce contre quoi les oppositions altermondialistes se battent, à commencer par se réapproprier le futur, répondre à un message négatif en proposant positivement un avenir en commun. Et c’est dans ce cadre que les politiques préfiguratives évoluent.

Cette jonction entre la préfigurativité et l’aspiration à un autre avenir est aux mouvements sociaux le fer de leur conscience révolutionnaire et d’une liberté retrouvée. C’est pourquoi David Graeber n’hésite pas à déclarer que la préfigurativité est une arme politique des plus efficaces, si ce n’est la plus efficace. Elle se retrouve de Occupy à la Zad de N-D des Landes, au Rojavas et au Chiapas, dans les mouvements en Grèce, en Espagne, en Égypte (les Printemps..), dans les mouvement indigènes comme au Brésil, etc. D. Graeber écrit dans la préface à Éloge des mauvaises herbes: ce que nous devons à la Zad (Lindgaard et al. 2018) :

« La ZAD a gagné contre un très grand projet d’infrastructure. Elle a gagné en utilisant l’une des armes politiques les plus puissantes, celle de la préfiguration (…). La préfiguration est l’exact contraire de l’idée que la fin justifie les moyens. Plutôt que de calculer comment renverser le régime actuel, en formulant l’hypothèse que d’une manière ou d’une autre quelque chose de neuf en surgira spontanément, vous essayez de faire de la forme de votre résistance un modèle de ce à quoi la société à laquelle vous aspirez pourrait ressembler. Cela signifie aussi que vous ne pouvez pas reporter, disons, la question des droits des femmes, ou celle de la démocratie interne à “après la révolution” : ces questions doivent être traitées dès maintenant. À l’évidence, ce que vous obtiendrez ne sera jamais le modèle exact d’une future société libre – mais il s’agira au moins d’un ordre social qui pourrait exister en dehors de structures de coercition et d’oppression. Cela signifie que les gens peuvent avoir une expérience immédiate de la liberté, ici et maintenant. Si l’action directe consiste pour les activistes à relever avec constance le défi qui consiste à agir comme si l’on était déjà libre, la politique préfigurative consiste à relever avec constance le défi de se comporter les uns vis-à-vis des autres comme nous le ferions dans une société véritablement libre.(…) Bien évidemment, la ZAD est une expérience à beaucoup plus petite échelle, mais ce qu’elle nous a appris, c’est que même au cœur de l’Europe nous pouvons réussir à créer des espaces d’autonomie – et même si ce n’est que pour un temps limité. Être conscient que de tels lieux existent nous permet de voir tout ce que nous faisons sous un jour nouveau : nous sommes déjà des communistes lorsque nous travaillons sur un projet commun, nous sommes déjà des anarchistes lorsque nous trouvons des solutions aux problèmes sans le recours aux avocats ou à la police, nous sommes tous des révolutionnaires lorsque nous créons quelque chose de véritablement nouveau. »

Et comme il n’y a pas de meilleur argument que l’exemple, dans Comme si nous étions déjà libres, D. Graeber envisage le mouvement Occupy Wall Street comme une politique préfigurative, en ces termes :

« Occupy Wall Street s’est d’abord inspiré des traditions de la démocratie directe et de l’action directe. Du point de vue anarchiste, la démocratie directe et l’action directe sont (ou devraient être) deux aspects d’une même idée : la forme de nos actions doit servir de modèle ou offrir un aperçu de la façon dont des gens libres peuvent s’organiser et de ce à quoi pourrait ressembler une société libre. Au début du XXᵉ siècle, c’est ce qu’on appelait “construire la nouvelle société dans la coquille de l’ancienne”, et dans les années 1980 et 1990, on l’a appelé “politique préfigurative”. Or, quand les anarchistes grecs déclarent : “nous sommes l’avenir”, ou que les Américains affirment créer une civilisation d’insurgés, ils parlent en fait d’une même chose. Nous parlons de cette sphère où l’action devient elle-même prophétie. »

L’avenir est important : il est contagieux. Les mouvements altermondialistes se sont construits en première intention sur l’idée d’un « contagionnisme », c’est-à-dire l’idée que mettre en place des dispositifs solidaires ne suffit pas et que les organisations fondées sur la démocratie directe et des formats non-hiérarchisés peuvent être des modèles contagieux. En d’autres termes, altermondialiste signifie surtout que la vision du monde alternative qui est proposée est avant tout celle où la démocratie s’exerce, ce qui sous-entend que la mondialisation économique et politique contrevient à la démocratie. La place laissée à la parole, à l’exercice de l’écoute, à la possibilité d’obtenir des décisions collectives éclairées et consensuelles font partie intégrante de l’organisation politique et changent la perception de ce qu’il est possible de faire et donc d’opposer au système mondialiste ou capitaliste. Ces formats non hiérarchisés marquent la fin d’une époque révolue où les mouvements protestataires obéissaient à des jeux internes de prise de parole, d’affichage et pour finir des jeux de pouvoir et des têtes d’affiche. On le voit au niveau local où les autorités et autres administrations ont tendance à rechercher dans une association un président, un bureau, une forme hiérarchique pour identifier non pas le mouvement mais les personnes sous prétexte de responsabilisation de l’action. Une politique de préfiguration ne cherche pas tant à dé-responsabiliser les individus mais à exercer la démocratie directe dans les processus de prise de décision et d’action.

Pour citer encore D. Graeber :

« Depuis le mouvement altermondialiste, l’époque des comités de direction est tout à fait révolue. La plupart des militants de la communauté en sont arrivés à l’idée de la politique “préfigurative”, idée selon laquelle la forme organisationnelle qu’adopte un groupe doit incarner le type de société qu’il veut créer. »

Tout le reste consiste à créer des opportunités pour que ceux qui sont ou ne sont pas (pas encore) dans une dynamique militante puissent s’insérer dans ce type de démarche au lieu d’en rester à une attitude de retrait ou dans de vieux concepts de la militance.

Répondre à la question : comment faire ?

Pour le sociologue Luke Yates (Yates 2015), parler de politiques préfiguratives consiste à porter l’attention sur le fait que les militants expriment les objectifs politiques par les moyens des actions qu’ils entreprennent. C’est une inversion de l’adage « la fin justifie les moyens ». Alors que cet adage privilégie l’objectif au détriment d’autres considérations tout en cherchant à remplacer un état du monde par un autre, une politique préfigurative ajuste l’action à l’opposition à un état du monde pour non pas remplacer mais proposer une alternative dont l’expression et l’avènement est en quelque sorte déjà-là puisqu’il est expérimenté par le groupe militant, ici et maintenant, dans un espace géographique et au présent. On retrouve une part du « on est là » des Gilets Jaunes en France par exemple, ou les Zad, etc.

L. Yates prend l’exemple des centres sociaux autonomes de Barcelone. Selon lui, une politique préfigurative n’a de sens qu’en définissant correctement la logique des constructions d’alternatives qui doivent elles-mêmes être évaluée au sein du mouvement pour s’assurer de leur solidité et de leur opérationnalité dans l’avenir. Ainsi L. Yates identifie cinq composantes de la préfiguration (il les nomme : « expérimentation », « perspectives », « conduite », « consolidation » et « diffusion ») :

  1. L’expérimentation collective : concernant les pratiques quotidiennes (prise de parole, processus de décision, discussions, partage de connaissances, etc.), l’expérimentation consiste aussi à envisager collectivement des moyens plus performants pour l’avenir et donc émettre une critique des processus en place, ce qui suppose une attention permanente et une forme de conscience de soi.
  2. Perspectives et imagination : des cadres de création (réunions, séminaires, avec principes de fonctionnement, slogan, éducation populaire, etc.) et des concepts politiques qui cherchent à définir le mouvement mais aussi à communiquer ces idées en interne comme vers l’extérieur.
  3. Conduite : des normes qui émanent des expérimentations et des perspectives politiques qui s’ouvrent. Alors qu’on retient souvent des mouvements sociaux leurs expérimentations et leurs cadres de gouvernance collective, il ne faut pas oublier qu’en réalité les résultats de ces expérimentations créent des nouvelles routines et de nouveaux cadres de gouvernance qui ne sont pas seulement des choix tactiques de militance mais peuvent définir une réorientation du mouvement (par exemple à Framasoft, notre orientation vers l’éducation populaire).
  4. Consolidation : le mouvement doit aussi consolider ces normes, idées et cadres dans l’infrastructure elle-même (division de l’espace, cuisine commune, partage de biens, systèmes de communication, etc.) et cette infrastructure est aussi le reflet des valeurs partagées autant qu’elles les illustrent.
  5. Diffusion : se projeter au-delà du présent et du lieu pour diffuser (manifestations publiques, médias, protestations, actions directes militantes, happenings etc.) et expliquer ces idées vers d’autres réseaux, groupes, collectifs, publics.

Pour ma part, je rejoins L. Yates sur ces composantes, mais je pense plutôt la politique préfigurative comme une dialectique entre, d’un côté les moyens et actions préfiguratifs eux-mêmes, et de l’autre côté, la déconstruction systématique de la vision du monde contre laquelle on oppose une alternative. En d’autres termes une politique préfigurative n’a de sens aujourd’hui que si elle participe à la déconstruction autant conceptuelle qu’opérationnelle du capitalisme. D’un point de vue conceptuel, l’action directe démontre opérationnellement les travers du capitalisme (ou du néolibéralisme) mais il faut encore conceptualiser pour transformer l’action en discours qui entre alors en dialectique et justifie l’action (tout comme le capitalisme crée des discours qui l’auto-justifient, par exemple la notion de progrès). Du point de vue opérationnel, en retour, l’opposition se fait frontalement et entre en collision avec les forces capitalistes. Cela peut donner lieu à des tensions et affrontements selon le degré que ressentent les autorités et le pouvoir dans l’atteinte à l’ordre social qui se définit par rapport au capitalisme (et non par rapport à des valeurs : si l’action ne remettait en cause que des valeurs, alors la discussion serait toujours possible).

Questions en vrac pour finir

Et le vote ? Dans beaucoup de mouvements préfiguratifs, le vote est un des instruments privilégiés de la démocratie directe, même s’il n’en est qu’un des nombreux instruments. Ma crainte, toujours lorsqu’il s’agit de vote, est d’y voir une tendance quelque peu paresseuse à accepter qu’un pouvoir soit délégué à quelques-uns, ce qui est toujours une brèche ouverte à des jeux de domination. Selon moi, le vote est à considérer par défaut comme l’échec du consensus. Certes, un consensus est parfois difficile à obtenir : peut-être que dans ce cas, il faut se poser la bonne question, ou bien la poser autrement, c’est-à-dire se demander pourquoi le consensus est absent ? Certains n’hésiteront pas à rétorquer que si l’on veut préfigurer le monde futur, le vote est un instrument efficace face à la difficulté d’obtenir consensus de la multitude des individus et sur un temps raccourci. Je pense qu’il faut prendre le temps lorsqu’il le faut parce qu’en réalité, une fois que la dynamique consensuelle est installée seule les plus grandes décisions prennent du temps. Par ailleurs, un vote est la réponse à une question qui est en soi une réduction des enjeux qui ne peuvent alors plus être discutés.

La lente « annulation de l’avenir » que mentionne Franco Berardi, n’est-elle pas aussi une conséquence de la dépossession systématique dont procède le capitalisme ? Cela rejoint mes réflexions en cours sur les justifications du capitalisme. Il faut entendre la dépossession de deux manières : dépossession du travail et de l’expertise par la dynamique techno-capitaliste, mais aussi la dépossession de nos savoir-être et savoir-faire (ce que B. Stiegler appelait notre prolétarisation). La préfiguration pourrait-elle être un remède ou est-elle un pharmakon ?

Ce que nous vivons dans les mouvements préfiguratifs est à la fois riche et intimidant. Dans les dynamiques internes des mouvements, se pose souvent la question de la légitimité des personnes. Légitimité à prendre la parole, à proposer son expertise et son savoir-faire, etc. Autant on peut toujours se prévaloir d’une écoute partagée et bienveillante autant il est difficile de garantir à chacun un espace où l’on peut s’exprimer et se sentir légitime à le faire, au risque de l’exclusion du groupe. Comment y remédier ? Quelles sont les conséquences : est-ce que la portée préfigurative revendiquée n’est pas elle-même la source du ressenti personnel d’un manque de légitimité chez certains participant-es ?

Préfiguration et syndicalisme… Lors du mouvement contre la réforme des retraites en France en 2023, le rythme des manifestations obéissait essentiellement à l’Inter-syndicale. Au mois de mai, certains syndicats (notamment la CFDT) ont finalement accepté le rendez-vous avec la Première Ministre. Pire : ils ont accepté la règle imposée des rendez-vous séparés, c’est-à-dire la fin de l’Inter-syndicale. Alors même que la plupart des manifestants voyaient dans le fait de décliner les rendez-vous successifs comme une preuve de résistance dans le rapport de force entre gouvernement et syndicats. On comprend alors beaucoup mieux pourquoi les étudiants, dans la plupart des manifestations, cherchaient non seulement à défiler séparément, mais aussi à ne pas obéir au coup de sifflet syndicaliste à la fin des manifestations et poursuivre de manière apparemment désordonnée la démonstration de leur mobilisation. Sur beaucoup de campus, c’est bien la préfigurativité qui prévaut, ne serait-ce que dans les assemblées générales. Le syndicalisme me semble malheureusement hors jeu de ce point de vue : grèves et manifestations ne suffisent plus face à la « nécessité » de l’ordre économique asséné par le pouvoir et ses institutions. Après la grève, l’ordre du monde et des institutions est rétabli, or ce qui est en jeu aujourd’hui (et l’urgence climatique n’en est qu’un levier) c’est justement la recherche d’un nouvel ordre économique, culturel et philosophique. Si les politiques préfiguratives sont invisibilisées, il est à craindre que le nouvel ordre soit en fait une radicalisation du pouvoir. L’adage n’est plus « faire et faire tout de même », il est devenu : « faire, faire sans eux, faire contre eux ».

Bibliographie

Angaut, Jean-Christophe. 2007. “Le conflit Marx-Bakounine dans l’internationale : une confrontation des pratiques politiques.” Actuel Marx 41 (1): 112–29. https://doi.org/10.3917/amx.041.0112.

Berardi, Franco. 2011. After the future. Edited by Gary Genosko and Nicholas Thoburn. Edinburgh, Royaume-Uni de Grande-Bretagne et d’Irlande du Nord.

Boggs, Carl. 1977a. “Marxism, Prefigurative Communism, and the Problem of Workers’ Control.” Radical America 11 (6): 99–122. https://theanarchistlibrary.org/library/carl-boggs-marxism-prefigurative-communism-and-the-problem-of-workers-control.

———. 1977b. “Revolutionary Process, Political Strategy, and the Dilemma of Power.” Theory and Society 4 (3): 359–93. https://www.jstor.org/stable/656724.

Breines, Wini. 1989. Community and Organization in the New Left, 1962-1968: The Great Refusal. New edition. New Brunswick N.J.: Rutgers University Press.

Eckhardt, Wolfgang. 2016. First Socialist Schism: Bakunin vs. Marx in the International Working Men’s Association. Oakland: PM Press. https://theanarchistlibrary.org/library/wolfgang-eckhardt-the-first-socialist-schism.

Kann, Mark E. 1983. “The New Populism and the New Marxism: A Response to Carl Boggs.” Theory and Society 12 (3): 365–73. https://www.jstor.org/stable/657443.

Leach, Darcy K. 2013. “Prefigurative Politics.” In The Wiley-Blackwell Encyclopedia of Social and Political Movements. John Wiley & Sons, Ltd. https://doi.org/10.1002/9780470674871.wbespm167.

Lindgaard, Jade, Olivier Abel, Christophe Bonneuil, Patrick Bouchain, and David Graeber. 2018. Éloge Des Mauvaises Herbes: Ce Que Nous Devons à La ZAD. Paris, France: Éditions les Liens qui libèrent.

Malabou, Catherine. 2022. Au Voleur !: Anarchisme Et Philosophie. Paris, France: PUF.

Murray, Daniel. 2014. “Prefiguration or Actualization? Radical Democracy and Counter-Institution in the Occupy Movement.” Berkeley Journal of Sociology, en ligne, November. https://berkeleyjournal.org/2014/11/03/prefiguration-or-actualization-radical-democracy-and-counter-institution-in-the-occupy-movement/.

Raekstad, Paul. 2018. “Revolutionary Practice and Prefigurative Politics: A Clarification and Defense.” Constellations 25 (3): 359–72. https://doi.org/10.1111/1467-8675.12319.

Renou, Gildas. 2020. “Exemplarité et mouvements sociaux.” In Dictionnaire des mouvements sociaux, 2e éd.:244–51. Références. Paris: Presses de Sciences Po. https://doi.org/10.3917/scpo.filli.2020.01.0244.

Sande, Mathijs van de. 2015. “Fighting with Tools: Prefiguration and Radical Politics in the Twenty-First Century.” Rethinking Marxism 27 (2): 177–94. https://doi.org/10.1080/08935696.2015.1007791.

Sitrin, Marina A. 2012. Everyday Revolutions: Horizontalism and Autonomy in Argentina. 1st edition. Zed Books.

Yates, Luke. 2015. “Rethinking Prefiguration: Alternatives, Micropolitics and Goals in Social Movements.” Social Movement Studies 14 (1): 1–21. https://doi.org/10.1080/14742837.2013.870883.

Notes


  1. « By “prefigurative”, I mean the embodiment, within the ongoing political practice of a movement, of those forms of social relations, decision-making, culture, and human experience that are the ultimate goal. Developing mainly outside Marxism, it produced a critique of bureaucratic domination and a vision of revolutionary democracy that Marxism generally lacked. » ↩︎

  2. Pour résumer, il s’agit de dire que la domination, ou l’hégémonie, du capitalisme n’est pas un fait qui est indépendant des organes de l’État, mais au contraire ce sont les institutions qui l’organisent et perpétuent les rapports de force, quels que soient les partis et leurs bonnes intentions idéologiques. On retrouve cela aussi chez L. Althusser. En d’autres termes, si Marx a pensée la société de manière totale, il a aussi montré que les rapports de force sont structurés de manière complexe et dans cette complexité, on reconnaît des dominantes (par exemple certaines organisations locales peuvent avoir du pouvoir tandis que l’institution centrale a tendance à l’écraser). Il y a aussi ce concept d’ « autonomie relative » des institutions : certaines peuvent pour un temps se saisir légitimement des questions sociales, notamment en raison du jeu de pouvoirs entre partis politiques, mais en définitive l’État impose la domination capitaliste. ↩︎

  3. La plupart des auteurs s’accordent sur le fait que les nombreux mouvements qu’on regroupe sous le terme « Nouvelle gauche » des années 1960-1970 peuvent être analysés comme des politiques préfiguratives. Cela est surtout dû à l’analyse qu’en donne la sociologue Wini Breines dans l’étude de cas qu’elle a consacré sur le Free Speech Movement, et le Students for a Democratic Society (SDS) (Breines 1989). On peut cependant noter que si cet ouvrage porte essentiellement sur les États-Unis des années 1960, il a fait école. Ainsi Marina Sitrin reprend l’approche dans son étude sur les mouvements argentins (Sitrin 2012). ↩︎

  4. On peut se reporter à cet excellent article de Jean-Christophe Angaut: « Le conflit Marx-Bakounine dans l’internationale : une confrontation des pratiques politiques » (Angaut 2007), et pour vraiment approfondir, le livre de Wolfgang Eckhardt, sur le conflit Marx vs Bakounine dans l’Association Internationale des Travailleurs (Eckhardt 2016). ↩︎


Publié le 19.03.2023 à 01:00

Sur l’anarchie aujourd’hui

Dans ce petit texte, G. Agamben nous rappelle cet interstice où le pouvoir s’exerce, entre l’État et l’administration dans ce qu’il est convenu d’appeller la gouvernance. En tant que système, elle organise le repli des pouvoirs séparés de la justice, de l’exécutif et du législatif dans un grand flou : de la norme ou de la standardisation, des agences au lieu des institutions traditionnelles, le calcul du marché (libéral) comme grand principe de gestion, etc. Pour G. Agamben, la lutte anarchiste consiste justement à se situer entre l’État et l’administration, contre cette gouvernance qui, comme le disait D. Graeber (dans Bullshit Jobs), structure l’extraction capitaliste. On pourra aussi penser aux travaux d’Alain Supiot (La Gouvernance par les nombres) et ceux aussi d’Eve Chiapello sur la sociologie des outils de gestion.


Sur l’anarchie aujourd’hui

Par Giorgio Agamben (février 2023).

Traduction reprise d'Entêtement avec de très légères corrections.

Texte original sur Quodlibet.

Si pour ceux qui entendent penser la politique, dont elle constitue en quelque sorte le foyer extrême ou le point de fuite, l’anarchie n’a jamais cessé d’être d’actualité, elle l’est aujourd’hui aussi en raison de la persécution injuste et féroce à laquelle un anarchiste est soumis dans les prisons italiennes. Mais parler de l’anarchie, comme on a dû le faire, sur le plan du droit, implique nécessairement un paradoxe, car il est pour le moins contradictoire d’exiger que l’État reconnaisse le droit de nier l’État, tout comme, si l’on entend mener le droit de résistance jusqu’à ses ultimes conséquences, on ne peut raisonnablement exiger que la possibilité de la guerre civile soit légalement protégée.

Pour penser l’anarchisme aujourd’hui, il convient donc de se placer dans une tout autre perspective et de s’interroger plutôt sur la manière dont Engels le concevait, lorsqu’il reprochait aux anarchistes de vouloir substituer l’administration à l’État. Dans cette accusation réside en fait un problème politique décisif, que ni les marxistes ni peut-être les anarchistes eux-mêmes n’ont correctement posé. Un problème d’autant plus urgent que nous assistons aujourd’hui à une tentative de réaliser de manière quelque peu parodique ce qui était pour Engels le but déclaré de l’anarchie – à savoir, non pas tant la simple substitution de l’administration à l’État, mais plutôt l’identification de l’État et de l’administration dans une sorte de Léviathan, qui prend le masque bienveillant de l’administrateur. C’est ce que théorisent Sunstein et Vermeule dans un ouvrage (Law and Leviathan, Redeeming the Administrative State) dans lequel la gouvernance, l’exercice du gouvernement, dépasse et contamine les pouvoirs traditionnels (législatif, exécutif, judiciaire), exerçant au nom de l’administration et de manière discrétionnaire les fonctions et les pouvoirs qui étaient les leurs.

Qu’est-ce que l’administration ? Minister, dont le terme est dérivé, est le serviteur ou l’assistant par opposition à magister, le maître, le détenteur du pouvoir. Le mot est dérivé de la racine *men, qui signifie diminution et petitesse. Le minister s’oppose au magister comme minus s’oppose à magis, le moins au plus, le petit au grand, ce qui diminue à ce qui augmente. L’idée d’anarchie consisterait, du moins selon Engels, à essayer de penser un ministre sans magister, un serviteur sans maître. Tentative certainement intéressante, puisqu’il peut être tactiquement avantageux de jouer le serviteur contre le maître, le petit contre le grand, et de penser une société dans laquelle tous sont ministres et aucun magister ou chef. C’est en quelque sorte ce qu’a fait Hegel, en montrant dans sa fameuse dialectique que le serviteur finit par dominer le maître. Il est néanmoins indéniable que les deux figures clés de la politique occidentale restent ainsi liées l’une à l’autre dans une relation inlassable, qu’il est impossible de solutionner une fois pour toutes.

Une idée radicale de l’anarchie ne peut alors que se dissoudre dans l’incessante dialectique du serviteur et de l’esclave, du minister et du magister, pour se situer résolument dans l’écart qui les sépare. Le tertium qui apparaît dans cet écart ne sera plus ni administration ni État, ni minus ni magis : il sera plutôt entre les deux comme un reste, exprimant leur impossibilité de coïncider. En d’autres termes, l’anarchie est d’abord et avant tout le désaveu radical non pas tant de l’État ni simplement de l’administration, mais plutôt de la prétention du pouvoir à faire coïncider État et administration dans le gouvernement des hommes. C’est contre cette prétention que l’anarchiste se bat, au nom finalement de l’ingouvernable, qui est le point de fuite de toute communauté entre les êtres humains.

26 février 2023

Giorgio Agamben


Publié le 07.03.2023 à 01:00

Pour un web désencombré

Et si nous nous mettions en quête d’une low-technicisation du web ? Cela implique de faire le tri entre le superflu et le nécessaire… donc d’ouvrir un espace de discussion avant que d’autres s’en emparent et nous façonnent un web à leur image où se concentreraient les pouvoirs. Nous voulons un web en commun qui respecte les communs. Ce billet est une modeste tentative pour amorcer un débat.


– Ton blog est tout moche, c’est normal ?

– Il n’est pas moche, son contenu est structuré à peu près correctement selon les préconisations standards HTML et avec une feuille de style minimaliste.

– oui, mais pourquoi ? il n’était déjà pas bien joli, joli auparavant…

– Parce que le web est encombré, cela a un coût environnemental non négligeable et la présentation tend à prévaloir sur les contenus en sacrifiant le sens et la pertinence de ceux-ci. À ma mesure, j’essaie de participer à un web plus léger.

– Et tu penses qu’il y a tant de monde pour lire ta prose que cela fera une différence ?

– non, d’ailleurs tu peux aller voir ailleurs, si cela ne te plaît pas.


Oui, je sais : low-tech, low-num, ces mouvements sont au goût du jour et il est de bon ton d’y participer au moins de loin, à titre individuel ou collectif. Ce que vous lisez n’est qu’un blog personnel mais il me semble intéressant d’y émettre tout de même une réflexion à ce propos.

Avant de devenir un argument, l’urgence climatique et environnementale est d’abord le constat d’une crise factuelle qui concerne tous les secteurs d’activités de productions et d’usages. Nos pratiques numériques, et tout particulièrement l’inaction face au capitalisme des plateformes, contribue pour une part significative au gaspillage énergétique de l’humanité (et cette partie de l’humanité la plus nantie) et cela a des répercutions extrêmement néfastes sur l’environnement et le changement climatique. Il est crucial et urgent aujourd’hui de prendre non seulement du recul mais agir de manière assez stricte pour limiter ce gaspillage. Si toutefois nous voulons maintenir un semblant d’activité numérique à l’avenir, il va falloir créer des espaces communs de réflexion et d’action avant de se voir imposer des règles qui finiront, comme d’habitude, par concentrer les pouvoirs en concentrant les technologies au bénéfice de ceux qui en auront les moyens.

S’il doit y avoir un nouvel ordre numérique, il doit être issu d’une logique d’action collective qui procède de deux mouvements complémentaires : la réappropriation collective des technologies de communication (la lutte contre les plateformes monopolistes et le capitalisme de surveillance) et l’élaboration d’espaces communs d’échanges et d’expérimentation pour élaborer collectivement nos choix, ce que nous voulons et ne voulons pas, le nécessaire et le superflu. Ces espaces sont supportés par le logiciel libre et le mouvement des communs numériques, par l’éducation populaire et les capacités des groupes à exercer des échanges et des relations démocratiques. Cela suppose deux engagements : préfigurer le monde numérique que nous voulons pour demain et lutter plus ou moins durement contre l’accaparement des moyens de production et des conditions d’échanges communicationnels.

Une fois cela dit… ce ne sont que des mots. Ils ont un intérêt, toutefois : ils placent la critique des technologies dans un débat politique qui transcende la seule action individuelle. Alors, oui, réfléchir à l’encombrement du web aujourd’hui, ce n’est pas une tendance luddite ou rétrograde pour nous « faire revenir » au web des années 1990, c’est une réflexion qui engage notre rapport aux communications et aux contenus web pour que l’innovation soit aussi un choix de vie responsable.

Pour ce qui suit, je ne pourrai ici parler que de mon expérience personnelle, celle d’un utilisateur, d’abord, et celle d’un tout petit créateur de contenus. J’ai quelques sites web amateurs à mon actif et je m’amuse avec les réseaux en général. Et si je suis aussi un grand nostalgique des vieux gros ordinateurs des années 1960, c’est surtout à cause de mon travail d’historien, mais cette partie de l’histoire des machines et des réseaux est aussi un socle sur lequel on peut construire des représentations intéressantes des activités numériques.

État des lieux

Le web, c’est quoi ? Wikipédia nous le dit très bien : « un système hypertexte public fonctionnant sur Internet ». On y accède avec un client HTTP, le plus souvent un navigateur qui permet d’afficher des « pages web ». On peut évaluer le web d’aujourd’hui avec au moins deux points de comparaison : avant HTTP & HTML, et après.

Le point de rupture se situe donc entre 1991 et 1992. En 1991, la définition originale de HTTP version 0.9 par T. Berners-Lee était surtout une présentation succincte et à visée technique tandis qu’en 1992, le mémo HTTP 2 est une présentation beaucoup plus aboutie et concrète. Pour en comprendre la portée, T. Berners-Lee explique pourquoi les systèmes d’information doivent évoluer vers HTTP :

« Les systèmes d’information utiles exigent plus de fonctionnalités que la simple collecte, notamment la recherche, la mise à jour frontale et le traitement des annotations. Ce protocole permet d’utiliser un ensemble ouvert de méthodes (…). »

En 1996, T. Berners-Lee n’est cette fois pas seul pour rédiger la RFC 1945 et dans l’introduction la même phrase est reprise. C’est la même chose en 1999, etc.

Pourquoi est-ce si important ? Il ne faudrait surtout pas croire qu’avant 1991, les réseaux n’avaient pas de quoi structurer des contenus et les diffuser avec des applicatifs tout à fait sérieux. Qu’il s’agisse du vénérable Telex ou du plus moderne Teletex des années 1980, l’accès aux contenus sur les réseaux était tout à fait praticable, surtout après l’arrivée des premiers terminaux à écran. Pour ce qui concerne la création de contenus textuels, il y avait déjà l’ancêtre du HTML : le SGML (Standard Generalized Markup Language), un langage de balisage créé en 1969 et standardisé (ISO) qui vise à produire des textes structurés avec des styles, et donc accessible parfaitement via n’importe quel protocole pourvu qu’on s’entende sur la nature du document (la définition de la nature du document ou DTD). Donc de ce point de vue, SGML, HTML, XML sont des balisages similaires et dont les principes remontent à l’âge d’or des réseaux.

Qu’apporte le HTTP, dans ce cas ? d’abord le support des en-têtes des documents dans un format lui-même standardisé (MIME), ensuite, au fil des améliorations, ce sont surtout les notions de requêtes multiples et de négociation entre client et serveur qui sont importantes : savoir quels types de contenus sont « requêtés » et envoyés et depuis quel serveur (l’adresse de l’hôte). Viennent enfin plus récemment les spécifications pour le transfert sécurisé (HTTPS).

En d’autres termes, même si vous n’avez pas bien compris les paragraphes précédents, ce n’est pas grave. Voici l’essentiel : HTTP est un protocole de communication ouvert qui permet de trimballer plusieurs types de contenus et, au fur et à mesure de l’évolution de HTTP dans l’histoire, on ne s’est pas limité à la seule transmission de documents « texte » en HTML mais on a favorisé l’interactivité tels l’édition de pages web ou quelques applicatifs (Webdav, Cardav, Caldav), et surtout les scripts qui permettent de trimballer toujours plus de contenus multimédias.

Toute cette évolution est basée sur un principe : s’entendre sur des protocoles communs et ouverts de manière à échanger toujours plus de contenus différents quel que soit l’ordinateur et le langage de l’utilisateur. Le World Wide Web devait et doit toujours être un espace en commun (même si ce principe est fortement remis en question par certains gouvernements). Par définition, aucune limite pratique n’a été décrétée et c’est heureux : la multiplication des échanges est fondamentalement quelque chose de positif.

Par contre, deux critiques doivent absolument être entendues. La première est classique : le web est en grande partie devenu dépendant de quelques grandes entreprises qui en concentrent l’essentiel et exercent par conséquent un pouvoir exorbitant (avec la connivence des gouvernements) sur le bon usage de ce commun et par conséquent sur l’accès égalitaire à l’information et la liberté d’expression. Tim Berners Lee a lui-même publiquement dénoncé ce fait qui a détourné le web de sa vocation initiale.

L’autre critique est complémentaire à la première : l’abus de contenus, de présentation de contenus et de pompage de données a rendu le web carrément encombré. Entre la publicité, l’économie de l’attention, le streaming, les images : il est devenu de plus en plus difficile de se livrer à la première vocation du web : chercher, trouver et lire des contenus pertinents. L’évolution du poids des pages web est un indicateur fondamental pour se rendre compte à quel point, malgré l’augmentation de la rapidité de nos connexions, notre manière de créer des contenus est devenue délétère pour l’environnement comme pour la pertinence de ces contenus. La publicité joue évidemment un rôle prépondérant dans cet effet (voir Pärsinnen et al, 2018). Mais le plus alarmant à mes yeux, c’est le rapport entre le contenu HTML d’une page et son poids : en 2020, le contenu HTML d’une page web en 2020 pèse environ 1,3% du poids de la page. Cela signifie que la structure et le contenu informatif sont littéralement noyés dans une masse de données secondaires. Et parmi ces données secondaires, je soutiens que la grande majorité est parfaitement inutile.

Critique des contenus

Si de nombreuses voix s’élèvent depuis des années au sujet du capitalisme de surveillance, la question de la sobriété du web est plus délicate. Que sommes-nous prêts à sacrifier au nom d’une plus grande sobriété du web tout en cherchant à optimiser les contenus et leurs diffusion égalitaire et libre ? Après avoir été pendant des années biberonnés aux médias sociaux et au streaming vidéo sans prendre en compte leurs enjeux environnementaux et socio-psychologiques, que sommes-nous prêt à abandonner au profit d’un web plus efficace et sobre ?

J’avais déjà montré dans un article précédent à quel point les médias sociaux sont loin d’être des espaces démocratiques, en particulier parce qu’ils mettent sur le même niveau des contenus n’ayant aucun rapport entre eux pour générer de l’économie de l’attention. Ainsi un documentaire fouillé et sérieux est situé au même niveau qu’un néo-fasciste qui débagoule dans sa cuisine, un billet de blog équivaut à un article journalistique, et tous les articles journalistiques finissent par se ressembler… tout cela parce que la présentation de ces contenus est très souvent la même, en fin de compte. Les multinationales du web et en particulier le moteur de recherche Google, ont créé un écosystème calibré, optimisé pour le référencement concurrentiel, qui promeut la forme au détriment du fond. Les jugements de valeurs, les contenus caricaturaux et courts, les punchlines, les images-choc, seront toujours plus valorisés que les longs commentaires, articles ou vidéos qui analysent les faits, font un travail conceptuel ou vulgarisent des connaissances complexes.

Première remarque. Il ne faut pas individualiser la responsabilité. Ça, c’est qui a tendance à nous transformer en ayatollahs du tri de déchets ménagers au prix de tensions et d’engueulades familiales mémorables tandis que l’usine d’à-côté achète du droit à polluer. Je ne dis pas qu’il ne faut pas trier ses déchets (il le faut !), mais cela n’a pas de sens si on ne l’inclut pas dans le cadre plus général de notre rapport collectif à la consommation et aux communs naturels. L’analogie avec le web, c’est qu’en plus de chercher à trier le nécessaire du superflu, réfléchir à la manière dont nous communiquons et échangeons des informations conditionne aussi la réflexion collective sur ce nécessaire et ce superflu, dans la mesure où nos échanges passent en très grande partie par le web lui-même. Donc un web plus sobre ne signifie pas un web moins efficace : au contraire, comme on le verra plus loin avec la question de la structuration des contenus, gagner en efficacité c’est aussi chercher à gagner des espaces de débats et d’échanges. Le désencombrement du web est une optimisation.

Seconde remarque. Il faut comprendre tout ce que peuvent ressentir les utilisateurs pour qui les conditions d’accessibilité sont mises en jeu aujourd’hui. Le web est de plus en plus exclusif alors qu’il est censé être inclusif. La pression du « tout numérique » poussé par les politiques publiques, rend de nombreux services désormais inaccessibles. Ce n’est pas que de l’illectronisme, c’est aussi une question d’exclusion sociale (cf. Granjon, 2004, Alberola et al., 2016, Defenseur de droits, 2022). Mais dans beaucoup de cas, ce sont les usages et les « codes » qui sont en jeu : la manière de présenter des contenus, de la symbolique des icônes à la notion de menus et autres variations esthétiques, tout cela fait qu’il est souvent décourageant pour un néophyte de tenter d’y trouver de l’information pertinente. Par exemple, cliquer sur un lien sans voir exactement où il renvoie, parfois sur la même page, parfois dans un autre onglet du navigateur, parfois pour télécharger un document (qui aurait très bien pu être affiché en HTML), parfois pour écrire un courriel (mailto:), tout cela a quelque chose de déroutant pour une personne qui n’est pas habituée aux usages. Cette accessibilité est en outre un sujet de premier plan pour les malvoyants : les pages web brillent de mille feux mais la persistance à vouloir absolument présenter des contenus avec forces effets stylistiques rend extrêmement difficile la recherche d’information. Si je veux naviguer en mode texte (ou avoir une lecture audio) sur une page web aujourd’hui, je dois sacrifier l’accès à certaines informations et me contenter d’un web de second choix. Cela ne devrait pas être le cas.

Troisième remarque. Beaucoup de déclarations sur le web se réclament du mouvement low-tech et dénoncent les usages énergivores pour mieux démontrer comment des technologies sobres permettent de lutter contre le gaspillage. Oui, on peut toujours héberger son serveur web chez soi sur un petit Raspberry pour quelque Kwh. Si ce serveur sert à héberger des contenus intéressants avec un public significatif, oui il peut être considéré comme une bonne pratique, quoique toujours dépendante des infrastructures du web, du fournisseur de service aux câbles sous-marins intercontinentaux et les fermes de serveurs des moteurs de recherche. Oui, nous avons besoin d’un web low-tech, sans aucun doute. Mais ces dispositifs doivent absolument s’accompagner d’une critique des contenus eux-mêmes : est-il pertinent de continuer à publier sur des dispositifs low-tech tout ce qu’on publiait auparavant sur Youtube, Snapchat et Instagram ? Avouez qu’il a pas mal de déchets à envisager, non ? est-il pertinent, même sur un serveur low-tech, de continuer à publier des sites web et des blogs bourrés de traceurs, de pub, de mise en formes, de polices de caractères, d’images à vocation purement communicative (c’est-à-dire sans valeur ajoutée quant au fond du propos), et des appels de fichiers vidéos sur des plateformes externes ?

Critique des techniques

Un web low-tech s’accompagne d’une réflexion sur les usages et n’est rien sans cela. Comme le montre Low Tech Magazine, la réflexion doit être back-end et front-end. Il ont d’ailleurs décrit un très bon exemple de démarche dans cet article :

« Internet n’est pas une entité autonome. Sa consommation grandissante d’énergie est la résultante de décisions prises par des développeurs logiciels, des concepteurs de site internet, des départements marketing, des annonceurs et des utilisateurs d’internet. Avec un site internet poids plume alimenté par l’énergie solaire et déconnecté du réseau, nous voulons démontrer que d’autres décisions peuvent être prises. »

Est-ce que la légèreté d’un site web pourrait pallier la lourdeur de son hébergement ? En d’autres termes vaut-il la peine de construire des sites web épurés (comme cette page de blog que vous êtes en train consulter) si, par derrière, l’hébergement est assuré dans un silo de serveur (comme ce blog). À bien y réfléchir, je ne sais pas vraiment. Je pense que tout dépend des pratiques. Mon blog utilise Hugo via une instance Gitlab : il s’agit de générer des pages web statiques aussi légères que possibles, ce qui permet de diminuer drastiquement la charge serveur, le temps de connexion et le téléchargement. Si je devais me servir encore d’un RaspebbryPi derrière ma box internet, il me faudrait acheter ce petit dispositif dont l’essentiel de la technologie mobilise des ressources à la production et à l’achat. Compte-tenu de la fréquence de mes visiteurs (peu nombreux), je doute sincèrement du gain environnemental de l’opération (en fait je vais expérimenter la chose en recyclant un RaspebbryPi mais cela fera toujours un dispositif supplémentaire dont le coût énergétique est largement supérieur au coût énergétique de quelques pages sobres chez un hébergeur existant).

Donc oui, même si des sites web dépendent d’infrastructures physiques coûteuses pour l’environnement, le fait de construire des pages web légères participe d’un mouvement permettant – sans pour autant pallier les contraintes physique – de désencombrer le web et le rendre :

  • plus durable : diminuer cet encombrement implique plus de légèreté dans les transactions,
  • plus résilient : la construction de pages web désencombrées suppose une structuration de contenus qui fait la part belle à la pertinence et à la recherche d’information, c’est-à-dire les premières fonctionnalités du web, au lieu de surcharger avec des contenus non nécessaires, soumis aux effets de mode et aux aléas des technologies disponibles,
  • plus lisible : certaines techniques peu coûteuses permettent de faire le lien entre structure et contenu (par exemple les microformats, comme nous le verrons plus loin).

Nous ne pouvons pas aller chercher des solutions pérennes en nous précipitant dans une course en avant technologique, pas plus que la croissance technologique n’est censée être le remède contre le changement climatique (produire de lourdes berlines high-tech avec un moteur électrique ne fait que déplacer le problème des ressources disponibles et de leur exploitation). Le solutionnisme n’est pas avare de recettes. Pour rendre des sites web plus économes, nous pourrions envisager encore d’autres dispositifs de l’informatique personnelle, par exemple sur le modèle des liseuses électroniques pour les livres, une sorte de tablette low tech qui donne accès au strict minimum en mode texte essentiellement… un dispositif de plus. Ou bien « encore une appli », sur un autre dispositif encore… et sous prétexte d’alléger le web on alourdi alors les dispositifs physiques mobilisés. Nous pourrions aussi imaginer un surplus de monitoring que par exemple les fournisseurs d’accès pourraient assumer en nous fournissant un web plus léger en modifiant les contenus que nous recevons. Seulement rajouter une couche entre client et fournisseur a ses limites : d’une part cela reviendrait à créer un web inégalitaire et non neutre1 (un retraitement des données qui pose des questions de censure, de sécurité et va à l’encontre de la libre circulation des informations), et d’autre part cela créerait une surcouche technologique dont l’impact économique et énergétique ne serait pas un gain. Enfin, nous pourrions aussi imaginer des logiciels qui permettent d’alléger la lecture elle-même en adaptant le contenu téléchargé, tel le navigateur Browsh, mais est-ce à l’utilisateur de mobiliser de la puissance de calcul pour corriger ce qui ne devrait pas l’être ? Cela me fait penser à tous ces sur-emballages carton des produits alimentaires que nous devons consciencieusement plier et trier au bon soin des services publics qui nous en débarrassent moyennant des hausses d’impôts locaux : nous devrions au contraire les faire bouffer aux distributeurs.

Vers la fin des années 1950, les dispositifs informatiques, ordinateurs et réseaux, ont été fabriqués industriellement, exploités et vendus dans le but initial de rationaliser les processus de production. En tant que systèmes d’information, ce fut leur seconde révolution informatique, celle qui fit sortir les ordinateurs du laboratoire, de la haute ingénierie et du bricolage savant vers les entreprises et ensuite l’informatique domestique. Les réseaux à portée de tous dans les années 1980 puis le web à partir des années 1990 répondent à une vision new age du village global révisé à la sauce de la société de consommation, mais aussi à la généralisation des moyens de communication, de création et de partage de l’information et des connaissances (le rêve d’un système d’information global de Ted Nelson). Peu à peu la convivialité a laissé place à l’automonomie de ces dispositifs techniques en accroissant la complexité des usages, en déportant les fonctionnalités des services existants sur la responsabilité individuelle (on peut parler des nombreuses tâches administratives qui désormais nous échoient dans la numérisation forcée des services publics).

Délaissant la probité et la convivialité, tout en nous submergeant, la croissance des services numériques est désormais incompatible avec notre avenir climatique commun. Dès lors, plutôt que de poursuivre cette croissance, on peut se diriger vers une reconfiguration de la logique d’ingénierie. C’est ce que propose Stéphane Crozat dans une réflexion sur l'« informatique modeste » :

« L’idée d’une démarche de low-technicisation consiste donc à minimiser le domaine d’application de la technique d’une part et de minimiser sa complexité d’autre part. On cherche d’abord ce qui peut ne pas être construit et ce qui peut être mobilisé de plus simple sinon. C’est en cela une inversion de la fonction de l’ingénieur moderne dont le métier est d’abord de construire des machines toujours plus performantes. »

Une informatique modeste n’est pas un repli technophobe. Il s’agit de proposer une alternative low-tech en redéfinissant les objectifs, à commencer par la limitation du surplus matériel et logiciel qu’engendre la course à la croissance au détriment de la convivialité et des fonctionnalités. Dans une logique de croissance, l’intérêt des fonctionnalités est in fine envisagé du point de vue du profit2 alors qu’il devrait être envisagé du double point de vue par rapport à l’existant et par rapport à l’intérêt collectif (dans lequel on intègre la disponibilité des ressources naturelles et matérielles).

Suivant cette idée, vouloir un web désencombré invite à repenser non seulement le transport des informations (les protocoles) mais aussi la nature des contenus. La réflexion sur le besoin et la nécessité implique une révision des contenus et de leur présentation.

Principes du web désencombré

Tout le monde ne peut/veut pas monter un serveur basse consommation chez soi et ce n’est pas forcément pertinent si la nécessité oblige à faire face à une charge serveur importante et une haute disponibilité. L’essentiel, avec des dispositifs du genre (par exemple, on peut citer la FreedomBox), c’est de comprendre que non seulement il passent par la case logiciels libres, mais aussi que les dispositifs doivent être adaptés aux objectifs (éviter la course en avant technologique, cf. plus haut). La sobriété numérique passe par la discussion et le consensus.

Outre les aspects techniques d’un serveur low-tech, il est donc crucial aujourd’hui de s’interroger sur la manière dont nous voulons présenter des contenus de manière à désencombrer le web et clarifier nos usages. Rappel : HTTP et HTML sont les bases autour desquelles se greffent les contenus, par conséquent il s’agit de les structurer convenablement, c’est-à-dire faire passer le fond avant la forme. J’émets donc ici quelques idées, avec beaucoup de redondance. Exprès !. Ce sont des directions potentielles dont le but est surtout de chercher à ouvrir une discussion sur la manière dont nous devrions structurer le web. En gros : mettons-nous à la recherche d’une politique éditoriale du web désencombré.

Liberté

Il n’y a aucune obligation à suivre les préceptes d’un web désencombré3. Il faudrait néanmoins que chacun en comprenne le sens et qu’on puisse ouvrir la possibilité d’un « réseau » désencombré où l’on reconnaîtrait chaque page par son caractère numériquement sobre. On pourrait proposer un manifeste de la communauté du web désencombré.

  • Recommandation : un web désencombré est d’abord une réflexion critique sur les technologies web et sur la manière de structurer les contenus.

Inspiration : Fuckcss et Gemini

En mettant de côté leur aspect volontairement provocateur, on peut s’inspirer des pages suivantes désormais bien connues : This is a motherfucking website. et This is still a motherfucking website. Même si elles contiennent des scripts Google analytics (!).

Elles ont le mérite de démontrer qu’un site web n’a vraiment pas besoin de surcharge CSS. La seconde version propose une négociation relative au confort de lecture : elle démontre qu’un strict minimum de style doit être d’abord pensé pour rendre plus accessible l’information sans pour autant imposer une typographie. La relative austérité de ces pages n’est en réalité due qu’à la feuille de style par défaut du navigateur (allez voir par ici sur Firefox : resource://gre-resources/).

C’est pourquoi une amélioration notable des navigateurs pourrait s’inspirer à son tour de la créativité des créateurs des différents navigateurs utilisés pour le protocole Gemini, comme Lagrange et les autres.

En effet que montre Gemini ? Qu’en s’inspirant d’un protocole comme Gopher (aussi ancien que HTTP) qui permet de présenter des documents dans une grande sobriété (esthétique et énergétique), il est possible de déporter correctement leur présentation sur les fonctionnalités du navigateur et par conséquent rendre leur consultation esthétique, agréable et fonctionnelle en travaillant la chose en local.

Pour moi, Gemini est d’abord une preuve de concept, tant dans le processus de création de contenus4 que dans la consultation. Même si le Geminispace reste confidentiel et réservé à quelques connaisseurs, l’utilisation est néanmoins très simple, même si elle implique forcément un changement d’habitudes. Je pense que, sur ce modèle, un web désencombré devrait s’inspirer d’un protocole et d’un langage déjà forts anciens (HTTP et HTML) mais en les utilisant dans leurs « versions » originelles. Il m’est d’avis que si les navigateurs créés pour Gemini acceptaient à la fois du Gopher/Gemini et du HTML « scrict » (je le met entre guillemets car il n’a plus cours), nous pourrions surfer de manière très intéressante avec des fonctionnalités très créatives. Un piste pourrait être le navigateur HTML Lynx, qui utilise une coloration syntaxique intéressante.

Les contenus textuels : structuration

La sobriété numérique ne doit pas être comprise comme un « retour aux sources ». D’une part ces « sources » sont toujours présentes : le HTML est une évolution de l’ancien SGML. D’autre part s’adosser à l’existant implique ici en réalité un usage correct des langages de structuration de contenus. Par exemple, utiliser correctement les éléments HTML revient à optimiser la recherche et la visibilité de l’information. Il faut donc éviter que des éléments HTML soient utilisés pour ce qu’il ne sont pas. Par exemple, faire systématiquement des liens dans des <button> et/ou dans des <form>.

Écrire pour le web est devenu une activité à part entière, entièrement dédiée à l’optimisation des résultats des moteurs de recherche, si bien que les contenus ainsi rédigés sont ni plus ni moins que des bons contenus googlisés ! Si d’autres moteurs de recherche plus axés sur des types de structures de pages voyaient le jour, il serait beaucoup plus intéressant de publier des contenus (voir ci-dessous la question des microformats). Écrire pour le web devrait donc en premier lieu avoir pour seul souci la bonne structuration du contenu indépendamment de la manière dont les robots d’une multinationale pourraient le lire. Les mots-clé, les descriptions, les titres doivent être honnêtes et en accord avec le contenu, il ne doivent pas créer de faux indices de pertinence pour être mieux référencés dans des bases de données.

Par défaut, la conception de contenus web doit se concentrer sur toutes possibilités de structuration de contenu du HTML dans la version en cours, et les exploiter au mieux. En d’autres termes, les styles ne doivent pas chercher à pallier les soi-disant manques du HTML ou orienter la compréhension des contenus.

  • Recommandation : Bien que HTML 5 n’ai pas de variante stricte, il faudrait s’inspirer des anciennes variantes HTML strict pour réaliser des pages web. Ceci est l’orientation, pas le but. Cette épuration permet de construire des documents clairs et bien structurés qui pourront être lisibles pour ce qu’ils sont et non ce qu’ils paraissent, avec tout type de navigateur.
  • Recommandation : les feuilles de styles devraient être réduites au minimum nécessaire en fonction du contenu, elles doivent être ad hoc. Si le contenu évolue pour intégrer de nouveaux types de contenus, la feuille de style évolue avec. La feuille de style ne doit pas encombrer5.
  • Recommandation : utiliser à bon escient les en-têtes HTML. Les balises meta doivent être les plus exhaustives possibles tout en restant honnêtes. Le web désencombré est un web de confiance. Les mots-clés, les descriptions, etc. doivent refléter exactement le document et non être rédigés à des fins de SEO « concurrentielle » et marketing.

Une piste : améliorer les navigateurs

Une piste de réflexion pourrait consister à améliorer les fonctionnalités des navigateurs pour leur permettre d’afficher de bons styles (modifiables par l’utilisateur) en fonction du type de page consulté. Cette fonction existe en partie, par exemple sur Firefox qui propose un « mode lecture » ou bien, dans les paramètres de Firefox la section apparence, ou encore certains plugins qui proposent de remplacer des styles. Cette fonction pourrait être étendue selon le type de page (correctement déclarée dans les balises d’en-tête, par exemple dans la balise <meta name="description" ) et qui respecterait les préceptes d’un web désencombré.

En effet, si on considère un instant les template/CSS proposés pour les CMS les plus courants (par les communautés d’utilisateurs ou par les sites officiels), quelle typologie trouve-t-on ? Un blog, un journal (ou autre site de news), un site de commerce de détail, un site web d’entreprise, un CV, un portfolio. Le reste, ce sont les web designer qui s’en occupent pour construire des présentations sur mesure. Si nous partons de cette typologie, voici 6 feuilles de styles qui pourraient être choisies par défaut par le navigateur. En poussant le curseur un peu plus loin, il n’y aurait même plus besoin de feuille de style à télécharger avec le document, c’est le navigateur qui se chargerait de proposer une présentation du contenu (et l’utilisateur pourrait choisir). L’idée, ici, consiste à déporter la présentation sur le navigateur, c’est-à-dire travailler en local pour décharger les serveurs d’informations qui seraient superflues.

Plus besoin de télécharger des polices de caractère, plus besoin d’imposer ses goûts et ses couleurs. Bien sûr, il ne devrait pas y avoir d’obligation : c’est l’utilisateur qui devrait pouvoir choisir s’il accepte ou non de consulter le site avec la proposition de style du créateur.

Recommandation : les feuilles de style ne devraient être que des propositions qui permettent de jouer sur la présentation de contenus HTML bien structurés. L’utilisateur devrait pouvoir choisir ou non le style proposé, consulter uniquement en mode texte, ou consulter selon le style qu’il pourra appliquer automatiquement ou non par son navigateur. En l’absence d’un tel choix, par défaut, les styles doivent être réduits à presque rien.

Tout n’est pas mauvais dans les styles

Les feuilles de styles sont des amies : elles permettent de rendre plus agréable la lecture, elle embellissent le web, permettent la créativité, et si la typographie est maîtrisée elles apportent du confort.

Mais elles ont un côté obscur  :

  • la tendance à l’uniformisation : paradoxalement, la créativité est persona non grata sur bien des sites web. Les sites d’actualités, de commerce de détail, et même les sites d’entreprises se ressemblent beaucoup, seules les couleurs et les logos changent. Qui parle encore de visibilité sur le web ? Cela tient pour beaucoup aux CMS (systèmes de gestion de contenus) : même s’il permettent à leurs utilisateurs de créer des CSS sur mesure, l’organisation des pages qu’ils proposent par défaut impliquent souvent une uniformisation des contenus et donc des styles qui se ressemblent.
  • la volonté d’imposer un affichage, une présentation des contenus, sans réelle valeur ajoutée. Pourquoi vouloir absolument proposer des couleurs ou des images qui n’apportent rien de plus au contenu ? Un site qui ne joue que sur les feuilles de style pour afficher un menu, ou mettre en exergue des contenus sera très difficilement lisible sur un navigateur en mode texte, ou en utilisant le mode lecture du navigateur, et surtout c’est la plupart du temps une cause d’inaccessibilité pour les personnes malvoyantes. Les styles doivent n’être que des propositions qui visent à faciliter la lecture par rapport aux feuilles de style par défaut des navigateurs (on l’a déjà dit plus haut, d’accord).
  • la multiplication des requêtes : par exemple, imposer à l’utilisateur de télécharger des polices de caractères (qui en plus sont souvent hébergées par des multinationales qui en profitent pour surveiller), ou imposer une image de fond, des animations,… Les styles ont tendance à alourdir les pages web, souvent inutilement du point de vue du fonds comme du point de vue de la forme.

Pour autant, les styles ne sont pas tous bons à jeter par la fenêtre. On peut penser par exemple à utiliser les microformats. Ces derniers cherchent à combler le fossé entre la structure et la signification grâce à des classes qui sont comprises directement par le navigateur. Par exemple, un microformat qui est prometteur, c’est citation. Avec les bons effets de styles, celui-ci pourrait permettre d’identifier et de travailler les bibliographies sur le web un peut à la manière d’un bibtex géant ! Cela aurait un certain panache et compléterait aisément l’élément HTML <cite> souvent peu ou mal employé.

  • Recommandation : on devrait pouvoir écrire ce qu’on veut, comme on veut, sans être conditionné par des styles.
  • Recommandation : utiliser et promouvoir les microformats permettrait d’optimiser la recherche, la lecture et la compréhension des informations.

Les contenus multimédias

Par défaut, aucune image, aucun son, aucune vidéo ne devrait être téléchargé si l’utilisateur n’en a pas fait explicitement la demande.

Pour les mêmes raisons d’accessibilité mentionnées plus haut, on bannira les icônes et autres images ayant vocation à remplacer de l’information par une iconographie dont les clés de compréhension ne sont de toute façon pas connues de tous.

Il y a un statut particulier du contenu multimédia lorsqu’il vise à illustrer un propos : dans un article, une vignette ne dépassant pas une dizaine de kilo-octets pourrait être proposée dans l’élément HTML figure avec un lien vers l’illustration en plus haute définition soit dans l’élément caption soit directement sur la vignette (à la manière du web des années 1990).

Pour les contenus textuels, une image devrait uniquement avoir pour objectif d’illustrer un propos (mais dans une démarche artistique, une image est en soi le propos).

Un site ayant la vocation de diffuser exclusivement des contenus multimédia doit en assumer le coût énergétique et d’accessibilité tout en structurant correctement ces contenus pour les décrire avec soin. Par exemple, pour les vidéos, on pourra utiliser Peertube (monter une instance ou partager une instance avec d’autres personnes) et proposer par défaut une visualisation en basse définition tout en soignant le sommaire des vidéos.

  • Recommandation : il ne devrait pas y avoir de recommandation particulière pour la présentation des contenus multimédias étant donné que le coût énergétique de leur distribution est connu pour être particulièrement dispendieux. Il appartient à chacun de proposer de tels contenus en connaissance de cause et, le cas échéant, utiliser des formats libres, des logiciels libres et des services de distribution libres comme Peertube pour le son et la vidéo, par exemple).
  • Recommandation : en revanche, un web désencombré commence par se débarrasser du superflu : par défaut, aucune image, aucun son, aucune vidéo ne devrait être téléchargé si l’utilisateur n’en a pas fait explicitement la demande.

Sécurité et confidentialité : pas de javascript, pas de cookies

Le web désencombré est par nature un web sécuritaire. Il noue une chaîne de confiance entre le créateur de contenu et l’utilisateur.

Par conséquent, il n’y a aucune place pour la captation de données utilisateur à des fins de mesure d’audience ou publicitaire. Cela se concrétise notamment par l’interdiction par défaut de code javascript dans les pages HTML et par le refus par défaut de n’importe quel cookie. Cependant…

La manque de confiance dans la navigation web a aujourd’hui atteint un tel stade que certains utilisateurs désactivent complètement le javascript dans leur navigateur, surtout pour des raisons de sécurité. C’est dommage, car l’intention première d’imaginer un web interactif s’en trouve contrecarrée.

Cela dit, un utilisateur est forcément par défaut un utilisateur sans javascript : il faut toujours télécharger le script avant de l’exécuter. Or, tous les navigateurs (surtout en mode texte) ne permettent pas d’exécuter ces scripts. Par conséquent, pour un web désencombré, l’utilisation de javascript devrait être exceptionnelle et réservée à des sites interactifs spécialisés (par exemple un site qui permet une application javascript en ligne). A priori, lire un blog, une vitrine d’entreprise, un article de news ou consulter une base documentaire ne devrait pas nécessiter de scripts.

Concernant les cookies et autres traceurs, le web d’aujourd’hui est dans un tel état que les utilisateurs doivent s’en prémunir (même avec les obligations du RGPD), en installant des plugins tels Ublock Origin ou Privacy Badger. Là encore, un web désencombré ne peut admettre l’utilisation de cookies qui ne soient pas a minima strictement conforme au RGPD et dont la fiabilité est vérifiable.

En d’autres termes, l’utilisation de cookies tiers devrait être interdite pour un web de confiance et désencombré. La CNIL a publié à cet effet quelques moyens de lutter contre ce fléau… mais certains ne manquent pas d’imagination pour contourner tous ces dispositifs.

  • Recommandation : structurer correctement des pages web et les proposer au téléchargement ne devrait nécessiter par défaut aucun cookie ni script. Le web désencombré ne peut donc concerner directement les sites spécialisés qui, pour des raisons d’identification ou de fonctionnement ont besoin de ces dispositifs. Dans ce cas, c’est à eux de trouver des solutions pour une éco-conception web plus efficace. L’essentiel est de veiller à ce que les sites soient les plus légers possibles, les plus sécurisés possible, les plus respectueux possible. Des outils de lutte sont à disposition.
  • Recommandation : dans de très nombreux cas, les cookies (first party) sont nécessaires (par exemple pour un sondage via un formulaire), ce qui lève la convention par défaut citée ci-dessus. Un web désencombré ne peut donc être un web avec des cookies tiers, c’est une limitation volontaire et non négociable. Même remarque avec les scripts.

Pour aller plus loin

C. Bonamy et al, Je code : les bonnes pratiques en éco-conception de service numérique à destination des développeurs de logiciels, URL].

S. Crozat, Low-technicisation du numérique, Conférence, URL.

—, « Vers une ataraxie numérique : low-technicisation et convivialité » in Prendre soin de l’informatique et des générations, hommage à Bernard Stiegler, FYP Éditions, 2021. Texte lisible sur le blog de l’auteur, URL.

Collectif GreenIT, Conception numérique responsable URL ; les fiches Bonnes Pratiques

Fondation Mozilla, HTML (HyperText Markup Language), URL.

Pikselkraft, Bibliographie sur l’éco-conception web et les sites Low Tech, URL.

Mission interministérielle numérique responsable, Référentiel général d’écoconception de services numériques (RGESN), URL.

J. Keith, Resilient Web Design, URL.

Wiki des microformats, URL.


  1. Il y a eu et il y aura encore beaucoup de projets dans ce style, visant à promouvoir l’accès à Internet pour tous et dans des conditions difficiles tout en réduisant le web à quelques services aux mains des grandes entreprises. Une illustration est le projet Internet.org promu par Facebook au nom de la connectivité pour tous. ↩︎

  2. Avoir des smartphones dont la fonction de photographie est toujours plus performante n’a pour autre objectif que de créer un discours marketing pour gagner des parts de marché car l’intérêt réel pour les utilisateurs est marginal. L’interêt collectif est alors laissé de côté : prendre des photos ou des vidéos très haute définition engendre le besoin d’une connectivité toujours plus performante pour les partager, or ne serait-il pas plus pertinent de se poser d’abord la question de la pertinence des contenus multimédia haute définition si leur utilisation se fait pour l’essentiel sur des petits écrans ? Si par défaut le partage de contenus multimédia se faisait en basse définition ou de manière systématiquement plus économe en ressources matérielles et en bande passante, le marché des smartphones disposant de capteurs vidéos et photos s’en trouverait radicalement changé. ↩︎

  3. Vous noterez par la même occasion que la page que vous êtes en train de lire ne correspond pas vraiment à ces recommandations. Cela va s’améliorer au fur et à mesure de l’avancement de mes connaissances à ce sujet. ↩︎

  4. Après tout, on crée des pages Gemini dans un pseudo-markdown et le markdown est déjà largement utilisé pour créer des pages HTML. Le processus de création est très similaire de ce point de vue. ↩︎

  5. Pour être plus explicite, si votre contenu ne propose aucun tableau, il n’est pas utile d’imposer le téléchargement de styles pour des tableaux ; si vos titres sont suffisamment clairs et explicites, il n’est pas utile de les mettre en couleur et imposer vos goûts ; si les navigateurs ont tous désormais un mode lecture nuit/sombre/clair, il est alors inutile de s’occuper de cela dans une feuille de style ; etc. ↩︎


Publié le 04.02.2023 à 01:00

Toute la France se tient sage... toute ?

Il y a des torchons qu’on ne devrait pas signer et d’autres qui méritent franchement d’être brûlés. La « France qui se tient sage » est un concept qui a fait du chemin et il est vrai que bien peu l’ont vu venir. Il se décline aujourd’hui dans le monde associatif mais aussi – on en parle moins – dans le monde académique.

Des associations qui se tiennent sages

En 2020, dans le cadre de la lutte contre le « séparatisme », l’argumentaire était judicieusement choisi. Surfant sur la vague des attentats (notamment celui de Samuel Paty) se revendiquant d’un certain islam, et sur celle de l’angoisse d’un monde en guerre et de l’écho trop large laissé aux discours de haine dans les médias, la lutte contre le séparatisme visait à prémunir la société française contre les tentatives anti-démocratiques de groupes identifiés souhaitant imposer leur propre ordre social. Ordres religieux, s’il en est, ou bien ordres néofascistes, bref, la Loi confortant le respect des principes de la République (dite « Loi séparatisme ») nous a été vendue comme un bouclier républicain. En particulier des dispositions ont été prises pour que toute association profitant des bienfaits institutionnels (versement de subventions ou commodités municipales) tout en livrant discours et actes à l’encontre de l’ordre républicain se verrait dissoute ou au moins largement contrecarrée dans ses projets.

On peut s’interroger néanmoins. L’arsenal juridique n’était-il pas suffisant ? Et dans la surenchère d’amendements appelant à la censure de tous côtés, on pouvait déjà se douter que le gouvernement était désormais tombé dans le piège anti-démocratique grossièrement tendu : ordonner le lissage des discours, l’obligation au silence (des fonctionnaires, par exemple), contraindre la censure à tout bout de champ dans les médias… le front des atteintes aux libertés (surtout d’expression) marquait une avancée majeure, ajoutées au déjà très nombreuses mesures liberticides prises depuis le début des années 2000.

Le 31 décembre 2021, un décret mettait alors en place le Contrat d’engagement républicain (CER) à destination des associations qui bénéficient d’un agrément officiel ou de subventions publiques (au sens large : il s’agit aussi de commodités en nature qu’une collectivité locale pourrait mettre à disposition). Ce CER n’a pas fait couler beaucoup d’encre à sa sortie, et pour cause : les conséquences n’était pas évidentes à concevoir pour le grand public. Tout au plus pouvait-on se demander pourquoi il était pertinent de le signer pour toutes les associations qui sont déjà placées sous la loi de 1901 (ou sous le code civil local d’Alsace-Moselle). Après tout, celles accusées de séparatisme tombaient déjà sous le coup de la loi. Par exemple, pourquoi l’association des Joyeux Randonneurs de Chimoux-sur-la-Fluette, dont les liens avec le fascisme ou l’intégrisme religieux sont a priori inexistants, devait se voir contrainte de signer ce CER pour avoir le droit de demander à la municipalité quelques menus subsides pour l’organisation de la marche populaire annuelle ?

Réponse : parce que l’égalité est républicaine. Soit ce CER est signé par tout le monde soit personne. D’accord. Et le silence fut brisé par quelques acteurs de qui, eux, l’avaient lu attentivement, ce contrat. Il y eut Le Mouvement Associatif qui dès le 3 janvier 2022 publie un communiqué de presse et pointe les dangers de ce CER. On note par exemple pour une association l’obligation de surveillance des actions de ses membres, ou encore le fait que les « dirigeants » d’une association engagent la responsabilité de l’ensemble de l’association. Comprendre : si l’un d’entre vous fait le mariole, c’est toute l’asso qui en subit les conséquences (privé de subvention, na!).

Puis s’enclenche un mouvement général, comme le 02 févier 2022 cet appel de la Ligue des Droits de l’Homme. Enfin L.A. Coalition fut au premier plan contre le CER dès les premiers débats sur la loi séparatisme. Créé dès 2019 afin de « proposer des stratégies de riposte contre les répressions subies par le secteur associatif », L.A. Coalition montre combien sont nombreuses les entraves judiciaires ou administratives dressées dans le seul but de nuire aux libertés associatives, surtout lorsqu’elles sont teintés de militantisme… alors même qu’elles sont la matière première de la démocratie en France. L.A. Coalition illustre la contradiction notoire entre le discours gouvernemental prétendant défendre la République et la voix du peuple profondément attaché aux valeurs démocratiques. Elle se fait ainsi le thermomètre de l'illibéralisme en France.

Lorsque les associations s’emparent de sujets de société tels l’écologie, les questions de genre, l’économie, les migration, la pauvreté, ou oeuvrent plus généralement pour une société plus juste et solidaire, elles sont désormais amenées à engager une lutte à l’encontre des institutions qui, jusqu’à présent, leur garantissait un cadre d’action démocratique et juridique.

Mais cette lutte dépasse assez largement le cadre des actions associatives. En effet, le CER n’a pas pour seul objet de contraindre les citoyens à la censure. Il sert aussi à court-circuiter les cadres de l’action publique locale, surtout si les collectivités locales sont dirigées par des élus qui ne sont pas du même bord politique que la majorité présidentielle. C’est que qu’illustre notamment l’affaire d’Alternatiba Poitiers qui s’est vue (ainsi que d’autres associations) mettre en cause par le préfet de la Vienne en raison d’un atelier de formation à la désobéissance civile lors d’un évènement « Village des alternatives ». Invoquant le CER contre le concept même de désobéissance civile, le préfet Jean-Marie Girier (macroniste notoire) a obligé la mairie de Poitiers (dont le maire est EELV) à ne pas subventionner l’évènement. Il reçu aussitôt l’appui du Ministre de l’Intérieur (l’affaire est devant la justice). La France des droits et libertés contre la France de l’ordre au pouvoir, tel est l’essence même du CER.

Des scientifiques qui se tiennent sages

On ne peut pas s’empêcher de rapprocher le CER du dernier avatar du genre : le serment doctoral.

Qu’est-ce que c’est ? Il s’agit d’un serment d’intégrité scientifique rendu obligatoire pour tout nouveau docteur et stipulé dans L’arrêté du 26 août 2022 modifiant l’arrêté du 25 mai 2016 fixant le cadre national de la formation et les modalités conduisant à la délivrance du diplôme national de doctorat. L’office français de l’intégrité scientifique (OFIS) en a fait une fiche pratique.

Voici le texte (Art. 19b de l’arrêté) :

« En présence de mes pairs.

Parvenu(e) à l’issue de mon doctorat en [xxx], et ayant ainsi pratiqué, dans ma quête du savoir, l’exercice d’une recherche scientifique exigeante, en cultivant la rigueur intellectuelle, la réflexivité éthique et dans le respect des principes de l’intégrité scientifique, je m’engage, pour ce qui dépendra de moi, dans la suite de ma carrière professionnelle quel qu’en soit le secteur ou le domaine d’activité, à maintenir une conduite intègre dans mon rapport au savoir, mes méthodes et mes résultats. »

On notera que sous son apparente simplicité, le texte se divise en deux : ce que le doctorant a fait jusqu’à présent et ce que le nouveau docteur fera à l’avenir (même s’il quitte le monde académique car le grade de docteur valide compétences et savoirs d’un individu et non d’une fonction). Autrement dit, le serment est censé garantir « l’intégrité » du docteur, alors même que l’obtention du diplôme validé par des (désormais) pairs était déjà censé sanctionner cette intégrité.

Là encore, tout comme avec le CER, il y a une volonté de court-circuiter des acteurs institutionnels (ici les professeurs et l’Université qui valident le doctorat) qui sont désormais réputés ne plus être en mesure de détecter la fraude ou même de garantir les sciences contre les manipulations d’informations, de données et les arguments fallacieux (on pense évidemment aux informations douteuses qui ont circulé lors de l’épisode COVID). On peut aussi s’interroger sur la représentation de la Science que cela implique : une Science figée, obéissant à un ordre moral qui l’empêcherait d’évoluer à ses frontières, là où justement les sciences ont toujours évolué, souvent à l’encontre du pouvoir qu’il soit politique, religieux ou moral.

Plusieurs sections CNU (Conseil National des Universités) sont actuellement en train de réfléchir à l’adoption de motions à l’encontre de ce serment. Ainsi la section 22 (Histoire) a récemment publié sa motion: « Elle appelle les Écoles doctorales et la communauté universitaire dans son ensemble à résister collectivement, par tous les moyens possibles, à l’introduction de ce serment ». L’argument principal est que ce serment introduit un contrôle moral de la recherche. Ce en quoi la communauté universitaire a tout à fait raison de s’y opposer.

On peut aussi comparer ce serment avec un autre bien connu, le serment d’Hippocrate. Après tout, les médecins prêtent déjà un serment, pourquoi n’en serait-il pas de même pour tous les docteurs ?

Hé bien pour deux raisons :

  • Parce que le serment d’Hippocrate n’est pas défini par un arrêté et encore moins dicté par le législateur. Il s’agit d’un serment traditionnel dont la valeur symbolique n’est pas feinte : il est hautement moral et à ce titre n’a pas de rapport juridique avec le pouvoir.
  • Il engage le médecin dans une voie de responsabilité vis-à-vis de ses pairs et surtout des patients qu’il est amené à soigner. Il appartient au Conseil de l’Ordre des médecins : c’est une affaire entre médecins et patients d’abord et entre médecins et médecins ensuite.

Reprenons les termes du serment doctoral imposé par le gouvernement : « je m’engage, pour ce qui dépendra de moi, dans la suite de ma carrière professionnelle quel qu’en soit le secteur ou le domaine d’activité, à maintenir une conduite intègre dans mon rapport au savoir, mes méthodes et mes résultats. »

Question : qui est censé juger de l’intégrité de la conduite ? Les pairs ? Ce n’est pas stipulé, alors que c’est clair dans le serment d’Hippocrate de l’Ordre des Médecins, dernier paragraphe :

« Que les hommes et mes confrères m’accordent leur estime si je suis fidèle à mes promesses ; que je sois déshonoré(e) et méprisé(e) si j’y manque. »

Le « serment doctoral » stipule seulement qu’il est prêté « en présence de mes pairs », la belle affaire. Il est évident selon moi que l’intégrité scientifique d’un chercheur sera à l’avenir évaluée moralement par les institutions et non par les pairs. Cette tendance à la fongibilité entre morale et droit dans nos institutions républicaines est tout à fait malsaine.

Parlons des scandales pharmaceutiques. Parlons des scandales environnementaux. Si demain un chercheur ayant signé ce serment utilise son savoir et ses méthodes pour démontrer les conséquences néfastes (tant environnementales que sociales) d’un engagement gouvernemental dans l’ouverture d’une mine de charbon comme celle de Hambach en Allemagne, à votre avis : pourra-t-il toujours dans son laboratoire essayer de prétendre à quelques subventions pour des recherches (même n’ayant aucun rapport avec son engagement personnel contre la mine) ? En fait, sur le sujet climatique, la question de l’engagement des chercheurs est brûlante : ce qu’on veut surtout éviter c’est le profil du chercheur militant, car on ne sait jamais, il pourrait avoir raison…

Là encore le militantisme et la démocratie sont mises en cause de manière frontale par le gouvernement.

Après avoir bien transformé la dynamique de la recherche française en la noyant sous l’évaluation et la logique de projet, il est normal de faire en sorte que les chercheurs, tout comme les associations, puissent enfin rentrer dans le rang : c’est une France qui se tient sage. Le concept a fait du chemin.


Publié le 03.09.2022 à 02:00

Bifurquer avant l’impact : l’impasse du capitalisme de surveillance

La chaleur de l’été ne nous fait pas oublier que nous traversons une crise dont les racines sont bien profondes. Pendant que nos forêts crament, que des oligarques jouent aux petits soldats à nos portes, et vu que je n’avais que cela à faire, je lisais quelques auteurs, ceux dont on ne parle que rarement mais qui sont Ô combien indispensables. Tout cela raisonnait si bien que, le temps de digérer un peu à l’ombre, j’ai tissé quelques liens avec mon sujet de prédilection, la surveillance et les ordinateurs. Et puis voilà, paf, le déclic. Dans mes archives, ces mots de Sébastien Broca en 2019 : « inscrire le capitalisme de surveillance dans une histoire plus large ». Mais oui, c’est là dessus qu’il faut insister, bien sûr. On s’y remet.

Je vous livre donc ici quelques réflexions qui, si elles sont encore loin d’être pleinement abouties, permettront peut-être à certains lecteurs d’appréhender les luttes sociales qui nous attendent ces prochains mois. Alimentons, alimentons, on n’est plus à une étincelle près.

(Article paru dans le Framablog le 29/08/2022)

Table des matières


Le capitalisme de surveillance est un mode d’être du capitalisme aujourd’hui dominant l’ensemble des institutions économiques et politiques. Il mobilise toutes les technologies de monitoring social et d’analyse de données dans le but de consolider les intérêts capitalistes à l’encontre des individus qui se voient spoliés de leur vie privée, de leurs droits et du sens de leur travail. L’exemple des entreprises-plateformes comme Uber est une illustration de cette triple spoliation des travailleurs comme des consommateurs. L’hégémonie d’Uber dans ce secteur d’activité s’est imposée, comme tout capitalisme hégémonique, avec la complicité des décideurs politiques. Cette complicité s’explique par la dénégation des contradictions du capitalisme et la contraction des politiques sur des catégories anciennes largement dépassées. Que les décideurs y adhèrent ou non, le discours public reste campé sur une idée de la production de valeur qui n’a plus grand-chose de commun avec la réalité de l’économie sur-financiarisée.

Il est donc important d’analyser le capitalisme de surveillance à travers les critiques du capitalisme et des technologies afin de comprendre, d’une part pourquoi les stratégies hégémoniques des multinationales de l’économie numérique ne sont pas une perversion du capitalisme mais une conséquence logique de la jonction historique entre technologie et finance, et d’autre part que toute régulation cherchant à maintenir le statu quo d’un soi-disant « bon » capitalisme est vouée à l’échec. Reste à explorer comment nous pouvons produire de nouveaux imaginaires économiques et retrouver un rapport aux technologies qui soit émancipateur et générateur de libertés.

Situer le capitalisme de surveillance dans une histoire critique du capitalisme

Dans la Monthly Review en 2014, ceux qui forgèrent l’expression capitalisme de surveillance inscrivaient cette dernière dans une critique du capitalisme monopoliste américain depuis la fin de la Seconde Guerre Mondiale. En effet, lorsqu’on le ramène à l’histoire longue, qui ne se réduit pas aux vingt dernières années de développement des plus grandes plateformes numériques mondiales, on constate que le capitalisme de surveillance est issu des trois grands axes de la dynamique capitaliste de la seconde moitié du XXᵉ siècle. Pour John B. Foster et Robert W. McChesney, la surveillance cristallise les intérêts de marché de l’économie qui soutient le complexe militaro-industriel sur le plan géopolitique, la finance, et le marketing de consommation, c’est-à-dire un impérialisme sur le marché extérieur (guerre et actionnariat), ce qui favorise en retour la dynamique du marché intérieur reposant sur le crédit et la consommation. Ce système impérialiste fonctionne sur une logique de connivence avec les entreprises depuis plus de soixante ans et a instauré la surveillance (de l’espionnage de la Guerre Froide à l’apparition de l’activité de courtage de données) comme le nouveau gros bâton du capitalisme.

Plus récemment, dans une interview pour LVSL, E. Morozov ne dit pas autre chose lorsqu’il affirme qu’aujourd’hui l’enjeu des Big Tech aux États-Unis se résume à la concurrence entre les secteurs d’activités technologiques sur le marché intérieur et « la volonté de maintenir le statut hégémonique des États-Unis dans le système financier international ».

Avancées technologiques et choix sociaux

Une autre manière encore de situer le capitalisme de surveillance sur une histoire longue consiste à partir du rôle de l’émergence de la microélectronique (ou ce que j’appelle l’informatisation des organisations) à travers une critique radicale du capitalisme. C’est sur les écrits de Robert Kurz (et les autres membres du groupe Krisis) qu’il faut cette fois se pencher, notamment son travail sur les catégories du capitalisme.

Ici on s’intéresse à la microélectronique en tant que troisième révolution industrielle. Sur ce point, comme je le fais dans mon livre, je préfère maintenir mon approche en parlant de l’informatisation des organisations, car il s’agit surtout de la transformation des processus de production et pas tellement des innovations techniques en tant que telles. Si en effet on se concentre sur ce dernier aspect de la microélectronique, on risque d’induire un rapport mécanique entre l’avancement technique et la transformation capitaliste, alors que ce rapport est d’abord le résultat de choix sociaux plus ou moins imposés par des jeux de pouvoirs (politique, financier, managérial, etc.). Nous y reviendrons : il est important de garder cela en tête car l’objet de la lutte sociale consiste à prendre la main sur ces choix pour toutes les meilleures raisons du monde, à commencer par notre rapport à l’environnement et aux techniques.

Pour expliquer, je vais devoir simplifier à l’extrême la pensée de R. Kurz et faire des raccourcis. Je m’en excuse par avance. R. Kurz s’oppose à l’idée de la cyclicité des crises du capitalisme. Au contraire ce dernier relève d’une dynamique historique, qui va toujours de l’avant, jusqu’à son effondrement. On peut alors considérer que la succession des crises ont été surmontées par le capitalisme en changeant le rapport structurel de la production. Il en va ainsi pour l’industrialisation du XIXᵉ siècle, le fordisme (industrialisation moderne), la sur-industrialisation des années 1930, le marché de consommation des années 1950, ou de la financiarisation de l’économie à partir des années 1970. Pour R. Kurz, ces transformations successives sont en réalité une course en avant vers la contradiction interne du capitalisme, son impossibilité à renouveler indéfiniment ses processus d’accumulation sans compter sur les compensations des pertes de capital, qu’elles soient assurées par les banques centrales qui produisent des liquidités (keynésianisme) ou par le marché financier lui-même remplaçant les banques centrales (le néolibéralisme qui crée toujours plus de dettes). Cette course en avant connaît une limite indépassable, une « borne interne » qui a fini par être franchie, celle du travail abstrait (le travail socialement nécessaire à la production, créant de la valeur d’échange) qui perd peu à peu son sens de critère de valeur marchande.

Cette critique de la valeur peut être vue de deux manières qui se rejoignent. La première est amenée par Roswitha Scholz et repose sur l’idée que la valeur comme rapport social déterminant la logique marchande n’a jamais été critiquée à l’aune tout à fait pratique de la reproduction de la force de travail, à savoir les activités qu’on détermine comme exclusivement féminines (faire le ménage, faire à manger, élever les enfants, etc.) et sont dissociées de la valeur. Or, cette tendance phallocrate du capitalisme (comme de la critique marxiste/socialiste qui n’a jamais voulu l’intégrer) rend cette conception autonome de la valeur complètement illusoire. La seconde approche situe dans l’histoire la fragilité du travail abstrait qui dépend finalement des processus de production. Or, au tournant des années 1970 et 1980, la révolution informatique (la microélectronique) est à l’origine d’une rationalisation pour ainsi dire fulgurante de l’ensemble des processus de production en très peu de temps et de manière mondialisée. Il devient alors plus rentable de rationaliser le travail que de conquérir de nouveaux espaces pour l’accumulation de capital. Le régime d’accumulation atteint sa limite et tout se rabat sur les marchés financiers et le capital fictif. Comme le dit R. Kurz dans Vies et mort du capitalisme1 :

C’est le plus souvent, et non sans raison, la troisième révolution industrielle (la microélectronique) qui est désignée comme la cause profonde de la nouvelle crise mondiale. Pour la première fois dans l’histoire du capitalisme, en effet, les potentiels de rationalisation dépassent les possibilités d’une expansion des marchés.

Non seulement il y a la perte de sens du travail (la rationalisation à des échelles inédites) mais aussi une rupture radicale avec les catégories du capitalisme qui jusque-là reposaient surtout sur la valeur marchande substantiellement liée au travail abstrait (qui lui-même n’intégrait pas de toute façon ses propres conditions de reproduction).

Très voisins, les travaux d’Ernst Lohoff et de Norbert Trenkle questionnent la surfinanciarisation de l’économie dans La grande dévalorisation2. Pour eux, c’est la forme même de la richesse capitaliste qui est en question. Ils en viennent aux mêmes considérations concernant l’informatisation de la société. La troisième révolution industrielle a créé un rétrécissement de la production de valeur. La microélectronique (entendue cette fois en tant que description de dispositifs techniques) a permis l’avancée de beaucoup de produits innovants mais l’innovation dans les processus de production qu’elle a induits a été beaucoup plus forte et attractive, c’est-à-dire beaucoup plus rentable : on a préféré produire avec toujours moins de temps de travail, et ce temps de travail a fini par devenir une variable de rentabilité au lieu d’être une production de valeur.

Si bien qu’on est arrivé à ce qui, selon Marx, est une incompatibilité avec le capitalisme : l’homme finit par se situer en dehors du processus de production. Du moins, il tend à l’être dans nos économies occidentales. Et ce fut pourtant une sorte d’utopie formulée par les capitalistes eux-mêmes dans les années 1960. Alors que les industries commençaient à s’informatiser, le rêve cybernéticien d’une production sans travailleurs était en plein essor. Chez les plus techno-optimistes on s’interrogeait davantage à propos des répercussions de la transformation des processus de production sur l’homme qu’à propos de leur impact sur la dynamique capitaliste. La transformation « cybernétique » des processus de production ne faisait pas vraiment l’objet de discussion tant la technologie était à l’évidence une marche continue vers une nouvelle société. Par exemple, pour un sociologue comme George Simpson3, au « stade 3 » de l’automatisation (lorsque les machines n’ont plus besoin d’intervention humaine directe pour fonctionner et produire), l’homme perd le sens de son travail, bien que libéré de la charge physique, et « le système industriel devient un système à boutons-poussoirs ». Que l’automatisation des processus de production (et aussi des systèmes décisionnels) fasse l’objet d’une critique ou non, ce qui a toujours été questionné, ce sont les répercussions sur l’organisation sociale et le constat que le travail n’a jamais été aussi peu émancipateur alors qu’on en attendait l’inverse4.

La surveillance comme catégorie du capitalisme

Revenons maintenant au capitalisme de surveillance. D’une part, son appellation de capitalisme devient quelque peu discutable puisqu’en effet il n’est pas possible de le désincarner de la dynamique capitaliste elle-même. C’est pour cela qu’il faut préciser qu’il s’agit surtout d’une expression initialement forgée pour les besoins méthodiques de son approche. Par contre, ce que j’ai essayé de souligner sans jamais le dire de cette manière, c’est que la surveillance est devenue une catégorie du capitalisme en tant qu’elle est une tentative de pallier la perte de substance du travail abstrait pour chercher de la valeur marchande dans deux directions :

  • la rationalisation à l’extrême des processus productifs qu’on voit émerger dans l’économie de plateformes, de l’esclavagisme moderne des travailleurs du clic à l’ubérisation de beaucoup de secteurs productifs de services, voire aussi industriels (on pense à Tesla). Une involution du travail qui en retour se paie sur l’actionnariat tout aussi extrême de ces mêmes plateformes dont les capacités d’investissement réel sont quasi-nulles.
  • L’autre direction est née du processus même de l’informatisation des organisations dès le début, comme je l’ai montré à propos de l’histoire d’Axciom, à savoir l’extraction et le courtage de données qui pillent littéralement nos vies privées et dissocient cette fois la force de travail elle-même du rapport social qu’elle implique puisque c’est dans nos intimités que la plus-value est recherchée. La financiarisation de ces entreprises est d’autant plus évidente que leurs besoins d’investissement sont quasiment nuls. Quant à leurs innovations (le travail des bases de données) elles sont depuis longtemps éprouvées et reposent aussi sur le modèle de plateforme mentionné ci-dessus.

Mais alors, dans cette configuration, on a plutôt l’impression qu’on ne fait que placer l’homme au centre de la production et non en dehors ou presque en dehors. Il en va ainsi des livreurs d’Uber, du travail à la tâche, des contrats de chantiers adaptés à la Recherche et à l’Enseignement, et surtout, surtout, nous sommes nous-mêmes producteurs des données dont se nourrit abondamment l’industrie numérique.

On comprend que, par exemple, certains ont cru intelligent de tenter de remettre l’homme dans le circuit de production en basant leur raisonnement sur l’idée de la propriété des données personnelles et de la « liberté d’entreprendre ». En réalité la configuration du travail à l’ère des plateformes est le degré zéro de la production de valeur : les données n’ont de valeur qu’une fois travaillées, concaténées, inférées, calculées, recoupées, stockées (dans une base), etc. En soi, même si elles sont échangeables sur un marché, il faut encore les rendre rentables et pour cela il y a de l’Intelligence Artificielle et des travailleurs du clic. Les seconds ne sont que du temps de travail volatile (il produit de la valeur en tant que travail salarié, mais si peu qu’il en devient négligeable au profit de la rationalisation structurelle), tandis que l’IA a pour objectif de démontrer la rentabilité de l’achat d’un jeu de données sur le marché (une sorte de travail mort-vivant5 qu’on incorporerait directement à la marchandisation). Et la boucle est bouclée : cette rentabilité se mesure à l’aune de la rationalisation des processus de production, ce qui génère de l’actionnariat et une tendance au renforcement des monopoles. Pour le reste, afin d’assurer les conditions de permanence du capitalisme (il faut bien des travailleurs pour assurer un minimum de salubrité de la structure, c’est-à-dire maintenir un minimum de production de valeur), deux choses :

  • on maintient en place quelques industries dont tout le jeu mondialisé consiste à être de plus en plus rationalisées pour coûter moins cher et rapporter plus, ce qui accroît les inégalités et la pauvreté (et plus on est pauvre, plus on est exploité),
  • on vend du rêve en faisant croire que le marché de produits innovants (concrets) est en soi producteur de valeur (alors que s’accroît la pauvreté) : des voitures Tesla, des services par abonnement, de l’école à distance, un métavers… du vent.

Réguler le capitalisme ne suffit pas

Pour l’individu comme pour les entreprises sous perfusion technologique, l’attrait matériel du capitalisme est tel qu’il est extrêmement difficile de s’en détacher. G. Orwell avait (comme on peut s’y attendre de la part d’un esprit si brillant) déjà remarqué cette indécrottable attraction dans Le Quai de Wigan : l’adoration de la technique et le conformisme polluent toute critique entendable du capitalisme. Tant que le capitalisme maintiendra la double illusion d’une production concrète et d’un travail émancipateur, sans remettre en cause le fait que ce sont bien les produits financiers qui représentent l’essentiel du PIB mondial6, les catégories trop anciennes avec lesquelles nous pensons le capitalisme ne nous permettront pas de franchir le pas d’une critique radicale de ses effets écocides et destructeurs de libertés.

Faudrait-il donc s’en accommoder ? La plus importante mise en perspective critique des mécanismes du capitalisme de surveillance, celle qui a placé son auteure Shoshana Zuboff au-devant de la scène ces trois dernières années, n’a jamais convaincu personne par les solutions qu’elle propose.

Premièrement parce qu’elle circonscrit le capitalisme de surveillance à la mise en œuvre par les GAFAM de solutions de rentabilité actionnariale en allant extraire le minerai de données personnelles afin d’en tirer de la valeur marchande. Le fait est qu’en réalité ce modèle économique de valorisation des données n’est absolument pas nouveau, il est né avec les ordinateurs dont c’est la principale raison d’être (vendables). Par conséquent ces firmes n’ont créé de valeur qu’à la marge de leurs activités principales (le courtage de données), par exemple en fournissant des services dont le Web aurait très bien pu se passer. Sauf peut-être la fonction de moteur de recherche, nonobstant la situation de monopole qu’elle a engendrée au détriment de la concurrence, ce qui n’est que le reflet de l’effet pervers du monopole et de la financiarisation de ces firmes, à savoir tuer la concurrence, s’approprier (financièrement) des entreprises innovantes, et tuer toute dynamique diversifiée d’innovation.

Deuxièmement, les solutions proposées reposent exclusivement sur la régulation des ces monstres capitalistes. On renoue alors avec d’anciennes visions, celles d’un libéralisme garant des équilibres capitalistes, mais cette fois presque exclusivement du côté du droit : c’est mal de priver les individus de leur vie privée, donc il faut plus de régulation dans les pratiques. On n’est pas loin de renouer avec la vieille idée de l’ethos protestant à l’origine du capitalisme moderne selon Max Weber : la recherche de profit est un bien, il s’accomplit par le travail et le don de soi à l’entreprise. La paix de nos âmes ne peut donc avoir lieu sans le capitalisme. C’est ce que cristallise Milton Friedman dans une de ses célèbres affirmations : « la responsabilité sociale des entreprises est de maximiser leurs profits »7. Si le capitalisme est un dispositif géant générateur de profit, il n’est ni moral ni immoral, c’est son usage, sa destination qui l’est. Par conséquent, ce serait à l’État d’agir en assumant les conséquences d’un mauvais usage qu’en feraient les capitalistes.

Contradiction : le capitalisme n’est pas un simple dispositif, il est à la fois marché, organisation, choix collectifs, et choix individuels. Son extension dans nos vies privées est le résultat du choix de la rationalisation toujours plus drastique des conditions de rentabilité. Dans les années 1980, les économistes néoclassiques croyaient fortement au triptyque gagnant investissement – accroissement de main d’œuvre – progrès technique. Sauf que même l’un des plus connus des économistes américains, Robert Solow, a dû se rendre à une évidence, un « paradoxe » qu’il soulevait après avoir admis que « la révolution technologique [de l’informatique] s’est accompagnée partout d’un ralentissement de la croissance de la productivité, et non d’une augmentation ». Il conclut : « Vous pouvez voir l’ère informatique partout, sauf dans les statistiques de la productivité »8. Pour Solow, croyant encore au vieux monde de la croissance « productrice », ce n’était qu’une question de temps, mais pour l’économie capitaliste, c’était surtout l’urgence de se tourner vers des solutions beaucoup plus rapides : l’actionnariat (et la rationalisation rentable des process) et la valorisation quasi-immédiate de tout ce qui pouvait être valorisable sur le marché le plus facile possible, celui des services, celui qui nécessite le moins d’investissements.

La volonté d’aller dans le mur

Le capitalisme à l’ère numérique n’a pas créé de stagnation, il est structurellement destructeur. Il n’a pas créé de défaut d’investissement, il est avant tout un choix réfléchi, la volonté d’aller droit dans le mur en espérant faire partie des élus qui pourront changer de voiture avant l’impact. Dans cette hyper-concurrence qui est devenue essentiellement financière, la seule manière d’envisager la victoire est de fabriquer des monopoles. C’est là que la fatuité de la régulation se remarque le plus. Un récent article de Michael Kwet9 résume très bien la situation. On peut le citer longuement :

Les défenseurs de la législation antitrust affirment que les monopoles faussent un système capitaliste idéal et que ce qu’il faut, c’est un terrain de jeu égal pour que tout le monde puisse se faire concurrence. Pourtant, la concurrence n’est bonne que pour ceux qui ont des ressources à mettre en concurrence. Plus de la moitié de la population mondiale vit avec moins de 7,40 dollars [7,16 euros] par jour, et personne ne s’arrête pour demander comment ils seront “compétitifs” sur le “marché concurrentiel” envisagé par les défenseurs occidentaux de l’antitrust. C’est d’autant plus décourageant pour les pays à revenu faible ou intermédiaire que l’internet est largement sans frontières.

À un niveau plus large […] les défenseurs de l’antitrust ignorent la division globalement inégale du travail et de l’échange de biens et de services qui a été approfondie par la numérisation de l’économie mondiale. Des entreprises comme Google, Amazon, Meta, Apple, Microsoft, Netflix, Nvidia, Intel, AMD et bien d’autres sont parvenues à leur taille hégémonique parce qu’elles possèdent la propriété intellectuelle et les moyens de calcul utilisés dans le monde entier. Les penseurs antitrust, en particulier ceux des États-Unis, finissent par occulter systématiquement la réalité de l’impérialisme américain dans le secteur des technologies numériques, et donc leur impact non seulement aux États-Unis, mais aussi en Europe et dans les pays du Sud.

Les initiatives antitrust européennes ne sont pas meilleures. Là-bas, les décideurs politiques qui s’insurgent contre les maux des grandes entreprises technologiques tentent discrètement de créer leurs propres géants technologiques.

Dans la critique mainstream du capitalisme de surveillance, une autre erreur s’est révélée, en plus de celle qui consiste à persister dans la défense d’un imaginaire capitaliste. C’est celle de voir dans l’État et son pouvoir de régulation un défenseur de la démocratie. C’est d’abord une erreur de principe : dans un régime capitaliste monopoliste, l’État assure l’hégémonie des entreprises de son cru et fait passer sous l’expression démocratie libérale (ou libertés) ce qui favorise l’émergence de situations de domination. Pour lutter contre, il y a une urgence dans notre actualité économique : la logique des start-up tout autant que celle de la « propriété intellectuelle » doivent laisser place à l’expérimentation collective de gouvernance de biens communs de la connaissance et des techniques (nous en parlerons plus loin). Ensuite, c’est une erreur pratique comme l’illustrent les affaires de lobbying et de pantouflage dans le petit monde des décideurs politiques. Une illustration parmi des centaines : les récents Uber Files démontrant, entre autres, les accords passés entre le président Emmanuel Macron et les dirigeants d’Uber (voir sur le site Le Monde).

Situer ces enjeux dans un contexte historique aussi général suppose de longs développements, rarement simples à exposer. Oui, il s’agit d’une critique du capitalisme, et oui cette critique peut être plus ou moins radicale selon que l’on se place dans un héritage marxiste, marxien ou de la critique de la valeur, ou que l’on demeure persuadé qu’un capitalisme plus respectueux, moins « féodal » pourrait advenir. Sans doute qu’un mirage subsiste, celui de croire qu’autant de bienfaits issus du capitalisme suffisent à le dédouaner de l’usage dévoyé des technologies. « Sans le capitalisme nous en serions encore à nous éclairer à la bougie…» En d’autres termes, il y aurait un progrès indiscutable à l’aune duquel les technologies de surveillance pourraient être jugées. Vraiment ?

Situer le capitalisme de surveillance dans notre rapport à la technique

C’est un poncif : les technologies de surveillance ont été développées dans une logique de profit. Il s’agit des technologies dont l’objectif est de créer des données exploitables à partir de nos vies privées, à des fins de contrôle ou purement mercantiles (ce qui revient au même puisque les technologies de contrôle sont possédées par des firmes qui achètent des données).

Or, il est temps de mettre fin à l’erreur répandue qui consiste à considérer que les technologies de surveillance sont un mal qui pervertit le capitalisme censé être le moteur de la démocratie libérale. Ceci conduit à penser que seule une régulation bien menée par l’État dans le but de restaurer les vertus du « bon » capitalisme serait salutaire tant nos vies privées sont sur-exploitées et nos libertés érodées. Tel est le credo de Shoshana Zuboff et avec elle bon nombre de décideurs politiques.

Croire qu’il y a de bons et de mauvais usages

L’erreur est exactement celle que dénonçait en son temps Jacques Ellul. C’est celle qui consiste à vouloir absolument attribuer une valeur à l’usage de la technique. Le bon usage serait celui qui pousse à respecter la vie privée, et le mauvais usage celui qui tend à l’inverse. Or, il n’y a d’usage technique que technique. Il n’y a qu’un usage de la bombe atomique, celui de faire boum (ou pas si elle est mal utilisée). Le choix de développer la bombe est, lui, par contre, un choix qui fait intervenir des enjeux de pouvoir et de valeurs.

Au tout début des années 1970, à l’époque où se développaient les techniques d’exploitation des bases de données et le courtage de données, c’est ce qu’ont montré James Martin et Adrian Norman pour ce qui concerne les systèmes informatiques10 : à partir du moment où un système est informatisé, la quantification est la seule manière de décrire le monde. Ceci est valable y compris pour les systèmes décisionnels. Le paradoxe que pointaient ces auteurs montrait que le traitement de l’information dans un système décisionnel – par exemple dans n’importe quelle organisation économique, comme une entreprise – devait avoir pour objectif de rationaliser les procédures et les décisions en utilisant une quantité finie de données pour en produire une quantité réduite aux éléments les plus stratégiques, or, l’informatisation suppose un choix optimum parmi une grande variété d’arbres décisionnels et donc un besoin croissant de données, une quantité tendant vers l’infini.

Martin et Norman illustraient ce qu’avait affirmé Jacques Ellul vingt ans auparavant : la technique et sa logique de développement seraient autonomes. Bien que discutable, cette hypothèse montre au moins une chose : dans un monde capitaliste, tout l’enjeu consisterait comme au rugby à transformer l’essai, c’est-à-dire voir dans le développement des techniques autant d’opportunités de profit et non pas d’investissements productifs. Les choix se posent alors en termes d’anti-productivité concrète. Dans le monde des bases de données et leur exploitation la double question qui s’est posée de 1970 à aujourd’hui est de savoir si nous sommes capables d’engranger plus ou moins de données et comment leur attribuer une valeur marchande.

Le reste n’est que sophismes : l’usine entièrement automatisée des rêves cybernéticiens les plus fous, les boules de cristal des statistiques électorales, les données de recouvrement bancaires et le crédit à la consommation, les analyses marketing et la consommation de masse, jusqu’à la smart city de la Silicon Valley et ses voitures autonomes (et ses aspirateurs espions)… la justification de la surveillance et de l’extraction de données repose sur l’idée d’un progrès social, d’un bon usage des technologies, et d’une neutralité des choix technologiques. Et il y a un paralogisme. Si l’on ne pense l’économie qu’en termes capitalistes et libéraux, cette neutralité est un postulat qui ne peut être remis en cause qu’à l’aune d’un jugement de valeur : il y aurait des bons et des mauvais usages des technologies, et c’est à l’État d’assurer le rôle minimal de les arbitrer au regard de la loi. Nul ne remet alors en question les choix eux-mêmes, nul ne remet en question l’hégémonie des entreprises qui nous couvrent de leurs « bienfaits » au prix de quelques « négligeables » écarts de conduite, nul ne remet en question l’exploitation de nos vies privées (un mal devenu nécessaire) et l’on préfère nous demander notre consentement plus ou moins éclairé, plus ou moins obligé.

La technologie n’est pas autonome

Cependant, comme nous le verrons vers la fin de ce texte, les études en sociologie des sciences montrent en fait qu’il n’y a pas d’autonomie de la technique. Sciences, technologies et société s’abreuvent mutuellement entre les usages, les expérimentations et tous ces interstices épistémiques d’appropriation des techniques, de désapprentissage, de renouvellement, de détournements, et d’expression des besoins pour de nouvelles innovations qui seront à leur tour appropriées, modifiées, transformées, etc. En réalité l’hypothèse de l’autonomie de la technique a surtout servi au capitalisme pour suivre une course à l’innovation qui ne saurait être remise en question, comme une loi naturelle qui justifie en soi la mise sur le marché de nouvelles technologies et au besoin faire croire en leur utilité. Tel est le fond de commerce du transhumanisme et son « économie des promesses ».

L’erreur consiste à prêter le flanc au solutionnisme technologique (le même qui nous fait croire que des caméras de surveillance sont un remède à la délinquance, ou qu’il faut construire des grosses berlines sur batteries pour ne plus polluer) et à se laisser abreuver des discours néolibéraux qui, parce qu’il faut bien rentabiliser ces promesses par de la marchandisation des données – qui est elle-même une promesse pour l’actionnariat –, nous habituent petit à petit à être surveillés. Pour se dépêtrer de cela, la critique du capitalisme de surveillance doit être une critique radicale du capitalisme et du néolibéralisme car la lutte contre la surveillance ne peut être décorrélée de la prise en compte des injustices sociales et économiques dont ils sont les causes pratiques et idéologiques.

Je vois venir les lecteurs inquiets. Oui, j’ai placé ce terme de néolibéralisme sans prévenir. C’est mettre la charrue avant les bœufs mais c’est parfois nécessaire. Pour mieux comprendre, il suffit de définir ce qu’est le néolibéralisme. C’est l’idéologie appelée en Allemagne ordolibéralisme, si l’on veut, c’est-à-dire l’idée que le laissez-faire a démontré son erreur historique (les crises successives de 1929, 1972, 2008, ou la crise permanente), et que par conséquent l’État a fait son grand retour dans le marché au service du capital, comme le principal organisateur de l’espace de compétition capitaliste et le dépositaire du droit qui érige la propriété et le profit au titre de seules valeurs acceptables. Que des contrats, plus de discussion, there is no alternative, comme disait la Margaret. Donc partant de cette définition, à tous les niveaux organisationnels, celui des institutions de l’État comme celui des organisations du capital, la surveillance est à la fois outil de contrôle et de génération de profit (dans les limites démontrées par R. Kurz, à savoir : pas sans compter presque exclusivement sur l’actionnariat et les produits financiers, cf. plus haut).

Le choix du « monitoring »

La course en avant des technologies de surveillance est donc le résultat d’un choix. Il n’y a pas de bon ou de mauvais usage de la surveillance électronique : elle est faite pour récolter des données. Le choix en question c’est celui de n’avoir vu dans ces données qu’un objet marchand. Peu importe les bienfaits que cela a pu produire pour l’individu, ils ne sont visibles que sur un court terme. Par exemple les nombreuses applications de suivi social que nous utilisons nous divertissent et rendent parfois quelque service, mais comme le dit David Lyon dans The Culture of Surveillance, elle ne font que nous faire accepter passivement les règles du monitoring et du tri social que les États comme les multinationales mettent en œuvre.

Il n’y a pas de différence de nature entre la surveillance des multinationales et la surveillance par l’État : ce sont les multinationales qui déterminent les règles du jeu de la surveillance et l’État entérine ces règles et absorbe les conditions de l’exercice de la surveillance au détriment de sa souveraineté. C’est une constante bien comprise, qu’il s’agisse des aspects techniques de la surveillance sur lesquels les Big Tech exercent une hégémonie qui en retour sert les intérêts d’un ou plusieurs États (surtout les États-Unis aujourd’hui), ou qu’il s’agisse du droit que les Big Tech tendent à modifier en leur faveur soit par le jeu des lobbies soit par le jeu des accords internationaux (tout comme récemment le nouvel accord entre l’Europe et les États-Unis sur les transferts transatlantiques de données, qui vient contrecarrer les effets d’annonce de la Commission Européenne).

Quels espaces de liberté dans ce monde technologique ?

Avec l’apparition des ordinateurs et des réseaux, de nombreuses propositions ont vu le jour. Depuis les années 1970, si l’on suit le développement des différents mouvements de contestation sociale à travers le monde, l’informatique et les réseaux ont souvent été plébiscités comme des solutions techniques aux défauts des démocraties. De nombreux exemples d’initiatives structurantes pour les réseaux informatiques et les usages des ordinateurs se sont alors vus détournés de leurs fonctions premières. On peut citer le World Wide Web tel que conçu par Tim Berners Lee, lui même suivant les traces du monde hypertextuel de Ted Nelson et son projet Xanadu. Pourquoi ce design de l’internet des services s’est-il trouvé à ce point sclérosé par la surveillance ? Pour deux raisons : 1/ on n’échappe pas (jamais) au développement technique de la surveillance (les ordinateurs ont été faits et vendus pour cela et le sont toujours11) et 2/ parce qu’il y a des intérêts de pouvoir en jeu, policiers et économiques, celui de contrôler les communications. Un autre exemple : le partage des programmes informatiques. Comme chacun le sait, il fut un temps où la création d’un programme et sa distribution n’étaient pas assujettis aux contraintes de la marchandisation et de la propriété intellectuelle. Cela permettait aux utilisateurs de machines de partager non seulement des programmes mais des connaissances et des nouveaux usages, faisant du code un bien commun. Sous l’impulsion de personnages comme Bill Gates, tout cela a changé au milieu des années 1970 et l’industrie du logiciel est née. Cela eut deux conséquences, négative et positive. Négative parce que les utilisateurs perdaient absolument toute maîtrise de la machine informatique, et toute possibilité d’innovation solidaire, au profit des intérêts d’entreprises qui devinrent très vite des multinationales. Positive néanmoins, car, grâce à l’initiative de quelques hackers, dont Richard Stallman, une alternative fut trouvée grâce au logiciel libre et la licence publique générale et ses variantes copyleft qui sanctuarisent le partage du code. Ce partage relève d’un paradigme qui ne concerne plus seulement le code, mais toute activité intellectuelle dont le produit peut être partagé, assurant leur liberté de partage aux utilisateurs finaux et la possibilité de créer des communs de la connaissance.

Alors que nous vivons dans un monde submergé de technologies, nous aurions en quelque sorte gagné quelques espaces de liberté d’usage technique. Mais il y a alors comme un paradoxe.

À l’instar de Jacques Ellul, pour qui l’autonomie de la technique implique une aliénation de l’homme à celle-ci, beaucoup d’auteurs se sont inquiétés du fait que les artefacts techniques configurent par eux-mêmes les actions humaines. Qu’on postule ou pas une autonomie de la technique, son caractère aliénant reste un fait. Mais il ne s’agit pas de n’importe quels artefacts. Nous ne parlons pas d’un tournevis ou d’un marteau, ou encore d’un silex taillé. Il s’agit des systèmes techniques, c’est-à-dire des dispositifs qu’on peut qualifier de socio-techniques qui font intervenir l’homme comme opérateur d’un ensemble d’actions techniques par la technique. En quelque sorte, nous perdons l’initiative et les actions envisagées tendent à la conformité avec le dispositif technique et non plus uniquement à notre volonté. Typiquement, les ordinateurs dans les entreprises à la fin des années 1960 ont été utilisés pour créer des systèmes d’information, et c’est à travers ces systèmes techniques que l’action de l’homme se voit configurée, modelée, déterminée, entre ce qui est possible et ce qui ne l’est pas. Dans son article « Do artefacts have politics ? », Langdon Winner s’en inquiétait à juste titre : nos objectifs et le sens de nos actions sont conditionnés par la technique. Cette dernière n’est jamais neutre, elle peut même provoquer une perte de sens de l’action, par exemple chez le travailleur à la chaîne ou le cadre qui non seulement peuvent être noyés dans une organisation du travail trop grande, mais aussi parce que l’automatisation de la production et de la décision les prive de toute initiative (et de responsabilité).

La tentation du luddisme

Pour lutter contre cette perte de sens, des choix sont envisageables. Le premier consiste à lutter contre la technique. En évacuant la complexité qu’il y a à penser qu’un mouvement réfractaire au développement technique puisse aboutir à une société plus libre, on peut certes imaginer des fronts luddites en certains secteurs choisis. Par exemple, tel fut le choix du CLODO dans la France des années 1980, prétendant lutter contre l’envahissement informatique dans la société. Concernant la surveillance, on peut dire qu’au terme d’un processus de plus de 50 ans, elle a gagné toutes les sphères socio-économiques grâce au développement technologique. Un front (néo-)luddite peut sembler justifié tant cette surveillance remet en cause très largement nos libertés et toutes les valeurs positives que l’on oppose généralement au capitalisme : solidarité et partage, notamment.

Pour autant, est-ce que la lutte contre le capitalisme de surveillance doit passer par la négation de la technique ? Il est assez évident que toute forme d’action directe qui s’oppose en bloc à la technique perd sa crédibilité en ce qu’elle ne fait que proposer un fantasme passéiste ou provoquer des réactions de retrait qui n’ont souvent rien de constructif. C’est une critique souvent faite à l’anarcho-primitivisme qui, lorsqu’il ne se contente pas d’opposer une critique éclairée de la technique (et des processus qui ont conduit à la création de l’État) en vient parfois à verser dans la technophobie. C’est une réaction aussi compréhensible que contrainte tant l’envahissement technologique et ses discours ont quelque chose de suffoquant. En oubliant cette question de l’autonomie de la technique, je suis personnellement tout à fait convaincu par l’analyse de J. Ellul selon laquelle nous sommes à la fois accolés et dépendants d’un système technique. En tant que système il est devenu structurellement nécessaire aux organisations (qu’elles soient anarchistes ou non) au moins pour communiquer, alors que le système capitaliste, lui, ne nous est pas nécessaire mais imposé par des jeux de pouvoirs. Une réaction plus constructive consiste donc à orienter les choix technologiques, là où l’action directe peut prendre un sens tout à fait pertinent.

Prenons un exemple qui pourrait paraître trivial mais qui s’est révélé particulièrement crucial lors des périodes de confinement que nous avons subies en raison de l’épidémie Covid. Qu’il s’agisse des entreprises ou des institutions publiques, toutes ont entamé dans l’urgence une course en avant vers les solutions de visio-conférence dans l’optique de tâcher de reproduire une forme présentielle du travail de bureau. La visio-conférence suscite un flux de données bien plus important que la voix seule, et par ailleurs la transmission vocale est un ensemble de techniques déjà fort éprouvées depuis plus d’un siècle. Que s’est-il produit ? Les multinationales se sont empressées de vendre leurs produits et pomper toujours plus de données personnelles, tandis que les limites pratiques de la visio-conférence se sont révélées : dans la plupart des cas, réaliser une réunion « filmée » n’apporte strictement rien de plus à l’efficacité d’une conférence vocale. Dans la plupart des cas, d’ailleurs, afin d’économiser de la bande passante (croit-on), la pratique courante consiste à éteindre sa caméra pendant la réunion. Où sont les gains de productivité tant annoncés par les GAFAM ? Au lieu de cela, il y a en réalité un détournement des usages, et même des actes de résistance du quotidien (surtout lorsqu’il s’agit de surveiller les salariés à distance).

Les choix technologiques doivent être collectifs

Une critique des techniques pourrait donc consister à d’abord faire le point sur nos besoins et en prenant en compte l’urgence climatique et environnementale dans laquelle nous sommes (depuis des décennies). Elle pourrait aussi consister à prendre le contrepoint des discours solutionnistes qui tendent à justifier le développement de techniques le plus souvent inutiles en pratique mais toujours plus contraignantes quant au limites éthiques vers lesquelles elles nous poussent. Les choix technologiques doivent donc d’abord être des choix collectifs, dont l’assentiment se mesure en fonction de l’économie énergétique et de l’acceptabilité éthique de la trajectoire choisie. On peut revenir à une technologie ancienne et éprouvée et s’en contenter parce qu’elle est efficace et on peut refuser une technologie parce qu’elle n’est pas un bon choix dans l’intérêt collectif. Et par collectif, j’entends l’ensemble des relations inter-humaines et des relations environnementales dont dépendent les premières.

Les attitudes de retraits par rapports aux technologies, le refus systématique des usages, sont rarement bénéfiques et ne constituent que rarement une démarche critique. Ils sont une réaction tout à fait compréhensible du fait que la politique a petit à petit déserté les lieux de production (pour ce qu’il en reste). On le constate dans le désistement progressif du syndicalisme ces 30 ou 40 dernières années et par le fait que la critique socialiste (ou « de gauche ») a été incapable d’intégrer la crise du capitalisme de la fin du XXᵉ siècle. Pire, en se transformant en un centre réactionnaire, cette gauche a créé une technocratie de la gestion aux ordres du néolibéralisme : autoritarisme et pansements sociaux pour calmer la révolte qui gronde. Dès lors, de désillusions en désillusions, dans la grande cage concurrentielle de la rareté du travail rémunéré (rentable) quelle place peut-il y avoir pour une critique des techniques et de la surveillance ? Peut-on demander sérieusement de réfléchir à son usage de Whatsapp à une infirmière qui a déjà toutes les difficultés du monde à concilier la garde de ses enfants, les heures supplémentaires (parfois non payées) à l’hôpital, le rythme harassant du cycle des gardes, les heures de transports en commun et par dessus le marché, le travail domestique censé assurer les conditions de reproduction du travail abstrait ? Alors oui, dans ces conditions où le management du travail n’est devenu qu’une affaire de rationalisation rentable, les dispositifs techniques ne font pas l’objet d’usages réfléchis ou raisonnés, il font toujours l’objet d’un usage opportuniste : je n’utilise pas Whatsapp parce que j’aime Facebook ou que je me fiche de savoir ce que deviennent mes données personnelles, j’utilise Whatsapp parce que c’est le moyen que j’ai trouvé pour converser avec mes enfants et m’assurer qu’ils sont bien rentrés à la maison après l’école.

Low tech et action directe

En revanche, un retrait que je pourrais qualifier de technophobe et donc un minimum réfléchi, laisse entier le problème pour les autres. La solidarité nous oblige à créer des espaces politiques où justement technologie et capitalisme peuvent faire l’objet d’une critique et surtout d’une mise en pratique. Le mouvement Low Tech me semble être l’un des meilleurs choix. C’est en substance la thèse que défend Uri Gordon (« L’anarchisme et les politiques techniques ») en voyant dans les possibilités de coopérations solidaires et de choix collectivement réfléchis, une forme d’éthique de l’action directe.

Je le suivrai sur ce point et en étendant davantage le spectre de l’action directe. Premièrement parce que si le techno-capitalisme aujourd’hui procède par privation de libertés et de politique, il n’implique pas forcément l’idée que nous ne soyons que des sujets soumis à ce jeu de manière inconditionnelle. C’est une tendance qu’on peut constater dans la plupart des critiques du pouvoir : ne voir l’individu que comme une entité dont la substance n’est pas discutée, simplement soumis ou non soumis, contraint ou non contraint, privé de liberté ou disposant de liberté, etc. Or il y a tout un ensemble d’espaces de résistance conscients ou non conscients chez tout individu, ce que Michel de Certeau appelait des tactiques du quotidien12. Il ne s’agit pas de stratégies où volonté et pouvoir se conjuguent, mais des mouvements « sur le fait », des alternatives multiples mises en œuvre sans chercher à organiser cet espace de résistance. Ce sont des espaces féconds, faits d’expérimentations et d’innovations, et parfois même configurent les techniques elles-mêmes dans la différence entre la conception initiale et l’usage final à grande échelle. Par exemple, les ordinateurs et leurs systèmes d’exploitations peuvent ainsi être tantôt les instruments de la surveillance et tantôt des instruments de résistance, en particulier lorsqu’ils utilisent des logiciels libres. Des apprentissages ont lieu et cette fois ils dépassent l’individu, ils sont collectifs et ils intègrent des connaissances en commun.

En d’autres termes, chaque artefact et chaque système technique est socialement digéré, ce qui en retour produit des interactions et détermine des motivations et des objectifs qui peuvent s’avérer très différents de ceux en fonction desquels les dispositifs ont été créés. Ce processus est ce que Sheila Jasanoff appelle un processus de coproduction épistémique et normatif13 : sciences et techniques influencent la société en offrant un cadre tantôt limitatif, tantôt créatif, ce qui en retour favorise des usages et des besoins qui conditionnent les trajectoires scientifiques et technologiques. Il est par conséquent primordial de situer l’action directe sur ce créneau de la coproduction en favorisant les expériences tactiques individuelles et collectives qui permettent de déterminer des choix stratégiques dans l’orientation technologique de la société. Dit en des mots plus simples : si la décision politique n’est plus suffisante pour garantir un cadre normatif qui reflète les choix collectifs, alors ce sont les collectifs qui doivent pouvoir créer des stratégies et au besoin les imposer par un rapport de force.

Créer des espaces d’expérimentations utopiques

Les hackers ne produisent pas des logiciels libres par pur amour d’autrui et par pure solidarité : même si ces intentions peuvent être présentes (et je ne connais pas de libristes qui ne soient pas animés de tels sentiments), la production de logiciel libre (ou open source) est d’abord faite pour créer de la valeur. On crée du logiciel libre parce que collectivement on est capable d’administrer et valoriser le bien commun qu’est le code libre, à commencer par tout un appareillage juridique comme les licences libres. Il en va de même pour toutes les productions libres qui emportent avec elles un idéal technologique : l’émancipation, l’activité libre que représente le travail du code libre (qui n’est la propriété de personne). Même si cela n’exempte pas de se placer dans un rapport entre patron (propriétaire des moyens de production) et salarié, car il y a des entreprises spécialisées dans le Libre, il reste que le Libre crée des espaces d’équilibres économiques qui se situent en dehors de l’impasse capitaliste. La rentabilité et l’utilité se situent presque exclusivement sur un plan social, ce qui explique l’aspect très bigarré des modèles d’organisations économiques du Libre, entre associations, fondations, coopératives…

L’effet collatéral du Libre est aussi de créer toujours davantage d’espaces de libertés numériques, cette fois en dehors du capitalisme de surveillance et ses pratiques d’extraction. Cela va des pratiques de chiffrement des correspondances à l’utilisation de logiciels dédiés explicitement aux luttes démocratiques à travers le monde. Cela a le mérite de créer des communautés plus ou moins fédérées ou archipélisées, qui mettent en pratique ou du moins sous expérimentation l’alliance entre les technologies de communication et l’action directe, au service de l’émancipation sociale.

Il ne s’agit pas de promettre un grand soir et ce n’est certes pas avec des expériences qui se complaisent dans la marginalité que l’on peut bouleverser le capitalisme. Il ne s’agit plus de proposer des alternatives (qui fait un détour lorsqu’on peut se contenter du droit chemin?) mais des raisons d’agir. Le capitalisme est désuet. Dans ses soubresauts (qui pourraient bien nous mener à la guerre et la ruine), on ressort l’argument du bon sens, on cherche le consentement de tous malgré l’expérience que chacun fait de l’exploitation et de la domination. Au besoin, les capitalistes se montrent autoritaires et frappent. Mais que montrent les expériences d’émancipation sociales ? Que nous pouvons créer un ordre fait de partage et d’altruisme, de participation et de coopération, et que cela est parfaitement viable, sans eux, sur d’autres modèles plus cohérents14. En d’autres termes, lutter contre la domination capitaliste, c’est d’abord démontrer par les actes que d’autres solutions existent et sans chercher à les inclure au forceps dans ce système dominant. Au contraire, il y a une forme d’héroïsme à ne pas chercher à tordre le droit si ce dernier ne permet pas une émancipation franche et durable du capitalisme. Si le droit ne convient pas, il faut prendre le gauche.

La lutte pour les libertés numériques et l’application des principes du Libre permettent de proposer une sortie positive du capitalisme destructeur. Néanmoins on n’échappera pas à la dure réalité des faits. Par exemple que l’essentiel des « tuyaux » des transmissions numériques (comme les câbles sous-marins) appartiennent aux multinationales du numérique et assurent ainsi l’un des plus écrasants rapports de domination de l’histoire. Pourtant, on peut imaginer des expériences utopiques, comme celle du Chaos Computer Club, en 2012, consistant à créer un Internet hors censure via un réseau de satellite amateur.

L’important est de créer des espaces d’expérimentation utopiques, parce qu’ils démontrent tôt ou tard la possibilité d’une solution, il sont préfiguratifs15. Devant la décision politique au service du capital, la lutte pour un réseau d’échanges libres ne pourra certes pas se passer d’un rapport de force mais encore moins de nouveaux imaginaires. Car, finalement, ce que crée la crise du capitalisme, c’est la conscience de son écocide, de son injustice, de son esclavagisme technologique. Reste l’espoir, première motivation de l’action.



  1. R. Kurz, Vies et mort du capitalisme, Nouvelles Éditions Ligne, 2011, p. 37. ↩︎

  2. Ernst Lohoff et Norbert Trenkle, La grande dévalorisation. Pourquoi la spéculation et la dette de l’État ne sont pas les causes de la crise, Paris, Post-éditions, 2014. ↩︎

  3. Georges Simpson, « Western Man under Automation », International Journal of Comparative Sociology, num. 5, 1964, pp. 199-207. ↩︎

  4. Comme le dit Moishe Postone dans son article « Repenser Le Capital à la lumière des Grundrisse » : « La transformation radicale du processus de production mentionnée plus haut n’est pas le résultat quasi-automatique du développement rapide des savoirs techniques et scientifique et de leurs applications. C’est plutôt une possibilité qui naît d’une contradiction sociale intrinsèque croissante. Bien que la course du développement capitaliste génère la possibilité d’une structure nouvelle et émancipatrice du travail social, sa réalisation générale est impossible dans le capitalisme. » ↩︎

  5. Là je reprends une catégorie marxiste. Marx appelle le (résultat du -) travail mort ce qui a besoin de travail productif. Par exemple, une matière comme le blé récolté est le résultat d’un travail déjà passé, il lui faut un travail vivant (celui du meunier) pour devenir matière productive. Pour ce qui concerne l’extraction de données, il faut comprendre que l’automatisation de cette extraction, le stockage, le travail de la donnée et la marchandisation sont un seul et même mouvement (on ne marchande pas des jeux de données « en l’air », ils correspondent à des commandes sur une marché tendu). Les données ne sont pas vraiment une matière première, elles ne sont pas non plus un investissement, mais une forme insaisissable du travail à la fois matière première et système technique. ↩︎

  6. On peut distinguer entre économie réelle et économie financière. Voir cette étude de François Morin, juste avant le crack de 2008. François Morin, « Le nouveau mur de l’argent », Nouvelles Fondations, num. 3-4, 2007, p. 30-35. ↩︎

  7. The New York Times Magazine, 13 septembre 1970. ↩︎

  8. Robert Solow, « We’d better watch out », New York Times Book Review, 12 juillet 1987, page 36. ↩︎

  9. Mike Kwet, « Digital Ecosocialism Breaking the power of Big Tech » (ROAR Magazine), trad. Fr. Louis Derrac, sous le titre « Écosocialisme numérique – Briser le pouvoir des Big Tech », parue sur Framablog.org. ↩︎

  10. James Martin et Adrian R. D. Norman, The Computerized Society. An Appraisal of the Impact of Computers on Society over the next 15 Years, Englewood Cliffs, Prentice-Hall, 1970, p. 522. ↩︎

  11. c’est ce que je tâche de montrer dans une partie de mon livre Affaires privées. Aux sources du capitalisme de surveillance : pourquoi fabriquer et acheter des ordinateurs ? Si les entreprises sont passées à l’informatique c’est pour améliorer la production et c’est aussi pourquoi le courtage de données s’est développé. ↩︎

  12. Sur les « tactiques numériques », on pourra lire avec profit l’article de Beatrice Latini et Jules Rostand, « La libre navigation. Michel de Certeau à l’épreuve du numérique », Esprit, 2022/1-2 (Janvier-Février), p. 109-117. ↩︎

  13. Sheila Jasanoff, « Ordering Knowledge, Ordering Society », dans S. Jasanoff (éd.), States of knowledge. The co-production of science and social order, Londres, Routledge, 2004, pp. 13-45. ↩︎

  14. Sur ce point on peut lire avec intérêt ce texte de Ralph Miliband, « Comment lutter contre l’hégémonie capitaliste ? », paru initialement en 1990 et traduit sur le site Contretemps. ↩︎

  15. Voir David Graeber, et Alexie Doucet, Comme si nous étions déjà libres, Montréal, Lux éditeur, 2014. La préfiguration est l’« idée selon laquelle la forme organisationnelle qu’adopte un groupe doit incarner le type de société qu’il veut créer ». Voir aussi Marianne Maeckelbergh, « Doing is Believing: Prefiguration as Strategic Practice in the Alterglobalization Movement », Social Movement Studies, vol. 10, num. 1, 2011, pp. 1‑20. ↩︎


Publié le 11.06.2022 à 02:00

Qu'est-ce que le radicalisme ?

« Le pouvoir n’admet jamais son propre extrémisme, sa propre violence, son propre chaos, sa propre destruction, son propre désordre. Le désordre de l’inégalité, le chaos de la dépossession, la destruction des communautés et des relations traditionnelles ou indigènes – l’extermination de la vie, de la planète elle-même. Ce sont de véritables comportements extrémistes. » (Jeff Shantz)

Avant propos

Je propose dans ce billet une traduction d’un texte de 2013 écrit par Jeff Shantz. Les travaux de ce dernier appartiennent au courant de la criminologie anarchiste (voir ici ou ). Pour faire (très) court, il s’agit de s’interroger sur les causes de la criminalité et de la violence à partir d’une critique des actions de l’État et leurs effets néfastes (y compris la violence d’État).

Pour être tout à fait clair ici, je ne partage pas d’un bloc l’approche de la criminologie anarchiste, à cause des achoppements logiques auxquels elle doit se confronter. En particulier le fait qu’un mouvement de violence peut certes aller chercher ses causes dans un enchaînement d’effets du pouvoir institutionnel, il n’en demeure pas moins que, en tant qu’historien, il m’est difficile de ne jamais fouiller qu’à un seul endroit. Je crois qu’il y a toujours un faisceaux de causalités, toutes plus ou moins explicables, avec des déséquilibres qui peuvent faire attribuer l’essentiel à une partie plutôt qu’une autre. La criminologie anarchiste remet assez abruptement en cause la théorie du contrat social (surtout dans son rapport droit/crime/pouvoir), ce qui est plutôt sain. Mais si le pouvoir institutionnel est bien entendu en charge de lourdes responsabilités dans la révolte légitime (en particulier dans un contexte néolibéral autoritaire où la violence est la seule réponse faite au peuple), tous les mouvements de résistance font toujours face, à un moment ou un autre, à leurs propres contradictions, c’est humain. C’est ce qui justement les fait grandir et leur donne leur force et d’autant plus de légitimité, ou au contraire contribue à leur extinction (qu’on peut certes attribuer à l’une ou l’autre stratégie de pouvoir, bref…).

D’ailleurs, c’est justement l’un des objets de ce texte à propos du radicalisme. C’est un avertissement aux mouvements de résistance qui ne comprennent pas, d’une part, que le radicalisme est une méthode et, d’autre part, que son emploi galvaudé est une stratégie de défense (et d’offensive) du capital, en particulier via la communication et l’exercice du pouvoir médiatique. En cela il vise assez juste. En tout cas, c’est à garder en tête lorsque, sur un plateau TV, on interroge toujours : « Mais… vous condamnez ces violences de la part des ces jeunes radicalisés ? »

Plaidoyer pour le radicalisme

Par Jeff Shantz

— Article paru dans la revue Radical Criminology, num. 2, 2013, Éditorial (source), Licence CC By-Nc-Nd. Traduit avec l’aimable autorisation de l’auteur.


Aujourd’hui, peu de termes ou d’idées sont autant galvaudés, déformés, diminués ou dénaturés que « radical » ou « radicalisme ». Cela n’est sans doute pas très surprenant, étant donné que nous vivons une période d’expansion des luttes contre l’État et le capital, l’oppression et l’exploitation, dans de nombreux contextes mondiaux. Dans de tels contextes, la question du radicalisme, des moyens efficaces pour vaincre le pouvoir (ou étouffer la résistance) devient urgente. Les enjeux sont élevés, les possibilités d’alternatives réelles sont avancées et combattues. Dans de tels contextes, les militants et les universitaires doivent non seulement comprendre le radicalisme de manière appropriée, mais aussi défendre (et faire progresser) les approches radicales du changement social et de la justice sociale.

La première utilisation connue du terme radical remonte au XIVe siècle, 1350-1400 ; le moyen anglais venant du latin tardif rādīcālis, avoir des racines1. Il est également défini comme étant très différent de ce qui est habituel ou traditionnel. Le terme radical signifie simplement de ou allant vers les racines ou l’origine. Rigoureux. En clair, cela signifie aller à la racine d’un problème.

Le radicalisme est une perspective, une orientation dans le monde. Ce n’est pas, comme on le prétend souvent à tort, une stratégie. Être radical, c’est creuser sous la surface des certitudes, des explications trop faciles, des réponses insatisfaisantes et des panacées qui se présentent comme des solutions aux problèmes. Le radicalisme conteste et s’oppose aux définitions du statu quo - il refuse les justifications intéressées que fournissent l’autorité et le pouvoir.

Plutôt qu’un ensemble d’idées ou d’actions, il s’agit d’une approche cruciale de la vie. Comme l’a suggéré l’analyste existentialiste marxiste Erich Fromm dans un contexte de lutte antérieure :

En premier lieu, cette approche peut être caractérisée par la devise : de omnibus dubitandum ; tout doit être mis en doute, en particulier les concepts idéologiques qui sont quasiment partagés par tous et qui sont devenus par conséquent des axiomes incontournables du sens commun… Le doute radical est un processus ; un processus de libération de la pensée idolâtre ; un élargissement de la conscience, de la vision imaginative et créative de nos opportunités et possibilités. L’approche radicale ne se déploie pas dans le vide. Elle ne part pas de rien, elle part des racines. (1971, vii)

Comme c’est le cas pour la plupart des opinions et des pratiques dans la société capitaliste de classes, il y a deux approches distinctes du radicalisme, deux significations. Selon la première, celle qui consiste à aller aux racines – à la source des problèmes –, la nature du capital doit être comprise, abordée, affrontée – vaincue. Mettre fin à la violence du capital ne peut se faire qu’en mettant fin aux processus essentiels à son existence : l’exploitation, l’expropriation, la dépossession, le profit, l’extraction, l’appropriation des biens communs, de la nature. Et comment y parvenir ? Le capital et les États savent – ils comprennent. Voilà qui explique la reconnaissance des actes décrits plus haut – reconnus, précisément, comme radicaux.

Le radicalisme, vu d’en bas, est sociologique (et devrait être criminologique, bien que la criminologie soit parfois à la traîne). Il exprime cette ouverture sur le monde que C. Wright Mills appelle l’imagination sociologique (1959). Le radicalisme dans son sens premier relie l’histoire, l’économie, la politique, la géographie, la culture, en cherchant à aller au-delà des réponses faciles, rigidifiées de façon irréfléchie en tant que « sens commun » (qui n’est souvent ni commun ni sensé). Il creuse sous les conventions et le statu quo. Pour Fromm :

« Douter », dans ce sens, ne traduit pas l’incapacité psychologique de parvenir à des décisions ou à des convictions, comme c’est le cas dans le doute obsessionnel, mais la propension et la capacité à remettre en question de manière critique toutes les hypothèses et institutions qui sont devenues des idoles au nom du bon sens, de la logique et de ce qui est supposé être « naturel ». (1971, viii)

Plus encore, le radicalisme ne cherche ni se conforte dans le moralisme artificiel véhiculé par le pouvoir – par l’État et le capital. Une approche radicale n’accepte pas le faux moralisme qui définit la légitimité des actions en fonction de leur admissibilité pour les détenteurs du pouvoir ou les élites (la loi et l’ordre, les droits de l’État, les droits de propriété, et ainsi de suite). Comme l’a dit Fromm :

Cette remise en question radicale n’est possible que si l’on ne considère pas comme acquis les concepts de la société dans laquelle on vit ou même de toute une période historique – comme la culture occidentale depuis la Renaissance – et si, en outre, on élargit le périmètre de sa conscience et on pénètre dans les aspects inconscients de sa pensée. Le doute radical est un acte de dévoilement et de découverte ; c’est la prise de conscience que l’empereur est nu, et que ses splendides vêtements ne sont que le produit de son fantasme. (1971, viii)

Enfreindre la loi (des États, de la propriété) peut être tout à fait juste et raisonnable. De même que faire respecter la loi peut être (est, par définition) un acte de reconnaissance des systèmes d’injustice et de violence. Les affamés n’ont pas besoin de justifier leurs efforts pour se nourrir. Les démunis n’ont pas besoin d’expliquer leurs efforts pour se loger. Les personnes brutalisées n’ont pas besoin de demander la permission de mettre fin à la brutalité. Si leurs efforts sont radicaux – car ils savent que cela signifie de vraies solutions à de vrais problèmes – alors, qu’il en soit ainsi.

D’autre part, il y a la définition hégémonique revendiquée par le capital (et ses serviteurs étatiques). Dans cette vision, déformée par le prisme du pouvoir, le radicalisme est un mot pour dire extrémisme (chaos, désordre, violence, irrationalité). La résistance de la classe ouvrière, les mouvements sociaux, les luttes indigènes, les soulèvements paysans, les actions directes et les insurrections dans les centres urbains – toute opposition qui conteste (ou même remet en question) les relations de propriété, les systèmes de commandement et de contrôle, l’exploitation du travail, le vol des ressources communes par des intérêts privés – sont définis par l’État et le capital comme du radicalisme, par lequel ils entendent l’extrémisme, et de plus en plus, le terrorisme.

Tous les moyens de contrôle de l’autorité de l’État sont déployés pour juguler ou éradiquer ce radicalisme – c’est en grande partie la raison pour laquelle la police moderne, les systèmes de justice pénale et les prisons, ainsi que l’armée moderne, ont été créés, perfectionnés et renforcés. En outre, les pratiques « douces » de l’État et du capital, telles que les industries de la psy, qui ont longtemps inclus la rébellion parmi les maladies nécessitant un diagnostic et un traitement2, sont moins remarquées Comme le suggère Ivan Illich, théoricien de la pédagogie radicale : « Le véritable témoignage d’une profonde non-conformité suscite la plus féroce violence à son encontre » (1971, 16). C’est le cas dans le contexte actuel des luttes sociales, et de la répression déployée par l’État et le capital pour étouffer toute résistance significative (et effrayer les soutiens mous).

Pourtant, les opinions et les pratiques visées par cette construction du radicalisme sont tout bonnement celles qui défient et contestent les États et le capital et proposent des relations sociales alternatives. Même lorsque ces mouvements ne font pas ou peu de mal à qui que ce soit, même lorsqu’ils sont explicitement non-violents (comme dans les occupations des lieux de travail, les grèves, les revendications territoriales des indigènes), le pouvoir présente ces activités comme radicales et extrêmes (et, par association, violentes). C’est en réalité parce que de telles activités font planer le spectre de la première compréhension du radicalisme – celui qui vient d’en bas – celui qui parle des perspectives des opprimés et des exploités. Cette définition est, en fait, fidèle aux racines du mot et cohérente avec sa signification.

L’accusation de radicalisme par les détenteurs du pouvoir, la question du radicalisme elle-même, devient toujours plus importante dans les périodes de lutte accrue. C’est à ces moments que le capital étatique a quelque chose à craindre. Les efforts visant à s’attaquer aux racines ne sont plus relégués aux marges du discours social, mais ce que le pouvoir cherche à faire, c’est le ramener dans un lieu de contrôle et de réglementation. Dans les périodes de calme, la question du radicalisme est moins souvent posée. Cela en dit long sur la nature des débats au sujet du radicalisme.

Le radicalisme au sens premier n’est pas une réaction spontanée aux conditions sociales. Pour Illich, il faut apprendre à distinguer « entre la fureur destructrice et la revendication de formes radicalement nouvelles » (1971, 122). Là où il démolit, il démolit pour construire. Il faut « distinguer entre la foule aliénée et la protestation profonde » (1971, 122-123). Dans la perspective de Fromm :

Le doute radical signifie questionner, il ne signifie pas nécessairement nier. Il est facile de nier en posant simplement le contraire de ce qui existe ; le doute radical est dialectique dans la mesure où il appréhende le déroulement des oppositions et vise une nouvelle synthèse qui nie et affirme. (1971, viii)

Comme l’a suggéré l’anarchiste Mikhaïl Bakounine, la passion de détruire est aussi une passion créatrice.

Les problèmes d’extrémisme, introduits par les détenteurs du pouvoir pour servir leur pouvoir, sont une diversion, un faux-fuyant pour ainsi dire. Les actes supposés extrêmes ou scandaleux ne sont pas nécessairement radicaux, comme le suggèrent les médias de masse qui les traitent souvent comme des synonymes. Les actes extrêmes (et il faudrait en dire plus sur ce terme trompeur) qui ne parviennent pas à s’attaquer aux racines des relations entre l’État et le capital, comme les actes de violence malavisés contre des civils, ne sont pas radicaux. Ils ne s’attaquent pas aux racines de l’exploitation capitaliste (même si la frustration liée à l’exploitation les engendre). Les actes qui servent uniquement à renforcer les relations de répression ou à légitimer les initiatives de l’État ne sont pas radicaux.

En même temps, certains actes extrêmes sont radicaux. Ces actes doivent être jugés au regard de leur impact réel sur le pouvoir capitaliste d’État, sur les institutions d’exploitation et d’oppression.

Dans le cadre du capitalisme d’État, l’extrémisme est vidé de son sens. Dans un système fondé et subsistant sur le meurtre de masse, le génocide et l’écocide comme réalités quotidiennes de son existence, les concepts de l’extrémisme deviennent non pertinents, insensés. En particulier lorsqu’ils sont utilisés de manière triviale, désinvolte, pour décrire des actes mineurs d’opposition ou de résistance, voire de désespoir. Dans ce cadre également, la question de la violence (dans une société fondée et étayée par des actes quotidiens d’extrême violence) ou de la non-violence est une construction factice (favorable au pouvoir qui légitime sa propre violence ou fait passer pour non-violents des actes violents comme l’exploitation), un jeu truqué.

Le pouvoir n’admet jamais son propre extrémisme, sa propre violence, son propre chaos, sa propre destruction, son propre désordre. Le désordre de l’inégalité, le chaos de la dépossession, la destruction des communautés et des relations traditionnelles ou indigènes – l’extermination de la vie, de la planète elle-même. Ce sont de véritables comportements extrémistes. Ils sont, en fait, endémiques à l’exercice du pouvoir dans les sociétés capitalistes étatiques.

La destruction d’écosystèmes entiers pour le profit de quelques-uns est un acte férocement « rationnel » (contre l’irrationalité des approches radicales visant à mettre fin à ces ravages). L’extinction de communautés entières – le génocide des peuples – pour obtenir des terres et des ressources est une action indiciblement extrême, en termes écologiques et humains. Pourtant, le pouvoir n’identifie jamais ces actes comme étant radicaux – il s’agit toujours d’une simple réalité de la vie, du coût des affaires, d’un effet secondaire du progrès inévitable, d’un résultat malheureux de l’histoire (dont personne n’est responsable).

Et il ne s’agit même pas des extrêmes, ni de rares dérives du capitalisme – ce sont les actes fondateurs de l’être du capital –, ils sont la nature du capital. La conquête coloniale, par exemple, n’est pas un effet secondaire regrettable ou un excès du capitalisme – c’est sa possibilité même, son essence.

Les militants qui ne parviennent pas à aller à la racine des problèmes sociaux ou écologiques – qui ne comprennent pas ce que signifie le radicalisme d’en bas pour la résistance – peuvent être, et sont généralement, trop facilement enrôlés par le capital étatique dans le chœur dominant qui assaille et condamne, qui calomnie et dénigre le radicalisme. Nous le voyons dans le cas des mouvements de mondialisation alternative où certains activistes, revendiquant la désobéissance civile non-violente (DCNV) de manière anhistorique, sans contexte, comme s’il s’agissait d’une sorte d’objet fétiche, se joignent ensuite à la police, aux politiciens, aux firmes et aux médias de masse pour condamner l’action directe, les blocages, les occupations de rue, les barricades ou, bien sûr, les dommages infligés à la propriété, comme étant trop radicaux – en tant qu’actes de violence. Les voix des activistes anti-radicaux deviennent une composante de la délégitimation de la résistance elle-même, un aspect clé du maintien du pouvoir et de l’inégalité.

De tels désaveux publics à l’endroit de la résistance servent à justifier, excuser et maintenir la violence très réelle qui est le capital. Les approches, y compris celles des activistes, qui condamnent la résistance, y compris par exemple la résistance armée, ne font que donner les moyens d’excuser et de justifier la violence continuelle et extensible (elle s’étend toujours en l’absence d’une réelle opposition) du capital étatique.

La survie n’est pas un crime. La survie n’est jamais radicale. L’exploitation est toujours un crime (ou devrait l’être). L’exploitation n’est jamais que la norme des relations sociales capitalistes.

Les détenteurs du pouvoir chercheront toujours à discréditer ou à délégitimer la résistance à leurs privilèges. Le recours à des termes chargés (mal compris et mal interprétés par les détenteurs du pouvoir) comme le radicalisme sera une tactique à cet égard. On peut suivre la reconstruction du terme « terreur » pour voir un exemple de ces processus. Le terme « terreur » était initialement utilisé pour désigner la violence d’État déployée contre toute personne considérée comme une menace pour l’autorité instituée, pour l’État (Badiou 2011, 17). Ce n’est que plus tard – comme résultat de la lutte hégémonique – que la terreur en est venue (pour les détenteurs du pouvoir étatique) à désigner les actions des civils – même les actions contre l’État.

Et cela fonctionne souvent. Il est certain que cela a joué un rôle dans l’atténuation ou l’adoucissement des potentiels des mouvements alternatifs à la mondialisation, comme cela a été le cas dans les périodes de lutte précédentes. En cela, ces activistes anti-radicaux soutiennent inévitablement le pouvoir et l’autorité de l’État capitaliste et renforcent l’injustice.

Toutefois, nous devons également être optimistes. L’accusation de radicalisme venant d’en haut (affirmée de manière superficielle) est aussi un appel à l’aide de la part du pouvoir. C’est un appel du pouvoir aux secteurs non engagés, le milieu mou, pour qu’ils se démarquent des secteurs résistants et se rangent du côté du pouvoir (États et capital) pour réaffirmer le statu quo (ou étendre les relations et les pratiques qu’ils trouvent bénéfiques, un nouveau statu quo de privilèges) – les conditions de la conquête et de l’exploitation.

Le radicalisme (ou l’extrémisme, ou le terrorisme) est la méthode utilisée par le pouvoir pour réprimer l’agitation en attirant le public vers les intérêts dominants. En ce sens, il reflète un certain désespoir de la part des puissants – un désespoir dont il faut profiter, et non pas en faire le jeu ou le minimiser.

Dans les périodes de recrudescence des luttes de masse, la question du radicalisme se pose inévitablement. C’est dans ces moments qu’une orientation radicale brise les limites de la légitimation hégémonique – en proposant de nouvelles interrogations, de meilleures réponses et de réelles alternatives. S’opposer au radicalisme, c’est s’opposer à la pensée elle-même. S’opposer au radicalisme, c’est accepter les conditions fixées par le pouvoir, c’est se limiter à ce que le pouvoir permet.

L’anti-radicalisme est intrinsèquement élitiste et anti-démocratique. Il part du principe que tout le monde, quel que soit son statut, a accès aux canaux de prise de décision politique et économique, et peut participer de manière significative à la satisfaction des besoins personnels ou collectifs. Il ne tient pas compte des vastes segments de la population qui sont exclus des décisions qui ont le plus d’impact sur leur vie, ni de l’accès inégal aux ressources collectives qui nécessitent, qui exigent, des changements radicaux.

Les activistes, ainsi que les sociologues et les criminologues, doivent défendre le radicalisme d’en bas comme une orientation nécessaire pour lutter contre l’injustice, l’exploitation et l’oppression et pour des relations sociales alternatives. Les actions doivent être évaluées non pas en fonction d’un cadre moral légal établi et renforcé par le capital étatique (pour son propre bénéfice). Elles doivent être évaluées en fonction de leur impact réel sur la fin (ou l’accélération de la fin) de l’injustice, de l’exploitation et de l’oppression, et sur l’affaiblissement du capital étatique. Comme Martin Luther King l’a suggéré, une émeute est simplement le langage de ceux qui ne sont pas entendus.

La morale bien-pensante et la référence à l’autorité légale, en reprenant les voix du capital étatique, est pour les activistes une abdication de la responsabilité sociale. Pour les sociologues et les criminologues, c’est un renoncement à l’imagination sociologique qui, en mettant l’accent sur la recherche des racines des problèmes, a toujours été radicale (au sens non hégémonique du terme). Les penseurs et les acteurs critiques de tous bords doivent défendre ce radicalisme. Ils doivent devenir eux-mêmes radicaux.

Les débats devraient se concentrer sur l’efficacité des approches et des pratiques pour s’attaquer aux racines des problèmes sociaux, pour déraciner le pouvoir. Ils ne devraient pas être centrés sur la conformité à la loi ou à la moralité bourgeoise. Ils ne devraient pas être limités par le manque d’imagination des participants ou par le sentiment que le meilleur des mondes est celui que le pouvoir a proposé.

Encore une fois, le radicalisme n’est pas une tactique, un acte, ou un événement. Ce n’est pas une question d’extrêmes, dans un monde qui considère comme indiscutable que les extrêmes sont effroyables. C’est une orientation du monde. Les caractéristiques du radicalisme sont déterminées par, et dans, des contextes spécifiques. C’est le cas aujourd’hui pour les mobilisations de masse, voire des soulèvements populaires contre les offensives d’austérité étatiques au service du capitalisme néolibéral. Le radicalisme menace toujours de déborder les tentatives de le contenir. C’est parce qu’il fait progresser la compréhension – il met en évidence l’injustice sociale – qu’il est par nature re-productif. Il est, en termes actuels, viral.

Jeff Shantz, Salt Spring Island, été 2013

Bibliographie

Badiou, Alain. 2011. Polemics. London: Verso

Fromm, Erich. 1971. « Introduction ». Celebration of Awareness: A Call for Institutional Revolution. New York: Doubleday Anchor

Illich, Ivan. 1971. Celebration of Awareness: A Call for Institutional Revolution. New York: Doubleday Anchor

Mills, C. Wright. 1959. The Sociological Imagination. London: Oxford University Press.

Rimke, Heidi. 2011. « The Pathological Approach to Crime: Individually Based Theories ». In Criminology: Critical Canadian Perspectives, ed. Kirsten Kramar. Toronto: Pearson Education Canada, 78–92.

—. 2003 « Constituting Transgressive Interiorities: C19th Psychiatric Readings of Morally Mad Bodies ». In Violence and the Body: Race, Gender and the State, ed. A. Arturo. Indiana: Indiana University Press, 403–28.

Notes


  1. NdT : le terme vient effectivement du latin tardif, comme mentionné par A. Blaise dans son dictionnaire du latin chrétien, dont voici la définition complète : « qui tient à la racine, premier, fondamental » dérivé de radix, -icis « racine, origine première ». ↩︎

  2. Pour une analyse plus approfondie de cette question, voir le travail en cours de Heidi Rimke (2011, 2003). ↩︎


Publié le 07.06.2022 à 02:00

Scott Scale 950 : premières impressions

Application directe de mon billet précédent sur les VTT dans les Hautes Vosges, je vous propose le court retour d’expérience d’une première prise en main d’un VTT Scott Scale 950 édition 2022.

Le choix

Ce VTT fut commandé en fin 2021 (oui, oui!). Le temps de livraison des cycles s’est trouvé excessivement allongé en général ces deux dernières années. Les raisons sont connues. La mondialisation des échanges a rendu les flux largement dépendants de quelques grands pays producteurs de matières premières. La pénurie de celles-ci associée à la désorganisation de la production en raison du Covid ont crée des effets dominos dans beaucoup de filières. Dans le secteur Mountain Bike, si votre choix est spécifique et que ne pouvez pas vous contenter de ce qui se trouve déjà en stock magasin, il faut vous armer de patience.

Or donc, j’avais commandé un Scott Scale 950. Pourquoi ce choix ? D’abord parce que je suis habitué à cette fameuse marque Suisse, mais aussi parce que, depuis 2005, la gamme Scale n’a cessé de s’améliorer et a fini par devenir une référence. Peu de marques ont cette capacité de pouvoir allier la contrainte de qualité imposée en compétition et décliner toute une gamme sur une si longue période (16 ans !). D’autres marques ont certes su mobiliser leurs capacités industrielles pour décliner des modèles très célèbres et de bonne qualité. La différence avec les vélos Scale, c’est le large choix de matériaux et d’équipements à travers toute la gamme. Au regard des attentes du cycliste, c’est là que le bât peut blesser : trop bas de gamme, le vélo perd tout son intérêt, trop haut, il devient cher et c’est vers d’autres marques qu’on doit se tourner pour un modèle équivalent et plus abordable.

Le Scott Scale 950 édition 2022 présentait pour moi plusieurs avantages :

  • semi-rigide. Après plusieurs années en tout-suspendu pour le cross-country, il me fallait néanmoins un semi-rigide à la hauteur de mes attentes et de mes chemins (très variés, du plus technique en montée comme en descente, jusqu’aux chemins forestiers larges pour travailler l’endurance).
  • la géométrie. Cadre, angles, haubans et direction, tout est fait pour allier la maniabilité, l’agilité et la nervosité. Sur les premiers modèles d’entrée de gamme, selon la morphologie du cycliste, on sent déjà bien la différence par rapport à des géométries moins travaillées pour le rendement (je pense à Lapierre, mais bon… il ne faut pas nourrir le troll). Pour moi, cette géométrie est juste ce qu’il me fallait mais à condition…
  • … d’avoir un choix d’équipements à la hauteur (Shimano et Syncros pour l’essentiel). Et là c’est tout un équilibre qu’il faut choisir, entre des coûts raisonnables pour l’entretien (changement de pièces, surtout la transmission), l’évolution de l’équipement, la fiabilité.

Aujourd’hui, le Scale 950 a pour ainsi dire renoué avec la géométrie sportive de départ, tout en utilisant des matériaux de grande qualité. En comparant le 950 (cadre aluminium ultra-léger) avec le 930 et le 940 (cadre carbone), la différence de poids est respectivement de +400 grammes et de -200 grammes (!!). Si on considère un instant la rigidité et la relative fragilité du carbone (surtout du carbone entrée de gamme) par rapport à la souplesse de l’aluminium, on peut désormais se poser franchement la question de l’intérêt de vouloir absolument du carbone. Mon choix a donc porté sur l’aluminium, d’autant plus que l’équipement (transmission, freins) du 950 est excellent. Pour le prix, il y avait 100 et 200 euros de différence : la comparaison ne se résume donc pas à une question de portefeuille.

Scott Scale 950, 2022

Première impression

Le débutant VTT peut très bien acheter ce modèle d’emblée, mais il faut savoir que la première impression est celle d’une assez grande exigence. Autant l’ensemble est extrêmement maniable, même avec peu d’expérience de pilotage, autant le rendement en terme de rapport énergie / vitesse est assez exceptionnel. Les plus sportifs trouvent vraiment leur compte avec ce VTT que l’on peut pousser assez loin dans ses capacités. S’il s’agit d’un premier VTT, c’est un peu dommage de ne pas pouvoir en profiter pleinement grâce à un bon pilotage, autant acheter un Scale plus bas de gamme, ou un Aspect (pour rester chez Scott) et moins cher quitte à changer plus tard.

Pour illustrer : sur un tronçon de parcours chronométré de 10 km / 400 Md+, habituellement emprunté avec d’autres VTT (en particulier mon – désormais – ancien Scott Spark), j’ai gratté 5 minutes sur mon temps habituel (même condition climatique et de terrain). Cela tient à deux choses : la légèreté et le rendement. On peut certes y associer l’excitation de la nouveauté, mais… 5 minutes, tout de même ! Tout le rendement qu’on a en moins dans un tout suspendu (même en rigidifiant les amortisseurs) est récupéré. Et non, bien évidemment, je ne parle pas des tout-suspendus à 10.000 euros, hein ?

Et la descente ? Et bien, j’ai largement confirmé mon expérience selon laquelle, pour la plupart des sentiers des montagnes vosgiennes, équiper un bon semi-rigide de roues 29 pouces est largement suffisant. La différence s’est fait à peine sentir, y compris grâce à la souplesse de l’aluminium. Certains obstacles, peu nombreux, ne sont évidemment pas pris de la même manière qu’avec un tout-suspendu1. Autrement dit : si on veut garder la même vitesse en présence d’obstacles, le Scott Scale fait parfaitement le job à condition de savoir bien piloter. C’est là qu’un débutant aura sans doute plus de difficulté, en montée comme en descente, surtout en présence de racines ou de gros dévers.

En revanche, un petit bémol pour Scott qui équipe les roues d’emblée avec des pneus Rekon Race : très valables sur terrains secs, ils sont très peu fiables dès qu’il y a de l’humidité. Or, m’étant concocté un parcours avec des terrains très variés pour ce premier test, je sais déjà qu’à la première occasion, je changerai les pneus.

Matériel

Il n’y a pas grand chose à dire sur l’équipement de ce VTT. Comme Scott sait le faire, le blocage triple position de la fourche est un atout non négligeable car il permet d’adapter la fourche au type de terrain. Mais là rien de nouveau.

Rien d’exceptionnel non plus concernant la transmission : mono-plateau (32), cassette arrière 12 vitesses (10-51), dérailleur Shimano Deore XT… Cette transmission fait vraiment le job, à voir sur la durée. Avantage de ces composants : ils sont connus, fiables, et les changer ne coûte pas un bras. On pourra monter en gamme à l’usage mais a priori je n’en vois pas la nécessité.

Les autres équipement Syncros, célèbres chez Scott, sont tout à fait classiques aussi. Petit plus pour la selle Belcarra que j’ai trouvée vraiment confortable. Mais là aussi, il faut l’envisager sur la durée : il y a mieux en matière de selle.

Quant aux freins, je réserve une mention spéciale : ils sont vraiment bons. Pourtant il s’agit des Shimano MT501 qui sont certes typés sportifs, mais ne figurent pas en haut de podium. Je pense que tout simplement l’innovation en la matière a rendu ces systèmes de freins de plus en plus performants : qu’il s’agisse du mordant ou de la souplesse des leviers, après quelques essais, on trouve très vite le point d’accroche qui permet de doser efficacement le freinage.

Un point important : les pédales. Bien sûr elles ne sont pas fournies mais sur un tel VTT les pédales automatiques ou semi-automatiques me semblent indispensables. Pour l’heure, j’ai reporté les pédales plates de mon ancien VTT, j’attends avec impatience de pouvoir tester des semi-automatiques magnétiques (marque Magped).

Esthétique

Et pour finir, je ne peux pas m’abstenir de mentionner l’aspect esthétique général de mon nouveau bijou… couleur émeraude chatoyant à l’aspect mat, associée à un beige que l’on trouve sur la selle et le choix des pneus. L’élégance de la géométrie associée à ces choix de couleurs (un peu kitsch peut-être) donne un ensemble très « smart ».

Pour autant Scott n’a pas oublié quelques points essentiels : les bases arrières sont enfin complètement protégées, en particulier du côté transmission avec une protection caoutchouc de bonne facture. Idem à l’avant du tube diagonal, un revêtement anti-adhérence présentant le nom de la marque, est censé protéger cette partie du cadre. Là, par contre, il faut voir sur la durée : cela semble protéger contre les salissures, mais pas forcément contre les pierres, donc je crois qu’un bon coup de film polyuréthane devra s’imposer tout de même.

Conclusion

Le Scott Scale 950 est un excellent compromis entre la randonnée sportive et la recherche de performance. Dédié au Cross-country, il est dédié aux sorties rythmées. La relance en haut de côte n’est plus vraiment un problème. Le pilotage est assez nerveux, ce qui fait que je le déconseille aux débutants : on se laisse vite griser par la vitesse indépendamment du terrain (le 29 pouce fait son effet) mais gare au freinage tardif ! Le choix des pneus est donc crucial selon votre géographie et les Rekon Race fournis par défaut ne feront certainement pas l’unanimité.

Notes


  1. Ce que j’ai surtout remarqué, c’est que le tout-suspendu permet de jouer avec les obstacles, quitte à corriger des erreurs de pilotage, alors qu’en semi-rigide l’erreur se pardonne moins. Autrement dit, les sensations de pilotage sont beaucoup plus authentiques. Il y a toujours un côté snob à mentionner ce genre de choses, mais je comprends les pratiquants qui souhaitent parfois revenir à des « fondamentaux ». ↩︎


Publié le 27.03.2022 à 01:00

Néolibéralisme et élections : le pari pascalien ?

Guerre en Ukraine… À l’heure où les gouvernements européens sont gentiment pressés de choisir l’impérialisme qu’ils préfèrent (disons le moins pire), le président des États-Unis Joe Biden est venu nous rendre une petite visite. Que de beaux discours. Ils firent passer le nouvel accord de principe américano-européen sur le transfert des données personnelles pour une simple discussion entre gens de bonne compagnie autour de la machine à café. Même si cet accord de principe a reçu un accueil mitigé.

Le gouvernement américain aurait en effet bien tort de s’en passer. Maintenant que l’Europe est en proie à la menace avérée d’une guerre nucléaire et risque d’être en déficit énergétique, Joe Biden ne fait qu’appliquer ce qui a toujours réussi aux entreprises multinationales américaines, c’est-à-dire la bonne vieille recette de l’hégémonie sur les marchés extérieurs appuyée par l’effort de guerre (voir cet article).

Après l’invalidation du Privacy Shield, les GAFAM (et autres sociétés assimilées, comme les courtiers de données tels Acxiom) n’auront plus cette épée de Damoclès au-dessus de leurs têtes pour contrecarrer les pratiques d’extraction des données qu’elles opèrent depuis de longues années ou pour coopérer avec les agences de renseignement, de manière active, dans la surveillance de masse.

Il est intéressant, par ailleurs, de comparer le communiqué de presse de la Maison Blanche et le Discours de Ursula von der Leyen.

Du point de vue Américain, c’est surtout une affaire de pognon et de concurrence :

(…) l’accord permettra la fluidité du trafic de données qui représente plus de 1 000 milliards de dollars de commerce transfrontalier chaque année, et permettra aux entreprises de toutes tailles de se concurrencer sur leurs marchés respectifs.

et l’enjeu consiste à laisser les commandes aux agences de renseignement américaines :

Ces nouvelles politiques seront mises en œuvre par la communauté du Renseignement des États-Unis de manière à protéger efficacement ses citoyens, ainsi que ceux de ses alliés et partenaires, conformément aux protections de haut niveau offertes par ce Cadre.

Du point de vue Européen, on mélange tout, la guerre, l’énergie et le numérique. Et pour cause, la peur domine :

Et nous continuons à renforcer notre coopération dans de nombreux domaines stratégiques: en apportant de l’aide à l’Ukraine en matière humanitaire et sécuritaire; dans le domaine de l’énergie; en luttant contre tout ce qui menace nos démocraties; en résolvant les points en suspens dans la coopération entre les États-Unis et l’Union européenne, y compris en ce qui concerne la protection des données et de la vie privée.

D’aucuns diraient que conclure des accords de principes en telle situation d’infériorité est à la fois prématuré et imprudent. Et c’est là que tout argument stratégique et rationnel se confronte au fait que c’est toute une doctrine néolibérale qui est à l’œuvre et affaibli toujours plus les plus faibles. Cette doctrine est révélée dans cette simple phrase d’U. von der Leyen :

Et nous devons également continuer à adapter nos démocraties à un monde en constante évolution. Ce constat vaut en particulier pour la numérisation (…)

Encore une fois on constate combien nos démocraties sont en effet face à un double danger.

Le premier, frontal et brutal, c’est celui de la guerre et la menace du totalitarisme et du fascisme. Brandie jusqu’à la nausée, qu’elle soit avérée (comme aujourd’hui) ou simplement supposée pour justifier des lois scélérates, elle est toujours employée pour dérouler la logique de consentement censée valider les modifications substantielles du Droit qui définissent le cadre toujours plus réduit de nos libertés.

Le second n’est pas plus subtil. Ce sont les versions plus ou moins édulcorées du TINA de Margareth Thatcher (vous vous souvenez, la copine à Pinochet). There is no alternative (TINA). Il n’y a pas d’alternative. Le monde change, il faut adapter la démocratie au monde et non pas adapter le monde à la démocratie. Les idéaux, les rêves, les mouvements collectifs, les revendications sociales, la soif de justice… tout cela n’est acceptable que dans la mesure où ils se conforment au monde qui change.

Mais qu’est-ce qui fait changer le monde ? c’est simplement que la seconde moitié du XXe siècle a fait entrer le capitalisme dans une phase où, considérant que le laissez-faire est une vaste fumisterie qui a conduit à la crise de 1929 et la Seconde Guerre, il faut que l’État puisse jouer le jeu du capitalisme en lui donnant son cadre d’épanouissement, c’est-à-dire partout où le capitalisme peut extraire du profit, de la force de travail humaine à nos intimités numériques, de nos santés à notre climat, c’est à l’État de transformer le Droit, de casser les acquis sociaux et nos libertés, pour assurer ce profit dans un vaste jeu mondialisé de la concurrence organisée entre les peuples. Quitte à faire en sorte que les peuples entrent en guerre, on organise la course des plus dociles au marché.

Le néolibéralisme est une doctrine qui imprègne jusqu’au moindre vêtement les dirigeants qui s’y conforment. Macron n’est pas en reste. On a beaucoup commenté son mépris de classe. L’erreur d’interprétation consiste à penser que son mépris est fondé sur la rationalité supposée du peuple. Dès lors, comment avoir du respect pour un peuple à ce point assujetti au capitalisme, plus avide du dernier smartphone à mode que des enjeux climatiques ? Mais que nenni. Premièrement parce que ce peuple a une soif évidente de justice sociale, mais surtout parce le mépris macroniste relève d’une logique bien plus rude : pour mettre en application la logique néolibérale face à un peuple rétif, il faut le considérer comme radicalement autre, détaché de sa représentation de soi, en dehors de toute considération morale.

Si nous partons du principe que dans la logique communicationnelle de Macron toute affirmation signifie son exact contraire1 on peut remonter au tout début dans sa campagne de 2017 où il se réclamait plus ou moins du philosophe Paul Ricoeur. C’est faire offense à la mémoire de cet éminent philosophe. Pour dire vite, selon Ricoeur, on construit le sens de notre être à partir de l’altérité : l’éthique, la sollicitude, la justice. Bref, tout l’exact opposé de Macron, ou plutôt de son discours (je me réserve le jugement sur sa personne, mais croyez bien que le vocabulaire que je mobilise dans cette optique n’aurait pas sa place ici).

Il n’y a donc aucune surprise à voir que pour le capitalisme, tout est bon dans le Macron. Lui-même, dans Forbes, répétait à deux reprises : « There’s no other choice », prenant modèle sur Thatcher. Il n’y a pas de politique, il n’y a pas d’idéologie, le parti sans partisan, la nation start-up en dehors du peuple. Il y a une doctrine et son application. Un appareillage économique et technocratique sans âme, tout entier voué à la logique extractiviste pour le profit capitaliste. Bien sûr on sauve les apparences. On se drape d’irréprochabilité lorsque le scandale est trop évident, comme de le cas du scandale des maisons de retraite Orpea. Mais au fond, on ne fait qu’appliquer la doctrine, on adapte la démocratie (ou ce qu’il en reste) au monde qui change… c’est-à-dire qu’on applique en bon élève les canons néolibéraux, jusqu’à demander à des cabinets d’audit comment faire exactement, de la coupe programmée du système éducatif à nos retraites, en passant par les aides sociales.

Comment comprendre, dans ces conditions pourtant claires, que Macron soit à ce point si bien positionné dans les sondages en vue des prochaines élections présidentielles ? C’est tout le paradoxe du vote dans lequel s’engouffre justement le néolibéralisme. Ce paradoxe est simple à comprendre mais ses implications sont très complexes. Si je vais voter, ce n’est pas parce que mon seul vote va changer quelque chose… mais si je n’en attends rien individuellement en retour, pourquoi vais-je voter ? Les idéalistes partent alors du principe de la rationalité du votant : si Untel va voter, c’est parce qu’il souhaite défendre un intérêt collectif auquel il adhère. Mais on peut alors retourner le problème : cela supposerait une complétude de l’information, un contexte informationnel suffisant pour que le vote au nom de cet intérêt collectif ne soit pas biaisé. Or, le principe d’un vote électoral est justement de diffuser de l’information imparfaite (la campagne de communication politique). En gros : bien malin celui qui est capable de dénicher toutes les failles d’un discours politique. De surcroît les techniques de communications modernes se passent bien de toute morale lorsqu’elles réussissent à faire infléchir le cours des votes grâce au profilage et à l’analyse psychographique (le scandale Cambridge Analytica a soulevé légèrement le voile de ces techniques largement répandues). Donc la raison du vote est presque toujours irrationnelle : on vote par conformité sociale, par pression familiale, par affinité émotionnelle, par influence inconsciente des médias, et cela même si une part rationnelle entre toujours en jeu.

Par exemple, comment comprendre que l’abstention soit toujours à ce point considérée comme un problème de réputation sociale et non comme un choix assumé ? Ne pas voter serait un acte qui nuit à la représentation de l’intérêt collectif que se font les votants. Rien n’est moins évident : on peut s’abstenir au nom de l’intérêt collectif, justement : ne pas entrer dans un jeu électoral qui nuit à la démocratie, donc à l’intérêt collectif. Il y a plein d’autres raisons pour lesquelles s’abstenir est une démarche très rationnelle (voir F. Dupuis-Déri, Nous n’irons plus aux urnes).

L’autre raison de l’abstention, beaucoup évidente, c’est la démonstration que le choix est biaisé. Une course électorale à la française qui se termine par un second tour opposant deux partisans de la même doctrine néolibérale. On a déjà vu cela plus d’une fois. Le scénario consiste à opposer le couple thatchérisme et mépris de classe au couple Pinochisme et racisme. Les deux contribuent à créer un contexte qui est de toute façon néo-fasciste. Soit un durcissement de la logique néolibérale au détriment des libertés et de la justice sociale (car il faudra bien satisfaire les électeurs du Front National), soit un durcissement de la logique néolibérale au détriment des libertés et de la justice sociale (parce qu’il faudra bien satisfaire les électeurs de Macron). Vous voyez la différence ? sans blague ? Bon, je veux bien admettre que dans un cas, on pourra plus clairement identifier les connards de fachos complotistes.

Bon, alors que faire ? Aller voter ou pas ?

Je me suis fait un peu bousculer dernièrement parce que j’affichais mon intention de m’abstenir. Il faut reconnaître qu’il y a au moins un argument qui fait un peu pencher la balance : la présence de la France Insoumise comme le seul mouvement politique qui propose une alternative au moment où l’effet TINA est le plus fort.

Il y aurait donc une utilité rationnelle au vote : en l’absence d’un contexte informationnel correct, au moins un élément rationnel et objectif entre en jeu : préserver le débat démocratique là où il a tendance à disparaître (au profit du racisme ou de l’anesthésie générale du néolibéralisme).

Comment un anarchiste peut-il aller tout de même voter ? ne rigolez pas, j’en connais qui ont voté Macron au second tour il y a 5 ans pour tenter le barrage aux fachos. C’est un vrai cas de conscience. En plus, il y a rapport avec Dieu ! si ! C’est le fameux pari de Pascal : je ne crois pas en Dieu, mais qu’il existe ou non, j’ai tout à gagner à y croire : s’il n’existe pas, je suis conforté dans mon choix, et s’il existe, c’est qu’il y a un paradis réservé au croyants et un enfer pour les non-croyants et dans lequel je risque d’être envoyé. Donc voter Mélenchon serait un acte rationnel fondé sur l’espérance d’un gain individuel… Zut alors.

On s’en sort quand même. L’acte rationnel repose sur une conviction et non une croyance : voter Mélenchon au premier tour consiste à un vote utile contribuant à l’émergence d’un débat démocratique qui opposerait deux visions du monde clairement opposées. Que Mélenchon soit finalement élu ou pas au second tour permettrait d’apporter un peu de clarté.

L’autorité et le pouvoir ne sont décidément pas ma tasse de thé. Je me méfie de beaucoup de promesses électorales de Mélenchon, à commencer par sa conception d’une VIe République qui n’entre pas vraiment dans mes critères d’une démocratie directe, ou encore sa tendance à l’autoritarisme (et j’ai du mal à voir comment il peut concilier l’un avec l’autre).

Que ferai-je au premier tour ? Joker !

notes


  1. On peut prendre un exemple très récent dans sa campagne électorale : conditionner le RSA à un travail qui n’en n’est pas un, plutôt un accompagnement ou du travail d’intérêt général, bref tout ce qui peut produire sans être qualifié par un contrat de travail. ↩︎


Publié le 29.12.2021 à 01:00

En finir avec Gérard d'Alsace

Il y a quelques années, je m’étais penché sur l’histoire du nom de la ville de Gérardmer. Mon approche consistait à utiliser l’historiographie et confonter les interprétations pour conclure que si l’appellation en relevait des différentes transformations linguistiques locales, le patronyme Gérard ne pouvait provenir avec certitude du Duc Gérard d’Alsace comme le veut pourtant le folklore local. À la coutume j’opposais le manque de fouilles archéologiques et surtout l’absence de précautions méthodologiques de la part des auteurs ; pour preuve je mentionnais la source de la confusion, à savoir le récit de Dom Ruinart, moine bénédictin rémois, décrivant sa journée du 2 octobre 1696… Dans cet article, je commenterai le récit de Dom Ruinart pour mieux mesurer sa place dans l’historiographie gérômoise. Pour cela, il me faudra auparavant exhumer les controverses à propos de Gérard d’Alsace et sa place dans l’histoire de Gérardmer.

Màj. 30/08/2022 : ce billet a fait l’objet d’un remaniement sous forme d’article publié en ligne désormais sur le site de la Société Philomatique Vosgienne.

L’hypothèse d’une tour

La solution m’a été soufflée par un gérômois fort connu, M. Pascal Claude, alors que je travaillais sur la réédition du livre de Louis Géhin Gérardmer à travers les âges. M. Claude1 avait trouvé un extrait des oeuvres de Dom Ruinart qui, si on le lit trop précipitamment, mentionne à un château là où la Jamagne (Ruisseau venant de Gérardmer) se jette dans la Vologne (nous verrons plus loin qu’il n’en est rien). M. Claude suggérait alors que la « Tour Gérard d’Alsace » dont fait mention la tradition ne pouvait justement pas être située à Gérardmer mais du côté d’Arches.

Cette hypothèse de travail est la bonne car elle pose directement les conditions de l’existence ou non d’une « Tour Gérard d’Alsace » à Gérardmer. Cette tour supposée est depuis longtemps dans la culture populaire une partie fondamentale de l’explication du patronyme Gérard dans le nom de la ville.

Une partie seulement, puisque dans un mouvement quelque peu circulaire du raisonnement, la signification du suffixe en serait une seconde clé : le ou mansus en latin. Cette question est importante. Alors que mer doit son étymologie à mare désignant l’étendue d’eau que l’on retrouve dans le nom de Longemer ou Retournemer (qui se prononcent mère même si le patois les prononce indifférement ou ), le peut avoir une signification romane qui renvoie à la propriété, la tenure : mansus en latin tardif, mas en langue d’oc, meix en langue d’oil, et moué, ou en patois du pays vosgien. Or, si l’inteprétation est attribuée au sens latin, c’est-à-dire en référence à une propriété, la démarche consiste à rechercher les traces d’un édifice qui puisse l’attester physiquement à défaut d’une trace écrite.

En somme, s’il y a une « tour Gérard d’Alsace » ce serait parce qu’il y a une « propriété » d’un certain Gérard. Et comme on s’y attend, le duc Gérard d’Alsace (1030-1070) qui, comme son nom ne l’indique pas, était Duc de Lorraine2 devrait donc être ce fameux Gérard, heureux détenteur d’un mansus à Gérardmer. De qui d’autre pouvait-il s’agir ? Par cette attribution qui se justifie elle-même, la tradition locale affirmait ainsi avec force le rattachement Lorrain de la ville depuis une époque fort ancienne.

Et cela, même si le premier écrit connu qui atteste officiellement l’appartenance de Gérardmer au Duché de Lorraine date de 1285, bien longtemps après l’époque de Gérard d’Alsace. Comme l’écrit Louis Géhin, il s’agit d'« un acte de Mai 1285, par lequel le duc Ferry III concéda à Conrad Wernher, sire de Hadstatt, à son fils et à leurs héritiers, en fief et augmentation de fiefs, que le dit Hadstatt tenait déjà de lui, la moitié de la ville de La Bresse, qu’il les a associés dans les lieux appelés Gérameret Longemer en telle manière que lui et eux doivent faire une ville neuve dans ces lieux, où ils auront chacun moitié. »3

Il reste que l’existence d’une « Tour Gérard d’Alsace » à Gérardmer a toujours été imputée par les différents auteurs à une tradition, une légende issue de la culture populaire… sauf dans l’étude exhaustive la plus récente, celle de Marc Georgel, parue en 1958. Comparons-les.

Henri Lepage en 1877, dans sa « Notice Historique et Descriptive de Gérardmer »4 écrit ceci :

La tradition veut également que Gérard d’Alsace, […] ait […] fait de Gérardmer un rendez-vous pour la chasse et la pêche ; elle ajoute qu’il aurait fait édifier une tour (3), près du ruisseau de la Jamagne, pour perpétuer le souvenir de son séjour dans ces lieux déserts ; le lac d’où sort cette rivière ce serait dès lors appelé Gerardi mare, mer de Gérard, et par inversion Gérard-mer.

(En note de bas de page – 3 : Cette tour s’élevait, dit-on, sur une petite éminence, au milieu de la prairie du Champ, à l’endroit où se voit aujourd’hui l’église du Calvaire, et on en aurait retrouvé les fondations.

On notera les précautions qu’emploie H. Lepage : « la tradition veut », « dit-on », et l’usage du conditionnel.

Dans la même veine, un peu plus tard en 1893, Louis Géhin mentionne la construction de la première église de Gérardmer en 1540, et la situe sur l’emplacement « prétendu » de cette Tour :

Dès l’année 1540, les habitants de Gérardmer élevèrent, sur le bord de la Jamagne, non loin de l’emplacement prétendu de la Tour de Gérard d’Alsace, une chapelle dédiée à saint Gérard et saint Barthélemy5.

Et pourtant, en 1958, Marc Georgel ne prend plus aucune précaution ! Dans une somme impressionnante sur la La vie rurale et le folklore dans le canton de Gérardmer il écrit de manière péremptoire :

Chacun sait maintenant (depuis les nombreux ouvrages qui traitent de Gérardmer) que le duc Gérard se fit construire une tour près du « Champ », lieu-dit actuellement « Le Calvaire », sur la rive droite de la Jamagne, à quelques centaines de mètres du lac qui s’appelait encore au XVIe siècle « le lac Major » (une preuve de plus que le nom de la ville de Gérardmer doit son origine à la « tour » de Gérard et non pas au lac6). Quelle était la destination de cette construction de Gérard ? Tour de guet pour assurer plus facilement la garde de la petite agglomération de Champ ? Villa saisonnière ? La plupart des auteurs émettent l’hypothèse d’une sorte de pavillon de chasse.

Renouant ainsi avec la culture populaire, M. Georgel sacrifie la rigueur méthodologique à l’imagination des contes et légendes des Vosges. L’appellation du Lac en « lac Major » (dont il ne cite pas la source) ne prouve rien en soi. Quant aux hypothèses qu’il soulève à propos de la destination d’une telle construction sont quelque peu sujettes à caution :

  • une tour de garde suppose… des gardes, donc des salaires et une économie locale suffisante, ce qui, au XIe siècle, est fortement improbable en ces vallées,
  • un pavillon de chasse est plausible si l’on part du principe qu’effectivement depuis Charlemagne la noblesse allait chasser dans ces vallées… sauf que dans ce cas, il s’agirait d’un campement établi à la hâte, peut-être pour y revenir d’une saison à l’autre, soumis au gré du climat, sans fondations… sans traces tangibles, donc.
  • quant à une villégiature… Marc Georgel a sans doute tendance à calquer la dynamique touristique de Gérardmer florissante depuis le XIXe siècle en la rendant parfaitement anachronique.

Pour conclure cette première partie, la cause doit être entendue : nous devons comprendre les origines de cette histoire de « Tour Gérard d’Alsace ». Entendons-nous bien : ce que nous allons démontrer n’est pas l’origine du folklore local à ce propos, qui peut remonter à une époque très lointaine, mais l’origine de la controverse qui permet de comprendre pour quelle raison il y a effectivement un débat à ce propos. Répondant à cette question, nous pourront montrer « d’où vient l’erreur ».

Histoires croisées de Gérardmer et Longemer : un patronyme indécidable

Durant de nombreux siècles, la vallée des lacs de Gérardmer et Xonrupt-Longemer était habitée de manière sporadique, avec des populations provenant tantôt des frontières germaniques et tantôt des autorités administratives lorraines, qu’il s’agisse de l’autorité ducale ou de l’autorité des abbesses de Remiremont. Ce double patronat est attesté en 970 pour ces « bans de la montagne » dont la zone de Gérardmer faisait partie. L’essentiel de l’économie locale étant composée de foresterie, d’élevage et de produit d’élevage marcaire (sur les chaumes), et un peu de pisciculture.

Les routes qui relient Gérardmer aux centres économiques lorrains sont praticables assez tôt. Les voies principales sont connues : Gérardmer-Bruyères en suivant le cours de la Vologne, Gérardmer-Remiremont en passant par le Col de Sapois, Gérardmer-Saint-Dié via le Col de Martimpré. Evidemment, pour rejoindre l’Alsace, Gérardmer ne figurait pas parmi les étapes des voyageurs lorrains, ceux-ci préférant passer par le col de Bussang, la vallée de Senones / territoire de Salm (col du Hantz) ou plus loin le col de Saverne. En somme, la vallée de Gérardmer était plus une destination qu’une étape.

Comme nous l’avons vu dans la première partie, si nous nous interrogeons sur l’origine du nom de Gérardmer, il faut pour en comprendre l’importance situer cette question dans le folklore local.

Les autorités lorraines étant lointaines, il reste que la culture locale attribue certains lieux-dits aux grands personnages qui ont fréquenté les contreforts vosgiens : Charlemagne et ses parties de chasse ou plus tard les ducs de Lorraine constructeurs de châteaux. Ces coutumes sont importantes à la fois parce qu’elles attestent de l’appartenance culturelle et juridique des lieux mais aussi pour des raisons spirituelles. Ainsi le moine Richer de Senones, au XIIIe siècle dans sa chronique mentionne la fondation d’une chapelle à Longemer en 1056 par Bilon, un serviteur de l’illustre Gérard d’Alsace7 :

Anno Domini mo lvio quidam Bilonus, Gerardi ducis servus, in saltu Vosagi qui Longum mare dicitur, locuns et capellam in honore beati Bartholomei privus edificavit.

L’an du Seigneur 1056, un certain personnage du nom de Bilon, serviteur du duc Gérard, construisit une chapelle en l’honneur de saint Barthélémy, dans une forêt de la Vosges, qu’on appelle Longe-mer (trad. L. Géhin).

Extrait de la Chronique de Richer

Si l’édification de la chapelle en question était surtout un ermitage (comme il y en aura plus d’un dans la vallée) la confusion entre les lieux (Longemer et Gérardmer8) a très certainement joué en faveur du double patronage de Saint Barthélémy et Saint Gérard, qui fut longtemps l’attribut de la nouvelle église du hameau de Gérardmer au XVIe siècle.

Cette question du patronage de l’église a toute son importance. Elle croise les histoires communes de Longemer et de Gérardmer. Cette approche doit être privilégiée pour comprendre les liens entre Gérardmer et son patronyme, car elle est l’objet d’une controverse célèbre.

En 1878, M. Arthur Benoît, correspondant de la Société d’émulation des Vosges, reprend les écrits du P. Hugo d’Étival et ceux du Père Benoît Picart, Capucin de Toul (ou Benoît de Toul). Au tout début du XVIIIe siècle, ces deux personnages hauts en couleurs étaient entrés dans une course politique dont le Duc Léopold de Lorraine devait en être l’arbitre. Le duel s’était cristallisé autour de l’histoire de la Maison de Lorraine que le P. Benoît Picart avait étudié et et dont il avait tiré un ouvrage (L’origine de la très illustre Maison de Lorraine) qui déplu finalement au Duc Leopold. Pour plaire à ce dernier le Père Hugo d’Etival eu la prétention d’écrire, sous un pseudonyme et une fausse maison d’édition, un traité sur la généalogie de la Maison de Lorraine. Répondant à cette supercherie, le Père Benoît Picard publia aussitôt deux tomes critiques du livre du P. Hugo, sous le titre de Supplément à l’histoire de la maison de Lorraine9.

Dans cette dispute, la question de l’attribution du patronyme au nom de Gérardmer ne fut pas épargnée et c’est justement à partir de l’histoire de Bilon à Longemer que l’on pose les prémisses du raisonnement.

En 1711, le père Hugo abbé d’Etival, mentionnant Bilon à l’image de Richer de Senones, suggère que c’est en l’honneur du Duc Gérard d’Alsace que Gérardmer porterait ce nom10 :

C’est apparemment du Duc Gérard que le village de Gerardmer à présent Geromé en Vosges, a emprunté son nom. Herculanus11 dit que, dans ce lieu se retira vers l’an 1065, Bilon officier de la cour de Gerard Duc de Lorraine et qu’il dressa une chapelle en l’honneur de S. Barthelemy, sur les bords du lac, appelé alors Longue-mer et qui est la source de la rivière de Vologne. Ce courtisant pénitent, ou les peuples d’alentour, auraient-ils changé le nom de ce lac, pour éterniser la mémoire du Duc ?

Extrait du Traité de Charles-Louis Hugo d'Étival

Et en 1712, le P. Benoît de Toul corrige le P. Hugo et écrit12 :

J’ai cru autrefois que le village de Gérardmer empruntait son nom au Duc Gérard, mais après plusieurs recherches que j’ai fait, pour l’éclaircissement de l’histoire de Toul et de Metz à laquelle je m’applique actuellement, je dis à présent que le Duc Gérard, suivi de Bilon, l’un de ses officiers, assista à la translation de l’évêque Saint Gérard faite à Toul le 22 octobre 1051. Cet officier touché de la sainteté de nos cérémonies et des miracles que le Bon Dieu fit paraître sur le tombeau de ce saint, et qui ont été écrits par un auteur contemporain, se retira dans les Vosges et fit bâtir une chapelle en l’honneur de Saint Gérard et de Saint Barthélémy, laquelle, à cause des biens qu’il y annexa, fut érigée en bénéfice dans l’église paroissiale ; dont ces deux saints devinrent les patrons et donnèrent lieu d’appeler les habitations proches du lac : Gerardme, sancti gerardi mare.

On saluera la tentative du P. Benoît de fournir à l’appui de son propos deux « preuves », à l’image de la rigueur habituelle qui le caractérisait (d’après ses commentateurs) mais aussi sans doute motivé par le fait de pouvoir à peu de frais contredire le P. Hugo. Néanmoins, si ces documents sont deux titres attestés des chanoinesses de Remiremont datant de 1449 et 1455, leur portée est très faible. Pour reprendre le commentaire qu’en fait M. Arthur Benoît (qui reproduit les textes en question dans son article), le premier prouve seulement qu’une chapelle existait à Longemer et dédié au deux saints Gérard et Barthélémy, et pour le second la chapelle ne porte plus que le patronage de Barthélémy.

À l’image de cette controverse, la recherche de l’attribution du patronyme a eu une postérité plutôt riche. L’essentiel des études s’accordent au moins sur un point : il ne s’agit que d’avis et d’opinions qui n’ont jamais été solidement étayés par des écrits tangibles. Les historiens du XVIIIe siècle avaient donc cette lourde charge de rechercher les titres, chartes et patentes qui auraient pu, une fois pour toute, résoudre cette question… en vain.

Les cartographes eux mêmes s’y perdaient depuis longtemps. Par exemple, Thierry Alix, président de la Chambre des Comptes du Duché de Lorraine, fait élaborer la carte des Hautes Chaumes entre 1575 et 1578. On y trace parfaitement les trois lacs de Gérardmer, Longemer et Retournemer, mais on attribue au village au bord du premier le nom de Saint Barthélémy (c’est le patronage attesté administrativement et non le nom vernaculaire qui l’a emporté)13.

Cartes des Hautes Chaumes, par T. Alix

Pourquoi une tour Gérard d’Alsace à Gérardmer ?

Les archives des Vosges furent fouillées à maintes reprises à la recherche de tout indice permettant d’attribuer à Gérardmer le patronyme de Gérard d’Alsace. Les auteurs régionaux avaient à leur disposition tout l’héritage des abbayes, à commencer par la chronique de Richer de (l’abbaye de) Senones (mort en 1266), l’histoire de Jean Herquel (Herculanus) chanoine de Saint-Dié (mort en 1572), les écrits de Jean Ruyr chanoine de Saint-Dié (1560-1645), les nombreux textes de Augustin (Dom) Calmet moine de Senones (1672-1757), les histoires de P. Benoît Picart de Toul (1663-1720), les écrits de Charles-Louis Hugo d’Étival (1667-1739), et la liste est longue.

En fin de compte, autant l’histoire de Bilon à Longemer trouve ses origines dans des textes du clergé forts anciens et fait l’objet de débats au détour desquels on s’interroge effectivement sur le patronyme de Gérardmer14, autant nous ne trouvons aucune mention claire du prétendu château de Gérard d’Alsace à Gérardmer.

Pour comprendre comment on en vint à supposer l’existence d’un tel édifice, il faut attendre le XIXe siècle et l’étude d’un médecin amateur d’histoire, pionner du genre qui occupera longuement la bourgeoisie locale férue d’histoire régionale. Il s’agit du docteur Jean-Baptiste Jacquot qui publia à Strasbourg sa thèse de médecine en 1826, assortie d’une notice historique sur Gérardmer15. C’est dans cette notice que l’on trouve pour la première fois dans la littérature régionale la mention d’un château ducal à Gérardmer.

Jean-Baptiste Jacquot avait déniché aux archives un texte du moine bénédictin champenois Dom (Thierry) Ruinart, au titre d’un récit de voyage à la toute fin du XVIIe siècle, durant lequel il était de passage dans les Vosges : le Voyage d’Alsace et de Lorraine effectué en 1696 et publié à titre posthume en 172416.

Notons toutefois : cette chronique de Dom Ruinart est fort connue depuis longue date des alsaciens, et sa première traduction en français fut publiée en 1829 à Strasbourg aussi17. C’est sans doute la raison pour laquelle J.-B. Jacquot s’est attardé sur ce document, facilement identifiable.

En lisant le texte en latin, J.-B. Jacquot, trouve un passage édifiant et selon lui de nature à éclairer la question du nom de Gérardmer. Dom Ruinart aurait mentionné le « vieux château (castellum) des ducs de Lorraine » rencontré au moment de franchir la Vologne « qui, réunie au ruisseau qui coule du lac de Gérardmer… Au sommet de la montagne qui domine cette rivière… ».

La traduction est incomplète mais pour J.-B. Jacquot, cela ne fait aucun doute : il s’agit de cette propriété du duc Gérard d’Alsace que Dom Ruinart, de passage à Gérardmer, aurait aperçu et mentionnée dans son compte-rendu. Un tel château serait situé dans les environs où le ruisseau de Gérardmer rencontre la Vologne, c’est-à-dire… à Gérardmer même. Le temps en aurait simplement effacé les traces.

Trop rapide, trop hâtif ? les lecteurs qui le suivront sur ce point ne reviendront finalement jamais au texte source de Dom Ruinart. Si bien qu’on a longtemps tenue pour acquise l’affirmation de J.-B. Jacquot (sauf dans les publications des différentes sociétés intellectuelles Lorraines et Vosgiennes qui mentionnent toujours la tradition). Il nous faut donc aller voir le texte de Dom Ruinart en entier.

Dom Ruinart, aventurier mal compris

On possède de Dom Ruinart plusieurs écrits consultables sur le site Gallica de la BNF. Le plus célèbre d’entre eux pour les études régionales reste le Voyage en Alsace traduit du latin par Jaques Matter en 1829 mais qui ne contient qu’une partie seulement du récit car il arrête la traduction au moment du retour en Lorraine au col de Bussang. LeVoyage d’Alsace et de Lorraine complet, lui, est paru en 1724 dans le recueil des Oeuvres posthumes de Dom Jean Mabillon et Dom Thierry Ruinart, Tome 3. Louis Jouve en a proposé une traduction exhaustive et plus moderne en 188118.

Dans la pure tradition du voyage d’étude qui fit le rayonnement des intellectuels européens à travers toute l’époque médiévale et bien au-delà, Dom Ruinart se lance lui aussi en 1696 dans un périple qui le mène de Paris jusqu’en Lorraine en passant par sa région champenoise natale, avec une itinérance importante en Alsace. Il fait halte d’un monastère à l’autre et lors de ses séjours, il parcours les environs visitant divers établissements, églises, chapelles et autres édifices d’intérêt. À défaut, il les cite et tâche d’en établir l’historique. Pour une compréhension contemporaine nous pouvons mentionner les grandes étapes : Paris - Lagny - Meaux - Reuil - Orbais l’Abbaye - Sainte-Menehould - Verdun - Toul - Nancy - Lunéville - Baccarat - Moyenmoutier - Senones - (Nieder-)Haslach - Molsheim - Marmoutier - Marlenheim - Wangen - Saverne - Strasbourg - Illkirch - Sélestat - Colmar - Munster - Soultzbach - Murbach - Guebwiller - Bussang - Remiremont - Champ-le-Duc - Bruyères - Moyenmoutier - Baccarat - Nancy - Pont-à-Mousson - Metz - Toul - Commercy - Verdun - Châlons - Reims - Lagny - Paris.

La lecture de ce récit est passionnante tant il recèle de nombreuses informations sur l’art, les usages monastiques et les connaissances en cette fin du XVIIe siècle. Il recèle aussi de haut faits. On notera en particulier le passage dangereux des crêtes vosgiennes entre Moyenmoutier et Haslach. Sur le retour en Lorraine, la journée du 2 octobre 1696 qui nous intéresse ici n’est pas aussi spectaculaire même si nous pouvons saluer l’endurance certaine des voyageurs qui entreprennent ce jour-là un périple d’environ 62 kilomètres à cheval.

Venant d’Alsace, via Guebwiller, après avoir franchi le Col de Bussang et séjourné quelques jours chez les chanoinesses de Remiremont, Dom Ruinart entreprend un trajet jusque Moyenmoutier. C’est dans l’extrait qui va suivre que J.-B. Jacquot a cru voir mentionné l’existence d’un château du Duc de Lorraine à Gérardmer. Or, il n’en est rien. Pour comprendre son erreur, il nous faut lire le texte et compléter par quelques informations géographiques et historiques. Toute l’interprétation réside dans la possibilité de retracer exactement le parcours sur la base du récit19 :

Extrait du récit de Dom Ruinart en 1696

Le 2 octobre, nous traversâmes la Vologne, qui, réunie au ruisseau sorti du lac de Gérardmer, nourrit de petites huîtres renfermant des perles. Sur le sommet de la montagne qui domine la rivière, se dresse le vieux château qu’habitaient les ducs de Lorraine, quand ils faisaient pêcher des perles. De là nous allâmes à Champ, remarquable par son ancienne Église, dont on attribue la construction à Charlemagne, et après avoir traversé Bruyères, nous entrâmes dans les forêts. Nous franchîmes la montagne au bas de laquelle Renaud, évêque de Toul, fut assassiné avec une cruauté inouïe par Maherus, prévôt de Saint-Dié, qui avait été chassé du siège épiscopal de Toul. Le soleil venait de se coucher quand nous arrivâmes à Moyenmoutier, laissant à droite la ville de Saint-Dié et à gauche l’abbaye de l’ordre des prémontrés, que nous visitâmes le landemain20.

À l’énoncé des lieux par Dom Ruinart, et sans avoir une idée précise de la géographie vosgienne, le fait de mentionner un ruisseau affluent de la Vologne et venant de Gérardmer peut induire en erreur et situer l’action (là où Dom Ruinart fanchi la Vologne) au Nord-ouest de Gérardmer, dans la vallée de Kichompré, à l’endroit où la Jamagne venant du lac de Gérardmer se jette dans la Vologne provenant, elle, du lac de Longemer.

Cependant, si nous nous en tenions à ce seul énoncé (et le texte renferme bien d’autres informations), il serait bien étonnant depuis ce lieu d’y voir une montagne dominante plus que les autres où serait situé un château ou même des ruines. L’encaissement des lieux ne permet pas d’identifier un sommet plus qu’un autre et, on en conviendra, le lieu lui-même est déjà fort éloigné du bourg de Gérardmer, qui plus est du centre où la chapelle Saint-Barthélémy est censée recouvrir les ruines de la soit-disant tour de Gérard d’Alsace… qui ne serait donc pas située sur une montagne, contrairement à ce que dit le texte, donc… on en perd son latin21.

Par ailleurs, en supposant que le trajet de Remiremont à Champ(-Le-Duc) et Bruyères passe par Gérardmer, il faut comprendre que Dom Ruinart préfère de loin les chemins les plus rapides, autrement dit, aménagés ou les plus empruntés (la leçon subie du côté de la vallée de la Bruche en Alsace lui aura appris cela). Donc le trajet depuis Remiremont devrait nécessairement passer par le Col de Sapois, qui est la route principale (on ne remonte pas à l’époque la Vallée de Cleurie même s’il devait bien y avoir quelques sentiers jusqu’au Tholy pour rejoindre le chemin de Gérardmer provenant d’Arches).

Décidément, Dom Ruinart n’était pas homme à franchir les montagnes sur des chemins difficiles alors que l’objectif du voyage est de rejoindre Moyenmoutier en se contentant, la majeure partie du trajet, de suivre les fonds de vallées. Quant à visiter Gérardmer… nous sommes en 1696 et l’attrait touristique des lieux n’était pas aussi irrésistible qu’aujourd’hui.

L’hypothèse du trajet via Gérardmer doit définitivement être abandonnée à l’énoncé des autres indices.

Le premier : les huîtres perlières de la Vologne. Si Dom Ruinart mentionne Gérardmer c’est par érudition afin de préciser que la Vologne est une rivière de montagne bien particulière : ses affluents lui apportent divers éléments enrichissants qui permettent la culture de molusques, de grandes moules perlières22. Cette particularité zoologique se retrouve dans d’autres vallées mais les bords de la Vologne avaient généré une activité économique suffisante pour que les Ducs de Lorraine y trouvent l’intérêt d’y établir un château servant de comptoir dédié à cette activité23. On s’accorde pour délimiter la zone où l’on rencontre le plus souvent ces molusques entre la zone d’affluence du Neuné près de Laveline-devant-Bruyères et le village de Jarménil, là où la Vologne se jette dans la Moselle.

Quant au château, il s’agit de Château-Sur-Perles situé entre Docelles et Cheniménil. La fondation du château par le duché de Lorraine est attestée. En effet, l’activité perlière dans cette région était clairement sous la responsabilité (et le profit) du duché de Lorraine ainsi qu’en témoignent les livres de comptes jusqu’à une époque tardive. Les Archives de Meurthe-et-Moselle tiennent le registre des lettres patentes de René II, duc de Lorraine (1473-1508). Elles recensent à Cheniménil l’autorisation d’y construire un château en 147424.

Ceci nous permet d’affirmer que Dom Ruinart et ses compagnons franchissent la Vologne juste avant Arches en venant de Remiremont, à l’emplacement de l’actuel village de Jarménil, avant de remonter la rivière où ils aperçoivent très peu de temps après à Cheniménil le Château des ducs de Lorraine fondé par René II.

Le second indice concerne le village de Champ, aujourd’hui nommé Champ-Le-Duc25 et le passage par Bruyères. Cette dernière ville figure à l’époque parmi les places de marché les plus actives. C’est par Bruyères que convergent de nombreux chemins, à cheval entre différentes prévôtés (Arches et Saint-Dié surtout). Toujours est-il qu’après avoir aperçu le château de Cheniménil, le chemin est tout tracé vers Bruyères et, de là par le massif forestier, un passage via le Col du Haut-Jacques pour redescendre ensuite au pied du massif de la Madeleine, là où Matthieu de Lorraine, alias Maherus, tendit une ambuscade funeste à Renaud de Senlis en 1217 (le château de Maherus, ou château de Clermont, se situait au lieu-dit la Chaise du Roi).

C’est une étape difficile pour Dom Ruinart et ses accompagnants : pas moins de 62 kilomètres séparent Remiremont de Moyenmoutier par les chemins les plus directs passant (pour reprendre des noms indentifiables aujourd’hui) par Jarménil, Cheniménil, Lépange, Champ-le-Duc, Bruyères, le Col du Haut-Jacques, Saint-dié, Étival (abbaye des chanoines de l’ordre de Prémontré), Moyenmoutier. On peut estimer un départ de grand matin pour arriver après la tombée de la nuit, tout en faisant une halte restauratrice à Champ-Le-Duc, soit à mi-chemin.

On peut voir sur cette carte le trajet tel que je l’ai estimé au regard des éléments du récit.

Pour se faire une idée de la représentation cartographique de l’époque, on peut aussi se reporter à cette carte du diocèse de Toul, par Guillaume De l’Isle, 1707, composée à l’occasion de la publication de l'Histoire ecclésiastique du diocèse par P. Benoît de Toul.

Conclusion

Il n’y a jamais eu de château ou de tour construite à l’initiative du duc Gérard d’Alsace à Gérardmer. De manière générale, aucune mention ultérieure à son règne dans les livres de patentes n’autorise la construction d’un château à Gérardmer sous l’autorité du duché de Lorraine. Encore moins sous l’autorité des chanoinesses de Remiremont. Les preuves archéologiques et archivistiques d’une telle construction sont inexistantes (jusqu’à aujourd’hui).

À rebours de la coutume locale, on peut même affirmer qu’aucun auteur n’a pouvé l’existence une telle construction. Les précautions d’usage n’ont cependant pas toujours été prises… tout en confrontant sans cesse la tradition du souvenir commémoratif de Gérard d’Alsace à la réalité des faits.

Nous avons montré qu’une erreur d’interprétation du texte de Dom Ruinart était à la source d’une méprise qui fit long feu. C’est la raison pour laquelle les plus rigoureux à l’instar d’Henri Lepage ou Louis Géhin se sont toujours référé à la tradition locale : il était important en effet de préciser cette particularité culturelle sans jamais l’affirmer comme une réalité. En revanche la répétition de cette tradition relatée dans les publications a provoqué certainement un effet d’amplification auquel a fini par succomber Marc Georgel qui affirma que « chacun sait maintenant (depuis les nombreux ouvrages qui traitent de Gérardmer) que le duc Gérard se fit construire une tour »…

Mais cette fameuse tradition locale est-elle pour autant dépréciée ? C’est une question que nous ne parviendrons pas à résoudre car elle est sans objet. Après tout, la légende demeure parfaitement logique. Les ducs de Lorraine ont contribué plus que significativement à la dynamique économique des Hautes Vosges et toutes les affaires juridiques de Gérardmer furent longtemps réglées par leur représentants ou directement à la cour du Duché. Si l’un ou l’autre Gérard, illustre ou parfaitement inconnu, a fini par donner son nom à Gérardmer, la tradition a construit une histoire autour de ce nom, une histoire qui a rassemblé la communauté villageoise autour d’une identité commune, celle de l’appartenance à la Lorraine. Cette construction permettait aussi une certaine indépendance des montagnards, loin des centres de pouvoir et des institutions, surtout avant le XVIIe siècle. Sans marque physique clairement identifiée sur le sol gérômois, les habitants pouvaient toujours se réclamer de l’autorité ducale… ou pas, selon l’intérêt du moment. Et cela est sans doute bien plus important qu’une vieille tour en ruine.

Carte du diocèse de Toul, 1707

Notes


  1. Voir Pascal Claude, « Le mystère de la tour Gérard d’Alsace », dans Daniel Voinson, La chapelle du Calvaire, Gérardmer, 2013, p. 11-13. ↩︎

  2. De la maison d’Alsace, alors que la Haute Lorraine est inféodée au Saint Empire Germanique. ↩︎

  3. Le nom de Gérardmer est attesté par écrit pour la première fois en 1285 dans cet acte d’attribution de fief par le Duc de Lorraine Ferry III, soit 245 ans après que Gérard d’Alsace ai reçu le titre de Duc de Lorraine. Si l’on se réfère à l’acte de Ferry III, retranscrit in extenso par Louis Géhin, c’est bien une Ville Neuve que Ferry III fonde : non que que le hameau n’existât point encore à cette époque mais la réalité administrative est alors officielle et en aucun cas l’acte mentionne l’existence d’un édifice ducal préexistant. Par ailleurs, dans cet acte de Ferry III, c’est la forme Geramer qui est employée, sans le r : l’interprétation de ce fait peut varier, la première consiste à accuser la faute du copiste, la seconde consiste à se demander si le patronyme Gérard n’était pas une information négligeable à cette époque au point que même dans un acte officiel de l’autorité ducale on puisse en oublier cette référence en écrivant indistinctement Geramer à la place de Gerarmer. Le hameau n’est pas nouvellement habité, il est déjà ancien, parfaitement identifié par les parties, et se distingue bien de Longemer. Ceci aura son importance dans la suite de notre propos. Voir Louis Géhin, Gérardmer à travers les âges, 1877. ↩︎

  4. Henri Lepage « Notice Historique et Descriptive de Gérardmer », dans Annales de la société d’émulation du département des Vosges, 1877, pp.130-232. ↩︎

  5. Louis Géhin, Gérardmer à travers les âges. Histoire complète de Gérardmer depuis ses origines jusqu’au commencement du XIX^e siècle, Extrait du Bulletin de la société philomatique vosgienne, Saint Dié, Impr. Hubert. 1893. ↩︎

  6. Nous préciserons plus loin : le suffixe en peut aussi bien provenir du latin mansus que de mare. La pronconciation du suffixe, à la différence de Longemère ou Retournemère force à retenir la première solution… sauf que le patois prononce indifféremment mer : meix, moix, , mère. D’autres exemples sont troublants : selon P. Marichal, on trouve à partir de 1285 plusieurs orthographes pour Gérardmer tels Geramer, Gerameix, ou Geroltsee, Giraulmoix… Alors : lac ou maison ? la question n’est pas tranchée. Voir Paul Marichal, Dictionnaire topographique du département des Vosges, comprenant les noms de lieux anciens et modernes, Paris : Imprimerie nationale, 1941. ↩︎

  7. Voir la Chronique de Senones, par Richer – BNF Gallica ↩︎

  8. En 1707, dans son Histoire Ecclesiastique de Toul le Père Benoit mentionne que la Vologne prend sa source au lac de Gérardmer. Il s’agit en fait du lac de Longemer (et en réalité au Haut-Chitelet) : l’erreur sur place n’est pas possible étant donné que l’affluent venant du lac de Gérardmer, la Jamagne, a un débit bien moindre. D’ailleurs en 1696, Dom Ruinart la mentionne sans la nommer comme nous le verrons plus loin. Voir Père Benoit de Toul, Histoire ecclesiastique et politique de la Ville et du Diocèse de Toul, Toul, A. Laurent Imprimeur, 1707, p. 54 (URL Archive.org). ↩︎

  9. Sur ce sujet, voir Albert Denis, « Le R. P. Benoît Picart. Historien de Toul (1663-1720) », Bulletin de la Société Lorraine des Études Locales dans l’enseignement public, vol. 2, num. 5, 1930, p. 10-11. URL ↩︎

  10. Charles-Louis Hugo, Traité historique et critique sur l’origine et la généalogie de la maison de Lorraine avec les chartes servant de preuves, Berlin, Ulric Liebpert impr., 1711. Voir Arthur Benoit « Les origines de Gérardmer, d’après le P. Benoît Picart de Toul », Annales de la Société d’Émulation du Département des Vosges, Épinal, Collot, 1878, p. 249-252. URL – Gallica BNF (p. 250). ↩︎

  11. Il s’agit de Jean Herquel (Herculanus) chanoine de Saint-Dié, mort en 1572. ↩︎

  12. P. Benoît Picart, Supplément à l’Histoire de la Maison de Lorraine, avec des remarques sur le Traité historique et critique de l’origine et la généalogie de cette illustre maison, Toul, Rollin, 1712, p. 46. ↩︎

  13. Voir la carte sur le site des Archives de Meurthe et Moselle. ↩︎

  14. Voir Louis-Antoine-Nicolas Richard, dit Richard des Vosges, « Notice sur un squelette retrouvé… », reproduite dans le Bulletin de la société philomatique vosgienne, vol. 21, 1895-96, p. 53 sq. ↩︎

  15. Jean-Baptiste Jacquot, Essai de topographie physique et médicale du canton de Gérardmer. Précédé d’une notice historique, (dissertation à la faculté de médecine de Strasbourg, pour le grade de docteur en médecine, Strasbourg, impr. Levrault, 1826. ↩︎

  16. Voir Ouvrages posthumes de D. Jean Mabillon et de D. Thierri Ruinart, tome III. Cocnernant la vie d’Urbain II, les Preuves et le Voyage d’Alsace et de Lorraine, par D. T. Ruinart, Paris, Vincent Thuillier éditeur, 1724, URL Gallica ↩︎

  17. Il ne s’agissait alors que d’une partie du récit de voyage, celle concernant l’Alsace. Jacques Matter (trad.), Voyage littéraire en Alsace par Dom Ruinart, Strasbourg, Levrault, 1829. ↩︎

  18. Louis Jouve, Voyages anciens et modernes dans les Vosges, 1500-1870, Epinal, Durand et fils, 1881 URL Gallica. ↩︎

  19. Le texte original de Dom Ruinart dans le recueil des oeuvres posthumes se trouve sur le site Gallica de la BNF (le lien ci-contre renvoie à la page du passage dont il est question). Pour la traduction, voir Louis Jouve, op. cit.. ↩︎

  20. Louis Jouve oublie de traduire : l’église du monastère est merveilleusement décorée. ↩︎

  21. Oui, celle-là, elle était facile. ↩︎

  22. On notera que récemment, en 2018, la société d’histoire naturelle et d’ethnographie de Colmar a alerté les autorités à propos de la protection des moules perlières de la Vologne et du massif des Vosges en général. Il ne resterait que deux espèces en voie d’extinction. ↩︎

  23. Chabrol (Marie), «Les perles de la Vologne, trésor des ducs de Lorraine», Le Pays lorrain, Vol. 94, num. 2, 2013, pp. 115-122. Pour une étude plus ancienne et néanmoins exhaustive, voir D. A. Godron, « Les Perles de la Vologne et le Château-sur-Perle », Mémoires de l’Académie de Stanislas, 1869-1870, p. 10-30. URL Gallica. ↩︎

  24. Voir le registre par nom de lieux à cette adresse, rechercher « Cheniménil ». ↩︎

  25. Champ se rapporte à la ville de Champ-le-Duc ainsi qu’elle éteit dénomée depuis les chroniques racontant la vie de Charlemagne. Voir [histoire ecclesiastique… p. 85 du PDF] ↩︎


Publié le 11.11.2021 à 01:00

Dernières news

Le temps passe et il fini par manquer. J’ai délaissé ce blog depuis la rentrée mais c’est pour livrer encore plus de lectures ! En vrac, voici quelques activités qui pourraient vous intéresser.

Publications

Commençons d’abord par les publications. Voici deux nouvelles références.

Un article court mais que j’ai voulu un peu percutant :

Christophe Masutti, « Encore une autre approche du capitalisme de surveillance », La Revue Européenne des Médias et du Numérique, num. 59.

Beaucoup plus long, et qui complète mon ouvrage sur la question de l’histoire du courtage de données :

Christophe Masutti, « En passant par l’Arkansas. Ordinateurs, politique et marketing au tournant des années 1970 », Zilsel – Science, Technique, Société, num. 9.

Ces textes seront versés dans HAL-SHS dans quelques temps.

Interventions

A part cela, je mentionne deux enregistrements.

Le premier à Radio Libertaire où j’ai eu le plaisir d’être interviewé par Mariama dans l’émission Pas de Quartier, du groupe Louise Michel, le 2 novembre 2021. On peut réécouter l’émission ici.

Le second est une conférence débat qui s’est tenue à Bruxelles au Festival des Libertés où j’ai eu l’honneur d’être invité avec Olivier Tesquet. Un débat organisé et animé par Julien Chanet. On peut l’écouter depuis le site ici.

Et une annonce.

Enfin, j’annonce mon intervention prochaine auprès des Amis du Monde Diplomatique dans le cadre de CitéPhilo à Lille, où j’ai le plaisir d’avoir été invité par Bertrand Bocquet le 22 novembre prochain. Plus d’information ici.

À bientôt !


Publié le 21.08.2021 à 02:00

Pourquoi tant de haine ?

Une mauvaise ambiance règne actuellement dans le massif des Vosges. En plus d’être la cible régulière de tentatives d’homicides par pièges, les pratiquants de VTT se voient aujourd’hui accusés de bien des maux. Des pétitions s’échangent entre les partisans du clivage et ceux qui tentent de le dépasser pour avancer. Les journaux locaux ont couvert les derniers évènements que je vais relater rapidement avant d’essayer de m’intéresser aux raisons profondes de ce malaise entretenu par quelques personnes qui normalement ne devraient pas mériter autant d’attention.

La recrudescence du tourisme après les mois de crise sanitaire y est sans doute pour quelque chose : on ressort les vélos, et cela dérange. Pourtant le problème persiste depuis des années (nos sénateurs l’ont déjà noté) : des pièges à VTT sont posés régulièrement par des individus exceptionnellement malveillants. Cela touche toute la France, mais dans les Vosges tout particulièrement, il peut s’avérer dangereux de sortir son vélo. Les pelotons de gendarmerie commencent à s’inquiéter vraiment du phénomène, et une affaire récente, celle d’un jeune pratiquant d’Enduro passé à deux doigts la mort, donnera peut-être lieu à une enquête en règle. La Mountain Bike Foundation a fait un communiqué à ce sujet.

La presse nationale parle de plus en plus de ce phénomène auparavant relégué à de simples anecdotes. Ainsi le journal l’Equipe en 2019, Le Figaro en octobre 2020, France TV en mars 2021. Dans les canards locaux, on relate avec plus de détails : des pieux, des barbelés, et surtout les fameuses planches à clous.

J’arrête ici la revue de presse, car il est prévisible que ces histoires continuent à tourner régulièrement jusqu’à devenir des marronniers, comme la neige en hiver et le soleil en été.

Dans ma pratique de vététiste, j’avoue ne jamais avoir été confronté à ce genre de pièges élaborés. On les trouve plus généralement là où les vététistes sont censés le plus déranger : sur les pistes d'Enduro plus ou moins improvisées (j’y reviendrai à la fin de ce billet). En revanche, j’ai été confronté comme tous les vététistes quelles que soient leurs pratiques à ces branches ou pierres posées délibérément en travers du chemin ou en appui à hauteur de tête1.

Si je raconte cela, c’est pour mettre sur le même plan les deux comportements : entre improviser un obstacle délibérément mais avec les moyens disponibles sur le moment, et élaborer un piège en prenant le temps de le fabriquer et le poser à un endroit choisi. Il s’agit de la même malveillance. Les deux ont pour ambition de blesser, voire de tuer et en tout cas de punir. Leur seule différence est que la première est une opportunité tandis que l’autre a juste une intentionnalité beaucoup plus forte.

Qu’est-ce qui motive un tel geste ?

Il y d’abord l’agressivité. À la racine, un ensemble d’angoisses et de peurs que l’individu est incapable de surmonter, soit parce qu’il n’a pas en lui les ressorts nécessaires pour le faire (qui s’acquièrent à l’enfance) soit parce qu’il y a chez lui une forme d’inhibition à la transgression de la norme qui consiste à ne pas nuire à autrui. Mais cela n’explique rien : nous sommes ici dans les mécanismes qui expliquent l’acte et non l’intention.

Comment expliquer l’intention, alors ? Nous sommes ici dans un processus d’attribution de responsabilité et de motivation à punir. Il y a des faits qui sont la cause d’un désordre dans la représentation de ce qui, pour l’individu, devrait être la norme. On s’interroge donc sur les valeurs.

Pour un défenseur de la nature à tendance préservationniste, le plus important est que l’homme dérange le moins possible la faune et la flore dans un soucis d’équilibre dit naturel. La valeur placée ainsi au dessus de toutes les autres, c’est cet idéal d’une nature préservée de l’homme. Pour un chasseur passionné, le bon management de la faune consiste en premier lieu à stabiliser et ne pas faire fuir le gibier. La valeur principale est donc le respect de l’équilibre cynégétique qui lui permet de chasser. Pour un promeneur contemplatif, l’essentiel est de trouver dans la montagne un lieu propice à la contemplation, au calme, loin de toute agitation censée troubler sa quiétude personnelle. La valeur principale est le respect de cette quiétude.

On notera qu’il y a un spectre très large d’activités qui pourraient entrer en conflit avec ces valeurs. Par exemple, un chantier forestier avec tronçonneuses et autres engins de débardage. Mais il ne faut pas oublier que les valeurs ne sont jamais exclusives. On parle d’un système de valeurs pour tout un chacun. Ainsi le bûcheronnage étant un travail, il est un effort productif, et n’entre pas forcément en conflit parce qu’il fait appel à d’autres valeurs qui ont une importance tout aussi forte que les précédentes. De même imaginons un groupe d’écoliers qui croise le chemin du promeneur contemplatif : sans doute troublé par les cris des enfants, il y a peu de chances qu’il y voie une atteinte à ses valeurs à moins de détester l’enfance (cela arrive, cependant).

Donc, il ressort de cette psychologie de bazar, qu’en plus de voir ses valeurs remises en question, l’individu doit trouver chez d’autres individus des valeurs qu’il peut condamner dans la mesure où elles entrent en conflit avec son propre système de valeurs dans lequel elles ne peuvent pas s’inscrire.

Les valeurs sportives sont une cible idéale pour cela, surtout chez les personnes qui n’éprouvent aucune attirance pour le sport. Mais c’est encore insuffisant. La tolérance, par exemple, pourrait permettre de mettre un terme au conflit intérieur. Il faut donc encore un autre ingrédient : la légitimation.

La légitimation s’articule en deux temps :

  • pouvoir attribuer une responsabilité à autrui,
  • estimer que la punition est une prérogative non sociale mais individuelle, dont le but n’est pas de réhabiliter le fautif dans l’ordre social (les valeurs communes), mais rétablir l’ordre des valeurs auxquelles on adhère à titre individuel.

En d’autres termes : estimer que l’on est soi-même légitime à punir autrui non pas en vertu du droit mais en vertu de ses propres représentations morales. On infère donc deux choses :

  • la faute à partir d’une expérience personnelle et donc émettre une conclusion dont la logique est erronée (« j’ai vu trois vététistes freiner sur le chemin, donc les vététistes sont la cause de l’érosion de tous les chemins »),
  • une responsabilité en vertu d’une charge émotionnelle (« je suis en colère : eux ont le droit et pas moi ») qui déstabilise les normes, et permet le passage à l’acte : poser un piège (la destination).

Et puis, outre la vengeance personnelle contre les vététistes comme chez ce chasseur de l’Hérault, il y a le renforcement de la légitimation. C’est-à-dire tout ce qui chez l’individu malveillant pourra l’aider, de l’extérieur, à attribuer la faute et la responsabilité. Ce peuvent être par exemple :

  • un effet de groupe lorsque tout le monde y va de son témoignage personnel (on est toujours dans le jugement d’opinion) dans une bulle de représentation : « on a bien raison de penser ce qu’on pense »,
  • une pétition relayée par les médias comme celle de SOS massif des Vosges qui entretien soigneusement une confusion entre ce qui est vrai ou faux (la randonnée devenue impossible), légitime ou légal (le droit des VTT à rouler sur sentier) ou moral et immoral (les bonnes valeurs du randonneur vs celle du sportif) de manière à susciter l’adhésion.

Enfin, on ajoute la victimisation. Tout comme le troll bien connu des réseaux sociaux, l’inversion des rôles est le parfait moyen pour déstabiliser (croit-on) la cible. Ainsi, malgré l’effort de dialogue toujours prôné par la Mountain Bikers Foundation (aboutissant souvent à des ententes scellées comme celle entre chasseurs et vététistes), les chasseurs se voyant accusés eux aussi de bien des maux, n’hésitent pas à jouer les victimes. Sauf que… attisées parfois par les politiques (comme ce député LREM) les tensions se multiplient inutilement avec les chasseurs qui vont même jusqu’à faire interdire une compétition de VTT, alors même que certains chasseurs isolés se croient au Far West devant nos champions nationaux.

Bon… les tensions n’ont pas lieu qu’avec les VTT. Certains coureurs à pied en prennent aussi pour leur grade avec les chasseurs. Néanmoins, cela va mieux en le disant : les chasseurs, dans leur grande majorité, n’ont rien contre les VTT. Mon expérience personnelle confirme absolument la position commune de la Fédération Nationale de Chasse et des la Mountain Bike Foundation : j’ai toujours entretenu des relations très courtoises avec les chasseurs. Il suffit de demander où a lieu la battue et on peut toujours faire un petit effort de contournement, quel que soit son avis sur la chasse.

En fait, la malveillance contre les VTT est avant tout une affaire individuelle. Elle reflète les tensions entretenues par ceux qui ne savent pas partager les usages de la forêt ou de la montagne, et se livrent à du lobbying envers les municipalités pour chercher à tout interdire.

J’avais promis d’y revenir : les pistes d’Enduro. Oui, effectivement, cela crée de l’érosion, cela abîme par endroit les sentiers que d’autres entretiennent. Mais c’est du sport. En tant que discipline, j’ai du mal à comprendre pourquoi les municipalités qui s’enorgueillissent d’accueillir les VTT Cross Country sur des chemins balisés n’offrent pas aussi, dans les endroits concernés, des infrastructures sérieuses pour la descente. Je citerai au hasard (non, pas au hasard!) la municipalité de Barr dans le Bas-Rhin : il y a toute une population qui, ayant goûté dans cette même commune une dynamique favorable au développement de la discipline, se retrouve à se débrouiller comme elle peut pour aménager l’existant. Il y a un créneau à couvrir et un vrai petit trésor à valoriser. Pourquoi ne pas le faire et ainsi limiter les pistes sauvages ?

Une dernière chose : les imbéciles malveillants sont une extrême minorité d’individus qui peuvent cependant faire un tort considérable. Dans les Vosges, le partage de l’espace est de mieux en mieux vécu par les utilisateurs. VTT et randonneurs se croisent en toute cordialité, chasseurs et VTT discutent ensemble, les antennes du Club Vosgien (sauf celles qui n’ont rien compris au film, voir ici et ) ont souvent un groupe de vététistes dans leurs rangs, et quant aux protecteurs de la nature, ce n’est pas chez les vététistes qu’ils trouvent à blâmer pour l’état déplorable de certains milieux.

Notes


  1. Oui, il est assez facile de s’en apercevoir lorsqu’on fréquente les mêmes chemins régulièrement. Par exemple : vous passez un jour d’hiver, un arbre est tombé, traversant et endommageant le sentier. Il reste longtemps en place, le temps que des forestiers ou des bénévoles du Club Vosgien ou encore des vététistes locaux viennent le débiter. Vous repassez, le chemin est dégagé et vous rendez grâce à ces bénévoles sans qui la forêt deviendrait vite impraticable. Mais vous n’êtes pas seul à pratiquer le VTT à cet endroit. Vous avisez les morceaux de tronc posés à l’écart et vous ouvrez les paris : combien de temps ? Combien de temps avant qu’un-e imbécile trouve l’idée géniale d’en mettre un morceau en travers du chemin ? Pas juste pour obliger le cycliste à poser pied à terre (s’il s’agissait d’un obstacle à sauter, par défi, il y aurait toujours la place pour passer à côté). La pose malveillante d’obstacles est toujours réfléchie : en travers du chemin, certes, mais tiré avec d’autres branches, avec rage et détermination, vraiment pour faire ch…. Que faites vous ? vous posez le vélo, vous pensez aux autres pratiquants et vous rangez la forêt. Semaine suivante : déception, cela recommence. ↩︎


Publié le 21.08.2021 à 02:00

Vers une résistance anarchiste

Nos choix et nos usages numériques conditionnent la manière dont nos données personnelles sont extraites, analysées et valorisées. C’est aujourd’hui un poncif et la grande majorité s’accorde sur le manque d’éthique de l’exploitation de nos intimités numériques. Pourtant, un pas supplémentaire mériterait d’être systématiquement franchi vers une réflexion plus globale. En effet, plus nous réfléchissons à la maîtrise de nos outils numériques et de nos données (ce qui implique bien davantage que le seul usage de logiciels libres), plus nous réfléchissons en réalité à des moyens d’émancipation vis-à-vis du capitalisme de surveillance. Ce dernier est une forme de prédation de nos vies privées par la combinaison, d’une part, du modèle monopoliste des entreprises du numérique et, d’autre part, l’État agissant dans un esprit d’intérêt avec ces firmes, soit acteur soit consommateur (ou co-producteur) de solutions de surveillance numérique (ou surveillance de masse). Comme je l’ai toujours affirmé, il y a de la surveillance d’État parce qu’il y a un marché de la surveillance dans une économie qui aujourd’hui repose pour l’essentiel sur la donnée numérique. Ce marché est jusqu’à la caricature l’expression de la prédation du capitalisme qui, au-delà de l’accaparement du temps et de la nature (nos temps et forces de travail), au-delà de la mesure et de la rentabilité, réduit l’individu à ses comportements de consommateur, effectue un tri social implacable et finalement parvient à accaparer nos vies.

Une critique du capitalisme de surveillance ne peut séparer radicalement les acteurs économiques et l’État. Premièrement parce que les nombreux scandales qui jalonnent l’histoire (celle de la transformation des sociétés industrielles en sociétés numérisées) relèvent toujours d’une forme d’économie politique qui a pour objectif soit d’imposer une ordre hégémonique (par ex. la Guerre Froide) ou un modèle social (la société de consommation), soit d’étendre la gouvernementalité non plus des peuples mais des individus dans un mouvement sécuritaire séculaire, ainsi que l’ont montré les Révélations Snowden (accointance entre État et firmes) ou le scandale Facebook-Cambridge Analytica (fausser le dialogue politique public et donc illustrer les failles de la représentativité en démocratie). Ainsi, considérer l’État comme le seul « contre-pouvoir » capable de réguler le capitalisme et le rendre plus compatible avec les libertés, est un leurre : d’une part les jeux d’intérêts financiers ne sont pas compatibles avec ce rôle de de l’État régulateur (compliqué par ailleurs par les questions de souveraineté vis-à-vis de l’hégémonie des grands pays où s’enracinent l’économie numérique et son industrie), et d’autre part l’État a accompli ce passage vers une société de la surveillance des individus en contraignant l’état de citoyenneté (comment un individu agit comme citoyen, sa vie civile) à un ordre automatisé de l’action publique (surveillance de masse et contrôles automatisés, transformation des services publics en suites de plate-formes, éloignement mutuel des institutions et de la vie publique et enfin : répression).

Face à cette situation, le premier réflexe est d’ouvrir une critique du solutionnisme ambiant. On peut en effet se concentrer sur les problèmes liés à la surveillance : biais algorithmiques, tri social, éthique, légitimité du contrôle, prédictibilité comportementale, etc. Lorsque l’État a recours à ces solutions technologiques, c’est qu’elles sont apportées par des entreprises sans scrupules et sont nimbées d’un discours fascisant (la vieille recette de l’ennemi intérieur ou les sempiternels faux dilemmes liberté vs sécurité ou liberté vs santé). Et c’est justement au nom d’une prétendue efficacité technique que de tels discours prennent si facilement auprès d’une classe politique en pleine crise de représentativité et qui se radicalise peu à peu à l’encontre de l’individu, du groupe, du collectif, et donc des libertés. La critique du solutionnisme peut donc être une critique des choix de politiques publiques et de leur efficacité à résoudre des problèmes structurels ou sociaux, mais elle peut être aussi un moyen efficace de pointer les idéologies derrière les choix technologiques (car il n’y a pas de technologie sans idéologie).

Un second réflexe consiste à adopter une position critique plus globale sur la modernité. Éclairée par l’histoire entre technologies et sociétés, cette critique montre qu’en réalité le contexte est le fruit les orientations du capitalisme moderne, ou du néoliberalisme et de l’économie comportementale qui en est l’un des moteurs (avec la militarisation et les monopoles). Face à cette critique, l’idée n’est pas tant de proposer d’autres solutions plus efficaces qui rendraient le monde économico-numérique meilleur (et après tout les solutions technocratiques restent des solutions techniques), mais de proposer des pistes d’émancipation possible qui auraient la difficile tâche de nous sortir des préceptes du néolibéralisme, par une double critique du capitalisme et de l’État moderne.

Jusqu’à présent, la seule piste que je puisse voir est une piste anarchiste. Nous sommes en effet dans une situation d’urgence où il faut promouvoir à la fois de l’éducation populaire censée émanciper les gens vis-à-vis de l’économie numérique, et la création de groupes et autres collectifs censés se réapproprier et reforger les mécanismes démocratiques pour fonder des économies plus équilibrées. Le tout sans pour autant avoir un mot d’ordre unique mais des caractéristiques suffisamment communes pour former un tout cohérent fait de différences et de partages, selon l’idée plus générale d’une archipélisation des initiatives et des groupes. Je me suis déjà exprimé là-dessus (et je ne suis pas le seul à Framasoft), en revanche il est clair que tout cela doit encore être bien approfondi.

Un autre biais de ce que je viens d’affirmer, c’est la pratique. Tout ceci est bien gentil, mais cela ne reste que des mots. Quelle bien piètre résistance que celle qui ne s’exprime qu’entre la chaise et le clavier. Pour donner une teneur bien concrète à l’urgence que je viens de formuler, on peut regarder du côté de l’Afghanistan de ces derniers jours. Les Talibans, après une avancée fulgurante, ont instauré un nouvel État et, ce faisant, ont mis la main sur les données biométriques d’une grande quantité d’Afghans, des données rassemblées précédemment par l’armée américaine sur place. On conçoit aisément les craintes de nombreux Afghans dans une chasse aux sorcières mortelle qui ne fait que commencer dans le pays. Mais cela montre aussi à quel point il est excessivement dangereux de laisser un pouvoir centraliser des données personnelles, surtout si ces données excèdent le strict minimum censé permettre justement à l’État de fonctionner, et afin d’accroître démesurément son pouvoir de coercition (en particulier lorsque le dialogue démocratique est rompu). En France, nous devrions être bien plus attentifs au rognage systématique de nos intimités numériques et (donc) de nos libertés.

Mais par quels mécanismes nous opposer à cette soif de pouvoir, de coercition, propre à l’État et qui met à la manœuvre la pompe à données personnelles que l’économie numérique ne cesse de perfectionner ? Peut-être faut-il aller chercher au plus profond de nous-mêmes, dans notre méfiance pour ainsi dire instinctive de tout ce qui tend à remplacer l’échange par le pouvoir et le consensus par l’autorité. Finalement, sans avoir à comprendre les finesses des technologies qui nous entourent, nous sommes tous prompts à imaginer et mettre en œuvre des stratégies de contournement, des moyens d’auto-défense face au pouvoir. De ce point de vue, à la condition de proposer des alternatives accessibles à tous, y compris chez les non-techniciens, la fabrication d’alternatives logicielles libres basées sur le chiffrement et le pair-à-pair sont selon moi des éléments d’auto-défense collectifs particulièrement efficaces. Tout comme le sont, par exemple, l’échange de graines de légumes anciens interdits à la vente, l’établissement de zones à défendre contre les grands projets inutiles, ou de manière plus fine les initiatives permettant d’instaurer plus de démocratie participative dans des institutions perçues comme trop rigides (cf. la municipalité de Kingersheim).

Mais je mentionnais plus haut la question de l’anarchie. Sur LVSL vient de sortir une petite analyse synthétique sur le travail de James Scott à propos des sociétés des régions montagneuses de l’Asie du Sud-Est, autrement nommées Zomia, qui regroupe des centaines d’ethnies et des millions de personnes. On ne parle donc pas d’un simple groupe de « primitifs » paumés. Même si les conclusions de James Scott sont à mon avis un peu trop généralistes, à la différence d’un Pierre Clastres qui prenait un peu plus de précautions avant de généraliser, le constat est le même : une bonne anthropologie est d’essence anarchiste, tout simplement parce que, méthodologiquement, on ne devrait jamais apposer nos propres schémas historiques d’occidentaux sur la structure sociale du groupe étudié. Et si on a une bonne méthodologie, on constate que oui, en effet, certaines sociétés sont construites à l’encontre de l’idée de l’État.

Ce que pointent P. Clastres et J. Scott (entre autre, on peut aussi compter D. Graeber) c’est l’erreur d’une vision finaliste du développement des sociétés. Nous avons longtemps pensé que le devenir d’un peuple consistait à se développer et tendre « naturellement » vers une structuration en société-État. Ces anthropologues ont en revanche démontré que ce n’est pas du tout le cas, que l’État (et la coercition) ne sont pas le destin de toute société, qu’il y a même des sociétés qui ont développé des mécanismes pour que le pouvoir ne puisse pas émerger, ou bien s’il y a des chefs, ils n’ont aucune autorité (mais incarnent une fonction de lien et d’échange social), ou même encore des sociétés qui ont une histoire basée sur le refus assumé de l’État parce qu’elles l’ont essayé (et n’y ont vu qu’esclavage et soumission). Il en va de même pour l’économie, qui échappe à toute analyse marxiste (totalisante) puisqu’il y a des sociétés qui connaissent une absence de dynamique de forces productives et de lutte de classe, justement à cause de leur condition sans État.

Ces considérations devraient être ramenées à nos conditions de sociétés industrielles modernes. Finalement, est-ce que l’histoire des peuples n’est pas une perpétuelle lutte contre l’État, dans ce qu’il a de plus invasif (et je ne parle pas des néolibéraux soit-disant libertaires alors qu’ils doivent tout à l’État) ? La démocratie au sens Athénien n’est-elle pas une forme de lutte contre le pouvoir (l’aristocratie contre la tyrannie) ? la représentativité et le vote ne sont-ils pas une astuce pour déjouer l’émancipation des peuples en instaurant une délégation de pouvoir là où il ne devrait y avoir qu’une fonction ? Si je lis Pierre Clastres, j’en conclu (sans doute assez stupidement) qu’il peut y avoir une fonction publique sans pouvoir, en tout cas, que ce n’est pas impossible.

Ce que montre l’anthropologie anarchiste (et il n’y a pas que l’anthropologie : l’histoire et la géographie sont bien évidemment de la partie) c’est le potentiel de chaque société à lutter contre le pouvoir. La question n’est pas tant de savoir qui propose quelles alternatives, mais de savoir dans quelle mesure il importe de se regrouper dans des mouvements d’opposition et de construction de lieux et d’espaces d’échanges, aussi divers que nécessaires. La surveillance et la centralisation des données confèrent des pouvoirs exorbitants. Et ils le sont tellement que même la recherche du consentement collectif, tacite ou non, en devient superflue (il suffit de manipuler l’opinion, justement grâce aux données collectées, ou de se passer de l’opinion). Qu’il s’agisse de l’État ou des entreprises de l’économie numérique, le combat doit rester le même : ne pas accepter la valorisation lucratives des données personnelles et encore moins leur centralisation par l’État. Les données numériques et l’économie de plateformes confèrent un trop grand pouvoir aux États. Il faut leur opposer un principe négatif à toute forme de surveillance (ce qui ne veut cependant pas dire qu’il ne peut y avoir des consensus ponctuels). C’est une question de survie sociale et il faut l’inscrire dans l’histoire.


Publié le 17.06.2021 à 02:00

Pour une histoire du courtage de données

Les activités des courtiers de données (data brokers) sont assez peu connues du grand public. Pourtant, ces derniers sont situés sur le créneau crucial du marketing, et on peut considérer qu’aucune stratégie marketing rentable ne peut se faire sans la récolte et le traitement de données. Les précieux services que rendent aujourd’hui ces entreprises conditionnent l’activité économique et renforce toujours plus le modèle du capitalisme de surveillance.

Késako ?

Le courtage de données a commencé à se faire connaître du grand public à partir du moment où furent discutées dans les médias les pratiques d’extraction des données personnelles des grandes entreprises du web (les GAFAM en particulier mais pas uniquement). C’est ce que raconte Shoshana Zuboff dans son livre : au début des années 2000, à partir du moment où la pression de l’actionnariat demandait toujours plus de rentabilité à des entreprises comme Google, ces dernières ont vu dans l’extraction et la vente de données comportementales une occasion d’accroître leur rentabilité et de toujours plus innover selon ce modèle économique du service gratuit en échange de nos expériences du quotidien.

En 2016, le rapport de Cracked Lab sur les data brokers fut sans doute l’un des plus éloquents de l’ère post-révélations-Snowden. Au lieu de se concentrer sur le problème déjà bien inquiétant des relations entre les services d’espionnage américains et les entreprises monopolistes du web dans la surveillance mondiale, les membres de Cracked Lab montraient comment certaines entreprises gagnent beaucoup d’argent en monitorant en permanence nos faits et gestes, et s’accaparent une part toujours plus grande de nos intimités numériques sans se soucier vraiment de la régulation imposée par les législations en vigueur.

Un reportage télévisé récent portait justement sur le courtage de données et les passe-droits de ces entreprises, par exemple sur nos données de santé. Ces pratiques sont d’autant plus difficilement interrogeables qu’elles se font en toute discrétion, sans que les individus puissent s’y opposer : il ne s’agit pas d’agir à l’insu des personnes mais bien en aval, auprès des entreprises qui, elles, ont déjà récupéré nos consentements.

On peut surenchérir, après 4 ans d’expérience du RGPD : celui-ci a d’énormes trous dans la raquette. Le RGPD a été initié au départ pour limiter et encadrer les pratiques d’extraction des données personnelles par les entreprises auprès des utilisateurs, mais l’économie du courtage de données a quasiment été laissée de côté, comme si cela ne concernait nos vies privée qu’à la marge. Et pour cause : ce que peuvent faire ces entreprises en matière de profilages et corrélations est non seulement l’un des piliers du paradigme libéral de l’économie comportementale, mais reste aussi avant tout un marché business to business. Or, les innovations en matière de profilage et de travail des données comportementales sont vertigineuses1.

Scoop : rien de nouveau

Si vous me lisez un peu, pas de surprise avec ce que je vais vous dire : c’est pas nouveau. L’idée de récolter et tenir à jour des listes de clientèle est au moins aussi vieille que le commerce. L’idée de les vendre est un peu plus récente mais j’ai ouï-dire (à vérifier) que les banquiers de la Renaissance pratiquaient ce petit commerce (en tout cas, je pense que cela allait de pair avec la possibilité d’utiliser facilement du papier et cela a dû s’accroître avec l’imprimerie).

Tiens, c’est intéressant : on peut partir de l’hypothèse que le commerce des données n’est pas vraiment une innovation, mais que c’est une activité qui a utilisé les innovations pour créer des nouveaux marchés. Ou plutôt une activité basée sur des techniques dont la pratique a initié des marchés. Cette hypothèse peut être mise à l’épreuve avec l’histoire de la révolution informatique de la seconde moitié du XXe siècle.

C’est ce que je montre dans un article qui va bientôt paraître dans la revue Zilsel : le courtage de données a connu une brusque croissance à partir du moment où, grâce aux ordinateurs et aux travaux sur les bases de données relationnelles, on a cherché à automatiser la génération de listes clientèles. C’est cette automatisation qui a permis de passer du prospect publicitaire façon pages jaunes à une révolution fondamentale dans l’histoire du marketing : l’analyse prédictive des données comportementales, géodémographiques et psychographiques.

Alors quand ? exactement au tournant des années 1970. On retient de cette période la seconde révolution informatique que les ordinateurs mainframe ont rendu possible en intégrant les organisations (entreprises comme services publics) pour créer des systèmes d’information. Ce qui se passe alors est très intéressant. Déjà les banques (et sociétés d’évaluation de crédit), sur-équipées par rapport aux autres entreprises, passent du modèle de répertoire/suivi de clientèle à l’évaluation de solvabilité et autres fichages. Les associations de consommateurs aux États-Unis ne seront d’ailleurs pas contentes et provoqueront le vote du Fair Credit Reporting Act en 1970. Même des entreprises qui auparavant n’avaient pas vraiment de rapport avec le crédit bancaire, se mirent à acheter des données justement parce qu’elles étaient en mesure de les traiter. Petit extrait de mon article :

(…) C’est ainsi que l’Union Tank Car Company, spécialisée dans la location de wagons et disposant du matériel informatique suffisant, se lança dans l’évaluation de crédit en créant Trans Union en 1968. Cette dernière mena une politique offensive de rachat d’autres agences et dont l’objectif était de rassembler des millions de fiches consommateurs. En 1972 elle créa CRONUS (Credit Reporting Online Network Utility System), un système d’information de stockage sur bandes et de transfert d’information depuis et vers les guichets locaux. Ce modèle de système d’échange en ligne assurait un gain de temps considérable pour la mise à jour des données consommateurs. Ce ne fut pas le seul exemple. Thompson Ramo Wooldridge Inc. (plus tard nommée TRW), spécialisée dans l’aérospatiale et les composants électroniques (mais agissant en fait dans plusieurs secteurs d’activité dont l’informatique), racheta Credit Data Corporation en 1968 pour se lancer dans l’évaluation de crédit (ce fut en 1996 que le service de TRW devint Experian). Quant à la Retail Credit Company, il s’agissait historiquement de la plus grande agence d’évaluation de crédit des États-Unis. Elle s’informatisa complètement en 1970 mais fut obligée de changer d’image et de nom pour Equifax en 1975, après plus de cinq années d’enquêtes administratives (accompagnées d’auditions à charge) menées sur les pratiques de reporting des agences d’évaluation de crédit et la question de la vie privée.

Étude de cas

Prédire. C’est la question qui taraude l’homme depuis la nuit des temps. Dans un monde incertain, l’économie va mal. Qu’il s’agisse de croyance ou de science, l’économie a un besoin vital d’une rationalité de la vision du monde qui permet de spéculer sur l’avenir plus ou moins proche.

L’économie comportementale a vu ses concepts se développer dans les années 1960. Évidemment, la démarche est ancestrale : on sait depuis longtemps identifier un marché potentiel en fonction d’un contexte, d’une ambiance, d’une culture. C’est même le b.a.ba du bon commerçant. Par contre les avancées scientifiques des disciplines comme la psychologie, la sociologie et l’anthropologie, et même la physique et la biologie, on permis de pousser très loin le curseur de l’analyse comportementale des agents économiques, et tout particulièrement l’analyse des facteurs décisionnels. En agissant sur ces facteurs de manière stratégique et éclairée par les sciences comportementales, la possibilité de conditionner le choix économique (comme celui de l’achat d’un bien) devient une activité marketing redoutable surtout lorsque l’économie est lancée dans une rude dynamique concurrentielle comme ce fut le cas avec l’apparition de la fameuse économie de consommation.

L’étude de cas que je propose concerne les entreprises Acxiom et Claritas Inc.. La première est née sous le nom de Demographics en 1968, la seconde créé en 1972 est connue pour porter le système PRIZM. Ces entreprises démontrent que le capitalisme de surveillance s’inscrit dans une histoire longue qui remonte à bien avant les années 2000 et qui est relative à l’usage des technologies qui ont permis d’automatiser de le travail de la donnée, et donc ont accru la rentabilité de ce travail.

Demographics a commencé comme une entreprise électorale à Conway dans l’Arkansas. Elle est dirigée encore actuellement par certains de ses membres « d’origine », en particulier Charles Morgan, un ancien d’IBM qui y a fait venir ses homologues. Elle fut initiée et fondée par Charles Ward, entrepreneur fort connu de l’Arkansas (et dans le monde), à la tête de la Ward Body Works, aujourd’hui IC Bus, fabriquant des fameux bus jaunes réputés fiables et sécurisés.

À l’occasion de la campagne électorale pour le gouverneur de l’Arkansas, Ward voulait faire profiter le parti démocrate local de son ordinateur (un IBM s/360) afin d’optimiser les démarche de prospect et de publipostage. Il engageait alors le parti démocrate dans une course à un « armement » informatique qui opposait depuis plusieurs années le parti Républicain et le parti Démocrate sur le plan de l’analyse électorale. Il fit venir pour cela Charles Morgan qui fini par imposer à Demographics un modèle de développement typique d’IBM afin d’étendre le modèle économique de l’entreprise au-delà du secteur politique sur le chemin de la haute rentabilité financière. Tout en poursuivant les activités de l’entreprise électorale (qui lui vaudront plus tard d’être un grand ami de Clinton, qui commença dans l’Arkansas) mais en s’émancipant de la Ward, Morgan développa pour cela un système automatisé de traitement de listes de clientèles en réseau afin de proposer ce service business to business basé sur l’exploitation de bases de données enrichies de différentes sources, et l’analyse géodémographique (ce qui avait notamment servi pour l’étude des campagnes électorales).

Outre le fait qu’on validait ainsi l’idée que le marketing s’appliquait aussi bien à la politique qu’au commerce de détail, Demographics montrait aussi qu’en exploitant correctement les technologies à disposition (langages bas niveau pour tirer meilleur parti des machines, passage du stockage de données à l’entrepôt de données, temps partagé et transmission réseau) il était possible de développer une activité économique pour des coûts de développement assez faibles, et basée sur la récupération et l’exploitation astucieuse de données. Parallèlement, un sociologue nommé Jonathan Robbin développait PRIZM (Potential Rating Index for Zip Markets), un système de segmentation et de classification géodémographique des populations croisé avec l’analyse du style de vie (lifestyle). Cet ensemble doit aussi être rapproché des recherches sur les bases de données relationnelles tels les travaux initiés par Edgar Codd en 1970 et toute une communauté de chercheurs avec lui.

Teasing

Bien sûr, ces éléments n’entrent pas en relation par hasard. Pour en comprendre les articulations, il va falloir attendre la publication de mon article (rhooo… ce teasing de malaaade !). Vous devinez néanmoins déjà l’ambition : comprendre comment nous en sommes arrivés à l’acceptation sociale du stéréotypage de nos styles de vie, de l’exploitation de nos données comportementales et des modèles décisionnels, en somme tout ce qui fait qu’aujourd’hui le marketing est non seulement le pilier de l’économie mais concentre aussi l’exploitation lucrative des données personnelles. Comment espérer, dans ce cas, qu’une simple régulation du capitalisme siliconevalléesque puisse résoudre quoi que ce soit, alors que c’est l’ensemble du système économique capitaliste qui se gave de données. Le mieux à faire est de créer des îles et des archipels en dehors de l’exploitation lucrative des données. Tenter d’y échapper.

Greg, Achille Talon, *Pas de pitié pour Achille Talon*, Dargaud, 1976, p.36


  1. Il suffit de lire entre les lignes du discours bullshit qui décrit les produits de l’entreprise Liveramp (qui par ailleurs a fusionné récemment avec Acxiom). Il n’y a rien de secret dans ces pratiques, c’est du business, rien que du business… ↩︎


Publié le 08.05.2021 à 02:00

Les médias sociaux ne sont pas des espaces démocratiques

[Ce billet a été publié sur le Framablog à cette adresse, le 15 mai 2021.]

Lors d’une récente interview avec deux autres framasoftiennes à propos du Fediverse et des réseaux sociaux dits « alternatifs », une question nous fut posée :

dans la mesure où les instances de service de micro-blogging (type Mastodon) ou de vidéo (comme Peertube) peuvent afficher des « lignes éditoriales » très différentes les unes des autres, comment gérer la modération en choisissant de se fédérer ou non avec une instance peuplée de fachos ou comment se comporter vis-à-vis d’une instance communautaire et exclusive qui choisit délibérément de ne pas être fédérée ou très peu ?

De manière assez libérale et pour peu que les conditions d’utilisation du service soient clairement définies dans chaque instance, on peut répondre simplement que la modération demande plus ou moins de travail, que chaque instance est tout à fait libre d’adopter sa propre politique éditoriale, et qu’il s’agit de choix individuels (ceux du propriétaire du serveur qui héberge l’instance) autant que de choix collectifs (si l’hébergeur entretient des relations diplomatiques avec les membres de son instance). C’est une évidence.

La difficulté consistait plutôt à expliquer pourquoi, dans la conception même des logiciels (Mastodon ou Peertube, en l’occurrence) ou dans les clauses de la licence d’utilisation, il n’y a pas de moyen mis en place par l’éditeur du logiciel (Framasoft pour Peertube, par exemple) afin de limiter cette possibilité d’enfermement de communautés d’utilisateurs dans de grandes bulles de filtres en particulier si elles tombent dans l’illégalité. Est-il légitime de faire circuler un logiciel qui permet à #lesgens de se réunir et d’échanger dans un entre-soi homogène tout en prétendant que le Fediverse est un dispositif d’ouverture et d’accès égalitaire ?

Une autre façon de poser la question pourrait être la suivante : comment est-il possible qu’un logiciel libre puisse permettre à des fachos d’ouvrir leurs propres instance de microblogging en déversant impunément sur le réseau leurs flots de haine et de frustrations ?1

Bien sûr nous avons répondu à ces questions, mais à mon avis de manière trop vague. C’est qu’en réalité, il y a plusieurs niveaux de compréhension que je vais tâcher de décrire ici. Il y a trois aspects :

  1. l'éthique du logiciel libre n’inclut pas la destination morale des logiciels libres, tant que la loyauté des usages est respectée, et la première clause des 4 libertés du logiciel libre implique la liberté d’usage : sélectionner les utilisateurs finaux en fonction de leurs orientations politique, sexuelles, etc. contrevient fondamentalement à cette clause…
  2. … mais du point de vue technique, on peut en discuter car la conception du logiciel pourrait permettre de repousser ces limites éthiques2,
  3. et la responsabilité juridique des hébergeurs implique que ces instances fachos sont de toute façon contraintes par l’arsenal juridique adapté ; ce à quoi on pourra toujours rétorquer que cela n’empêche pas les fachos de se réunir dans une cave (mieux : un local poubelle) à l’abri des regards.

Mais est-ce suffisant ? se réfugier derrière une prétendue neutralité de la technique (qui n’est jamais neutre), les limites éthiques ou la loi, ce n’est pas une bonne solution. Il faut se poser la question : que fait-on concrètement non pour interdire certains usages du Fediverse, mais pour en limiter l’impact social négatif ?

La principale réponse, c’est que le modèle économique du Fediverse ne repose pas sur la valorisation lucrative des données, et que se détacher des modèles centralisés implique une remise en question de ce que sont les « réseaux » sociaux. La vocation d’un dispositif technologique comme le Fediverse n’est pas d’éliminer les pensées fascistes et leur expression, pas plus que la vocation des plateformes Twitter et Facebook n’est de diffuser des modèles démocratiques, malgré leur prétention à cet objectif. La démocratie, les échanges d’idées, et de manière générale les interactions sociales ne se décrètent pas par des modèles technologiques, pas plus qu’elles ne s’y résument. Prétendre le contraire serait les restreindre à des modèles et des choix imposés (et on voit bien que la technique ne peut être neutre). Si Facebook, Twitter et consorts ont la prétention d’être les gardiens de la liberté d’expression, c’est bien davantage pour exploiter les données personnelles à des fins lucratives que pour mettre en place un débat démocratique.

Exit le vieux rêve du global village ? En fait, cette vieille idée de Marshall McLuhan ne correspond pas à ce que la plupart des gens en ont retenu. En 1978, lorsque Murray Turoff et Roxanne Hiltz publient The Network Nation, ils conceptualisent vraiment ce qu’on entend par « Communication médiée par ordinateur » : échanges de contenus (volumes et vitesse), communication sociale-émotionnelle (les émoticônes), réduction des distances et isolement, communication synchrone et asynchrone, retombées scientifiques, usages domestiques de la communication en ligne, etc. Récompensés en 1994 par l’EFF Pioneer Award, Murray Turoff et Roxanne Hiltz sont aujourd’hui considérés comme les « parents » des systèmes de forums et de chat massivement utilisés aujourd’hui. Ce qu’on a retenu de leurs travaux, et par la suite des nombreuses applications, c’est que l’avenir du débat démocratique, des processus de décision collective (M. Turoff travaillait pour des institutions publiques) ou de la recherche de consensus, reposent pour l’essentiel sur les technologies de communication. C’est vrai en un sens, mais M. Turoff mettait en garde3 :

Dans la mesure où les communications humaines sont le mécanisme par lequel les valeurs sont transmises, tout changement significatif dans la technologie de cette communication est susceptible de permettre ou même de générer des changements de valeur.

Communiquer avec des ordinateurs, bâtir un système informatisé de communication sociale-émotionnelle ne change pas seulement l’organisation sociale, mais dans la mesure où l’ordinateur se fait de plus en plus le support exclusif des communications (et les prédictions de Turoff s’avéreront très exactes), la communication en réseau fini par déterminer nos valeurs.

Aujourd’hui, communiquer dans un espace unique globalisé, centralisé et ouvert à tous les vents signifie que nous devons nous protéger individuellement contre les atteintes morales et psychiques de celleux qui s’immiscent dans nos échanges. Cela signifie que nos écrits puissent être utilisés et instrumentalisés plus tard à des fins non souhaitées. Cela signifie qu’au lieu du consensus et du débat démocratique nous avons en réalité affaire à des séries de buzz et des cancans. Cela signifie une mise en concurrence farouche entre des contenus discursifs de qualité et de légitimités inégales mais prétendument équivalents, entre une casserole qui braille La donna è mobile et la version Pavarotti, entre une conférence du Collège de France et un historien révisionniste amateur dans sa cuisine, entre des contenus journalistiques et des fake news, entre des débats argumentés et des plateaux-télé nauséabonds.

Tout cela ne relève en aucun cas du consensus et encore moins du débat, mais de l’annulation des chaînes de valeurs (quelles qu’elles soient) au profit d’une mise en concurrence de contenus à des fins lucratives et de captation de l’attention. Le village global est devenu une poubelle globale, et ce n’est pas brillant.

Dans cette perspective, le Fediverse cherche à inverser la tendance. Non par la technologie (le protocole ActivityPub ou autre), mais par le fait qu’il incite à réfléchir sur la manière dont nous voulons conduire nos débats et donc faire circuler l’information.

On pourrait aussi bien affirmer qu’il est normal de se voir fermer les portes (ou du moins être exclu de fait) d’une instance féministe si on est soi-même un homme, ou d’une instance syndicaliste si on est un patron, ou encore d’une instance d’un parti politique si on est d’un autre parti. C’est un comportement tout à fait normal et éminemment social de faire partie d’un groupe d’affinités, avec ses expériences communes, pour parler de ce qui nous regroupe, d’actions, de stratégies ou simplement un partage d’expériences et de subjectivités, sans que ceux qui n’ont pas les mêmes affinités ou subjectivités puissent s’y joindre. De manière ponctuelle on peut se réunir à l’exclusion d’autre groupes, pour en sortir à titre individuel et rejoindre d’autre groupes encore, plus ouverts, tout comme on peut alterner entre l’intimité d’un salon et un hall de gare.

Dans ce texte paru sur le Framablog, A. Mansoux et R. R. Abbing montrent que le Fediverse est une critique de l’ouverture. Ils ont raison. Là où les médias sociaux centralisés impliquaient une ouverture en faveur d’une croissance lucrative du nombre d’utilisateurs, le Fediverse se fout royalement de ce nombre, pourvu qu’il puisse mettre en place des chaînes de confiance.

Un premier mouvement d’approche consiste à se débarrasser d’une conception complètement biaisée d’Internet qui fait passer cet ensemble de réseaux pour une sorte de substrat technique sur lequel poussent des services ouverts aux publics de manière égalitaire. Évidemment ce n’est pas le cas, et surtout parce que les réseaux ne se ressemblent pas, certains sont privés et chiffrés (surtout dans les milieux professionnels), d’autres restreints, d’autres plus ouverts ou complètement ouverts. Tous dépendent de protocoles bien différents. Et concernant les médias sociaux, il n’y a aucune raison pour qu’une solution technique soit conçue pour empêcher la première forme de modération, à savoir le choix des utilisateurs. Dans la mesure où c’est le propriétaire de l’instance (du serveur) qui reste in fine responsable des contenus, il est bien normal qu’il puisse maîtriser l’effort de modération qui lui incombe. Depuis les années 1980 et les groupes usenet, les réseaux sociaux se sont toujours définis selon des groupes d’affinités et des règles de modération clairement énoncées.

À l’inverse, avec des conditions générales d’utilisation le plus souvent obscures ou déloyales, les services centralisés tels Twitter, Youtube ou Facebook ont un modèle économique tel qu’il leur est nécessaire de drainer un maximum d’utilisateurs. En déléguant le choix de filtrage à chaque utilisateur, ces médias sociaux ont proposé une représentation faussée de leurs services :

  1. Faire croire que c’est à chaque utilisateur de choisir les contenus qu’il veut voir alors que le système repose sur l’économie de l’attention et donc sur la multiplication de contenus marchands (la publicité) et la mise en concurrence de contenus censés capter l’attention. Ces contenus sont ceux qui totalisent plus ou moins d’audience selon les orientations initiales de l’utilisateur. Ainsi on se voit proposer des contenus qui ne correspondent pas forcément à nos goûts mais qui captent notre attention parce de leur nature attrayante ou choquante provoquent des émotions.
  2. Faire croire qu’ils sont des espaces démocratiques. Ils réduisent la démocratie à la seule idée d’expression libre de chacun (lorsque Trump s’est fait virer de Facebook les politiques se sont sentis outragés… comme si Facebook était un espace public, alors qu’il s’agit d’une entreprise privée).

Les médias sociaux mainstream sont tout sauf des espaces où serait censée s’exercer la démocratie bien qu’ils aient été considérés comme tels, dans une sorte de confusion entre le brouhaha débridé des contenus et la liberté d’expression. Lors du « printemps arabe » de 2010, par exemple, on peut dire que les révoltes ont beaucoup reposé sur la capacité des réseaux sociaux à faire circuler l’information. Mais il a suffi aux gouvernements de censurer les accès à ces services centralisés pour brider les révolutions. Ils se servent encore aujourd’hui de cette censure pour mener des négociations diplomatiques qui tantôt cherchent à attirer l’attention pour obtenir des avantages auprès des puissances hégémoniques tout en prenant la « démocratie » en otage, et tantôt obligent les GAFAM à se plier à la censure tout en facilitant la répression. La collaboration est le sport collectif des GAFAM. En Turquie, Amnesty International s’en inquiète et les exemples concrets ne manquent pas comme au Vietnam récemment.

Si les médias sociaux comme Twitter et Facebook sont devenus des leviers politiques, c’est justement parce qu’ils se sont présentés comme des supports technologiques à la démocratie. Car tout dépend aussi de ce qu’on entend par « démocratie ». Un mot largement privé de son sens initial comme le montre si bien F. Dupuis-Déri4. Toujours est-il que, de manière très réductrice, on tient pour acquis qu’une démocratie s’exerce selon deux conditions : que l’information circule et que le débat public soit possible.

Même en réduisant la démocratie au schéma techno-structurel que lui imposent les acteurs hégémoniques des médias sociaux, la question est de savoir s’il permettent la conjonction de ces conditions. La réponse est non. Ce n’est pas leur raison d’être.

Alors qu’Internet et le Web ont été élaborés au départ pour être des dispositifs égalitaires en émission et réception de pair à pair, la centralisation des accès soumet l’émission aux conditions de l’hébergeur du service. Là où ce dernier pourrait se contenter d’un modèle marchand basique consistant à faire payer l’accès et relayer à l’aveugle les contenus (ce que fait La Poste, encadrée par la loi sur les postes et télécommunications), la salubrité et la fiabilité du service sont fragilisés par la responsabilisation de l’hébergeur par rapport à ces contenus et la nécessité pour l’hébergeur à adopter un modèle économique de rentabilité qui repose sur la captation des données des utilisateurs à des fins de marketing pour prétendre à une prétendue gratuité du service5. Cela implique que les contenus échangés ne sont et ne seront jamais indépendants de toute forme de censure unilatéralement décidée (quoi qu’en pensent les politiques qui entendent légiférer sur l’emploi des dispositifs qui relèveront toujours de la propriété privée), et jamais indépendants des impératifs financiers qui justifient l’économie de surveillance, les atteintes à notre vie privée et le formatage comportemental qui en découlent.

Paradoxalement, le rêve d’un espace public ouvert est tout aussi inatteignable pour les médias sociaux dits « alternatifs », où pour des raisons de responsabilité légale et de choix de politique éditoriale, chaque instance met en place des règles de modération qui pourront toujours être considérées par les utilisateurs comme abusives ou au moins discutables. La différence, c’est que sur des réseaux comme le Fediverse (ou les instances usenet qui reposent sur NNTP), le modèle économique n’est pas celui de l’exploitation lucrative des données et n’enferme pas l’utilisateur sur une instance en particulier. Il est aussi possible d’ouvrir sa propre instance à soi, être le seul utilisateur, et néanmoins se fédérer avec les autres.

De même sur chaque instance, les règles d’usage pourraient être discutées à tout moment entre les utilisateurs et les responsables de l’instance, de manière à créer des consensus. En somme, le Fediverse permet le débat, même s’il est restreint à une communauté d’utilisateurs, là où la centralisation ne fait qu’imposer un état de fait tout en tâchant d’y soumettre le plus grand nombre. Mais dans un pays comme le Vietnam où l’essentiel du trafic Internet passe par Facebook, les utilisateurs ont-ils vraiment le choix ?

Ce sont bien la centralisation et l’exploitation des données qui font des réseaux sociaux comme Facebook, YouTube et Twitter des instruments extrêmement sensibles à la censure d’État, au service des gouvernements totalitaires, et parties prenantes du fascisme néolibéral.

L’affaire Cambridge Analytica a bien montré combien le débat démocratique sur les médias sociaux relève de l’imaginaire, au contraire fortement soumis aux effets de fragmentation discursive. Avant de nous demander quelles idéologies elles permettent de véhiculer nous devons interroger l’idéologie des GAFAM. Ce que je soutiens, c’est que la structure même des services des GAFAM ne permet de véhiculer vers les masses que des idéologies qui correspondent à leurs modèles économiques, c’est-à-dire compatibles avec le profit néolibéral.

En reprenant des méthodes d’analyse des années 1970-80, le marketing psychographique et la socio-démographie6, Cambridge Analytica illustre parfaitement les trente dernières années de perfectionnement de l’analyse des données comportementales des individus en utilisant le big data. Ce qui intéresse le marketing, ce ne sont plus les causes, les déterminants des choix des individus, mais la possibilité de prédire ces choix, peu importent les causes. La différence, c’est que lorsqu’on applique ces principes, on segmente la population par stéréotypage dont la granularité est d’autant plus fine que vous disposez d’un maximum de données. Si vous voulez influencer une décision, dans un milieu où il est possible à la fois de pomper des données et d’en injecter (dans les médias sociaux, donc), il suffit de voir quels sont les paramètres à changer. À l’échelle de millions d’individus, changer le cours d’une élection présidentielle devient tout à fait possible derrière un écran.

C’est la raison pour laquelle les politiques du moment ont surréagi face au bannissement de Trump des plateformes comme Twitter et Facebook (voir ici ou ). Si ces plateformes ont le pouvoir de faire taire le président des États-Unis, c’est que leur capacité de caisse de résonance accrédite l’idée qu’elles sont les principaux espaces médiatiques réellement utiles aux démarches électoralistes. En effet, nulle part ailleurs il n’est possible de s’adresser en masse, simultanément et de manière segmentée (ciblée) aux populations. Ce faisant, le discours politique ne s’adresse plus à des groupes d’affinité (un parti parle à ses sympathisants), il ne cherche pas le consensus dans un espace censé servir d’agora géante où aurait lieu le débat public. Rien de tout cela. Le discours politique s’adresse désormais et en permanence à chaque segment électoral de manière assez fragmentée pour que chacun puisse y trouver ce qu’il désire, orienter et conforter ses choix en fonction de ce que les algorithmes qui scandent les contenus pourront présenter (ou pas). Dans cette dynamique, seul un trumpisme ultra-libéral pourra triompher, nulle place pour un débat démocratique, seules triomphent les polémiques, la démagogie réactionnaire et ce que les gauches ont tant de mal à identifier7 : le fascisme.

Face à cela, et sans préjuger de ce qu’il deviendra, le Fediverse propose une porte de sortie sans toutefois remettre au goût du jour les vieilles représentations du village global. J’aime à le voir comme une multiplication d’espaces (d’instances) plus où moins clos (ou plus ou moins ouverts, c’est selon) mais fortement identifiés et qui s’affirment les uns par rapport aux autres, dans leurs différences ou leurs ressemblances, en somme dans leurs diversités.

C’est justement cette diversité qui est à la base du débat et de la recherche de consensus, mais sans en constituer l’alpha et l’oméga. Les instances du Fediverse, sont des espaces communs d’immeubles qui communiquent entre eux, ou pas, ni plus ni moins. Ils sont des lieux où l’on se regroupe et où peuvent se bâtir des collectifs éphémères ou non. Ils sont les supports utilitaires où des pratiques d’interlocution non-concurrentielles peuvent s’accomplir et s’inventer : microblog, blog, organiseur d’événement, partage de vidéo, partage de contenus audio, et toute application dont l’objectif consiste à outiller la liberté d’expression et non la remplacer.

Angélisme ? Peut-être. En tout cas, c’est ma manière de voir le Fediverse aujourd’hui. L’avenir nous dira ce que les utilisateurs en feront.

Notes


  1. On peut se référer au passage de la plateforme suprémaciste Gab aux réseaux du Fediverse, mais qui finalement fut bloquée par la plupart des instances du réseau. ↩︎

  2. Par exemple, sans remplacer les outils de modération par du machine learning plus ou moins efficace, on peut rendre visible davantage les procédures de reports de contenus haineux, mais à condition d’avoir une équipe de modérateurs prête à réceptionner le flux : les limites deviennent humaines. ↩︎

  3. Turoff, Murray, and Starr Roxane Hiltz. 1994. The Network Nation: Human Communication via Computer. Cambridge: MIT Press, p. 401. ↩︎

  4. Dupuis-Déri, Francis. Démocratie, histoire politique d’un mot: aux États-Unis et en France. Montréal (Québec), Canada: Lux, 2013. ↩︎

  5. Et même si le service était payant, l’adhésion supposerait un consentement autrement plus poussé à l’exploitation des données personnelles sous prétexte d’une qualité de service et d’un meilleur ciblage marketing ou de propagande. Pire encore s’il disposait d’une offre premium ou de niveaux d’abonnements qui segmenteraient encore davantage les utilisateurs. ↩︎

  6. J’en parlerai dans un article à venir au sujet du courtage de données et de la société Acxiom. ↩︎

  7. …pas faute d’en connaître les symptômes depuis longtemps. Comme ce texte de Jacques Ellul paru dans la revue Esprit en 1937, intitulé « Le fascisme fils du libéralisme », dont voici un extrait : « [Le fascisme] s’adresse au sentiment et non à l’intelligence, il n’est pas un effort vers un ordre réel mais vers un ordre fictif de la réalité. Il est précédé par tout un courant de tendances vers le fascisme : dans tous les pays nous retrouvons ces mesures de police et de violence, ce désir de restreindre les droits du parlement au profit du gouvernement, décrets-lois et pleins pouvoirs, affolement systématique obtenu par une lente pression des journaux sur la mentalité courante, attaques contre tout ce qui est pensée dissidente et expression de cette pensée, limitation de liberté de parole et de droit de réunion, restriction du droit de grève et de manifester, etc. Toutes ces mesures de fait constituent déjà le fascisme. ». ↩︎


Publié le 15.04.2021 à 02:00

Contrôler les assistés

Contrôler les assistés s’est imposé à partir des années 1990 en France comme un mot d’ordre politique, bureaucratique et moral. Jamais les bénéficiaires d’aides sociales, et parmi eux les plus précaires, n’avaient été aussi rigoureusement surveillés, ni leurs illégalismes ou leurs erreurs si sévèrement sanctionnés. Ce renforcement du contrôle n’est cependant pas réductible à des préoccupations financières. Ainsi, moins sévèrement réprimés, l’évasion fiscale ou les défauts de paiement des cotisations sociales par les employeurs atteignent des montants sans commune mesure avec ceux qui concernent les erreurs ou abus des bénéficiaires d’aides sociales, traqués sans relâche.

Un mécanisme implacable à plusieurs facettes sous-tend cette spirale rigoriste à l’égard des assistés : des leaders politiques qui pourfendent la fraude sociale et qui parviennent à stigmatiser leurs contradicteurs comme naïfs ou complices ; des administrations qui surenchérissent dans des technologies de contrôle toujours plus performantes ; une division du travail bureaucratique qui déréalise et déshumanise le traitement des cas ; le fonctionnement interne de commissions où la clémence est toujours plus difficile à défendre que la sévérité ; le point d’honneur professionnel du contrôleur de la caisse locale qui traque la moindre erreur au nom de l’exactitude des dossiers.

Au nom de la responsabilisation individuelle, de la lutte contre l’abus, de la maîtrise des dépenses, un service public fondamental qui vise à garantir des conditions de vie dignes à tous les citoyens contribue désormais à un gouvernement néopaternaliste des conduites qui stigmatise et précarise les plus faibles.


Dubois, Vincent. Contrôler les assistés. Genèses et usages d’un mot d’ordre. Raisons d’Agir, 2021.

Lien vers le site de l’éditeur : https://www.raisonsdagir-editions.org/catalogue/controler-les-assistes/



Publié le 11.04.2021 à 02:00

Lettres et articles avec Zettlr ou Pandoc

Utiliser le célèbre convertisseur de document pandoc signifie manier (un tout petit peu) la ligne de commande. Rien de sorcier, pour peu d’être assez ouvert d’esprit pour comprendre qu’en matière de traitement de texte tout n’est pas censé se régler au clic de souris. Cela dit, le logiciel Zettlr permettent de s’affranchir de la ligne de commande tout en utilisant la puissance de pandoc. Zettlr propose une interface optimale pour écrire du texte en markdown et exporter dans différents formats. Il suffit d’aller voir dans les préférences avancées de Zettlr pour constater que ce dernier utilise une sorte de ligne de commande universelle avec pandoc pour réaliser ses exports. Pour ce qui concerne l’export en PDF, Zettlr utilise aussi LaTeX qu’il faudra installer sur la machine au préalable, tout comme pandoc.

J’ai écrit un petit billet sur Zettlr. Vous pouvez aller le lire pour mieux comprendre ce que je vais raconter ci-dessous.

Si vous n’avez pas envie de lire ce billet et souhaitez directement vous servir des modèles que je propose, vous trouverez l’ensemble sur ce dépôt GIT. Il y a un fichier README suffisant.

Pandoc et LaTeX

Qu’en est-il de la mise en page ? C’est là que les avantages combinés de pandoc et de LaTeX entrent en jeu : il est possible, en quelque sorte, de « programmer » la mise en page en élaborant des modèles qui utilisent différentes variables renseignées dans le fichier source en markdown. Bien entendu, on peut créer des modèles pour tout type d’export avec pandoc et d’ailleurs ce dernier utilise une batterie de modèles par défaut, mais ces derniers ne sont pas toujours adaptés à la sortie finale : qu’on utilise Zettlr ou non (ou n’importe quel éditeur de texte), il faut savoir compléter son fichier markdown avec des informations destinées à être taitées par pandoc.

Pour information, si pandoc s’utilise en ligne de commande, c’est parce qu’il y a toute une batterie d’options et de commandes que pandoc est capable d’exécuter. Pour éviter de les entrer systématiquement en ligne de commande, on peut les indiquer simplement dans l’en-tête du fichier markdown (ou dans un fichier séparé). Pour mieux comprendre de quoi il s’agit, vous pouvez vous reporter à ce document.

Pour donner un exemple trivial : si vous voulez que votre document markdown une fois exporté comporte un titre, un nom d’auteur et une date, il vous suffit de les indiquer de cette manière dans l’en-tête au début du document (on les appellera des « métadonnées ») :

``
% Le titre
% Prénom Nom
% 17/02/2021
``

Ou bien, en utilisant le format YAML :

``
---
title: "Le titre"
date: "17 février 2021"
author: "Prénom Nom"
...

``

Ainsi, pandoc les interprétera et, en utilisant un modèle par défaut ou un modèle de votre cru, reportera ces variables aux emplacements voulus dans la mise en page.

Si vous voulez écrire un article académique et le sortir en PDF en utilisant pandoc qui lui-même utilisera LaTeX, il vous faut donc réunir les éléments suivants :

  • un modèle LaTeX (ou se contenter des modèles LaTEX par défaut de pandoc),
  • des métadonnées à entrer après s’être bien renseigné sur la manuel d’utilisation de pandoc,
  • un fichier de bibliographie,
  • un fichier de style de présentation de la bibliographie.

En comptant les options courantes de pandoc que vous souhaitez utiliser, vous risquez de vous retrouver avec une ligne de commande assez longue… pour éviter cela, vous pouvez automatiser le tout avec un makefile que vous pourrez réutiliser plus tard pour d’autres documents, mais bigre… cela commence à devenir bien complexe pour qui n’a pas forcément envie d’y passer trop de temps, à moins de concevoir une fois pour toute une chaîne éditoriale que vous adapterez au fil du temps (c’est une option).

Zettlr et les modèles

Un grand avantage de Zettlr est de vous décharger de plusieurs de ces contraintes, en plus d’offrir une interface vraiment pratique entièrement destinée à l’écriture. Pour réaliser des exports, il vous faudra seulement installer pandoc. Et pour réaliser des exports PDF, il vous faudra installer LaTeX (je préconise une installation complète, par exemple Texlive-full).

Le fichier et le style CSL de bibliographie ? il vous suffit de les renseigner dans les préférences de Zettlr une fois pour toutes.

Le modèle de sortie PDF ? idem, vous le renseignez dans les préférences d’export PDF.

Et pour exporter ? il vous suffira de cliquer sur l’icône PDF.

Tout cela demeure assez simple, sauf que si vous rédigez un article sans chercher à travailler la question des métadonnées, votre sortie PDF risque de vous décevoir : pandoc utilisera le modèle par défaut, c’est-à-dire la classe [article]de LaTeX, qui en soi est une excellente mise en page, mais ne colle pas forcément à vos souhaits.

Réaliser des modèles pour pandoc est chose assez facile. En effet, si vous comprenez des notions informatiques basiques comme « pour…si…ou…alors », la syntaxe des modèles pandoc ne posera guère de problème. Il faudra néanmoins maîtriser LaTeX si vous voulez créer un modèle LaTeX.

Mes modèles article, rapport et lettre

Pour vous éviter d’y passer trop de temps, je vous propose d’utiliser mes modèles élaboré pour des articles, des rapports ou des lettres simples.

J’ai pris le parti de réaliser un modèle LaTeX destiné à chaque fois à la sortie voulue, là où le modèle pandoc par défaut permet de créer un article, une présentation ou un livre en indiquant simplement la classe voulue. Ce modèle par défaut inclu donc de nombreuses variables mais à trop vouloir être généraliste, je pense qu’on loupe l’essentiel.

Pour utiliser mes modèles, il vous suffit de réutiliser les fichiers markdown renseigner les différents éléments présents dans les en-têtes YAML de ces fichiers. Si vous voulez modifier les modèles eux-mêmes, il vous suffit de les éditer : j’ai tâché de commenter et de bien séparer les éléments importants.

Ces modèles utilisent KOMA-script, la classe scrartcl pour les article, scrreprt pour les rapports et scrlttr2 pour les lettres. Si vous connaissez LaTeX, vous comprendrez que KOMA-script est un excellent choix pour des documents européens (il fut créé au départ pour des documents de langue allemande, mais il fut rapidement adapté à différentes pratiques d’écriture, dont le Français).

Pour résumer très simplement :

  • si vous écrivez une lettre, renseignez dans Zettlr le chemin vers le modèle dans les préférences d’export PDF,
  • si vous écrivez un article ou un rapport, renseignez dans Zettlr le chemin vers le modèle dans les préférences d’export PDF et notez que le modèle utilise les styles CSL pour la bibliographie (pas de biblatex ou de natbib, donc),
  • si vous ne voulez pas utiliser Zettlr, et uniquement pandoc, je vous ai indiqué dans le README les lignes de commande à utiliser (ce sont celles qu’utilise Zettlr, en fait).

Vous trouverez l’ensemble sur ce dépôt GIT.


Publié le 06.03.2021 à 01:00

Parcours VTT. Grendelbruch-Hohwald

Voilà très longtemps que je n’avais pas proposé sur ce blog un bon vieux parcours VTT. Celui-ci a un objectif particulier : après quelques sorties de remise en jambes après l’hiver, un parcours long de dénivelé moyen permet de travailler foncièrement l’endurance. Le parcours ne présente aucune difficulté particulière du point de vue de la technique de pilotage. Quelques singles viendront briser la monotonie et il n’y a que deux passages où le portage du vélo sur 10 mètres sera nécessaire (outre les éventuelles grumes, mais de cela nous sommes habitués).

Caractéristiques du parcours

  • 50 kilomètres
  • 980 à 1000 mètres de dénivelé positif.

Regardez le tracé de près avant de partir pour ne pas être surpris : certaines directions peuvent prêter à confusion et tous les chemins empruntés ne sont pas balisés par le Club Vosgien.

Descriptif

Au départ de Grendelbruch (parking de l’église) nous démarrons (déjà) à 530 m d’altitude. En guise d’échauffement, un peu de bitume pour monter en direction de la Nécropole puis le col du Bruchberg. Là je préconise encore un peu de bitume (si vous prenez les rectangles jaunes dans l’enclos à vaches, à moins d’être en plein été et au sec, vous allez galérer entres les bouses et la boue, dès le début du parcours…). Nous enchaînons la montée sur le Shelmeck puis tour du Hohbuhl jusqu’au col de Birleylaeger.

Nous rejoignons le col de Franzluhr pour prendre les croix bleues jusque la Rothlach (953 m), sans se poser de question. Chemin large (sauf une petite variante à ne pas louper en single, regardez la trace de près). Une fois à la Rothlach, nous prenons la route forestière (GR 531), puis bifurcation sur la Vieille Métairie. On enchaîne alors la montée vers le Champ du Feu (1098 m).

Nous changeons alors de versant en passant par le Col de la Charbonnière afin de rejoindre (croix jaunes puis cercles rouges puis de nouveau croix jaunes) le Col du Kreuzweg (sur le chemin, joli point de vue sur Breitenbach). Puis poursuite des croix jaunes pour monter sur la Grande Bellevue. Là, une pause en profitant de la vue et du soleil s’il y en a !

Il est temps alors de commencer à descendre vers le Hohwald par un sympatique sentier (variante GR balisage rouge et blanc, ou ronds jaunes). Une fois au Hohwald, on commence la montée vers Welschbruch via le GR 5, et enchaînement (croix jaunes) sur la montée vers la Rothlach (sentier).

Il est temps d’amorcer le chemin de retour. Pour cela, depuis la Rothlach, on emprunte un chemin forestier pour rejoindre le GR 5, et après un passage amusant on rejoint le Champ du Messin. Encore un sentier de descente vers le Col de Franzluhr. On reprend en sens inverse le chemin vers le col de Birleylaeger. Bifurcation sur le Hohbuhl puis grande descente du Shelmeck. On termine alors par le tour du Bruchberg (attention, une partie du chemin non balisé en single) et retour vers le centre de Grendelbruch.

Avis

Comme on peut le constater, mis à part quelques singles amusants le parcours s’apparente à une promenade plutôt longue avec un faible dénivelé (compte-tenu de la longueur). Tout se joue sur l’endurance et la possibilité, surtout dans la seconde partie du parcours, de pousser un peu la machine pour rentrer plus vite.

Pour affronter les deux montées finales vers Welschbruch et la Rothlach, aussi amusantes qu’elles soient sur des singles (qu’habituellement on descend, n’est-ce pas ?), vous devrez vous obliger à bien doser votre effort dans la première partie. Il faut garder du coffre pour réaliser presque autant de dénivelé que la premmière partie en deux fois moins de longueur de parcours.

Une variante si vous êtes en mal de descente rapide (je ne parle pas de DH, hein?), consiste à couper directement du Champ du feu (GR 5 via la cascade) ou de la vieille Métairie (triangles rouges) vers le Hohwald. Ces sentiers sont connus et forts sympathiques à descendre, en revanche on ampute très largement ce parcours.

Bonne rando !

P.S.: pour récupérer les données du parcours, dans la carte ci-dessous : cliquez sur la petite flèche du menu de gauche, puis sur « exporter et partager la carte ». Puis dans al section « Télécharger les données », sélectionnez le format voulu et téléchargez.

Voir en plein écran


Publié le 09.02.2021 à 01:00

Red Mirror

La Chine a longtemps été considérée comme « l’usine du monde » fabriquant pour l’Occident, grâce à sa main d’oeuvre surexploitée, les biens de consommation puis les objets technologiques conçus dans la Silicon Valley.

Cette période est révolue : en développant massivement recherche, éducation et investissements, la Chine est devenue leader dans le domaine des technologies. Intelligence artificielle, villes intelligentes, paiement via les smartphones, surveillance et reconnaissance faciale sont déjà des réalités de l’autre côté de la Grande muraille numérique.

L’avenir s’écrit dorénavant en Chine. Mais quel avenir ?

Les stratégies géopolitiques de Xi Jinping, l’organisation du contrôle social et l’acceptation confucéenne de la surveillance personnalisée par le plus grand nombre sont le moteur de ce développement à marche forcée. Et ouvre la porte d’un monde qui ressemble déjà à la série dystopique dont s’inspire le titre de cet ouvrage.

Un regard lucide sur la place du numérique dans la Chine d’aujourd’hui, écrit par un journaliste qui y a vécu longtemps et qui continue de suivre les évolutions rapides des industries de pointe. Alors que les équilibres mondiaux changent, le récit de Simone Pieranni donne des clés essentielles pour comprendre la nouvelle situation.


Pieranni, Simone. Red Mirror. L’avenir s’écrit en Chine. CF Editions, 2021.

Lien vers le site de l’éditeur : https://cfeditions.com/red-mirror/



Publié le 01.02.2021 à 01:00

Loi sécurité globale : analyse

La proposition de loi « Sécurité globale » fut déposée en octobre 2020 par deux députés du mouvement La République en Marche, Alice Thourot et Jean-Michel Fauvergue. Elle fut adoptée le 24 novembre 2020 par l’Assemblée Nationale. Le texte tout entier relève d’une volonté d’appliquer une idéologie extrêmiste et sécuritaire, opposée aux libertés comme aux principes fondamentaux de la justice. Cette idéologie conçoit le citoyen comme une menace et redéfini la démocratie dans ce que permet ou ne permet pas le pouvoir de la technopolice. L’un de ses piliers est un marché des technologies et du travail de la surveillance. Ce film de Karine Parrot et Stéphane Elmadjian en propose une analyse critique et pertinente.

Sept juristes décryptent la loi Sécurité Globale

— Synopsis —

Novembre 2020. L’état d’urgence sanitaire est en vigueur. La population française est confinée, nul ne peut sortir de chez soi, sauf dans quelques cas « dérogatoires » et moyennant une attestation. C’est précisément ce moment hors du commun que le gouvernement choisit pour faire adopter – suivant la procédure d’urgence – une loi sur « la sécurité globale » qui vient accroître les dispositifs de contrôle et de surveillance.

Que signifie cette idée de « sécurité globale » et d’où vient-elle ? Quels sont les nouveaux systèmes de surveillance envisagés ? Qu’est-ce que le continuum de sécurité ? Que révèle le processus parlementaire d’adoption de la loi ? Pourquoi la liberté d’opinion est-elle menacée ?

Ce film croise les points de vue de sept universitaires, chercheuses et chercheurs en droit, spécialistes du droit pénal, de politique criminelle, des données personnelles et de l’espace public. Interrogées sur cette proposition de loi « Sécurité globale », ils et elles décryptent les dispositifs techno-policiers prévus par le texte et, au-delà, le projet politique qu’il recèle.


Publié le 10.01.2021 à 01:00

Un ordi par lycéen : la surenchère inutile

Dans un élan qui s’accentue de plus en plus depuis 2010, les Régions de France distribuent en masse des ordinateurs portables à tous les lycéens. « Lycée 4.0 » dans la Région Grand Est, « Lordi en Occitanie », « virage numérique » des lycées en Île de France, etc. Tout cela vient s’ajouter à la longue liste de projets plus ou moins aboutis des instances territoriales qui distribuent tablettes et ordinateurs portables avec une efficacité pédagogique fort discutable. Tout porte à croire que l’enjeu consiste surtout à verser dans la surenchère où la présence d’ordinateurs portables sur les tables reflète une image obsolète de l’école du futur, tout en faisant entrer dans les établissements scolaires certains modèles économiques des technologies numériques.

Il serait facile de rapprocher ces projets d’autres initiatives, plus anciennes, de production d’ordinateurs portables à très bas prix afin de permettre leur distribution dans des pays en développement (par exemple, le projet OLPC). Cependant les ambitions affichées par les Régions sont assez floues quant aux objectifs réellement poursuivis. Souvent employé, l’argument de la réduction de la « fracture numérique » n’est pas le plus évident car il s’agit avant tout d’élire des projets de « lycées connectés » et de faciliter les apprentissages des lycéens là où la plupart disposent déjà d’équipements informatiques. Par exemple, si le projet Lordi en Occitanie consistait en première intention à faciliter l’achat d’un ordinateur portable pour les familles, il s’est transformé en distribution générale pour tous les lycéens de la Région. C’est donc bien une transformation des modalités pratiques des enseignements qui est visée, en faisant de l’ordinateur une recette miracle d’optimisation du rendement scolaire.

Qu’est-ce qui chiffonne ?

On sait depuis longtemps qu’un apprentissage de niveau primaire ou secondaire n’est pas plus efficace avec ou sans ordinateur (ou tablette). Il y a en effet une grande différence entre un apprentissage de l’ordinateur (la programmation et les techniques) ou aux outils de communication numériques, et l’apprentissage avec l’ordinateur, ce qui suppose d’en avoir déjà une grande expertise, ce qui est loin d’être le cas (j’y reviens plus loin).

La politique se résume souvent à bien peu de choses. Ces derniers temps, montrer qu’on s’occupe de la jeunesse revenait essentiellement à distribuer des tablettes et des ordinateurs portables par brouettes : limiter la « fracture numérique », favoriser « l’égalité d’accès au digital », « projet ambitieux » pour « accompagner l’avenir » des jeunes… tout un appareillage lexical fait de périphrases abscondes qu’on qualifiera surtout de condescendantes.

En fait, ce qui est vraiment moisi, dans cette affaire, ce n’est pas le gaspillage d’argent (qui pourrait être bien mieux employé si ce genre de politique était au moins concertée avec les enseignants), non, c’est l’impact environnemental et cognitif de ces opérations. Les prémisses sont d’une part les technologies choisies (du matériel très moyen qui ne tient pas la durée) et d’autre part l’acculturation aux produits Microsoft (qui empêche l’entretien durable des machines en favorisant la passivité face aux logiciels).

Culture du jetable

Concernant les choix technologiques, c’est toujours la même histoire. Les logiques d’appel d’offre obligent les institutions publiques à effectuer des choix toujours très contraints. Et bien souvent dans ces cas là, bien que l’expertise soit menée par des personnes très compétentes, la décision revient à des politiques qui, lorsqu’ils ne sont pas parfaitement embobinés par les lobbies, ne mesurent les conséquences de leurs actions qu’en fonction du degré de satisfaction de leur électorat. Et comme aujourd’hui l’électorat est soit vieux, soit réac., soit facho1, autant dire que le plus important est de prendre une belle photo avec des jeunes en classe, leurs ordinateurs portables ouverts et bien attentifs à ce que dit le prof… (non, pardon : l’élu qui est venu faire une conférence de presse).

En matière de choix, disais-je, les ordinateurs des Régions finiront exactement comme les tablettes des lycées « pionniers » des années 2010 : au fond des tiroirs. Le premier sas vers la poubelle. Car en matière de filière de recyclage pour les matériaux de nos petites merveilles numériques, c’est zéro ou presque rien. Tout au plus quelques associations recyclent des machines pour en équiper les plus pauvres. Elles accompagnent d’ailleurs ces actions avec une vraie formation aux outils numériques, et font preuve de bien plus d’utilité publique que les plans Région dont nous parlons ici. Mais à part ces actions, je me demande encore comment vont terminer les centaines de milliers d’ordinateurs des lycéens dans quatre ou cinq ans.

Sans parler du fait que nous brûlons nos crédits écologiques tout en favorisant des économie minières inégalitaires et des guerres en sur-consommant des dispositifs numériques dans nos pays industrialisés. Quelle est la qualité des appareils fournis par les plans Région ? sont-ils assez évolués pour être plus durables que ce qu’on trouve habituellement dans le commerce bon marché ?

Même pas. Des machines qui atteignent péniblement 4Go de Ram, des matériaux de qualité moyenne, avec des périphériques moyens… Ce n’est pas tellement que les Régions fournissent des machines bas de gamme aux lycéens : elles leur confient des machines qui fonctionnent… mais ne tiendront jamais la distance.

En Région Grand Est à la rentrée 2020, les lycéens en classe de Seconde ont reçu des ordinateurs HP 240 G7, processeur Intel Celeron N4000, 4 Go de Ram, 128 Go SSD. Il faut envisager leur état dans trois ans, à la fin du lycée, par exemple, lorsque les usages deviendront plus sérieux. Sans parler du boîtier en plastique qui montre très vite des signes de faiblesse chez tous les élèves (et pas seulement les moins soigneux). Ajoutons de même que la question ne se pose pas seulement dans le Grand Est : en Île de France, outre les problème de gestion, la qualité des dispositifs n’est clairement pas au rendez-vous (voir cet article du Parisien du 11/01/2021). Hé oui, amis décideurs : si c’est pas cher, parfois c’est qu’il y a un lièvre (dans cette petite vidéo, vous avez au début un petit florilège).

Microsoft obligatoire

Bien sûr ce type de machine a une configuration matérielle largement suffisante pour une distribution GNU/Linux (la vidéo que je mentionne ci-dessus montre comment installer ElementaryOS sur ces ordinateurs). Avec un tel système d’exploitation, on pourrait envisager l’avenir de la machine de manière beaucoup plus sereine (je ne parle pas du boîtier, cela dit). Mais voilà : installer GNU/Linux apporte plus de confort et de fiabilité, mais rien n’est fait pour que les lycéens puissent l’utiliser.

En effet, deux obstacles de taille s’opposent à l’emploi d’un système libre.

Le premier c’est la connexion au Wifi des lycées : aucune autre procédure de connexion ne semble être disponible dans la Région Grand Est, à part sous Windows. J’ignore ce qu’il en est dans les autres Régions. C’est un obstacle tout à fait surmontable, à condition de développer les bons petits scripts qui vont bien et accompagner les lycéens dans l’utilisation de GNU/Linux. Mais cela implique une vraie volonté politique, or cet aspect des choses n’intéresse absolument pas les élus.

Le second obstacle m’a été rappelé récemment par le compte Twitter de la Région Grand Est : les liseuses des manuels numériques ne sont disponibles que sous Microsoft Windows. Correction cependant : ils sont disponibles en ligne avec un navigateur, mais d’une part il faut une connexion internet et d’autre part, pour les manuels dits « interactifs », les fonctionnalités manquent. Impossible de télécharger un manuel (sous format PDF, ou mieux, du HTML ou du Epub, par exemple) et l’utiliser localement sans être dépendant des logiciels des éditeurs (car il y en a plusieurs !).

Résumons donc la position de la Région Grand Est : puisque les éditeurs de manuels ne les rendent disponibles que sous Microsoft Windows (ou Apple), c’est-à-dire à grands renforts de verrous numériques (DRM), il est normal d’obliger les élèves à n’utiliser que Microsoft Windows…

Imaginons un instant la même logique appliquée aux transports : si on se fout de l’impact environnemental de la pollution des véhicules à moteur, étant donné que la plupart des stations services distribuent de l’essence, il est inutile de chercher à promouvoir des énergies alternatives.

C’est sans compter les initiatives d’éditions de manuels libres et de grande qualité telle Sesamath où le fait que, au contraire, certains éditeurs de manuels fournissent bel et bien des manuels sans pour autant obliger l’utilisation de tel ou tel système d’exploitation. Ou même la possibilité, éventuellement, de travailler en coordination avec l’Éducation Nationale pour demander aux éditeurs de créer des versions de manuels compatibles, par exemple en s’appuyant sur des appels d’offres correctement formulés. Mais non. En fait, puisque la Région n’a aucune compétence en éducation, comment imaginer qu’il y ai une quelconque coordination des efforts ? Peut-être que les Régions auraient ainsi appris que des ordinateurs en classe sont parfaitement inutiles…

OK. Mais le problème est bien plus large. C’est dès la mise en service de l’ordi que les élèves se trouvent bombardés de pop-up les invitant à installer MSOffice 365 et à ouvrir un compte Microsoft OneDrive. Tout cela bien encouragé par la Région qui explique benoîtement comment faire pour valider sa version de Microsoft Office (alors que LibreOffice est déjà installé). En plus, la version est valable sur plusieurs machines dont 5 ordinateurs (donc les lycéens détiendraient en majorité déjà des ordinateurs ?). Ben oui, si c’est gratuit…

Et c’est là qu’on peut parler d’une acculturation de masse. « Acculturation » est un terme qui relève de la sociologie et de l’ethnologie. Cela signifie dans une certaine mesure l’abandon de certains pans culturels au profit d’autres, ou de la création d’autres éléments culturels, par la fréquentation d’une autre culture. C’est ce qui se passe : alors qu’un outil informatique devrait toujours laisser le choix à l’utilisateur de ses formats et de son utilisation, l’adoption de normes « Microsoftiennes » devient obligatoire. On organise ainsi à l’adhésion forcée à ce monde où l’on parle de « Pohouèrepointe » et de « documents ouhorde ». On passera sur les recommandations du Référentiel Général d’Interopérabiltié du gouvernement Français qui recommande les formats ouverts ou bien (au hasard) la Déclaration des gouvernements européens à Talinn2 et une foule d’autres directives plaidant très officiellement pour l’utilisation des formats ouverts et des logiciels libres.

Et en ces temps de confinement à cause de la COVID, la posture s’est trouvée d’autant plus auto-justifiée. Preuve, s’il en était besoin, que chaque élève devait bien satisfaire aux exigences des enseignements à distance avec les ordinateurs qui leurs sont confiés. C’est justement ce qui rend la critique difficile, l’ordinateur faisant office de vecteur d’égalité des élèves devant les contraintes numériques. En revanche, l’argument peut se retourner aisément : n’importe quel enseignant honnête pourra témoigner de l’extrême difficulté à enseigner à distance, de l’inadaptation pédagogique de la visio-conférence, de l’intensification des inégalités des conditions sociales et d’accès aux connaissances. L’ordinateur inutile en classe est aussi un vecteur d’inégalité devant les apprentissages là où il est censé être une solution d’accès égalitaire à la technologie. En d’autres termes, focaliser sur les solutions technologiques au détriment des vrais problèmes, cela s’appelle du solutionnisme et les Régions s’y baignent avec délectation.

Des projets contre-productifs

Les plans Régionaux de distribution d’ordinateurs aux lycéens sont des instruments de communication politique qui effacent sciemment de l’équation les aspects sociaux et cognitifs de la vie des lycéens. Ils éludent l’expertise des enseignants et imposent des usages (les manuels numériques et les conditions d’exploitation des éditeurs). Ils imposent l’obligation de gérer le rapport de l’élève à l’ordinateur, c’est-à-dire un second média dans la classe, le premier étant l’enseignant lui-même et ses propres outils que sont le manuel, le tableau, les photocopies, le video-projecteur.

Partout l’ordinateur donne à voir un surplus d’information qui a tendance à brouiller le message dans la relation maître-élève. C’est pourquoi les syndicats d’enseignants trouvent évidemment beaucoup à redire face à ces plans numériques. Mais quels que soient les arguments, les Régions auront beau insister sur le fait que l’ordinateur est un bon outil pour le lycéen, les études menées dans ce domaine montrent surtout que les résultats escomptés sont loin d’être au rendez-vous. Si l’ordinateur (+ Internet) à la maison ou au CDI est évidemment un accès supplémentaire éventuellement profitable à l’acquisition d’informations (et pas forcément de connaissances), l’ordinateur en classe est parfaitement contre productif. Adieu la belle image des salles de classe Microsoft, vitrines alléchantes du solutionnisme ambiant (et coûteux) :

  • l’utilisation d’un ordinateur portable pour prendre des notes en cours entraîne un déficit de traitement de l’information et devient préjudiciable à l’apprentissage (voir cette étude),
  • l’usage d’Internet en classe avec des ordinateurs portables (y compris pour effectuer des recherches censées être encadrées par l’enseignant) détourne l’attention et provoque une baisse de performance (voir cette étude),
  • le comportement multitâche lié à l’usage de l’ordinateur en cours entraîne une baisse de la productivité (voir cette étude),
  • les élèves les moins bons pâtissent en premier lieu des difficultés de concentration causées par l’usage de l’ordinateur en classe (voir cette étude),
  • les élèves mutlitâches (avec ordis) ont non seulement des résultats moins bons, mais gênent aussi ceux qui n’ont pas d’ordi (voir cette étude),
  • même dans les écoles militaires on voit apparaître la baisse de rendement pour les élèves qui utilisent des ordinateurs ou des tablettes en classe (voir cette étude).

La liste de références académiques ci-dessus est le résultat d’une demi-heure de recherches rapides sur Internet. Un temps qui aurait pu être mis à profit avant de lancer concrètement les institutions dans la distribution à grands renforts de communication. Ces études me semblent assez alarmistes pour interroger sérieusement le slogan de la Région Grand Est (« Lycée 4.0 : de nouveaux outils pour apprendre »).

Bien sûr beaucoup d’autres études vantent depuis longtemps l’usage des TIC dans l’éducation, mais une première analyse me porte à juger que les avantages ainsi mis en avant se situent surtout dans l’acquisition de compétences liées au numérique et non pas dans l’apport réel de l’ordinateur « en classe », c’est-à-dire comme un outil censé améliorer la productivité et le rendement des élèves. Nuance. Le raccourci est bien trop dangereux entre d’une part l’idée que les TIC doivent être utilisées dans le primaire et le secondaire parce que nous vivons dans une société de la communication numérique, et d’autre part l’idée que l’ordinateur est par conséquent l’outil idéal pour acquérir et maîtriser des connaissances.

Ce raccourci, c’est la porte ouverte aux injonctions malheureuses envers les plus jeunes dans notre société. Un jeune serait-il forcément plus enclin à apprendre avec un ordinateur qu’avec un papier et un crayon ? Est-ce qu’un manuel scolaire sera meilleur qu’un autre parce qu’il possède une version numérique et interactive ? est-ce que les représentations, les intentions, les analyses des plus jeunes doivent nécessairement passer par un ordinateur pour être plus pertinentes ?

L’injonction faite aux élèves

Il y a des livres qu’on devrait tous lire et à commencer par les politiques qui se mêlent d’éducation. Le livre d’Anne Cordier, intitulé Grandir Connectés chez C&F Éditions (par ici), fait partie de ce genre de livres.

Dans le processus de recherche d’information, Anne cordier nous invite à moult précautions lorsqu’on évalue les pratiques informationnelles des « jeunes ». D’abord en distinguant la maîtrise experte de l’outil de la simple familiarité à l’outil, et ensuite en remettant en cause le cadre de l’évaluation qui trop souvent tend à évaluer la capacité cognitive (le jeune est forcément toujours un novice par rapport à l’adulte) et non les riches stratégies d’apprentissage, aussi différentes que la jeunesse est multiple et non uniforme, au moins sociologiquement. Si bien que les pratiques informationnelles des jeunes et des adultes ne sont pas si différentes dans leurs approches, loin de la pseudo distinction entre le monde adulte et celui des digital natives dont on a forgé la représentation pour en faire des cibles marchandes tout en renvoyant les adultes à leurs propres difficultés. Une doxa largement intégrée chez les adultes comme chez les plus jeunes.

Car voilà, ce qui pèse c’est l’injonction. Cette norme à laquelle on invite les plus jeunes à se conformer dès les premiers apprentissages : savoir se servir d’Internet, savoir envoyer un courriel, savoir se « servir » d’un ordinateur. L’appétence supposée des enfants envers l’ordinateur les confronte à une norme de laquelle il leur est impossible de se départir : l’appétence équivaudrait à l’expertise. Et les adultes y calent leurs propres incompétences parce qu’ils n’en n’auraient, eux, aucune appétence ou très faible.

Qu’est-ce que cela signifie ? tout simplement que les adultes qui n’ont qu’une expertise faible de l’ordinateur et plus généralement des infrastructures numériques et des outils de communication, supposent qu’il suffit à un enfant de fréquenter un ordinateur pour en acquérir l’expertise. Dès lors il n’y aurait plus de problème pour que l’ordinateur devienne un outil permettant, voire optimisant, l’acquisition de connaissance à l’école ou au lycée.

Hélas, ce n’est ni une condition nécessaire ni une condition suffisante. Il suffit par exemple d’interroger les associations d’éducation populaire qui, tous les jours ont affaire à des jeunes (et des moins jeunes) et voient à quel point malgré la présence d’un téléphone portable dernier cri dans la poche ou d’un ordinateur très cher dans la chambre, une multitude est complètement dépassée par le numérique. Pour beaucoup, Internet n’est constitué que d’une série d’applicatifs permettant d’utiliser les services des GAFAM. Quant à une adresse courriel, on a perdu le mot de passe, on ne s’en sert pas. On ignore même avoir un compte Google alors qu’on a un smartphone Android.

L’injonction faite à ces jeunes est d’autant plus cruelle qu’elle nie complètement leur rapport au numérique et leur renvoie en pleine face la responsabilité de leur inadaptation aux apprentissages. C’est exactement la même chose pour les plus vieux qui ont un rapport d’autant plus distant aux services publics que ces derniers estiment suffisant de les renvoyer sur un site internet pour effectuer toutes les démarches nécessaires à la vie publique. Si « tout le monde a Internet » alors tout le monde sait s’en servir. Rien n’est plus faux. On pourra aussi lire à ce sujet l’excellent ouvrage de Dominique Pasquier, L’internet des familles modestes (par ici) et constater qu’on n’y parle pas seulement des plus modestes…


Illustration : « L’avènement de l’école informatisée », par Shigeru Komatsuzaki, parue dans Shōnen Sunday, 1969 (archive).



  1. La caricature est rude, mais qui osera me dire qu’elle ne reflète pas la sociologie du vote en ce moment ? ↩︎

  2. Déclaration de Talinn, 06/10/2017, extrait : «[Les États membres invitent] la Commission à envisager un renforcement des exigences relatives à l’utilisation de normes et de solutions à code source ouvert lorsque la (re)construction de systèmes et de solutions TIC est effectuée avec un financement de l’UE, notamment par une politique appropriée de licences ouvertes–d’ici à 2020.» Pour information, le projet de Lycée 4.0 de la Région Grand Est s’est trouvé co-financé par le FEDER. C’est sans doute pour cette raison qu’on trouve LibreOffice installé sur les machines. Ce qui s’apprente à du Libre-whashing si, dans le même mouvement, tout est fait pour inviter les utilisateur à utiliser des logiciels de la suite MSOffice. ↩︎


Publié le 21.10.2020 à 02:00

Déterminisme et choix technologiques

(Préambule) Cette tentative de synthèse est avant tout un document martyr. J’essaie de saisir les discours empreints de déterminisme technologique au long de la révolution informatique. Ces discours valident un certain ordre économique et envisagent la production et l’innovation comme des conditions qui s’imposent à la société. Les dispositifs technologiques sont-ils uniquement des dispositifs de pouvoir ? impliquent-ils des représentations différentes du rapport entre technique et société ? Un peu des deux sans doute. Avant d’employer ce mot de dispositif et de nous en référer à Michel Foucault ou autres penseurs postmodernes, j’essaye de tracer chronologiquement la synergie entre l’émergence de l’informatique dans la société et les discours qui l’accompagnent. Il n’y a donc pas vraiment de thèse dans cet article et certaines affirmations pourront même paraître contradictoires. Je pense en revanche exposer quelques points de repères importants qui pourront faire l’objet ultérieurement d’études plus poussées, en particulier sur le rôle des principes du pair à pair, celui du logiciel libre et sur l’avenir d’Internet en tant que dispositif socio-technique. Il me semblait cependant important de dérouler l’histoire tout autant que l’historiographie de manière à contextualiser ces discours et tâcher d’en tirer enseignement à chaque étape.

P.S. : à plusieurs reprises je copie-colle quelques paragraphes de mon ouvrage publié en mars 2020. Cette redondance est voulue : tâcher d’aller plus loin.

P.S. (bis) : (màj 22/10/2020 : coquilles corrigées par Goofy !)


Téléchargez la version PDF de l’article ici


Table des matières

Introduction

Nous avons une tendance à nommer les sociétés et les âges en fonction des artefacts. De l’âge du fer à la société numérique d’aujourd’hui, qu’il s’agisse de l’outil, ou du rattachement des usages à un dispositif technique, tantôt sacré, tantôt profane, nous devons toujours lutter contre le déterminisme technologique qui restreint le degré de complexité nécessaire pour appréhender la société, son rapport à l’espace et au temps. Cette simplification n’en est pas vraiment une. En effet, prétendre que la technologie est un paramètre indépendant qui conditionne le développement humain ou social, suppose de savoir ce qui exactement dans l’ensemble des dispositifs techniques présents joue un rôle significatif. Ce choix doit être éclairé, débattu jusqu’à parfois identifier des « technologies clé » ou des combinaisons de technologies dont les effets rétroactifs conditionnent les choix économiques en termes d’innovation, de compétitivité, de profit et, au niveau macro-économique, la géostratégie.

Forme pervertie du déterminisme technologique, le solutionnisme (Morozov 2014) et les idéologies de dérégulation libertarianistes (Husson 2018) partent de ce principe qu’appréhender tout problème par algorithme et ingénierie permet de proposer des solutions techniques efficientes, indépendamment des conditions et des paramètres du problème et des finalités poursuivies. Si vous êtes fatigué-e d’une journée de travail au point de vous endormir au volant sur le chemin du retour, vous pouvez toujours utiliser des lunettes bourrées de capteurs qui vous permettront de faire sonner une alarme si vous vous endormez au volant… mais vous ne réglerez pas le problème qui consiste à se demander pourquoi votre travail est à ce point harassant.

Depuis la sortie de K. Marx (Marx 1896, chap. 2) sur le moulin à bras et le moulin à vapeur1, nombre de chercheurs ont travaillé sur le rapport déterminant ou non de la technologie sur la société ou, de manière plus restrictive, la politique, la culture ou l’économie. Dans la seconde moitié du XXe siècle, le débat fut largement occupé par les historiens tels Robert L. Heilbroner, partisan d’un déterminisme doux, tandis que les philosophes tels Martin Heidegger ou Jacques Ellul, proposaient une lecture ontologique ou matérialiste qui les fit à tort assimiler à des technophobes là où ils ne faisaient que réclamer une critique radicale de la technique. Enfin vinrent les études sociales sur les sciences et les techniques (STS) qui montrèrent que les techniques ne naissent pas de processus autonomes mais sont les fruits d’interactions sociales (Vinck 2012), même si la version radicale de certains implique que tout serait le résultat de processus sociaux, tandis que pour d’autres le réflexe déterministe reste toujours très présent (Wyatt 2008).

Avant d’être un biais conceptuel pour l’historien, le déterminisme technologique est d’abord un discours sur la technologie. Il projette des représentations qui impliquent que la société doit évoluer et faire ses choix en fonction d’un contexte technologique (l’innovation et la compétitivité économique en dépendent) tout en démontrant par la même occasion que dans la mesure où le développement technologique est sans cesse changeant, il projette la société dans l’incertitude. On ne compte plus les discours politiques contradictoires à ce propos.

Les mouvements ouvriers ont pu chercher à éviter ces paradoxes en proposant le troisième terme qu’est le capitalisme pour articuler les rapports entre société et techniques. Ainsi, de la révolution industrielle, on peut tenir le fordisme comme la forme la plus élaborée de l’équilibre entre production et consommation. Cela eut un coût, très vite identifié par Antonio Gramsci : il ne s’agissait pas seulement d’une nouvelle organisation du travail, mais une soumission au machinisme, ce qui fini par conditionner une représentation de la société où le capitalisme « annexe » la technique en y soumettant le travailleur et par extension, la société. Ce sont aussi les mots de Raniero Panzieri, l’un des fondateurs le l’ouvriérisme italien (opéraïsme) des années 1960 : le capitalisme détermine le développement technologique et pour cela il lui faut un discours qui doit montrer que c’est à la société de s’adapter au changement technologique et donc d’accepter la soumission ouvrière à la machine – là où la manufacture morcelait le travail encore artisanal, l’usine et ses machines systématisent l’exploitation de l’ouvrier et le prive du sens de son travail (Panzieri 1968, 105).

La critique marxiste fut néanmoins largement minorée après les années 1960 au profit d’une mise en accusation de la « technoscience » d’être le nouvel épouvantail du totalitarisme. Cependant, il faut regarder de près les multiples variations de discours au sujet des « nouvelles technologies » dont les ordinateurs et les infrastructures numériques représentaient l’essentiel sur lequel allaient définitivement s’appuyer les sciences comme l’industrie et les services. On voit alors comment se déploie une acculturation commune à l’informatique simultanément à une popularisation d’un déterminisme technologique qui déjà correspond à une certaine tradition de la critique – disons – non-marxiste.

Pour caricaturer, une version extrême de ce déterminisme pourrait aujourd’hui figurer dans le discours du Président de la République Française Emmanuel Macron le 14 septembre 2020 au sujet des nouveaux standards de téléphonie mobile. « Le tournant de la 5G », dit-il, « est le tournant de l’innovation. J’entends beaucoup de voix qui s’élèvent pour nous expliquer qu’il faudrait relever la complexité des problèmes contemporains en revenant à la lampe à huile : je ne crois pas au modèle Amish (…) ». Nous pouvons nous interroger sur le fait qu’un discours politique en 2020 puisse ainsi opposer la présence d’une technologie à un faux dilemme. Car c’est lorsque nous avons toutes les peines du monde à penser la société et la technique comme un tout interagissant que nous réduisons le problème à un choix entre (techno)phobie et adhésion. La technique s’impose d’elle-même à la société, la société doit s’y adapter… Il y eut des échappées à ce choix durant la « révolution informatique » : les espoirs du progrès social, les mythes qui idéalisaient les innovateurs de l’informatique, le partage communautaire des usages, les combats pour la vie privée (contre les bases de données)… Échappèrent-ils pour autant aux faux-dilemmes ?

Dans cet article, ce sont ces contradictions qui nous intéresseront à travers une lecture de la Révolution Informatique à partir des années 1960. Nous la nommerons aussi « informatisation de la société ». Nous préférons ce terme d’informatisation parce qu’il contient l’idée qu’un processus est à l’œuvre qui ne concerne pas seulement les choix sociaux mais aussi les effets persuasifs des discours sur les artefacts concernés : les ordinateurs, les programmes, les réseaux et leurs infrastructures, les acteurs humains de l’informatisation, leurs rôles et leurs représentations du processus. Nous maintenons, pour commencer, que l’adhésion du public à une conception déterministe de la technologie est cruciale dans ce qu’on peut appeler un processus historique d’assimilation, c’est-à-dire, d’une part une diffusion des discours qui assimilent progrès informatique et progrès social, et d’autre part une acculturation auprès des groupes professionnels, ingénieurs, parties prenante de l’économie numérique naissante. Cependant, des promesses d’un avenir économique radieux au mythe de l’ingénieur ermite qui développe un artefact « révolutionnaire » dans son garage, en passant par le partage de pratiques : de quel déterminisme est-il question ?

Nous pouvons opposer deux logiques. L’une « extérieure » qui consiste à interpréter de manière déterministe ou non le changement technologique, apanage des chercheurs, philosophes, historiens et sociologues. L’autre, « intérieure », plus ou moins influencée par la première, mais qui développe consciemment ou non un déterminisme discursif qui modèle l’adhésion à une culture de l’artefact, ici une culture informatique, et plus généralement l’adhésion à un modèle économique qui serait imposé par une technologie autonome. Typiquement, ramené à des considérations très contemporaines : avons-nous réellement le choix de nous soumettre ou non au capitalisme de surveillance, fruit de la combinaison entre technologies dominantes et soumission des individus à l’ordre social imposé par ces technologies et leur modèle économique fait de monopoles et d’impérialisme (Masutti 2020). Il est alors important de voir jusqu’à quel point ce discours déterministe est intégré, s’il y a des points de rupture et de résistance et comment ils se manifestent.

L’objectif de cet article est de déployer une lecture générale de la révolution informatique tout en prenant la mesure du discours déterministe qui traverse au quotidien ce processus historique d’informatisation de la société depuis les années 1960 jusqu’à nos jours. Nous emploierons pour cela plusieurs « manières de voir » les techniques (et nous pourrons aussi bien employer le mot « technologies » pour désigner les computer technologies), c’est-à-dire que nous analyserons dans leur contexte les discours qui les encadrent, promoteurs ou détracteurs, ainsi que les critiques philosophiques ou historiques, de manière à en comprendre les variations au fil du temps et comment, in fine, des choix sociaux ont fini par s’imposer, tels le logiciel libre, en créant des zones de résistance.

Que faire avec les ordinateurs ?

Réussir dans les affaires

Si l’histoire de l’informatique traite en premier lieu des « gros ordinateurs » ou mainframe, c’est parce que, au cours des deux décennies des années 1950 et 1960, ils furent porteurs des innovations les plus décisives et qui dessinent encore aujourd’hui notre monde numérique : les matériaux et l’architecture des machines, les systèmes d’exploitation, les réseaux et leurs infrastructures, la programmation et les bases de données. En même temps que ces innovations voyaient le jour, l’industrialisation des ordinateurs répondait à la demande croissante des entreprises.

D’où provenait cette demande ? L’Association internationale pour l’étude de l’économie de l’assurance (autrement connue sous le nom Association de Genève) consacra en 1976, première année de publication de sa collection phare The Geneva Papers on Risk and Insurance, un volume entier produisant une prospective des pertes économiques en Europe liées à l’utilisation de l’informatique à l’horizon 1988. Sur la base de l’expérience des vingt années précédentes, elle montrait que la confiance en l’informatique par les décideurs et chefs d’entreprise n’était pas communément partagée. Un élément décisif qui a permis de lancer concrètement l’industrie informatique dans la fabrication de masse de séries complètes d’ordinateurs, fut le passage des machines mainframe aux mini-ordinateurs, c’est-à-dire des ordinateurs plus petits, fournis avec une gamme d’applicatifs selon les secteurs d’activité des entreprises et des langages de programmation faciles à l’usage. C’est l’effort marketing d’entreprises comme IBM qui changea complètement la représentation des ordinateurs chez les cadres et chefs d’entreprises.

Auparavant, l’ordinateur représentait la puissance de calcul et l’aide à la décision. C’était ainsi qu’il était vanté dans les films publicitaires de la Rand pour la gamme Univac. Les domaines les plus réputés devoir se servir de telles machines étaient les universités, les banques, les assurances, ou l’aéronautique. Mais comment le chef d’une petite entreprise pouvait-il être convaincu par l’investissement dans une telle machine ? Il fallait réinventer l’utilité de l’ordinateur et c’est tout l’enjeu de la production de ce secteur dans les années 1960 (Ceruzzi 1998, 110). Les efforts en marketing furent largement accrus pour passer un message essentiel : l’ordinateur ne devait plus traiter l’information existante parallèlement à la production, mais produire l’information, être le pilier du système d’information et, en tant que « système expert », aider à prendre les bonnes décisions. Mieux encore, l’ordinateur pouvait prédire l’avenir : savoir déterminer à l’avance les chances de succès d’un nouveau produit en analysant le marché et l’environnement. C’est tout l’objet des projets de traitements de données quantitatives et qualitative dont le projet DEMON (Decision Mapping via Optimum Go-No Networks), débuté en 1967, fut longtemps l’illustration dans le domaine de l’informatique appliqué au marketing (Charnes et al. 1968a ; Charnes et al. 1968b).

Après deux décennies de tâtonnements, de bricolages savants et de recherche, l’ordinateur des années 1960 était passé du rang de produit d’ingénierie complexe à celui d’instrument de réussite entrepreneuriale. Cela n’allait pas sans les nombreuses inventions dans le domaine des périphériques et des applicatifs, mais la dynamique des ventes d’ordinateurs, la transformation des fabricants en multinationales et le marché concurrentiel mondial de l’informatique n’auraient jamais pu voir le jour sans qu’un discours convainquant ne puisse être véhiculé. Ce n’était pas celui de la persuasion d’un produit performant de qualité, et il était loin d’être technique (car il ne s’adressait pas aux techniciens). L’ordinateur était fait pour l’homme d’affaires. Ainsi que le vantait la publicité pour l’IBM System/3 :

Toutes les activités économiques ont une chose en commun : l’information. […] et si au lieu de travailler avec ces informations, vous pouviez travailler pour elles ? […] Voici System/3. L’ordinateur pour l’homme d’affaires qui n’avait jamais pensé qu’il pouvait s’en payer un.

Organiser la paix sociale

Aborder les aspects techniques la réorganisation informatique d’une entreprise était un sujet qui ne pouvait pas passer inaperçu. La même publicité pour System/3 précisait :

Un langage de programmation est aussi disponible, basé sur les besoins courants des entreprises. Il est simple à apprendre et à utiliser pour vos employés…

La formation des employés était un aspect incontournable de l’investissement informatique d’une entreprise. Plus précisément, face aux promesses de rentabilité, d’optimisation des processus de production et de vente, le travail des bases de données ne pouvait pas s’improviser. Les ordinateurs de nouvelle génération ne se réduisaient pas à la retranscription et au stockage de listes et de procédures pour les automatiser. Si l’ordinateur était un instrument de réussite sociale des décideurs, la formation des employés devait être l’objet d’un discours plus général sur l’avancement de la société toute entière.

Les langages informatiques de haut niveau tels FORTRAN, LISP, COBOL, ALGOL sortirent au début des années 1960 du cercle fermé des experts universitaires et industriels pour intégrer peu à peu des procédures d’automation dans les entreprises. Pour cela il fallait former de futurs salariés au travail algorithmique de la donnée, tout en abaissant le niveau de qualification global comparé aux savoirs universitaires ou d’ingénierie que nécessitait la maîtrise des ordinateurs mainframe. Dès 1965, c’est l’une des raisons qui poussèrent IBM à produire des systèmes comme l’IBM 360. Outre ses équipements qui intéressaient les secteurs de la recherche et de la haute ingénierie, la série d’IBM permettait d’initier de nouvelles pratiques, comme la possibilité de passer d’un ordinateur à l’autre avec les mêmes programmes, voire les mêmes systèmes d’exploitation, ou d’augmenter la vitesse d’exécution des programmes (grâce aux techniques de microprogrammation). L’avantage consistait aussi en l’utilisation plus harmonisée des langages de programmation réduisant ainsi les coûts de formation tout en optimisant la rentabilité de l’investissement que représentait l’achat de ces machines.

Aux États-Unis, la complexification des systèmes d’information des organisations et l’apparition des grands pôles industriels destinés à l’innovation électronique, poussèrent la population des plus diplômés à se spécialiser dans des secteurs très compétitifs. Les universités ne produisaient qu’un nombre limité de ces ingénieurs et scientifiques, le plus souvent issus d’établissements prestigieux et d’une classe sociale élevée. La communauté des ingénieurs informaticiens su faire face à ce qui fut appelé en 1968 la « crise des programmeurs » et qui en réalité avait commencé bien avant. Chaque entreprise disposant d’un ordinateur devait développer ses propres logiciels, ce qui à chaque fois augmentait la masse salariale de programmeurs qui développaient souvent des programmes similaires. C’est ainsi que le besoin s’est fait sentir de rationaliser et standardiser les programmes dans un secteur économique nouveau. La création formelle de l’IEEE Computer Society en 1971 validait ce qui déjà était une évidence : s’il fallait une industrie du logiciel, les ingénieurs devaient se regrouper pour s’entendre sur les standards et appuyer cette industrie naissante.

Pourtant, ce n’est pas pour combler un manque de main d’œuvre qu’apparurent les centres de formation (souvent pour adultes) destinés à l’apprentissage des langages de haut niveau et plus généralement pour occuper des postes informatiques de premier niveau. Dans la veine des mouvements pour les droits civils et pour faire face à des risques d’émeutes dans certains quartiers de centres urbains, les États et les municipalités construisirent des programmes de formations destinés de préférence aux populations afro- et latino- américaines (Abbate 2018). Le discours tenu était empreint d’une croyance dans le pouvoir des technologies à provoquer le changement social : s’adapter à l’informatique et apprendre les langages informatiques était une voie vers l’émancipation, la paix sociale et la démocratie. De fait, la réorganisation des entreprises autour de l’informatique créait de nouvelles hiérarchies entre cols blancs et manipulateurs, au fur et à mesure que les tâches s’automatisaient et que le travail des scientifiques-ingénieurs devait se spécialiser toujours plus au risque de se diluer dans la masse d’exécutants sur machines.

Pourtant, si l’apprentissage des langages informatiques pouvait donner du travail, il n’exonérait ni de la soumission hiérarchique à l’ordre blanc en col blanc, ni des inégalités salariales et sociales (Nelsen 2016). Si nous pouvons considérer l’histoire de l’industrie informatique selon les cycles d’innovations technologiques et envisager leur impact sur la société par le prisme de l’informatisation de la société, une lecture tout aussi pertinente peut nous amener à nous interroger la manière dont la société s’est imprégnée des discours qui accompagnèrent le marché de l’informatique. Plus ce dernier s’étendait, plus le discours devait avoir une ambition universelle et inclusive, indépendamment de la réalité sociale.

Promouvoir l’accomplissement individuel

En 1977, lorsque le premier ordinateur personnel de la gamme Apple II sorti sur le marché, l’annonce2 parue dans la presse spécialisée en micro informatique précisait, outre les fonctionnalités déjà intégrées et prêtes à l’usage : « Mais le plus grand avantage – indépendamment de la façon dont vous utilisez Apple II – est que vous et votre famille vous familiarisez davantage avec l’ordinateur lui-même ».

Aussi bien pour son concepteur Steve Wozniak que pour Steve Jobs, Apple II est le premier micro-ordinateur destiné à un usage individuel et dont le pari réussi fut d’être produit à grande échelle (et pas sous la forme d’un kit électronique réservé aux spécialistes). Utilisé le plus souvent par la catégorie des cadres d’entreprises, au moins pour les premières années de sa présence sur le marché, les principaux atouts résidaient dans la gamme logicielle fournie (en particulier le tableur VisiCalc, sorti en 1979), le stockage et archivage sur cassette, et les jeux vidéos. Malgré l’apparition des gammes concurrentes, comme celles de Commodore, et jusqu’à la vente des Apple Macintoch, Apple II resta longtemps le modèle de référence de l’ordinateur personnel, entré dans les foyers comme le véhicule d’une acculturation à l’informatique domestique.

Censé propulser les familles dans un mouvement général d’encapacitation économique et sociale, l’ordinateur personnel entrait en rupture avec la représentation courante d’une informatique à la fois puissante et encombrante, réservée à l’entreprise. Dans un monde où l’informatisation des secteurs tertiaires (banques et assurances) et industriels créait de grands bouleversements dans l’organisation du travail, l’informatique personnelle se présentait comme une part de « démocratisation » technique dans les foyers alors qu’elle était habituellement vécue dans l’entreprise comme l’application d’une stratégie autoritaire et hiérarchique.

L’historien Clifford Conner rapporte une communication privée avec Frederick Rodney Holt, l’un des piliers du développement d’Apple II, qui affirme (Conner 2011, 458) :

L’Apple II n’était pas une machine à écrire : c’était un instrument permettant de concevoir de beaux algorithmes. Les gens ne l’achetaient pas pour exécuter des programmes. Ils l’achetaient pour réaliser leurs propres logiciels. Avec les machines d’aujourd’hui, et leurs centaines de mégaoctets de code obscur, il n’est plus possible d’apprendre comment marche un ordinateur ni même d’apprendre à écrire du code. Mais en 1976, des gamins de douze, quatorze ans pouvaient réparer une machine qui ne fonctionnait pas.

Ce type de réflexion est très courant. Il s’agit de postuler que la connaissance du code informatique est un moyen d’appropriation de la machine, une forme de lutte contre l’aliénation technologique d’où résulterait un mieux-être social. Tout comme l’apprentissage des langages informatique devait être une opportunité de plein emploi et de paix sociale, suffirait-il, pour briser les chaînes de nos esclavages modernes, d’équiper les individus d’ordinateurs personnels ?

À la fin des années 1970, le mythe de l’ordinateur personnel obéissait au même schéma discursif entretenu durant la décennie précédente (Pfaffenberger 1988). La raison pour laquelle il était, parfois de bonne foi, imaginé comme un vecteur d’égalité sociale, c’est qu’il était le produit d’une éthique commune, celle des hackers de la première heure, opérant dans les universités sur des projets développement scientifiques et industriels, et dont le principal appétit était le partage collectif des savoirs et des techniques en dehors des contraintes hiérarchiques et académiques. Mais il était aussi le produit d’une autre génération de hackers, ceux sortis des institutions au profit de l’aventure entrepreneuriale (Agre 2002) et qui considéraient l’innovation du point de vue libéral voire, plus radicalement, d’un point de vue libertarien (Turner 2012). Si bien que ce discours, adressé en premier lieu à ceux qui avaient les moyens financiers d’acquérir un ordinateur personnel, rencontrait chez les cadres supérieurs des entreprises une approbation générale. En échange du prestige et de la distraction que promettait l’ordinateur personnel à toute la famille, on acceptait de faire pénétrer dans le calme foyer les obligations et les tensions du travail.

Adhésion

Le hacker, ingénieur hétérogène

Quels furent les vecteurs de l’adhésion générale à ces discours en faveur d’une informatique libératrice ? Autant il est toujours possible de centrer historiquement l’artefact « ordinateur » ou « informatique » autour de quelques personnages connus, autant l’adhésion culturelle qu’on pourrait traduire par « consentement au processus d’informatisation », en dépit des controverses (sur l’organisation du travail, par exemple), n’a jamais été traduite sur un mode consensuel et uniforme par un groupe d’acteurs bien identifiés. Au sens de la théorie de l’acteur-réseau (Callon 2006), l’hétérogénéité des acteurs-humains (hackers, décideurs politiques, chefs d’entreprises, communautés d’utilisateurs, etc.) autant que celle des acteurs-objets concernés (infrastructures de réseaux informatiques, machines informatiques, logiciels et langages de programmation, etc.) doivent nous amener à beaucoup d’humilité quant à l’identification des nœuds de traduction et des acteurs médiateurs (Akrich 2006) (objets techniques ou personnes) de l’acculturation informatique.

Lorsque nous parlons d’acteur-réseau, remarquons que l’approche des objets scientifiques et techniques à laquelle nous faisons référence date du début des années 1980, au moment où les dispositifs informatiques (réseaux et machines) devaient être considérés comme des dispositifs inaccomplis (et Internet est encore aujourd’hui un dispositif inachevé, nous y reviendrons) et n’ont fait que très rarement l’objet des études de sociologie des sciences et des techniques. Néanmoins, c’est justement pour cette raison que le concept d’hétérogénéité est si important, car il était pour ainsi dire incarné par les premières communautés d’ingénieurs-scientifiques des premiers âges de l’informatique, tout particulièrement les hackers, non parce qu’ils étaient porteurs d’un discours bien problématisé, mais parce qu’ils diffusaient des pratiques. C’est pour cette raison que les hackers ont été dès le début identifiés comme les principaux vecteurs d’une diffusion culturelle, d’un esprit, de l’informatique dans la société. C’est cette vision qui a fini par s’imposer comme un paradigme dans l’histoire de l’informatisation, avec toutes les valeurs positives qu’il véhiculait, jusqu’à parfois construire des récits, des mythes, dont le rôle consiste à sacraliser le rôle social des entreprises nées de cet esprit informaticien, de Apple à Google et des riches heures de la Silicon Valley.

Pour une approche systématique, nous devons nous limiter volontairement au concept, défini par John Law, d'ingénieur hétérogène (Law 1987), c’est-à-dire un acteur qui ne crée pas simplement des objets techniques, mais qui définit un nouveau cadre du rôle social, des représentations et des valeurs de cette technologie et de ceux qui l’emploient et la diffusent. Il faut cependant comprendre que cette diffusion n’est pas obligatoirement intentionnelle et elle est souvent moins le fait de volontés individuelles que de communautés de praticiens dont les activités et les techniques interagissent et s’enrichissent mutuellement sans cesse, des premiers phraekers aux bidouilleurs de génie piratant les réseaux commutés universitaires. L’apparition des pratiques informatiques en réseau a multiplié la diffusion des pratiques et démontré le potentiel libérateur des usages « contre-culturels » de l’informatique.

Dans un article, Janet Abbate propose dans un plaidoyer pour une étude STS (Science and Technology Studies) de l’histoire d’Internet : « Lorsqu’on observe à la fois les créateurs et les utilisateurs de matériels et de logiciels, on s’aperçoit que l’infrastructure et la culture ont amorcé une fusion » (Abbate 2012, 170). En effet, dans l’histoire de la révolution informatique, cette fusion engage à la fois l’innovation technologique, l’économie de production de ces technologies, et la figure de l’ingénieur hétérogène qui incarne à la fois la culture, l’économie et les pratiques bien qu’il s’auto-définisse comme révolutionnaire ou contre-culturel3. Le hacker est un programmeur dont le génie ne réside pas seulement dans la qualité de son travail mais aussi dans sa manière de traduire un ensemble de valeurs de la sphère informatique à la sphère sociale : le partage de l’information, l’esprit d’innovation (d’amélioration), les libertés d’usages des machines, l’idée qu’un « progrès technique » est aussi un « progrès social » dans la mesure où tout le monde peut y contribuer et en être bénéficiaire. Sa contre-culture ne s’exerce donc pas à l’encontre d’un discours dominant et largement en faveur de l’adoption de l’informatique dans toutes les organisations sociales, mais dans la tension entre l’appropriation de ces valeurs par les institutions et la défense de leur autonomie au niveau des pratiques sociales. C’est ce qui fait dire à Paul Baran (un des co-inventeurs de la communication réseau par paquets) dès 1965 que l’ingénieur informaticien a l’opportunité d’exercer « une nouvelle forme de responsabilité sociale. » (Baran 1965)

Comment exercer cette responsabilité ? Sur ce point, on peut prendre l’exemple du projet Community Memory qui, entre 1973 et 1975 s’est fait le support d’une telle ambition sur un mode communautaire (Doub 2016). Les fondateurs du projet (Judith Milhon, Lee Felsenstein, Efrem Lipkin, Mark Szpakowski) entendaient créer un système de communication non hiérarchisé où les membres pouvaient partager de l’information de manière décentralisée. Techniquement, le projet était le pilote d’un mini-réseau dans la région de la Baie de San Francisco et le succès qu’il rencontra enthousiasma ses initiateurs tant par l’engouement du public à pouvoir disposer d’un réseau d’information communautaire mais aussi par la créativité spontanée de ce public pour échanger des informations (Colstad and Lipkin 1976). Michael Rossman, journaliste, ex–activiste du Free Speech Movement et qui fréquentait alors assidûment le projet Community Memory, affirma à son propos : « le projet est indéniablement politique. Sa politique est centrée sur le pouvoir du peuple - son pouvoir par rapport aux informations qui lui sont utiles, son pouvoir par rapport à la technologie de l’information (matériel et logiciel). » (Rossman 1976)

Community Memory a fait des émules au-delà de San Francisco et ses choix techniques étaient eux aussi des choix politiques : le projet était hébergé par Resource One, une organisation non gouvernementale créée lors de la crise de 1970 et l’invasion controversée du Cambodge par l’armée des États-Unis en avril. Il s’agissait de mettre en place l’accès à un calculateur pour tous ceux qui se reconnaissaient dans le mouvement de contre-culture de l’époque. Avec ce calculateur (Resource One Generalized Information Retrieval System – ROGIRS), des terminaux maillés sur le territoire américain et les lignes téléphoniques WATS, les utilisateurs de Community Memory pouvaient entrer des informations sous forme de texte et les partager avec tous les membres de la communauté, programmeurs ou non, à partir de terminaux en accès libre. Il s’agissait généralement de petites annonces, de mini-tracts, etc. dont les mots-clés permettaient le classement.

Pour Lee Felsenstein, le principal intérêt du projet était de démocratiser l’usage de l’ordinateur, en réaction au monde universitaire ou aux élus des grandes entreprises qui s’en réservaient l’usage. Mais les caractéristiques du projet allaient beaucoup plus loin : pas de hiérarchie entre utilisateurs, respect de l’anonymat, aucune autorité ne pouvait hiérarchiser l’information, un accès égalitaire à l’information.

Community Memory était une émergence technologique de la contre-culture américaine. En tant qu’objet technique et idéologique, il s’opposait surtout à tout contrôle de l’État, dans un climat de méfiance entretenu par les épisodes de la guerre du Vietnam ou le scandale du Watergate. Pour y accéder, il fallait que l’on accepte de participer à et d’entrer dans une communauté, seule à même de rendre des comptes, indépendamment de toute structure institutionnelle. Ce système de pair à pair s’oppose frontalement à toute intention de contrôle et de surveillance externe.

C’est à travers ce type de projets que les hackers furent généralement identifiés, du moins dans les représentations populaires. Tous les hackers n’appartenaient pas à la contre-culture, du moins tous ne se prêtaient pas, dans les rues, à des manifestations contestataires. Mais tous croyaient sincèrement en une chose : l’informatique et plus généralement les ordinateurs, doivent améliorer notre quotidien. Lee Felsenstein et ses amis en étaient persuadés eux aussi, persuadés que ce modèle d’échanges d’information et de savoir-faire constituait un projet social.

Le côté obscur

Dispositifs techniques et intérêt social interagissent mutuellement. Cependant, cette affirmation que nous posons aujourd’hui comme une évidence n’est pas aisée à expliquer dans l’histoire des assimilations sociales des dispositifs informatiques. En l’espace d’à peine dix ans, la représentation commune du rapport entre utilité et contraintes de l’ordinateur a radicalement changé lors de l’apparition de l’ordinateur personnel sur le marché de la consommation des foyers.

Ce changement s’est déroulé en deux temps : dans un premier temps, une critique générale des systèmes informatiques des entreprises conçu comme une « décapacitation » du travailleur, puis, dans un second temps, une adoption de l’informatique individuelle sur le marché de la consommation, motivé par le discours d’encapacitation issu à la fois de la culture hacker et du marketing. Bien qu’une étude historique plus approfondie soit hautement souhaitable, on peut étudier ces deux étapes indépendamment des terrains géographiques car, comme nous allons le voir, un discours commun dans la « culture occidentale » se dégage autour d’une conception déterministe de la technologie.

Comme nous l’avons vu plus haut, les années 1960 connurent une embauche massive de personnels visant d’une part à apprendre les langages informatiques et d’autre part intégrer les systèmes d’information (le passage de la mécanographie à l’automatisation du travail de la donnée). Du point de vue managérial, toutefois, le thème dominant allait jusqu’à fantasmer sur la capacité des systèmes d’information à automatiser entièrement une entreprise (Haigh 2001), et manière plus prosaïque, on voyait clairement émerger une nouvelle sorte d’ingénieurs, éloignés de la programmation et du matériel : les spécialistes des systèmes d’information.

Face à ces bouleversements radicaux, tout particulièrement dans les grandes entreprises qui accomplissaient leur conversion informatique, on pouvait s’attendre à ce que les syndicats manifestent bruyamment leur méfiance. Jusqu’à la fin des années 1960, ce ne fut pas le cas dans les pays occidentaux pour plusieurs raisons. Aux États-Unis, l’évolution technologique était essentiellement comprise comme la clé des gains de productivité et de la diversification des activités, en particulier la technologie de pointe, celle justement qui permettait d’avoir des entreprises multinationales, monopolistiques, leader de l’automatisation et de l’informatique, surtout pourvoyeuses d’emplois qualifiés. Du côté Européen, à l’instar de la France, on remédiait assez lentement au retard technologique, notamment à cause de la conversion difficile de l’économie agricole et le trop grand nombre de petites entreprises.

À la lecture des archives du Trades Union Congress (TUC) on voit cependant que les syndicats de Grande Bretagne étaient en revanche très attentifs à la question mais adoptaient une posture linéaire depuis le milieu des années 1950 (où le congrès déclare se refuser à toute interprétation alarmante au sujet de l’automation dans les entreprises4), jusqu’à la mise en place en 1964 d’un sous-comité chargé de veiller à la mécanisation des bureaux et au développement de l’informatique d’entreprise (avec des points de vigilance au sujet des éventuelles suppressions de postes et l’augmentation du temps de travail5). Mais si les positions officielles du TUC étaient toujours très conciliantes avec les politiques d’avancement technologique du gouvernement, ce n’était pas le cas pour d’autres syndicats membres tels l’Amalgamed Engineering Union (regroupant des ingénieurs) dont le Comité National vota une résolution très contraignante dont les deux premiers points impliquaient de ne pas accepter de licenciement en cas d’automatisation de tâches, et pour tout changement organisationnel, obliger une consultation préalable des syndicats6.

Du point de vue des travailleurs, en effet, le sujet de l’informatique d’entreprise était alors un sujet complexe, une affaire d’ingénieurs qui s’occupaient des grandes machines dont le nombre se chiffrait seulement en milliers à l’échelle mondiale. Par contraste, la décennie des années 1970, avec la venue sur le marché des mini-ordinateurs, était une période de digestion des transformations des organisations qui s’informatisaient à une vitesse exponentielle, à mesure que les coûts investis dans ce secteur baissaient drastiquement.

Dès lors, loin des préoccupations de rentabilité, les répercussions sur l’organisation du travail furent ressenties tantôt comme une forme de taylorisation du travail de bureau, tantôt comme une négation du travail vivant (au sens marxiste) du travailleur, une remise en cause de son accomplissement personnel au profit d’une automatisation routinière, surveillée et guidée par des machines, en somme un travail « électronicisé » (Zuboff 1988).

Une prophétie se réalisait, celle de Charles Babbage lui-même qui affirmait en 1832 (Babbage 1963, 191) :

La division du travail peut être appliquée avec le même succès aussi bien aux opérations mentales qu’aux opérations mécaniques, ce qui assure dans les deux cas la même économie de temps.

C’est cette taylorisation mentale que les syndicats dénonçaient avec force. Pour certains, l’informatique était le « Cheval de Troie » de la taylorisation, en particulier du point de vue de l’ingénieur devenu un appendice pensant de la machine, à la capacité d’initiative réduite et par conséquent soumis à l’organisation et au pouvoir des organisateurs. L’informatique devenait l’instrument d’un pouvoir de classe là où elle était censée libérer les travailleurs, développer l’autonomie créatrice et démocratiser les organisations (Cooley 1980).

Ce point fut problématisé entre 1975 et 1977 par l’une des figures les plus connues de la théorie du contrôle, Howard H. Rosenbrock. Selon lui, la formulation mathématique du contrôle des processus ne peut être exhaustive et l’approche algorithmique ne peut être que le résultat d’un compromis entre des choix existants. Le choix ne se réduit jamais entre ce qui est entièrement automatisable ou non. Le principal biais du contrôle moderne est selon lui une distanciation de l’ingénieur par rapport à son objet : parce que nous voulons toujours une solution unique, optimale, les procédures tendent à restreindre les objectifs parce qu’elles n’intègrent pas, ou mal, les éléments qualitatifs et les jugements de valeurs. Si bien que, à l’ère des ordinateurs, le constat est partagé : l’ordinateur devient un « manuel de conception automatisé » (Rosenbrock 1977), ne laissant que des choix mineurs à l’ingénieur tout en donnant naissance à un brouillage entre la gestion des process et l’application de la technologie.

Entre la réduction de l’autonomie créatrice et le terrain gagné par la taylorisation mentale, tout particulièrement dans les secteurs tertiaires, les syndicats commencèrent à élaborer une réflexion ambivalente.

D’un côté il existait des projets de transformation organisationnelle dont l’objectif était très clairement guidé par une conception hacker de partage de connaissances et de pratiques. On peut citer sur ce point les projets scandinaves (en Norvège, au Danemark et en Suède) menés à partir de 1975, à l’initiative conjointe des chercheurs (on retient le rôle phare de Kristen Nygaard) et des unions syndicales afin d’influencer les développements locaux des technologies informatiques sur un mode démocratique, en alliant les contraintes de rentabilité, l’accroissement des compétences des travailleurs et la qualité de vie au travail. Le célèbre projet Utopia (Sundblad 2011), entre 1981 et 1986, était la continuité logique de projets précédents et regroupait l’ensemble des syndicats scandinaves des travailleurs graphiques (Bødker et al. 2000). Néanmoins, selon les participants, les expériences montraient que les technologies de productions en place constituaient des obstacles souvent infranchissables pour que les demandes des syndicats (être associés aux changements organisationnels, co-développer des dispositifs de production, faire valoir leur expertise, accroître leurs compétences, etc.) puissent réellement aboutir. Ce que montraient ces projets en réalité, c’était que les nouvelles technologies limitent les revendications des travailleurs et reflètent davantage les intérêts des entreprises (Lundin 2011). Les technologies, et plus particulièrement l’informatique et les systèmes d’information sont chargés de valeurs, et elles ne sont pas toujours socialement acceptables.

Face à l’avancement des technologies dans l’entreprise, les syndicats prenaient de plus en plus conscience que si l’informatisation de la société s’accommodait d’un discours positif sur le progrès social et le contrôle des technologies, les travailleurs n’avaient pour autre solution que de se soumettre à un nouvel ordre négocié où les technologies leur étaient justement incontrôlable. Ce paradoxe était essentiellement nourri d’une idée répandue alors : la technique détermine l’ordre social.

Éclairant l’état d’esprit des chefs d’entreprises à propos de l’adoption des systèmes de traitement de données informatisés dans les organisations, on peut noter ces mots de Franco Debenedetti, directeur général adjoint de Olivetti, lors d’une conférence organisée par le Financial Times en 1979, à propos de l’avenir de l’EDP (Electronic Data Processing) (Cité par S. Smith 1989) :

Il s’agit d’une technologie de coordination et de contrôle d’une main-d’œuvre, les cols blancs, que l’organisation (traditionnelle) ne couvre pas (…). En ce sens, l’EDP est en fait une technologie organisationnelle, et comme l’organisation du travail elle a une double fonction de force productive et d’outil de contrôle pour le capital.

Si bien que, d’un autre côté, face à des projets de transformation technologique où la négociation se concentrait plus sur l’aménagement du poste informatique que sur le rôle de l’informatique dans la transformation du travail, des voix réfractaires se faisaient entendre.

Comme le montre Tali Kristal pour ce qui concerne l’industrie américaine des années 1970 (Kristal 2013), la face « noire » des technologies informatiques était d’une part le fait de l’inégalité de classe qu’elles induisaient historiquement dans l’entreprise qui s’informatise tout en diminuant le pouvoir de l’action syndicale, mais aussi en dissociant le travail de l’expertise des cadres intermédiaires et des ingénieurs. En somme, l’informatisation a été aussi considérée comme un mouvement capitaliste construit sur une concentration des pouvoirs et la diminution des contre-pouvoirs dans les institutions de l’économie.

Pour prendre l’exemple de la France, le « mai des banques » en 19747, fut un épisode pour le moins surprenant : dans un secteur où se jouait déjà depuis des années un processus d’informatisation qui promettait à la fois qualité de travail et gains de productivité, les travailleurs ne se plaignaient pas seulement de leurs conditions de travail et salariales mais en interrogeaient aussi le sens. En effet le secteur bancaire n’avait pas complètement terminé ce processus d’automatisation si bien que le passage à l’informatique devait passer par une forme assumée de taylorisation de travail de bureau et, par extension, une déqualification d’une partie des employés (Moussy 1988). Préalablement, une augmentation de la demande de produits bancaires résultant de la réforme Debré de 1966 (une déréglementation de la banque qui introduisit une concurrence au nombre de guichets) avait suscité une embauche en nombre d’employés dont la qualification était de niveau moyen à bas : ces mêmes employés qu’il fallait former pour parachever la modernisation de la banque tout en maîtrisant la masse et le coût salarial. À une déqualification générale correspondait alors au début des années 1970 (et ce, jusqu’au milieu des années 1980) une employabilité toute aussi concurrentielle de jeunes diplômés sur-qualifiés pour le travail demandé, alors qu’en même temps la formation interne peinait à suivre le mouvement. Mutation informatique et déréglementation furent les principales causes de ce mouvement de 1974, dont le nom est une référence aux grèves de « mai 1968 », débuté en janvier au Crédit Lyonnais puis à la Banque de France et suivi presque aussitôt et bruyamment par les employés d’autres établissements jusqu’en avril (Feintrenie 2003).

On connaît les positions de la CFDT (Confédération française démocratique du travail) qui s’impliqua très tôt dans ce conflit du secteur bancaire. Suivant les positions d’autres syndicats en Europe, elle s’était lancée depuis quelque temps dans une réflexion de fond sur le rapport entre informatique et travailleurs. Le « mai des banques » fut un élément déclencheur qui donna lieu avec succès à un colloque en 1976 intitulé « Progrès technique, organisation du travail, conflits ». Organisé par le secteur « Action Revendicative » de la CFDT et le trio Jean-Louis Missika, Jean-Philippe Faivret – alias Philippe Lemoine – et Dominique Wolton, il donna lieu à une publication au Seuil : Les dégâts du progrès. Les travailleurs face au changement technique. Il s’agissait de penser ce nouveau rapport à la technologie dans des secteurs d’activité très différents en prenant en compte l’impact social et économique de l’informatisation et son articulation avec l’organisation du travail. L’auteur de la préface, Edmond Maire (secrétaire général de la CFDT de 1971 à 1988), résume ainsi (Maire 1977) :

Il suffit d’avoir en mémoire les grandes grèves des banques et des PTT en 1974 où les OS du tertiaire sont apparus en pleine lumière, celles de Renault au Mans sur le travail à la chaîne, de Péchiney-Noguères contre le chantage technologique, d’Usinor-Dunkerque contestant la prétendue impossibilité technique d’assurer la sécurité ; et, au-delà, la mise en cause croissante du travail posté, de la dangereuse accélération du programme d’énergie nucléaire, de l’impérialisme de l’informatique et du danger qu’il fait courir aux libertés.

Cet « impérialisme de l’informatique » est vécu dans le monde du travail des années 1970 de deux manières. Premièrement, il s’agit de mettre en exergue l’informatique comme outil de contrôle. Mais ce contrôle n’est pas celui du contremaître ou de l’informatique de gestion. Il s’agit d’un contrôle qui change radicalement l’organisation même du travail parce qu’il s’agit d’automatiser les tâches pour qu’elles deviennent des sources d’information les plus exhaustives possible. Deuxièmement, ces données ont pour effet d’intellectualiser le travail, c’est-à-dire qu’elles détachent le travail de la production. Comme le montrent les auteurs : « les tâches de contrôle et de surveillance remplacent les tâches de production. » (Missika, Faivret, and Wolton 1977, 41)

Le discours était le même pour ce qui concernait le secteur bancaire et ajoutait la dimension supplémentaire du service rendu à la clientèle qui, considéré du point de vue de l’informatisation, présentait ce danger de la surveillance des individus (Missika, Faivret, and Wolton 1977, 101) :

L’informatique n’est pas seulement une « solution » aux difficultés rencontrées en raison du développement bancaire, elle est avant tout la solution patronale : pour tout autre, elle pose plus de problèmes qu’elle n’en résout. Pour le personnel, elle signifie la standardisation des opérations et la scission entre une masse déqualifiée et un petit noyau super-qualifié. Pour la clientèle, elle constitue une action commerciale anonyme et un risque pour ses libertés.

Vie privée : inquiétudes

Choc pétrolier et crise économique, augmentation du chômage et prolétarisation intellectuelle, ont fait des années 1970 une décennie où les promesses de la technologie devenaient aussi des menaces. S’y adapter devenait un enjeu crucial pour les travailleurs : cette prise de conscience était celle de l’impact radical du changement technologique sur la société.

Démonstration de cet impact dans les représentations communes, en France, le plan « informatique pour tous » (IPT) lancé en 1985 par le ministre Laurent Fabius ne poussait pas seulement la société Thomson à des prétentions au niveau de la grande IBM. Selon les mots du ministre, ce plan entendait « donner à notre société la chance de mieux dominer l’avenir » (Fabius 1985). Le message était si bien reçu que, dans les enquêtes « Informatique pour tous », les enseignants démontraient par leurs réflexions qu’ils avaient profondément intégré le rapport entre société et informatique : pour eux le plan IPT ne représentait pas un moyen de permettre à des élèves de découvrir l’informatique, mais d’intégrer les usages déjà existants dans le domaine de l’enseignement. En somme, une nécessaire adaptation de l’école à la société (Narcy 1986) :

S’il n’est pas surprenant qu’ils voient presque unanimement en elle un instrument motivant pour les élèves, il est plus étonnant qu’ils la considèrent davantage comme une « nouvelle nécessité culturelle » que comme un outil pédagogique paré des vertus du « rattrapage », de « l’individualisation » ou de la « rigueur intellectuelle ». C’est, un peu comme si l’informatique devait, avant tout, être présente dans l’enseignement parce qu’elle est présente dans la vie sociale, indépendamment de ses apports spécifiques.

Pour qu’en 1985 les enseignants français puissent à ce point admettre que l’adoption générale de l’informatique dans la société pousse l’école à s’adapter aux usages, et non les créer, c’est parce que les représentations communes allaient dans le sens d’un certain déterminisme technologique : la technologie était présente et c’était à la société de s’y adapter.

Les critiques syndicales des transformations technologiques n’étaient pourtant que rarement technophobes. Simplement, elles avaient tendance à suivre la même idée qu’à une autonomie de la technologie (au sens de Jacques Ellul) il fallait répondre par négociations et compromis alors même que les fonctions de contrôle et de surveillance des technologies en question étaient considérées comme un instrument de pouvoir patronal. Même dans les projets où la transformation technologique pouvait paraître démocratique, l’idée qu’elle puisse être contrôlable relevait davantage de la croyance que de la soumission à un nouvel ordre capitaliste. De ce point de vue on peut mieux comprendre la construction d’une philosophie déterministe de la technique à cette période cruciale (voir section suivante).

Ceci était d’autant plus paradoxal que le rapport entre vie sociale et informatique contenait un point particulièrement problématique depuis le milieu des années 1960 : face aux bases de données informatisées et les menaces qu’elles portaient sur la vie privée, le débat public n’a cessé de croître. Là où il fut le plus visible, ce fut sur le territoire nord-américain à partir du milieu des années 1960 pour au moins deux raisons : c’est là que s’est industrialisé l’exploitation des bases de données informatiques (Atten 2013), surtout dans les secteurs bancaires, assurantiels, et dans l’administration publique, et c’est là qu’on peut identifier dans les publications (monographies, articles et rapports) une construction de la privacy à partir d’une définition juridique de la vie privée datant de la fin du XIXe siècle (The right to be let alone).

Pendant près de 50 ans jusqu’à nos jours (et nous pouvons gager que la question est loin d’être réglée), la construction de la privacy est le fruit d’une convergence entre l’histoire technique des infrastructures informatiques, l’histoire d’une économie capitaliste de la donnée, et l’histoire de la lutte pour la protection de la vie privée dans le débat public et les pratiques de régulation gouvernementales (Masutti 2020). Face aux abus des pratiques bancaires et des sociétés de crédit constatés par les consommateurs, l’État fédéral américain mis en place le Fair Credit Information Act en 1970 puis, résultat des débats tenus au Congrès sur l’usage des banques de données publiques, le Privacy Act de 1974 fut voté à son tour.

Les publications furent abondantes au sujet des « menaces sur la vie privée » que représentaient les bases de données. Employant une rhétorique qui emprunte chez Georges Orwell et Max Weber un appareillage conceptuel faisant planer les dangers d’une « société du dossier » à venir, des auteurs comme Alan Westin proposèrent au début des années 1970 une définition de le vie privée comme « une exigence à décider soi-même comment et quand les informations qui nous concernent peuvent être communiquées » (Westin 1967, 7). Peu à peu un courant de pensée se construisit et s’internationalisa au fur et à mesure que l’informatisation gagnait tous les secteurs économiques, que l’industrie de l’informatique devint une industrie faite de multinationales spécialisées, et que l’emploi des bases de données et des plateformes se généralisait jusqu’à configurer ce que Foster et Chesney nomment le capitalisme de surveillance, fruit de la jonction historique de l’impérialisme américain, de l’économie politique et de l’industrie du numérique (Foster and McChesney 2014).

Daniel J. Solove (Solove 2002), s’efforce en 2002 de synthétiser la privacy en y incluant la définition « primaire » de la vie privée au sens de la Common Law américaine (le droit d’être laissé tranquille) et y ajoutant autant de contre-propositions à l’économie de la surveillance : l’accès limité à la personne, le droit au secret, le contrôle des renseignements personnels, etc. Et c’est en 2014 avec les Révélation d’Edward Snowden que le monde apprit que malgré les nombreux débats et lois promulguées durant des années, des agences publiques et des entreprises multinationales et monopolistique de l’économie numérique avaient organisé un vaste espionnage de masse à l’échelle de la planète.

La construction de la privacy est le fruit de plus 50 ans de combats, de revendications et de créativité juridique. Si bien que l’avènement tant craint de la « société du contrôle » (de décider, d’agir, de penser, d’être) est surtout le fruit d’un imaginaire collectif tandis que la surveillance est devenue le moteur même de l’économie, translation de la surveillance des process de production de l’entreprise à la surveillance comportementale des consommateurs, ordonnancement des modèles monopolistiques et exploitation des données dans un contexte hautement concurrentiel dominé par le marketing et les objectifs de rentabilité (Zuboff 2019).

Ces débats sur la surveillance donnèrent lieu à de nombreuses études. Les surveillances studies plongent leurs racines dans cette histoire des années 1970 où l’on commençait à interroger notre rapport à l’informatique sous l’angle de l’exploitation de la donnée. Dans la mesure où des données peuvent être extraites de nos comportements pour être traitées de manière automatisée afin de créer de la valeur, les comportements peuvent être alors considérés comme des ressources primaires. Cette assimilation du comportement implique deux choses : la première est un déplacement du concept de comportement qui n’est plus seulement la manifestation, compréhension et l’anticipation des actions pour un observateur, mais la transformation de cette manifestation en indicateurs quantifiables et assimilables par la machine, c’est à dire les données personnelles. La seconde, c’est l’idée que l’avancement technologique permet la multiplication des indicateurs, l’accroissement des données quantifiables, et le passage de l’anticipation à la prédictibilité : le degré d’intrusion dans la vie privée ne s’évalue plus seulement en fonction de l’observateur mais en fonction de la technologie mobilisée pour cela.

En réponse à l’électronicisation de la vie privée et l’algorithmisation du traitement des données personnelles, les combats pour la vie privée ne se placent plus seulement sur terrain du droit, mais confrontent le droit et la technologie selon deux tendances possibles. La première consiste à maintenir une tradition contractualiste, celle que les philosophes du droit comme John Rawls ont travaillé durant les années 1970 (Rawls 1997) en articulant éthique et justice, où la liberté individuelle prévaut. C’est ce qui permet d’expliquer pourquoi les voix les plus retentissantes comme Allan Westin utilisaient cette double rhétorique du repoussoir orwellien (le totalitarisme contre les libertés) et du repoussoir weberien (la société du dossier, la bureaucratie contre une perspective américanisante d’un national-libéralisme supposé de Max Weber (Draus 1995)). La seconde constitue une réaction à la quantification par une institutionnalisation de la vie privée, la privacy : la sanctuarisation de la vie privée serait le fondement d’un nouvel équilibre entre la société et ses institutions, le droit et une économie capitaliste qui implique l’usage illimité des technologies au nom de la rentabilité et du profit illimité.

À ceci près que pendant que les luttes pour la vie privée s’organisaient sur de multiples fronts (l’État intrusif, les banques, le marketing, etc.), on admettait que le questionnement sur la technologie était une affaire de philosophie et non pas d’usages puisque le déterminisme technologique ambiant appelait de ses vœux l’informatisation de la société et sa projection vers un avenir prometteur. Face au « progrès technologique », il y avait comme un parfum de défaite.

Ce rapport à la vie privée, est un trait caractéristique d’une société moderne qui, dans son rapport à la technique, en vient à sacraliser ce qui cristallise les transformations sociales. Ainsi l’État n’est pas seulement un système de gouvernance fait de dispositifs juridiques, moraux, ou policiers. L’État moderne est un État sacralisé dans la mesure où il est peut être assimilé à une entreprise de sécularisation des concepts religieux (Schmitt 1988 ; Aron 1944). Cet exemple est le plus évident. Cependant, selon les points de vue, d’autres aspects de notre modernité sont réputés sacralisés. Ainsi la fétichisation de la marchandise selon Guy Debord, qui montre de quelle façon l’idéologie capitaliste est communément cautionnée (Debord 1992). Il reprend ainsi l’idée de Karl Marx qui montrait que le rapport entre recherche du bonheur et bien matériel passait par l’illusion qu’une marchandise avait une valeur par elle-même8. Le thème traverse aussi toute l’œuvre de Jacques Ellul qui, de manière rétroactive, montre que la technique en désacralisant le monde (nature comme spiritualité) est devenue par un effet de renversement le seul recours de l’homme au sacré, la technique sacralisée (Ellul 1954).

Enfin, la vie privée comme ressource numérique relève aussi d’un autre thème philosophique, plus ontologique, celui de l’arraisonnement heideggerien (Heidegger 1958). Si on suit ce philosophe, la technique moderne n’est plus l’art, elle est devenue ce rapport paradoxal entre la volonté de puissance et l’exercice technique, soumission de l’homme à son destin technicien, non plus sujet mais être technique, par l’instrumentalisation, l’arraisonnement du monde qu’il ne peut plus voir que comme une ressource. Les Jacques Ellul ou Guy Debord ont en réalité cherché à montrer que l’homme pouvait encore échapper à ce destin funeste en prenant conscience ici de la prégnance de l’idéologie capitaliste et là d’une autonomie de la technique (hors de l’homme). Cependant, on ne peut s’empêcher de penser que l’extraction de données à partir de la vie privée est une forme d’arraisonnement poussé à l’extrême, sur l’homme lui même, désormais objet de la technique.

Le discours du déterminisme technologique qui implique que la société doit s’adapter à la technique prend une dimension tout à fait nouvelle dans le contexte de l’informatisation de la société. À travers l’histoire de la « Révolution Informatique », ce cauchemar heideggerien est né d’un discours aliénant, où l’ordinateur devient l’artefact central, et contre lequel la simple accusation d’aliénation technologique n’est plus suffisante pour se prémunir des dangers potentiels de cette désormais profonde acculturation informatique. Les combats pour la vie privée, loin d’être technophobes, sont autant de manifestations de l’inquiétude de l’homme à ne pouvoir se réapproprier la logique autonome de la technique.

La grande conjecture

Le déterminisme est une tradition

Si on a longtemps accusé à tort Jacques Ellul d’être déterministe, c’est pour deux raisons. D’abord parce que c’est un trait caractéristique de sa pensée que de montrer que la technique est déterminante dans les transformations sociales. Cependant cela n’implique pas pour autant que tout fait social soit explicable par la technique. Au contraire, ce qui alarme Ellul c’est justement que cette technicisation de la société est en train de se produire, et que la technique moderne devient autonome (et l’est déjà depuis un certain temps au moment où il écrit).

L’autre raison, c’est l’adoption de la pensée de Ellul aux État-Unis par une importante diffusion de son livre La Technique ou l’enjeu du siècle (Ellul 1954) sous le titre The technological society, publié en 1964 et introduit par l’éminent sociologue Robert K. Merton et sur les conseils d’Aldous Huxley (Ellul 1964, sec. 1). Dans sa préface, R. K. Merton le compare à Oswald Spengler et Lewis Mumford, et soutient qu’Ellul « propose un système de pensée qui, moyennant quelques modifications critiques, peut nous aider à comprendre les forces qui se cachent derrière le développement de la civilisation technique qui est la nôtre ». Certes la société se technicise, la délibération devient rationalisation-quantification, l’économie devient pure concentration de capital et planification forcenée où l’analyse laisse place à la technique, tout ceci est contenu dans l’œuvre d’Ellul, et Merton le remarque bien. Mais au-delà d’une mise en garde contre le réflexe technophobe, c’est aussi d’une lecture techniciste de l’histoire qu’Ellul nous invite à se méfier (même si la technique joue malgré tout chez Ellul un rôle primordial et presque normatif dans sa propre lecture de l’histoire). L’absorption de l’œuvre d’Ellul aux États-Unis a certainement été en quelque sorte victime de cette lecture trop techniciste.

L’historien Merritt Roe Smith, après avoir travaillé des années sur l’histoire des techniques en Amérique, montre à quel point le déterminisme technologique imprègne la culture américaine au moins depuis le XVIIIe siècle (M. R. Smith 1994). Les visions technocratiques issues des discours politiques impliquent ainsi depuis des centaines d’années l’idée que les innovations technologiques ne sont pas seulement des illustrations du « progrès en marche » mais sont autant de preuves de cette marche du progrès, en particulier dans notre quotidien. Selon M. R. Smith cette vision s’est disséminée dans toutes les sphères intellectuelles, des politiques aux écrivains en passant par les grands industriels. L’avènement de la publicité au début du XXe siècle marqua un virage décisif : le progrès n’était plus simplement le synonyme de l’espoir industriel, la technologie était « devenue la cause du bien-être humain ». Face à ce refrain si profondément intégré, les auteurs les plus critiques tel Henri D. Thoreau qui prétendait (avant Heidegger) que les hommes étaient « devenus les outils de leurs outils » (Thoreau 1922), ont pu laisser un héritage littéraire pertinent. Cependant, d’après M. R. Smith, ce furent trois auteurs qui produisirent aux États-Unis un appareillage critique central, bien que contenant encore des bribes de déterminisme puisqu’ils reconnaissent implicitement que la technique est une force agissante qui modèle l’histoire : « Lewis Mumford, Jaques Ellul et Langdon Winner ».

Dès lors, que peut-on opposer à des siècles où le paradigme dominant implique de penser toute avancée technique comme un déterminant social décisif, central, voire absolu ? On sait bien depuis l’avènement des STS que ce n’est pas le cas mais encore une fois nous cherchons ici à comprendre le discours dominant qui n’est manifestement pas celui de l’historien éclairé mais auquel il est finalement toujours soumis. De fait, aux États-Unis comme en Europe, le mantra récité durant les trente années qui suivent l’apparition de l’industrie informatique est celui qui tient l’ordinateur comme une technologie clé de l’histoire. Ce peut être le résultat, pour reprendre la pensée de Bernard Stiegler, que la technologie a toujours été pensée d’après la tradition antique comme un « dehors » auquel répondait le « dedans » de la philosophie, le savoir, la connaissance dont la technique n’est au plus qu’un dérivé auxiliaire. Or, avec l’avènement de l’ordinateur et de la mise en réseau des machines, c’est la communication et donc le langage, véhicule de ce « dedans », qui s’est mis à dépendre fondamentalement de la technique.

Les historiens dans leurs travaux plus récents ne furent pas exempts de cette manière de considérer la technique comme un déterminant, certes rarement unique ou exclusif, mais autonome, même lorsqu’ils attribuaient un rôle décisif aux interactions sociales et aux acteurs des transformations techniques. Par exemple l’historien Paul E. Ceruzzi, dans la conclusion de sa grande histoire de l’informatique moderne, revient sur cette modernité. Il l’exprime comme un processus autonome de remplacement d’une technologie par une autre. Pour lui, l’histoire des ordinateurs et des réseaux est celle de deux prises de contrôle successives de l’analogique par le numérique. La première a été identifiée au début des années 1970 lorsque les ordinateurs ont remplacé les circuits électroniques analogiques par la programmation et la miniaturisation. La seconde est Internet, mariage de tout le secteur des communications avec l’informatique en lieu et place des télécommunications analogiques. Une prise de contrôle validée « par tout le spectre politique et culturel, par Newt Gingrich, Al Gore, Stewart Brand, feu Timothy Leary, la ‘génération X’ et de nombreuses autres personnes » (Ceruzzi 1998, 347).

Pourtant, au cours des années 1960 et 1970, la manière dont on concevait la dynamique du changement technologique était le résultat de l’observation de ce qui était en train de se passer dans l’industrie : la spécialisation toujours plus croissante des entreprises, et en particulier l’apparition des entreprises dites de « haute technologie » ou « de pointe », et l’informatisation de cette industrie qui permettait d’accroître la production et travailler en réseau (là où Ford maîtrisait sa chaîne de A à Z suivant un vieux modèle, les secteurs les plus technologiquement avancés travaillaient la coopération).

Ce changement permettait d’appréhender différemment le déterminisme technologique. Ce fut le cas de Robert L. Heilbronner qui publia un article de référence en posant la question frontalement : les machines font-elles l’histoire (Heilbroner 1967) ? Il montre que si la technologie influence l’ordre social, il y a comme un processus d’aller et retour entre l’innovation et un aspect fondamental de l’organisation sociale, la production. C’est pourquoi on peut qualifier le déterminisme de R. L . Heilbronner de « déterminisme doux ». En effet, pour lui, ce qui fait que les développements technologiques sont prévisibles, ce n’est pas parce qu’ils sont les fruits d’une application mécanique de la science sur la technique, mais le résultat d’une organisation de la production adéquate pour atteindre un stade supérieur de technologie : division du travail, spécialisation des industries et coopération. Et cette organisation est elle-même dépendante du capital mobilisé pour atteindre une congruence efficace entre les fonctions industrielles diversifiées et coopérantes. Le capitalisme autant que la science conditionne la production technologique, ce qui fait de la technologie un médiateur social qui définit les caractéristiques de la société où elle se développe : la composition de la population active (spécialisations, compétences) et l’organisation hiérarchique du travail. Si bien que dans l’histoire récente du capitalisme, là où J. Ellul pointait une technique qui s’autonomise, R. L. Heilbronner montre que si le capitalisme est le stimulant d’une technologie de production, l’expansion de la technologie dans le système de marché prend un aspect automatique à bien des égards parce que production devient synonyme de production technologique dans un système concurrentiel et de course à l’innovation.

Choisir entre antériorité ou postériorité de la technique par rapport au changement social devient un problème qui a fait son temps. La question est de savoir comment la technique est conçue comme un intermédiaire entre capitalisme-productivisme et changement social. Cependant, hors de l’ombre de ce tout technique, l’historien Lewis Mumford proposait quasi simultanément à la parution de l’article de R. L Heibronner, encore une autre manière d’envisager la technique dans Le mythe de la machine (Mumford 1973). Reléguant le couple capitalisme-machinisme au rang d’épisode négligeable dans l’histoire de l’humanité, Mumford resitue le rapport à la technique sur le temps long, depuis la préhistoire et l’émergence des États et des régimes de gouvernement où la technique apparaît comme le véhicule du pouvoir, une mégamachine (c’est ce qu’un Serge Latouche affirmera plus tard (Latouche 1995) en assimilant technique et culture9). Mieux encore, pour L. Mumford, le rôle de la technique avait largement été fantasmé et cette dissonance entre société et technique, il l’avait déjà expliqué dans Technique et civilisation en 1934 en ces termes (Mumford 1950, 35) :

En fait, la nécessité de promouvoir sans cesse des changements et des améliorations — ce qui est la caractéristique du capitalisme — a introduit un élément d’instabilité dans la technique et empêché la société d’assimiler ces perfectionnements et de les intégrer dans des schémas sociaux appropriés.

Mais dans la (ou les) mégamachine(s) qu’il décrit en 1967, tout est déjà compris : division du travail, exploitation des classes, pouvoir centralisé, puissance militaire, logique impérialiste… sans pour autant fermer la porte à une reconquête possible de la machine ou plutôt cette « mégatechnologie » qui, aux mains d’une minorité de puissants menace les individus en les enfermant dans un régime fonctionnel fait de contrôle et d’automatismes. Au moment où étaient en train de naître les réseaux de communication numérique, et alors même qu’on avait déjà assimilé des modèles théoriques de tel réseaux, notamment grâce aux travaux de Ted Nelson (qui invente l’hypertexte) en 1965, la possibilité de mettre en relation les individus était en même temps la possibilité de se sortir éventuellement de la dynamique de la mégamachine qui instrumentalise la technique. L. Mumford déclarera ainsi en 1972 (Mumford 2014) :

(…) l’objectif majeur de la technique n’est ni d’étendre encore le domaine de la machine, ni d’accélérer la transformation des découvertes scientifiques en inventions rentables, ni d’accroître la production de nouveautés technologiques changeantes et de modes dictatoriales; ce n’est pas non plus de placer toutes les activités humaines sous la surveillance et le contrôle de l’ordinateur – en bref, ce n’est pas de riveter les parties de la mégamachine planétaire encore indépendantes de manière à ce qu’il n’y ait plus moyen de s’en échapper. Non: la tâche essentielle qui incombe aujourd’hui à tous les intermédiaires humains, et surtout à la technique, est de restituer les qualités autonomes de la vie à une culture qui, sans elles, ne pourra pas survivre aux forces destructrices et irrationnelles qu’ont déclenchées ses réalisations mécaniques initiales.

Cette possibilité entr’ouverte, elle fut sans doute comprise par bien des acteurs de l’élaboration commune d’un agrégat technique qui sera nommé Internet. C’est très certainement cette ré-appropriation de la technologie qui a motivé les hackers du projet Community Memory et bien d’autres initiatives du genre, et qui donnèrent lieu à une économie de services et un choix qui fit de L. Mumford une Cassandre des temps modernes.

Réseaux, démocratie, capital

On attribue généralement la naissance d’Internet à la mise en œuvre combinée de projets militaires et civils aux États-Unis à la fin des années 1960. Sans revenir sur cette histoire maintes fois racontée, il y a plusieurs aspects que nous devons prendre en compte dans la manière dont l’usage des technologies de réseau s’étendit à travers la société.

En premier lieu, les réseaux informatiques sont le résultat d’une combinaison d’ordinateurs, de systèmes d’exploitation et de protocoles de communication. Des ordinateurs, avant tout, puisque le projet initial de l’ARPA (pour l’exprimer simplement : construire un réseau résilient) comportait une alliance très forte avec une entreprise issue du MIT nommée BBN (créé par les professeurs Leo Beranek et Richard Bolt, rejoints ensuite par un de leurs étudiants, Robert Newman) qui elle même entretenait des liens historiques avec DEC (Digital Equipment Corporation), productrice d’ordinateurs type PDP pour une grande partie des instituts de recherche. Bien que DEC ne fut pas la seule entreprise concernée, le développement ultérieur des mini-ordinateurs de type PDP-11 puis le passage à des architectures 32 bits, la baisse des coûts de production, jouèrent un rôle décisif dans le développement du marché des mini-ordinateurs et leur mise en réseau. L’arrivée de systèmes d’exploitation à temps partagé (dont CTSS – Compatible Time-Sharing System – fut l’un des projets phare au MIT, avec pour successeur le projet Multics) fut l’une des conditions à réunir pour permettre aux utilisateurs de se connecter à plusieurs sur un ordinateur. Ces créations furent associées à d’autres concepts théoriques et applicatifs tels la commutation de paquets (un sujet que Paul Baran avait initié au début des années 1960), ou, de manière structurée, la suite de protocoles TCP/IP (travaillée par Bob Kahn au début des années 1970).

Ces exemples ne montrent qu’une petite partie de l’ensemble nommé Internet, et qui n’est lui-même que la partie de réseaux de réseaux accessible au public. Des premières recherches conceptuelles qui s’agrégèrent jusqu’aux réseaux opérationnels, les technologies de base d’Internet ont été développées sur une trentaine d’années et ne cessent d’évoluer. De plus, cet agrégat n’est pas qu’un amalgame de technologies, il est le fruit de bien des aspects relationnels entre acteurs et groupes d’acteurs, institutions et entreprises. De ces convergences découla la concrétisation de la notion de computer utility, c’est-à-dire un modèle économique de service : mise à disposition de ressources informatiques (puissance de calcul) et gestion d’infrastructures (Garfinkel 1999). Ce modèle fut pensé dès le début des années 1960 mais l’arrivée de l’informatique en réseau lui donna corps, et avec cela tout un discours sur la transformation sociale qui, en un sens radicale, supposait que la technologie recelait en elle et de manière positive les ingrédients de cette transformation, comme si elle ne relevait d’aucune pensée préalable. Or, ce n’était évidemment pas le cas. Nous l’avons vu avec la pensée hacker, et comme l’a brillamment montré Fred Turner à travers des hommes comme Stewart Brand et The WELL, il en va ainsi de la majorité des acteurs principaux qui ont construit l’économie de la Silicon Valley sur l’idée que les technologies apportent les réponses à tous les « grands problèmes du monde ».

Les réseaux et leurs infrastructures ne sont pas seulement le substrat technique sur lequel s’est développée l’économie numérique. Nombre d’acteurs qui ont construit cette économie partageaient une vision commune du rapport entre société et technique que l’on pourrait qualifier de solutionniste. Ils marquèrent sur plusieurs décennies le point de basculement principal dans le processus d’informatisation de la société : les ordinateurs n’étaient pas qu’une extension du machinisme dont l’objectif était d’augmenter notre production et améliorer notre bien-être. Ils allaient plutôt nous permettre de changer le monde et pour cela, il était impératif que la société accepte le rôle calculatoire de l’ordinateur comme le maillon principal des processus de décision et d’action.

Bien entendu, ce n’était pas le point de vue de tous les hackers. Cependant, comme le montre Fred Turner, le déplacement de la contre-culture hippie associé à la logique industrielle et au libéralisme a créé un certain anti-autoritarisme qui s’est lui-même structuré en ce que nous pouvons identifier comme un « libertarianisme californien ». Le couple technologie-capital que mentionnait R. L. Heilbronner a fini par captiver cette contre-culture au point que la plupart de ces ingénieurs hétérogènes (si on les considère du point de vue acteur-réseau) on fait le choix de l’aventure entrepreneuriale. C’est au début des années 1980 que d’autres ont au contraire commencé à y voir les déséquilibres économiques et éthiques et investirent alors le modèle du logiciel libre, comme nous le verrons plus loin. Toujours est-il qu’Internet devenait l’El-Dorado de l’économie de service, point de jonction entre l’encapacitation sociale et le cercle vertueux du capital et de l’innovation.

La fin des années 1970 et le début des années 1980 furent des moments propices à la construction de cette représentation d’Internet et de l’économie de services. Cette période connut non seulement l’arrivée de l’ordinateur personnel sur le marché de la consommation de masse mais aussi la consolidation des systèmes de gestion de bases de données, et une assimilation unanime de l’informatique à la fois par les entreprises de tous les secteurs d’activité et les administrations publiques. Ainsi, en 1978, dans son best seller intitulé The Wired Society (Martin 1978) (récompensé du Pullizer), James Martin pouvait bénéficier d’un terrain d’étude extrêmement favorable sur ce qu’il a nommé les « autoroutes des télécommunications ». Il ne s’agissait plus de supposer le développement futur des usages et de leurs implications dans la société, mais de faire un premier point sur ce qu’avait changé la haute disponibilité de l’information. Huit ans plus tôt, dans un précédent ouvrage co-écrit avec Adrian Norman, The Computerized Society (Martin and Norman 1970) il s’agissait de prévenir des dangers potentiels de l’omniprésence des algorithmes dans les systèmes décisionnels : à partir du moment où un système est informatisé, la quantification devient la seule manière de décrire le monde. 0r la veille des années 1980, son analyse n’avait guère changé : le danger ne peut provenir que de ce que l’homme fera des techniques à sa disposition mais elles sont libératrices par essence, leur utilité l’emporte sur l’adversité. Il devenait le futurologue qui mettait fin aux craintes de l’avènement d’une société Orwellienne : la diversité des informations et leur accessibilité sur les autoroutes de télécommunication devait agir comme une garantie à l’encontre de la manipulation mentale et de l’autoritarisme. Les promesses de l’accès illimité aux contenus éducatifs et du partage des connaissances devaient constituer l’antithèse des régimes totalitaires qui restreignent et contrôlent les communications.

Comment comprendre ce revirement qui, à nos yeux contemporains et compte-tenu de ce que nous savons de la surveillance en démocratie, passe aussitôt pour de la naïveté ? En démocratie, l’information et le partage d’information est un élément décisif de l’épanouissement d’une société. Pense-t-on pour autant que, développés en majeure partie dans des pays démocratiques et propagés par les vertus de l’économie libérale, les réseaux de communication numériques ne pourraient servir que des objectifs démocratiques ? Il est compréhensible que leur avènement ait tant bousculé les organisations que cette révolution ait un temps occulté le fait que l’analogie n’est pas fondée.

La même année, en 1978, Murray Turoff et Roxanne Hiltz publient The Network Nation (Turoff and Hiltz 1994), un livre aux conséquences souvent mal connues mais qui consacra le domaine des communications en ligne comme la technologie-clé censée révolutionner la vie sociale et intellectuelle. M. Turoff avait inventé un système de conférence électronique pour le gouvernement américain afin de communiquer en temps de crise. Initiateur du concept de Communication médiée par ordinateur (computer-mediated conferencing, CMC), il continua avec Roxanne Hiltz, qui devint son épouse, à développer son système électronique d’échanges d’informations jusqu’à aboutir à une présentation exhaustive de ce que signifie vraiment communiquer à distance par ordinateurs interposés : échanges de contenus (volumes et vitesse), communication sociale-émotionnelle (les émoticônes), réduction des distances et isolement, communication synchrone et asynchrone, retombées scientifiques, usages domestiques de la communication en ligne, etc. Récompensés en 1994 par l’EFF Pioneer Award, on considère aujourd’hui Murray Turoff et Roxanne Hiltz comme les « parents » des systèmes de forums et de chat massivement utilisés aujourd’hui.

Pour eux, dans la mesure où les réseaux et leurs infrastructures continuent de se développer, la Network Nation ne demande qu’à éclore, aboutissant à un « village planétaire », concrétisation de la pensée de Marshall McLuhan, où « la technologie en viendra probablement à dominer la communication internationale » (Turoff and Hiltz 1994, 25). À l’aide de nombreuses études de cas, ils démontrent combien l’organisation sociale (dont l’éducation et le travail à distance) et les modèles de décision collective peuvent être structurés autour des télécommunications numériques. De l’extension du modèle de démocratie participative asynchrone et obtention de consensus par conférence téléphonique (Etzioni, Laudon, and Lipson 1975), la récolte de l’opinion publique dans les Community Centers de Hawaï en 1978, jusqu’au test grandeur nature du Public Electronic Network de Santa Monica, Murray Turoff et Roxanne Hiltz montrent à quel point la démocratie participative par réseaux de communication pourrait même bousculer radicalement la démocratie représentative qui, elle, est basé sur une participation indirecte. Sans apporter vraiment de réponse à cette question, il reste que les auteurs livrent à ce moment-là une conception selon laquelle la technique est à même de conditionner la vie publique. Les choix relatifs à la régulation des usages sont désormais écrits (Turoff and Hiltz 1994, 400) :

Le domaine des communications numériques a atteint un point où ce n’est plus la technologie, mais les questions de politique, de droit et de réglementation qui détermineront le degré de bénéfice que la société en tirera. Si nous extrapolons les tendances actuelles, des aspects tels que les utilisations publiques peuvent être artificiellement retardés de plusieurs décennies (…)

Mais ce qui devra arriver arrivera, et cela tient intrinsèquement à la nature même des technologies de communication (Turoff and Hiltz 1994, 401) :

Dans la mesure où les communications humaines sont le mécanisme par lequel les valeurs sont transmises, tout changement significatif dans la technologie de cette communication est susceptible de permettre ou même de générer des changements de valeur.

Communiquer avec des ordinateurs, bâtir un système informatisé de communication sociale-émotionnelle ne change pas seulement l’organisation sociale, mais dans la mesure où l’ordinateur se fait de plus en plus le support exclusif des communications (et les prédictions de Turoff s’avéreront très exactes), la communication en réseau fini par déterminer nos valeurs. C’est en cela que la conjecture selon laquelle l’ordinateur est une technologie déterminante est une conjecture qui prend une dimension heuristique à la fin des années 1970. Et c’est la raison pour laquelle à cette époque l’ordinateur passe si difficilement sous le feu des critiques : on lui préfère l’analyse du machinisme ou les références anciennes à la domination de l’outil de travail.

Dans la sphère intellectuelle américaine, plus versée dans la littérature que dans les modèles de systèmes d’information, on retrouve l’adhésion à ce discours. Les enjeux humanistes qu’il soulève devenaient parfaitement audibles aux oreilles des non-techniciens. C’est le cas de Jay David Bolter qui, bien que formé à l’informatique, n’en était pas moins professeur de littérature soucieux de l’avenir culturel à l’âge informatique. En 1984, il écrivit un autre best seller intitulé Turing’s Man: Western Culture in the Computer Age (Bolter 1984). Pour lui, si l’ordinateur est une technologie déterminante, ce n’est pas parce que l’usage de la technique change les valeurs, mais c’est parce que l’ordinateur est comparable à la machine à vapeur ou à l’horloge qui, selon lui, ont révolutionné notre représentation du monde en redéfinissant notre rapport au temps, à la mémoire, à la logique, à la créativité, au langage… Bien que nous puissions en dire autant de bien d’autres techniques. En fait, si on se fie à J. D. Bolter, ces dernières sont déterminantes parce qu’elles se situent haut sur une sorte d'« échelle de la détermination technologique ». Comme toutes les révolutions, la révolution informatique se mesure à l’aune de ses dangers et de la pensée critique qui s’en empare. Pour J. D. Bolter, l’âge informatique est un âge où le risque est grand de perdre l’humanisme occidental en le noyant dans une quantification de nos vies par le traitement des données informatiques. Et si la tradition humaniste est à ce point en danger, ce serait parce que la technologie a toujours déterminé la pensée. L’ordinateur suit la même voie séculaire (Bolter 1984, 36) :

Le scientifique ou le philosophe qui travaille avec de tels outils électronique pensera différemment que ceux qui travaillaient sur des bureaux ordinaires, avec du papier et des crayons, avec des stylets et des parchemins, ou du papyrus. Il choisira des problèmes différents et trouvera des solutions différentes.

Là encore, tout comme dans le livre de James Martin, on se situe bien loin des craintes d’un futur Orwellien, mariage entre technologie et totalitarisme : le côté rassurant de la technologie, aussi révolutionnaire qu’elle soit, c’est qu’elle se présente désormais comme un « déjà-là » et détermine ce que sera « l’homme de Turing ». Un état de fait qu’on ne peut qu’accepter et en trouver les avantages.

Là où Lewis Mumford voyait entr’ouverte la porte de sortie du déterminisme, J. D. Bolter la referme avec la plus grande candeur : il appartiendrait à chacun de savoir conserver la part d’humanisme dans un monde fait par la technique et pour la technique. Mais là encore, tout comme beaucoup ont mal lu J. Elllul, beaucoup ont fait l’erreur de ne pas comprendre que la mégamachine moderne n’est pas toute entière issue de la technique ou de la pensée technocratique. Il faudra plusieurs années entre la fin des années 1960 et le début des années 1990 pour que, à travers le ronronnement permanent des discours sur les bienfaits de l’innovation technoscientifique, émergent des dissonances qui ne s’attachent plus uniquement au problème du déterminisme technologique et au regret d’un humanisme perdu, mais sur les dynamiques sociales qui conditionnent la mégamachine.

En 1966, la Monthly Review publiait l’ouvrage monumental de Paul Sweezy et Paul A. Baran, Le capital monopoliste, un essai sur la société industrielle américaine. L’idée que le pouvoir n’est finalement que secondaire dans une société capitaliste où la logique économique a son cheminement propre, non pas essentiellement technique mais résultat d’une tension entre production et coût de production d’où émergent des tendances impérialistes, consuméristes, monopolistes. Pour survivre, les entreprises sont condamnées à innover. Et c’est ce qu’en 1991 et 1995 l’économiste Serge Latouche nomme le principe du « maximine » (Latouche 1991  ; Latouche 1995) (maximisation du profit, minimisation des coûts), selon lequel l’innovation technologique est le moteur qui génère nos comportements modernes de consommateurs et d’accumulateurs. Pour Serge Latouche, la mégamachine est en réalité la société toute entière qui entretient une synergie entre logique technicienne et logique économique.

Et d’autres auteurs encore développèrent cette approche critique, y compris de nos jours, via une démarche opérant une certaine filiation américaine de la pensée « néo-marxiste ». Ainsi John Bellamy Foster et Robert Mc Chesney qui, au lendemain des révélations Snowden, montrent comment la logique monopoliste, impérialiste et militariste conditionnent notre soumission à un capitalisme de surveillance. C’est-à-dire un capitalisme technologiste qui, pour reprendre le mot de Bernard Stiegler, contribue à prolétariser les individus dans leur quotidien, leur vie, leur comportement, leurs relations, là où on attendait justement des infrastructures technologiques des communications l’espoir d’une émancipation démocratique qui manquait déjà tant aux années 1970.

Internet, dispositif indéterminé

Sommes-nous arrivés à un âge critique où, après un trop-plein d’innovations techniques dont l’économie numérique serait la dernière manifestation (à la suite de la révolution pharmaceutique ou de l’automobile), une prise de conscience serait advenue faisant valoir un discours réaliste sur les interactions entre les dynamique sociales et les techniques ? Prendrait-on conscience d’un trait caractéristique de notre modernité selon lequel la société est dominée non pas par la technique mais par une logique d’accumulation qui détermine à son tour les conditions de l’innovation et donc les techniques ? Marketing, consommation, impérialisme militaro-économique, concurrence et monopoles, décision publique favorable aux monopoles, tous ces leviers (on peut ajouter le capitalisme d’État pour certaines puissances) en faveur des objectifs de production des sociétés modernes montrent que si on peut définir une société par ses technologies-clé, cette définition est non seulement non-exclusive mais doit intégrer le fait qu’il s’agit avant tout de choix collectifs, de stratégies de développement et non de la technique en soi.

C’est l’argument retenu lorsqu’on envisage les changements technologiques à une échelle plus globale et qu’on la confronte aux enjeux environnementaux. D’un côté, la lutte contre le changement climatique ou la prise de conscience des écueils de l’anthropocène et, de l’autre, l’idée que ce sont nos choix techniques qui ont dirigé plus ou moins consciemment les sociétés vers les impasses de l’urgence climatique. Là ne se confrontent plus artefacts et nature (si tant est que l’homme technicien se définisse comme « maître et possesseur ») mais capital et oïkoumène, le milieu, notre commun naturel. Et nous aboutissons aux même arguments de Bernard Stiegler : les technologies numériques font partie d’un ensemble de choix techniques dont la tendance générale consiste à prolétariser toujours plus l’homme (exceptés ceux aux commandes). En séparant technique et savoir, l’homme s’est privé de la critique scientifique de la technique et de là vient la tendance déterministe alors que l’homme se voit dépossédé de ses savoir-faire (automatisation) et savoir-être (algorithmisation de nos comportements). Penser la technique aujourd’hui consiste alors à se demander comment nous pouvons entamer une procédure de déprolétarisation en construisant, selon B. Stiegler, une économie de la contribution, c’est-à-dire une économie dont l’objectif n’est plus composé du moteur accumulation-innovation-profits. Nous y reviendrons plus loin.

Face à cette critique, les forces qui opposent une vision déterministe de la technique relèvent de l’intérêt particulier d’une vision capitaliste dont la caractéristique est de livrer une description monolithique des techniques. Pour qu’une technologie-clé soit considérée comme telle, alors que de sa promotion dépendent les choix économiques, il importe de la définir comme une technologie aboutie ou mature, et surtout libérée des contraintes sociales, c’est-à-dire postuler une neutralité de la technique, une suspension dans les vapeurs éthérées du progrès. Qu’est-ce que cela signifie ? C’est le déploiement d’un discours d’autojustification de la décision : l’utilité économique de la technologie l’emporte sur sa valeur sociale, ou en d’autres termes le besoin individuel (sublimé par l’acte de consommation) l’emporte sur l’intérêt commun. L’autonomie de la technique annoncée par J. Ellul est advenue et semble pleinement assumée par les discours dominants des entreprises monopolistes de la Silicon Valley pour lesquelles il n’existe aucun problème que la technologie ne puisse résoudre, et qui guident la décision publique vers un régime de « start-up nation » comme le souhaitait ardemment le président Macron.

Alors même que le mot « numérique » est sur toutes les lèvres pour promouvoir ce projet global de soumission à un ordre technologique capitaliste, Internet et le mouvement du logiciel libre démontrent depuis le milieu des années 1980 qu’il est possible de se réapproprier socialement la technique et la libérer des discours déterministes. Lorsqu’Internet a commencé à être conçu comme un moyen ouvert de télécommunication assistée par des ordinateurs en réseau, c’est-à-dire comme un moyen de communication social-émotionnel en même temps qu’une infinité d’offres de services et d’innovation dont le modèle économique a explosé dans les années 1990, il a produit en réalité un dispositif technique dont la prégnance sur la société contemporaine est si importante qu’il semble déterminer nos comportements et nos relations sociales. Mais ce n’est qu’une apparence. Nous avons vu qu’Internet est en fait un amalgame de dispositifs techniques. Plus exactement, on peut désigner Internet comme un méta-dispositif socio-technique :

  • Sa construction historique est une association d’infrastructures techniques différentes, de programmes et de protocoles différents, tous issus d’une dynamique d’échanges entre des groupes sociaux (issus de la recherche académique, d’entreprises ou des institutions décisionnaires) ;
  • Son modèle de gouvernance est essentiellement basé sur l’ouverture, comme le montre l’Internet Engineering Task Force (IETF) et son système de requêtes de commentaires, ou comme la suite de protocole TCP/IP (depuis 1973) : l’ouverture s’oppose ici à la possibilité qu’un ayant droit, comme un constructeur, puisse décider des conditions d’usage. Tout le monde peut contribuer à l’avancement d’Internet et des protocoles de communication utilisés. Des organismes de normalisation tels l’IETF ou le W3C consolident juridiquement les innovations issues de cette dynamique d’ouverture (pour éviter, par exemple, les patent troll) ;
  • C’est en particulier grâce à cette liberté des échanges que le mouvement du logiciel libre, dont le concept a été défini au début des années 1980, a pu s’émanciper. L’ouverture d’Internet associée aux libertés logicielles a construit un modèle économique contributif, c’est-à-dire dont le niveau de coopération et de production ne dépendent pas du développement individuel des parties, mais du niveau de progression des communs numériques.

En 2020, les chercheuses Mélanie Dulong de Rosnay et Francesca Musiani (Dulong de Rosnay and Musiani 2020) ont publié un article qui interroge la pertinence aujourd’hui des solutions alternatives d’un internet centralisateur et visiblement en tout point éloigné des objectifs d’émancipation que les discours politiques ont tendance à rabâcher. Face aux entreprises monopolistes et au capitalisme de surveillance, elles questionnent les possibilités qu’offrent depuis des années les technologies ouvertes tels le pair à pair (P2P) et autres moyens de communication décentralisés, de pouvoir proposer des alternatives tout en se rapprochant des nouveaux modes de production et de partage qu’offrent les modèles basés sur les communs. Cette manière de concevoir ce rapport entre technique et société permet aujourd’hui de considérer une autre organisation de la société, d’autres modes de production et d’échanges en alliant les architectures décentralisées et la gouvernance des biens communs (Bauwens and Kostakis 2017).

Étant donné le peu de recherche à ce sujet avant les années 2010, nous avons eu tendance à sous-estimer l’impact de la logique du logiciel libre et des échanges P2P dans la représentation générale du rapport entre société et technique. Ce n’est pas par hasard qu’au milieu des années 1980 le concept de logiciel libre se déploie dans la culture en appliquant ses principes à d’autres formes d’échanges et tout particulièrement les connaissances. Les années 1980 correspondent aussi, nous l’avons vu, à l’arrivée des sciences studies. Même si leur naissance conceptuelle débute un peu auparavant (Pestre 2006), les années 1980 furent un véritable âge d’or d’une modernisation de l’histoire des sciences et des techniques. Et à cet impératif d’interdisciplinarité répondait un changement général dans les discours sur les techniques, celui de l’intégration entre science, technique et société. Il ne pouvait plus être affirmé sans contradiction immédiate que le développement des technologies informatiques et surtout les programmes était une affaire d’innovation et de marché uniquement : comme c’était le cas aux premiers âges des ordinateurs mainframe, le logiciel libre, le développement mondial de GNU/Linux, l’arrivée de Wikipédia, tout cela montrait que l’informatique était avant tout une affaire de communautés d’utilisateurs et de créateurs. Les réseaux ont accentué significativement la tendance au partage et ont fait de ces communautés des illustrations évidentes des dynamiques de co-construction entre techniques et organisation sociale.

Ne nous méprenons pas : il n’y a pas de lien de causalité entre l’émergence de communautés mondiales d’utilisateurs et de programmeurs communiquant avec Internet et le nouvel élan scientifique des science studies. Les deux sont concomitants : des convergences conceptuelles existent entre une vision sociale des techniques et un vécu social des techniques. Le logiciel libre, formalisé juridiquement par les licences libres, est une démonstration à grande échelle de ce que les communautés de pratiques apportent comme apprentissages organisationnels et dynamiques d’innovation. Les communautés ne sont pas que des collectifs de partage mais des maillons décisifs dans l’organisation collective du processus de création : conceptualisation, tests, validation (Cohendet, Créplet, and Dupouët 2003).

Le mouvement du logiciel libre, parce qu’il est avant tout un mouvement social, a suscité beaucoup d’espoirs au point de le considérer comme une utopie plus ou moins concrète qui proposerait une alternative au modèle capitaliste dominant. Il n’en est rien : comme le montre Sébastien Broca (Broca 2018), ce mouvement est profondément ancré dans le modèle capitaliste et notre modernité. Certes, il propose de nouveaux équilibres face aux impasses de la propriété intellectuelle, de la concentration des savoirs, de l’accès aux technologies, et de l’organisation du travail (opposer verticalité et horizontalité, cathédrale ou bazar). Pour autant, les libertés que garanti le logiciel libre ne s’opposent à aucun modèle économique en particulier. Dans la mesure où le secteur de la programmation et des services est aujourd’hui un secteur soumis à de très fortes tensions concurrentielles, il n’y a pas de raison pour que les entreprises spécialisées (les sociétés de services en logiciels libres, SSLL) échappent au modèle dominant, même si elles portent en elles des messages éthiques auxquels adhèrent les utilisateurs. L’éthique du logiciel libre apporte une régulation du marché, sans doute la meilleure, en s’appuyant sur des arguments solides et qui engagent utilisateurs et concepteurs dans un avenir cohérent et durable.

Ce qui a fondamentalement changé la donne, en revanche, c’est l’intégration du concept de pair à pair dans les structures mêmes des réseaux de communication. Et parce que les protocoles qui le permettent sont ouverts et basés sur les mêmes libertés numériques que promeut le mouvement pour le logiciel libre, alors le méta-dispositif socio-technique qu’est Internet peut proposer des modèles de production de valeur indépendants des marchés dominants et des politiques économiques. Historiquement cette idée fait écho à la Déclaration d’Indépendance du Cyberespace écrite en 1996 par John Perry Barlow. Cette dernière été comprise comme le rêve libertarien d’un « village global » de communications et d’échanges sans État ni pouvoir central. À bien des égards, c’était le cas, car en 1996 la Déclaration était d’abord une réaction au Telecommunications Act instauré par le gouvernement de Bill Clinton aux États-Unis, qui ouvrait la concurrence dans les services et équipements de télécommunication et contribua finalement à la bulle capitaliste qui explosa en 2000. En revanche, la Déclaration oppose deux approches de la communication : l’une soumise à un ordre de gouvernement qui impose son modèle par le haut, et l’autre qui promeut, en « défense de l’intérêt commun », une « conversation globale de bits », des échanges selon un ordre collectivement déterminé. Face à un ordre économique profondément inégalitaire, un système différent basé sur des échanges égalitaires permet une mutualisation de l’information et structure la gouvernance des communs. Une gouvernance décidée, orientée, régulée collectivement.

Quels communs ? En premier lieu des biens communs informationnels, dont la caractéristique est d’être non rivaux. Mais d’autres communs peuvent être ainsi gouvernés collectivement de manière à ce que les échanges informationnels de pair à pair permettent de structurer la décision et l’organisation, tout comme le logiciel libre permettait des apprentissages organisationnels. Les modèles de production et d’usage sont alors des modèles sociotechniques : décision et processus de décision, le substrat technique sur lequel la décision se structure, c’est-à-dire les outils communicationnels de pair à pair, autant que les échanges de pair à pair de biens et services. Il peut s’agir de modèles bénévoles ou de modèles marchands. Dans tous les cas, le principe de pair à pair empêche fondamentalement les déséquilibres que cause la prédation d’une économie extractive qui ronge les communs et les individus, qu’il s’agisse de l’environnement, de la connaissance ou encore de nos données personnelles.

Dans une économie pair à pair, il est aussi important de structurer les échanges que de les pratiquer. C’est pourquoi, lorsqu’on se concentre sur le rôle que joue Internet (et le cyberespace) il est important là encore d’éviter toute approche déterministe. La proposition selon laquelle l’innovation venue d’un monde « d’en haut », imposée comme une technique autonome à laquelle nous devrions nous adapter, est fondamentalement une proposition fallacieuse  : s’adapter à Google ou à Facebook comme les seuls pourvoyeurs de solutions de communication sur Internet, c’est accepter des modèles d’échanges qui sont structurellement inégalitaires. Certes des échanges auront bien lieu, mais ils se soumettent à une logique extractive et, comme l’a montré l’affaire Cambridge Analytica, ils imposent aussi leur propre ordre politique. L’autre face de cette proposition fallacieuse consiste à séparer technique et société, en faisant croire qu’Internet est avant tout un ensemble de services techniques précis dont l’avenir ne dépend pas des utilisateurs mais des capacités d’innovation des entreprises qui construisent pour nous un cyberespace mesuré et régulé… alors qu’il est essentiellement conformé à leurs propres intérêts, ainsi qu’en témoigne la tendance concentrationnaire des conditions de l’innovation technique (propriété intellectuelle, puissance financière, possession des infrastructures).

Lorsque le philosophe des techniques Andrew Feenberg s’interroge à propos d’Internet et de son pouvoir d’encapacitation démocratique (Feenberg 2014), il commence par montrer combien Internet est un dispositif qui échappe aux analyses classiques. Historiquement, la stabilisation d’une technologie dans la société vient du fait qu’elle entre dans une dynamique de production et d’innovation qui lui est propre : ce n’est qu’après que le moteur à explosion soit choisi de préférence par les constructeurs que l’automobile passa du statut de prototype à objet de luxe puis à un objet de consommation qui modifia l’organisation sociale en tant que mode de transport. Il n’y a pas d'« artefact Internet » et encore moins qui puisse répondre à ce schéma. C’est pourquoi le fait qu’Internet soit un espace d’échanges qui favoriserait la démocratie est une affirmation qui, selon A. Feenberg doit d’abord prendre en considération qu’Internet est un dispositif sociotechnique qui est encore indéterminé. Pour notre part, nous pensons qu’Internet est potentiellement un dispositif à jamais indéterminé à condition de maintenir le pair à pair comme principe fondamental.

On peut considérer le dispositif dans un sens philosophique. Essentiellement en référence à Michel Foucault, plusieurs penseurs ont travaillé cette notion de dispositif. Giogio Agamben répond à la question Qu’est-ce qu’un dispositif ? en ces termes (Agamben 2014  ; Agamben 2006) :

(…) tout ce qui a, d’une manière ou d’une autre, la capacité de capturer, d’orienter, de déterminer, d’intercepter, de modeler, de contrôler et d’assurer les gestes, les conduites, les opinions et les discours des êtres vivants. Pas seulement les prisons donc, les asiles, le panoptikon, les écoles, la confession, les usines, les disciplines, les mesures juridiques, dont l’articulation avec le pouvoir est en un sens évidente, mais aussi, le stylo, l’écriture, la littérature, la philosophie, l’agriculture, la cigarette, la navigation, les ordinateurs, les téléphones portables, et, pourquoi pas, le langage lui-même (…)

Définir un dispositif, c’est le faire entrer dans une liste dont l’objectif est de rassembler des éléments certes hétérogènes (dispositifs institutionnels, cognitifs, techniques, etc.) mais dont, à un moment donné la cohérence définit l’action. Par exemple l’action de gouverner, d’imposer un pouvoir, ou pour ce qui concerne un dispositif technique, le fait de déterminer des usages ou configurer plus ou moins significativement l’organisation sociale. Envisager Internet comme un dispositif, au sens philosophique, amène une dimension supplémentaire à notre analyse : si Internet est un dispositif indéterminé, il peut devenir l’infrastructure au sens métaphorique, ou la matrice matérielle et logicielle, pratique et théorique, des relations de pair à pair à la source d’alternatives plurielles et néanmoins cohérentes au modèle privateur dominant, et donc matrice d’apprentissages organisationnels ouvrant une pluralité de choix sociaux, économiques, technologiques, politiques.

Internet est ce que nous en ferons. Et pour cela il n’y a aucune ambiguïté dans les projets communautaires consistant à bâtir des réseaux dont les caractéristiques intègrent techniquement la logique des échanges pair à pair grâce au développement de logiciels libres. C’est le cas de ce qui a été nommé depuis quelques années le Fediverse. Il s’agit d’un ensemble de serveurs fédérés entre eux de telle sorte que chacun d’entre eux puisse échanger avec les autres de manière transparente afin de former des réseaux décentralisés de publications de contenus. Chaque serveur propose au moins une instance d’un logiciel libre dont le but est de permettre aux utilisateurs de communiquer entre eux et à travers toutes les instances, par exemple pour des activités de micro-blogage, de blog, de partage de vidéo, de musique, etc. Les logiciels sont libres (le code est connu de tous) et les protocoles ouverts sont standardisés (depuis 2008 avec OStatus jusqu’au protocole ActivityPub recommandé par le W3C). Les seules limites au Fediverse sont celles de la créativité de ses utilisateurs et concepteurs ainsi que l’impossibilité technique de centraliser et capter des ressources, surtout dans une logique de profit, sans sortir du Fediverse. Quant aux usages, et le fait qu’une instance puisse être acceptée par les autres, ils reposent eux aussi sur les notions de partage et de réciprocité. Le Fediverse est sans doute la plus brillante démonstration de l’indétermination d’Internet en tant que dispositif sociotechnique : nonobstant la législation en vigueur dans le pays où une instance est installée, toute tentative de régulation par le haut afin de défendre des intérêts particuliers est vouée à l’échec (de l’un ou de l’autre ou des deux).

Conclusion : portes de sortie

Nous avons vu qu’une tradition du déterminisme technologique transparaissait dans les représentations d’une société informatisée, mêlant ici les espoirs de l’encapacitation générale à la démocratie, et là la nécessité d’un modèle productiviste et innovateur. L’économie numérique s’est imposée comme un nouvel ordre face auquel les critiques « anti-déterministes » avaient tendance à focaliser sur les critiques du pouvoir que cet ordre imposait, ou sur les manquements éthiques d’une technique prétendue autonome. Cependant, si l’avancement technologique est bien le jeu d’interactions entre sciences, techniques et société, il pouvait y avoir la possibilité pour que certaines techniques intègrent en elles by design une réaction à ce nouvel ordre économique. Par conséquent, il existe bien une possibilité de se sortir du modèle productiviste et d’innovation capitaliste. Néanmoins ce modèle est tellement dominant que, du point de vue des utilisateurs, c’est le discours déterministe qui reste encore le plus audible sur le mode d’une idolâtrie de la machine pour reprendre les mots de Simondon (Simondon 1969).

Une grande partie des usages publics d’Internet sont dépendants de sociétés de services qui centralisent l’information et conditionnent les usages de manière déloyale afin d’extraire des données personnelles des utilisateurs. Longtemps dénoncé, ce système fait d’internet un dispositif d’assujettissement, ainsi que le montre S. Zuboff, en surveillant nos quotidiens, en captant nos expériences humaines et en les instrumentalisant pour orienter nos comportements. C’est pourquoi la critique de ce dispositif a fait un lien direct avec un autre dispositif, le panoptique de J. Bentham dont s’inspire Michel Foucault. En effet, pour ce dernier, tout dispositif, surtout parce qu’il a une finalité stratégique, contient une relation de pouvoir (Foucault 1994b, 300). La surveillance continue, exercée tant par des entreprises monopolistes que par des États, a éclaté au grand jour à travers le scandale soulevé par les Révélations Snowden en 2014. Or, ce fut là le point de convergence où l’on trouva les preuves indiscutables que les dispositifs de surveillance avaient des objectifs de contrôle et donc d’assujettissement. La clairvoyance des penseurs postmodernes pouvait être convoquée : si Michel Foucault avait bien anticipé le caractère transitoire d’une société disciplinaire où l’enfermement permet la surveillance et donc l’équilibre du contrat social, l’avenir d’une telle société, nous disait Gille Deleuze (Deleuze 1990), était de passer à un mode ouvert où le contrôle s’exercerait de manière instantanée, permanente et diffuse. À leur tour Michael Hardt et Antonio Negri (Negri and Hardt 2004) montrent que le propre d’une société de contrôle consiste à se servir des dispositifs les plus démocratiques, les plus socialement intégrés pour exercer un contrôle cognitif et biologique. Aujourd’hui ces formes de contrôles ne font aucun doute lorsqu’on considère les scandales sur la sécurité des données personnelles et la main-mise des courtiers de données sur l’analyse comportementale et le modelage de nos comportements au marché ou les techniques de surveillance de masse des populations par les États (et le marché hautement lucratif de ces techniques).

Nous savons tout cela. Mais à ne voir qu’un assujettissement, on ne pense plus une critique d’Internet qu’à travers ce prisme. Or, comme le montre le Fediverse, il existe des stratégies qui, depuis longtemps, imbriquent dans les dispositifs techniques des logiques en tout point opposées au contrôle et au pouvoir. D’où viennent ces stratégies ?

On pourrait les rapprocher des pratiques que déploient les individus en société, la consolidation des relations sociales à travers le souci de soi. Non pas un réflexe individualiste, mais à l’instar de la manière dont Michel Foucault en comprend le déploiement à partir de la cité antique (Foucault 1984), c’est-à-dire les « arts de l’existence », un travail sur soi que l’on fait à travers des pratiques permettant de se transformer afin de vivre avec les autres, partager des règles communes, un « connais-toi toi-même – mais aussi prend soin de toi », comme le conseille Socrate à Alcibiade, pour élever le citoyen (peut-être amené à gouverner) vers l’exemplarité, l’esthétique de soi. Le souci de soi est d’abord la capacité de prendre la mesure de l’autre, en ce sens c’est un rapport éthique  : « le souci de soi est éthiquement premier, dans la mesure où le rapport à soi est ontologiquement premier » (Foucault 1994a). C’est un principe d’accomplissement et en cela, le souci de soi, individuellement et collectivement, est la tendance à mettre en œuvre des pratiques de liberté. Le principe du pair à pair et son inclusion dans des dispositifs techniques tels le Fediverse, élaborés collectivement, de manière contributive, apparemment spontanée mais dans l’effort réfléchi d’une stratégie altruiste, relève de ce souci de soi en structurant les conditions communes de communication et de production de contenus.

Ces pratiques de libertés se retrouvent dans l’œuvre de Michel de Certeau (Certeau 1990). Ce dernier oppose au principe d’assujettissement une lecture beaucoup plus fine du quotidien de l’homme ordinaire face à un ordre organisateur de la technologie. M. de Certeau s’interroge d’abord sur notre état de consommateur dans une économie de production où nous serions docilement soumis à la manipulation par dispositifs communicationnels interposés de marketing ou de télévision. Comment comprendre que la masse de nos singularités puisse être comprise comme un tout uniforme soumis au pouvoir des dispositifs sociotechniques de l’économie ou de l’État ? Au contraire, dans les messages qu’il reçoit, dans ses manières de consommer ou d’agir avec les techniques qu’on lui vend ou qu’on lui impose, il y a toujours chez l’individu un moment de réappropriation tactique qui est en soi un mode de production selon le contexte, un réemploi qui est quelque chose de plus que le seul usage, c’est-à-dire une manière de faire et une manière d’être qui sont à nulles autres pareilles. Or, alors même que les critiques des GAFAM montrent à quel point l’économie numérique influe sur nos quotidiens au point de s’en emparer en pillant notre vie privée, il s’avère que l’équation n’est peut-être pas aussi simple du point de vue individuel. L’approche du quotidien comme celle de Michel de Certeau peut sans doute édulcorer l’idée d’un assujettissement général aux dispositifs de pouvoir.

Alan Westin, l’une des figures intellectuelles des débats publics sur la vie privée au début des années 1970, a longuement travaillé avec de grands instituts de sondage sur la manière dont la population américaine perçoit les risques liés à l’usage des données personnelles dans l’économie numérique. Il dirigea pas moins de 45 sondages entre 1979 et 2001. L’une de ses conclusions est que, si dans les années 1980 une petite partie seulement des personnes se sentait concernée par la question de la vie privée, les années 1990 connurent une multiplication des pratiques et stratégies des consommateurs pour veiller sur cette question. Il résume lors d’une intervention au Congrès en 2001 (Westin 2001) :

Au fil des ans, les sondages que j’ai menés auprès de Harris et de Opinion Research Corporation m’ont permis de dresser un profil de trois segments du public américain. Premièrement, il y a ce que nous appelons les « fondamentalistes de la protection de la vie privée », soit environ 25 % de la population. Il s’agit de personnes très préoccupées par la protection de la vie privée, qui rejettent généralement les avantages qui leur sont offerts par les entreprises ou qui sont sceptiques quant au besoin d’information du gouvernement, et qui veulent voir une loi pour contrôler la collecte et l’utilisation des renseignements personnels par les entreprises.

À l’opposé, il y a ce que j’appelle les « non-concernés », qui étaient auparavant de 20 %, mais qui sont maintenant tombés à 12 %, et qui ne savent vraiment pas de quoi il s’agit. J’aime à penser que pour 5 cents de rabais, ils vous donneront toutes les informations que vous voulez sur leur famille, leur style de vie, leurs plans de voyage, etc.

Entre les deux, il y a ce que nous appelons les « pragmatiques de la protection de la vie privée », soit 63 %, ce qui représente environ 126 millions d’adultes américains et, essentiellement, ils passent par un processus très structuré lorsqu’ils se préoccupent de leur vie privée.

Cet état des lieux montre à quel point l’écrasante majorité des personnes élabore des stratégies (et Michel de Certeau aurait parlé de tactiques) en réponse aux dispositifs de surveillance, alors même que la critique dominante des pratiques des entreprises et des États a tendance à présupposer la passivité chronique de toute la population. Et le problème ne cesse de s’aggraver. Dans un documentaire de 2020 intitulé The Social Dilemma, des « repentis » des grandes entreprises telles Facebook, témoignent à l’encontre des pratiques de captation de l’attention et d’extraction des données personnelles dont ils ont participé à la mise en œuvre. Au long du documentaire, le présupposé consiste à démontrer que seuls les experts des technologies numériques qui ont effectivement travaillé dans ces entreprises seraient à même de développer un discours légitime à leur propos. L’idée sous-jacente serait qu’il n’y peut y avoir de critique des dispositifs techniques en dehors de ces dispositifs. La société ne peut qu’être soumise à ce déterminisme technologique dans la mesure où l’expertise se concentre à l’intérieur du modèle économique qui crée la technologie.

On voit à quel point cette idée est décalée de la réalité car non seulement les utilisateurs créent dans leur quotidien des stratégies de réappropriation mais, de plus, ces stratégies ont toujours existé, depuis les phreakers jusqu’au détournement des services de catalogue commerciaux Prodigy en salons de chat à la fin des années 1980 jusqu’à la création de logiciels et services libres de réseaux sociaux. Des espaces de résistance se sont formés et n’appartiennent pas uniquement aux experts. Ces tactiques du quotidien sont diffuses et universelles. La logique et l’éthique hacker ont su gagner les mentalités et la culture.

On pourra néanmoins rétorquer qu’une analyse sociologique montrerait que l’adoption des dispositifs alternatifs a toujours besoin d’une expertise, et que par conséquent se développent là aussi des jeux de pouvoir entre spécialistes et non spécialistes. C’est d’autant moins vrai que de plus en plus de collectifs ouverts aux non-spécialistes proposent une organisation contributive des dispositifs techniques, c’est-à-dire la possibilité pour tous les utilisateurs d’accomplir leurs actes de réappropriation dans des espaces communs et dans un engagement éthique. Par exemple : ne pas exiger un service de courrier électronique à la hauteur de ce que les grandes firmes proposent, mais en retour avoir la possibilité d’utiliser un service de confiance, dont on connaît les responsables de maintenance. Répondre à des offres de services globaux et basées sur des logiques de profits en initialisant de nouvelles chaînes de confiance dans un système de pair à pair, local et contributif, telle est la réponse « populaire » à la défaite de l’assujettissement, de l’aliénation ou du refuge spirituel.

En fin de compte, il ne suffit pas de s’approprier ou de transformer les techniques (la perversion de l’éthique hacker par les chantres de la Silicon Valley l’a bien montré). La déprolétarisation pensée par Bernard Stiegler ne se suffit pas à elle-même : c’est dans un système contributif qu’il faut créer des techniques qui n’ont pas de prise aliénante sur l’homme. L’éthique du logiciel libre non plus ne se suffit pas : il faut pour lui donner corps des collectifs qui mettent en œuvre concrètement des systèmes de pair à pair producteurs d’organisation, de pratiques mais aussi de biens et services. Ces collectifs préfigurent des modèles organisationnels de demain, c’est-à-dire que les apprentissages organisationnels, les procédures démocratiques qu’ils mettent en œuvre tout autant que les services et les biens qu’ils produisent s’élaborent collectivement et simultanément, sans obéir à des schémas préexistants mais en s’adaptant aux contextes divers dans lesquels ils se déploient, et afin de refléter une ou plusieurs idées de la société future (voir à ce propos des mouvements préfiguratifs les travaux de Carl Boggs, David Graeber et Mariane Maeckelbergh).

Pour terminer cette conclusion, une proposition déclarative. Il est troublant de constater que dans la conclusion de leur article, M. Dulong de Rosnay et de F. Musiani proposent, pour que les alternatives au capitalisme numérique puissent aboutir, un triptyque composé d’un environnement de partage (juridiquement sécurisé), de la recherche et la diffusion des connaissances historiques et techniques. Nous établissons un parallèle avec le triptyque de David Graeber et Andrej Grubacic (Graeber and Grubacic 2004) à propos de l’avenir des mouvements anarchistes au XXIe siècle qui, pour se déployer au mieux (et dans un mouvement que nous pouvons qualifier de préfiguratif, là aussi) ont besoin de la jonction entre militants, chercheurs et organisations populaires. Les mouvements collectifs du futur Internet établiront ces jonctions sur les déclinaisons suivantes des dispositifs socio-techniques communicationnels :

  • indétermination du dispositif (logique d’ouverture et innovation collective permanente),
  • neutralité et communalité assurées par le design matériel et logiciel,
  • interopérabilité et compatibilité,
  • responsabilité juridique et indépendance institutionnelle,
  • pérennité des protocoles et contributions (RFC, copyleft)
  • décentralisation, déconcentration des ressources (matérielles et financières)
  • fédération des instances et gouvernementalité multiorganisationnelle,
  • inclusion de tous et refus des formes de pouvoirs politiques, religieux, de classe ou capitalistes,
  • opposition radicale à toute forme de surveillance à des fins de profits privés.

Bibliographie

Abbate, Janet. 2012. “L’histoire de l’Internet Au Prisme Des STS.” Le Temps Des médias 18 (1): 170. https://doi.org/10.3917/tdm.018.0170.

—. 2018. “Code Switch: Alternative Visions of Computer Expertise as Empowerment from the 1960s to the 2010s.” Technology and Culture 59 (4): S134–59. https://doi.org/10.1353/tech.2018.0152.

Agamben, Giorgio. 2006. “Théorie des dispositifs.” Po&sie 115 (1): 25–33. https://www.cairn.info/revue-poesie-2006-1-page-25.htm.

—. 2014. Qu’est-ce qu’un dispositif ? Paris: Rivages.

Agre, Philip E. 2002. “Cyberspace As American Culture.” Science as Culture 11 (2): 171–89. https://doi.org/10.1080/09505430220137234.

Akrich, Madeleine. 2006. “La Description Des Objets Techniques.” In Sociologie de La Traduction : Textes Fondateurs, edited by Michel Callon and Bruno Latour, 159–78. Sciences Sociales. Paris: Presses des Mines. http://books.openedition.org/pressesmines/1197.

Aron, Raymond. 1944. “L’avenir Des Religions séculières I.” La France Libre 8 (45): 210–17.

Atten, Michel. 2013. “Ce Que Les Bases de Données Font à La Vie Privée. L’émergence d’un Problème Public Dans l’Amérique Des Années 1960.” Réseaux 178 (2): 21–53. https://doi.org/10.3917/res.178.0021.

Babbage, Charles. 1963. On the Economy of Machinery and Manufactures (1832). (1832) ed. New York: Kelley.

Baran, Paul. 1965. “Communications, Computers and People.” In AFIPS, Fall Joint Comput. Conf., 27:45–49. Thompson Book Co.

Bauwens, Michel, and Vasilis Kostakis. 2017. Manifeste Pour Une véritable économie Collaborative. Vers Une Société Des Communs. Paris: Éditions Charles Léopold Mayer. https://www2.eclm.fr/livre/manifeste-pour-une-veritable-economie-collaborative/.

Bolter, J. David. 1984. Turing’s Man: Western Culture in the Computer Age. Chapel Hill: The University of North Carolina Press.

Broca, Sébastien. 2018. Utopie du logiciel libre. Lyon, France: Éditions le Passager clandestin.

Bødker, Susanne, Pelle Ehn, Dan Sjögren, and Yngve Sundblad. 2000. “Cooperative Design — Perspectives on 20 Years with ‘the Scandinavian IT Design Model’.” In Proceedings of NordiCHI 2000. Stockholm. https://www.lri.fr/~mbl/ENS/DEA-IHM/papers/Utopia.pdf.

Callon, Michel. 2006. “Sociologie de l’acteur réseau.” In Sociologie de La Traduction : Textes Fondateurs, edited by Madeleine Akrich and Bruno Latour, 267–76. Sciences Sociales. Paris: Presses des Mines. http://books.openedition.org/pressesmines/1201.

Certeau, Michel de. 1990. L’invention du quotidien. 2 vols. Paris, France: Gallimard, DL 1990-1994.

Ceruzzi, Paul E. 1998. A History of Modern Computing. MIT Press. Cambridge, Mass.

Charnes, Abraham, William W. Cooper, J. DeVoe, and D. B. Learner. 1968a. “DEMON: A Management Model for Marketing New Products.” California Management Review 11 (1): 31–46.

—. 1968b. “DEMON, MARK II : An External Equation Approach to New Product Marketing.” Management Science 14 (8): 513–24.

Cohendet, Patrick, Frédéric Créplet, and Olivier Dupouët. 2003. “Innovation Organisationnelle, Communautés de Pratique Et Communautés épistémiques: Le Cas de Linux.” Revue Française de Gestion 29 (146): 99–121. https://doi.org/10.3166/rfg.146.99-121.

Colstad, Ken, and Efrem Lipkin. 1976. “Community Memory: A Public Information Network.” ACM SIGCAS Computers and Society 6 (4): 6–7. https://doi.org/10.1145/958785.958788.

Conner, Clifford D. 2011. Histoire populaire des sciences. Montreuil, France: Éditions L’Échappée.

Cooley, Mike. 1980. “Computerization – Taylor’s Latest Disguise.” Economic and Industrial Democracy 1: 523–39. https://doi.org/10.1177%2F0143831X8014004.

Debord, Guy. 1992. La société du spectacle. Paris, France: Gallimard.

Deleuze, Gilles. 1990. “Post-Scriptum Sur Les Sociétés de Contrôle.” In Pourparlers 1972-1990, 240–47. Paris: Éditions de minuit.

Doub, Bob. 2016. Community Memory: Precedents in Social Media and Movements. Computer History Museum. Mountain View.

Draus, Franciszek. 1995. “Max Weber Et La Liberté.” Revue Européenne Des Sciences Sociales 33 (101): 123–43. https://www.jstor.org/stable/40370104.

Dulong de Rosnay, Mélanie, and Francesca Musiani. 2020. “Alternatives for the Internet: A Journey into Decentralised Network Architectures and Information Commons.” tripleC: Communication, Capitalism & Critique, August, 622–29. https://doi.org/10.31269/triplec.v18i2.1201.

Ellul, Jacques. 1954. La technique ou l’enjeu du siècle. Paris, France: Armand Colin.

—. 1964. The Technological Society. New York: Vintage Books.

Etzioni, Amitai, Kenneth Laudon, and Sara Lipson. 1975. “Participatory Technology: The MINERVA Communications Tree.” Journal of Communication 25 (2): 64–74. https://doi.org/10.1111/j.1460-2466.1975.tb00581.x.

Fabius, Laurent. 1985. Brochure : Informatique Pour Tous. Paris: Éditions CNDP.

Feenberg, Andrew. 2014. “Vers une théorie critique de l’Internet.” Tic&Société 8 (1). https://doi.org/10.4000/ticetsociete.1382.

Feintrenie, Aurélie. 2003. Chronique de la grève de 1974 au Crédit lyonnais. Librairie Droz. https://www.cairn.info/le-credit-lyonnais-1863-1986--9782600008075-page-153.htm.

Foster, John Bellamy, and Robert W. McChesney. 2014. “Surveillance Capitalism. Monopoly-Finance Capital, the Military-Industrial Complex, and the Digital Age.” Monthly Review 66 (July). https://monthlyreview.org/2014/07/01/surveillance-capitalism/.

Foucault, Michel. 1984. Histoire de La Sexualité. Tome 3 -- Le Souci de Soi. Paris: Gallimard.

—. 1994a. “L’éthique Du Souci de Soi Comme Pratique de La Liberté.” In Dits Et Écrits IV, 708–29. Paris: Gallimard.

—. 1994b. “Le Jeu de Michel Foucault.” In Dits Et Écrits III, 298–329. Paris: Gallimard.

Garfinkel, Simson. 1999. Architects of the Information Society: Thirty-Five Years of the Laboratory for Computer Science at Mit. MIT Press. Cambridge, Mass.

Graeber, David, and Andrej Grubacic. 2004. “L’Anarchisme, Ou Le Mouvement révolutionnaire Du Vingt Et Unième Siècle.” The Anarchist Library. https://fr.theanarchistlibrary.org/library/david-graeber-andrej-grubacic-l-anarchisme-ou-le-mouvement-revolutionnaire-du-vingt-et-unieme-s.

Haigh, Thomas. 2001. “Inventing Information Systems: The Systems Men and the Computer, 1950–1968.” Business History Review 75 (1): 15–61. https://doi.org/10.2307/3116556.

Heidegger, Martin. 1958. “La Question de La Technique.” In Essais Et Conférences, 9–48. Paris: Gallimard.

Heilbroner, Robert L. 1967. “Do Machines Make History?” Technology and Culture 8 (3): 335–45. https://doi.org/10.2307/3101719.

Husson, Édouard. 2018. “Peter Thiel, Les Libertariens Et La Silicon Valley : Comme Une méchante Ombre Sur Les démocraties Occidentales.” Atlantico, January 7, 2018.

Kristal, Tali. 2013. “The Capitalist Machine: Computerization, Workers' Power, and the Decline in Labor’s Share Within U.S. Industries:” American Sociological Review, May. https://doi.org/10.1177/0003122413481351.

Latouche, Serge. 1991. La Planète Des Naufragés. Essai Sur l’après-développement. Paris: La Découverte.

—. 1995. La mégamachine. Raison Techno-Scientifique, Raison économique Et Mythe Du Progrès. Paris: La Découverte -- Bibliothèque du MAUSS.

Law, John. 1987. “On the Social Explanation of Technical Change: The Case of the Portuguese Maritime Expansion.” Technology and Culture 28 (2): 227–52. https://doi.org/10.2307/3105566.

Lundin, Per. 2011. “Designing Democracy: The UTOPIA-Project and the Role of the Nordic Labor Movement in Technological Change During the 1970s and 1980s.” In History of Nordic Computing 3, edited by John Impagliazzo, Per Lundin, and Benkt Wangler, 187–95. IFIP Advances in Information and Communication Technology. Berlin, Heidelberg: Springer. https://link.springer.com/book/10.1007/978-3-642-23315-9.

Maire, Edmond. 1977. “Préface.” In Les dégâts Du Progrès Les Travailleurs Face Au Changement Technique, edited by Jean-Louis Missika, Jean-Philippe Faivret, and Dominique Wolton. Paris: Seuil.

Martin, James. 1978. The Wired Society. Englewood Cliffs, N.J: Prentice-Hall.

Martin, James, and Adrian R. D. Norman. 1970. The Computerized Society. An Appraisal of the Impact of Computers on Society over the Next 15 Years. Englewood Cliffs: Prentice-Hall.

Marx, Karl. 1896. Misère de La Philosophie. Paris: Giard et Brière.

Masutti, Christophe. 2020. Affaires Privées. Aux Sources Du Capitalisme de Surveillance. Paris: C&F Éditions.

Missika, Jean-Louis, Jean-Philippe Faivret, and Dominique Wolton. 1977. Les dégâts Du Progrès Les Travailleurs Face Au Changement Technique. Paris: Seuil.

Morozov, Evgeny. 2014. Pour Tout résoudre Cliquez Ici : L’aberration Du Solutionnisme Technologique. Paris: Éditions FYP.

Moussy, Jean-Pierre. 1988. “L’emploi au cœur de la mutation bancaire.” Revue d’économie financière 7 (3): 49–67. https://doi.org/10.3406/ecofi.1988.1547.

Mumford, Lewis. 1950. Technique Et Civilisation. Paris: Seuil.

—. 1973. Le mythe de la machine. Translated by Léo Dilé. 2 vols. Paris, France: Fayard.

—. 2014. “L’héritage de l’homme.” Translated by Annie Gouilleux. Notes & Morceaux Choisis -- Bulletin Critique Des Sciences, Des Technologies Et de La Société Industrielle 11.

Narcy, Michel. 1986. “Au Terme de Deux Enquêtes.” Informatique Et pédagogie -- Numéro Spécial de l’EPI 42: 53–60. https://www.epi.asso.fr/revue/histo/h85-gredip.htm.

Negri, Antonio, and Michael Hardt. 2004. Empire. Paris: 10/18.

Nelsen, Arvid. 2016. “Concern for the ‘Disadvantaged’: ACM’s Role in Training and Education for Communities of Color (1958–1975).” In Communities of Computing: Computer Science and Society in the ACM, by Thomas J. Misa, 229–58. New York: ACM Books.

Panzieri, Raniero. 1968. Quaderni Rossi. Luttes Ouvrières Et Capitalisme d’aujourd’hui. Paris: Maspéro.

Pestre, Dominique. 2006. Introduction Aux Science Studies. Paris: La Découverte.

Pfaffenberger, Bryan. 1988. “The Social Meaning of The Personnal Computer : Or Why the Personal Computer Revolution Was Not a Revolution.” Anthropological Quarterly 61 (1): 39–47. https://doi.org/doi:10.2307/3317870.

Rawls, John. 1997. Théorie de la justice. Translated by Catherine Audard. Paris, France: Éditions du Seuil.

Rosenbrock, Howard Harry. 1977. “The Future of Control.” Automatica (1975) 13: 389–92. https://doi.org/10.1016/0005-1098(77)90022-X.

Rossman, Michael. 1976. “Implications of Community Memory.” ACM SIGCAS Computers and Society 6 (4): 7–10. https://doi.org/10.1145/958785.958789.

Schmitt, Carl. 1988. Théologie politique. Translated by Jean-Louis Schlegel. Paris, France: Gallimard.

Simondon, Gilbert. 1969. Du Mode d’existence Des Objets Techniques. Paris: Aubier-Montaigne.

Smith, Merritt Roe. 1994. “Technological Determinism in American Culture.” In Does Technology Drive History?, edited by Merritt Roe Smith and Leo Marx, 1–35. Cambridge: MIT Press.

Smith, Steve. 1989. “Information Technology in Banks: Taylorization or Human-Centered Systems?” In Computers in the Human Context, edited by Tom Forester, 377–90. Cambridge: MIT Press.

Solove, Daniel J. 2002. “Conceptualizing Privacy.” California Law Review 90 (4): 1132–40. https://ssrn.com/abstract=313103.

Sundblad, Yngve. 2011. “UTOPIA: Participatory Design from Scandinavia to the World.” In History of Nordic Computing 3, edited by John Impagliazzo, Per Lundin, and Benkt Wangler, 176–86. IFIP Advances in Information and Communication Technology. Berlin, Heidelberg: Springer. https://link.springer.com/book/10.1007/978-3-642-23315-9.

Thoreau, Henri David. 1922. Walden Ou La Vie Dans Les Bois. Translated by Louis Fabulet. Paris: La Nouvelle Revue Française.

Turner, Fred. 2012. Aux Sources de l’utopie Numérique : De La Contre Culture à La Cyberculture. Stewart Brand, Un Homme d’influence. Caen: C&F Editions.

Turoff, Murray, and Starr Roxane Hiltz. 1994. The Network Nation: Human Communication via Computer. Cambridge: MIT Press.

Vinck, Dominique. 2012. “Manières de Penser l’innovation.” In Les Masques de La Convergence. Enquêtes Sur Sciences, Industries Et Aménagements, by Bernard Miège and Dominique Vinck, 125–48. Paris: Éditions des Archives contemporaines.

Westin, Alan F. 1967. Privacy and Freedom. New York: Atheneum.

—. 2001. “Opinion Surveys: What Consumers Have to Say About Information Privacy.” In Hearing Before the Subcommittee on Commerce, Trade and Consumer Protection of the Committee on Energy and Commerce, 107th Congress. https://www.gpo.gov/fdsys/pkg/CHRG-107hhrg72825/html/CHRG-107hhrg72825.htm.

Wyatt, Sally. 2008. “Technological Determinism Is Dead; Long Live Technological Determinism.” In The Handbook of Science and Technology Studies. Third Edition, edited by Edward J. Hackett, Olga Amsterdamska, Michael Lynch, and Judy Wajcmann, 165–80. Cambridge: MIT Press.

Zuboff, Shoshana. 1988. In The Age Of The Smart Machine: The Future Of Work And Power. New York: Basic Books.

—. 2019. The Age of Surveillance Capitalism: The Fight for a Human Future at the New Frontier of Power. New York: Public Affairs.

Notes


  1. La citation : « Le moulin à bras vous donnera la société avec le suzerain ; le moulin à vapeur, la société avec le capitaliste industriel ». ↩︎

  2. Publicité Apple parue dans le magazine Byte en décembre 1977, page 2. La reproduction est disponible sur commons.wikimedia.org. URL. ↩︎

  3. Voir la définition de hacker dans le Jargon File. URL ↩︎

  4. Trades Union Congress Report 1956, TUC history online, p. 518-519. ↩︎

  5. Trades Union Congress Report 1965, TUC history online, p. 136. ↩︎

  6. United States National Commission on Technology, Automation, and Economic, Technology and the American Economy: Report, vol. III, p. 57. ↩︎

  7. Écouter l’émission La Fabrique de l’Histoire (France Culture) : Quand les banquiers criaient « À bas les profits ! », 13 mars 2012. URL. ↩︎

  8. Karl Marx, Le Capital, livre I, ch. 4 — Le caractère fétiche de la marchandise et son secret. ↩︎

  9. Pour citer Serge Latouche: « la technique n’est pas un instrument au service de la culture, elle est la culture ou son tenant lieu ». ↩︎


Publié le 02.06.2020 à 02:00

Affaires privées : les coulisses

À la suite d’un échange sur une plateforme de microblogage, j’ai promis de décrire ma méthode de production de manu-(tapu)scrit en vue de l’édition d’un livre. Ce billet vise à montrer à quel point les formats ouverts sont importants dans un processus d’écriture. Il témoigne de mes préférences et n’est en aucun cas une méthode universelle. Cependant j’ose espérer qu’il puisse donner quelques pistes profitables à tous !

Identification des besoins

Le livre dont il est question ici (il est bien, achetez-le !) s’intitule Affaires privées. Aux sources du capitalisme de surveillance, publié chez C&F Éditions, mars 2020. Il fait un peu moins de 500 pages. La production du manuscrit proprement dit (le fichier qu’on envoie à l’éditeur) m’a pris environ 5 mois. Sur cette base, l’équipe éditoriale (qu’elle en soit ici remerciée) s’est livrée au travail de relecture, avec plusieurs va-et-vient avec moi pour les corrections, et enfin un gros travail de mise en page.

Ce dont je vais traiter ici concerne la production du tapuscrit, et donc le processus d’écriture proprement dit, qui regarde essentiellement l’auteur. Pour le reste, il s’agit d’un travail éditorial avec d’autres contraintes.

Au risque d’être un peu caricatural il va me falloir décrire rapidement ce qu’est un travail de recherche en histoire et philosophie des sciences. On comprendra mieux ainsi pourquoi le choix des formats de fichiers est important dans l’élaboration d’un flux de production d’écriture pour un document long, comme un livre, ou même lorsqu’on s’apprête à écrire un article.

Dans ce type de travail, il ne suffit pas de récolter des documents historiques (pour ce qui me concerne, il s’agit de textes, photos, vidéos). Ces sources sont stockées dans différents formats, surtout des PDF (par exemple des fac-similés, des copies d’articles), des transcriptions sous forme de texte (le plus souvent dans un format texte de base), etc. Étant donnée cette diversité, un premier impératif consiste à ne pas sur-ajouter des formats et tâcher de faire en sorte que les notes de consultation soient accessibles dans un format unique et le plus malléable possible. Par ailleurs, se pose aussi la question du stockage de ces sources : les avoir à disposition, où que je me trouve, et m’assurer de la pérennité de leur sauvegarde.

Outre les sources, je dispose de travaux d’écriture préalables. Écrire un manuscrit en 5 mois n’est possible qu’à la condition d’avoir aussi à disposition une matière déjà travaillée en amont, comme un terrain préparatoire à l’écriture proprement dite. Il faut considérer ces travaux préparatoires comme des sources avec un statut particulier.

Il en est de même pour les notes de lectures qui sont aussi des réflexions sur les enjeux philosophiques, historiques et politiques, la méthodologie, les idées critiques, bref des sources particulières puisque produites par moi et toujours soumises à modifications au fur et à mesure de la maturité d’une pensée et de l’acquisition de connaissances.

Se pose ensuite la question du recensement des sources et, de manière générale, toute la bibliographie qu’il faudra utiliser dans le manuscrit. Dans ce genre de discipline, au risque de barber sérieusement le lecteur, une forme d’obligation consiste à citer la bibliographie « à la page » chaque fois que cela est possible. Afin de pouvoir mobiliser ces éléments qui se chiffrent par centaines, il faut bien entendu avoir un système capable de trier, classer, et sortir des références bibliographiques exploitables.

Un autre impératif consiste à élaborer un flux d’écriture qui soit à la fois rapide et efficace tout en l’édulcorant au maximum des contraintes logicielles. Ces contraintes peuvent être liées à la « lourdeur » du logiciel en question, par exemple le temps passé à saisir la souris pour cliquer sur des icônes est autant de temps en moins consacré à l’écriture. Se libérer de ces contraintes va de pair avec une certaine libération des contraintes matérielles : l’idéal consiste à pouvoir écrire sur différents supports c’est-à-dire un ou plusieurs ordinateurs, un smartphone ou une tablette. Pour ce qui me concerne, se trouver coincé par l’accès à un logiciel sur un seul type de support m’est proprement insupportable.

En résumé, les besoins peuvent s’énumérer ainsi : écrire, utiliser différentes machines, synchroniser et sauvegarder, gérer et exploiter une bibliographie, produire un résultat. Allons-y.

Écrire

C’est de plus en plus répandu : les utilisateurs qui produisent du contenu en écriture n’utilisent plus uniquement les logiciels de traitement de texte tels MSWord ou LibreOffice Writer en première intention. Demandez-vous par exemple ce qu’utilisent tous les blogueurs via des interfaces d’écriture en ligne, ou regardez de près le logiciel de prise de notes que vous avez sur votre smartphone : la mise en page est assurée ultérieurement, tout ce que vous avez à faire est simplement d’écrire.

Si j’ai traduit et adapté un manuel sur LibreOffice Writer, c’est parce que je considère ce logiciel comme l’un des plus aboutis en traitement de texte mais aussi parce que le format Open Document est un format ouvert qui permet l’interopérabilité autant qu’un travail post-production. Il en est de même pour LaTeX (qui est un système de composition) et dont les fonctionnalités sont quasi infinies. J’adore LaTeX.

Alors… pourquoi ne pas utiliser d’emblée l’un de ces deux logiciels ? Parce que ce dont j’aimerais vous parler ici, ce n’est pas de la production de document, mais de l’écriture elle-même. Mélanger les deux signifie anticiper la production finale (au risque de se tromper). Quoi qu’on en dise, c’est en tout cas mon cas, on se laisse facilement distraire par les fonctionnalités du logiciel.

Pour écrire, et simplement écrire, je n’ai besoin que d’un éditeur de texte. C’est-à-dire un logiciel qui me permet d’entrer du texte et d’enregistrer sans information de formatage (on parle de plain text) ou alors le strict minimum. C’est sur ce strict minimum qu’il faut réfléchir en allant un peu plus loin dans le raisonnement.

En effet, lors de la production finale, je n’ai pas très envie de revenir sur chaque partie du texte nécessitant un traitement typographique au cours de l’écriture. Par exemple certains mots en emphase, le signalement des titres de parties, sections et sous-sections. Idem, j’ai aussi besoin de pouvoir formater mon texte de manière à ce qu’il se prête ultérieurement à toutes les transformations envisageables nécessitant un processus de traitement comme la génération des références bibliographiques ou l’ajout de liens (URLs). Ces choses-là sont toujours possibles en plain text mais il y a des solutions plus pratiques.

Il existe un format très intéressant : le markdown. C’est du texte, mais avec quelques ajouts d’informations très simples qui permettent un traitement ultérieur lors de la production finale. Ce langage de balisage est léger. Il nécessite un apprentissage de quelques minutes et il s’applique facilement au cours de l’écriture sans la freiner outre mesure. C’est dans ce format que j’écris, y compris par exemple le texte de ce billet de blog. Ce format est par définition ouvert (cela reste du texte).

En pratique, il ne reste plus qu’à choisir l’éditeur de texte ou un éditeur de texte spécialisé en markdown. Sur ce point j’ai déjà eu l’occasion de me prononcer sur ce blog. Par aillieurs, j’accorde beaucoup d’importance au confort visuel de l’écriture. La possibilité de configurer l’affichage l’éditeur (couleurs du fond, style de la police, de la syntaxe, raccourcis, etc.), en jouant notamment sur les contrastes, me permet d’écrire plusieurs heures durant sans avoir trop de gêne visuelle. Il s’agit d’un confort personnel. Il y a d’autres fonctionnalités que l’on trouve dans les éditeurs de texte1, par exemple :

  • éditer le texte à plusieurs endroits à la fois avec un split de fenêtres,
  • faire des recherches sur des expressions régulières,
  • un panneau latéral ouvrant le contenu du dossier sur lequel on travaille,
  • le surlignage d’occurrences,
  • la possibilité d’avoir accès à un terminal sans quitter l’éditeur2,
  • etc.

Enfin, j’y reviendrai plus tard, l’utilisation de fichiers non binaires se prête admirablement à l’utilisation de Git, un outil de gestion de version qui, dans mon cas, me sert surtout à sauvegarder et synchroniser mon travail d’écriture. Et il se prête tout aussi admirablement à la conversion vers d’autres formats à leur tour exploitables tels odt, html et tex.

Mes éditeurs de texte préférés du moment sont les suivants : Gedit, Atom, Ghostwriter. Depuis peu, j’utilise aussi Zettlr pour mes notes, voyez ici.

Utiliser différentes machines

Au fur et à mesure de l’avancée des travaux, on se retrouve généralement à utiliser différents dispositifs. La question se pose : doit-on réserver uniquement la tâche d’écriture à l’ordinateur de son bureau ? Pour moi, la réponse est non.

Sur tous les ordiphones et tablettes, il existe des logiciels de prise de notes qui utilisent le format texte et, comme c’est souvent le cas, le markdown. L’application Nextcloud, par exemple, permet aussi d’utiliser Nextcloud Notes, un logiciel de prise de notes qui synchronise automatiquement les notes sur un serveur Nextcloud (on peut le faire aussi avec n’importe quelle application de notes pourvu que l’on sauvegarde ses fichiers dans le dossier synchronisé). Cela est utile dans les cas suivants :

  • le processus d’écriture n’est pas toujours « sur commande ». Même si les meilleures idées ne surgissent pas toujours inopinément, et même si bien souvent ce qu’on pensait être une bonne idée s’avère être un désastre le lendemain, il est utile de pouvoir développer quelques passages sans pour autant être assis à son bureau. J’utilise pour cela Nextcloud Notes, soit en tapant directement la note, soit par dictée vocale.
  • recopier tout un texte lorsqu’on est en train de consulter des documents ? que nenni, soit on utilise un scanner et un logiciel de reconnaissance de caractères, soit on peut carrément utiliser son ordiphone (avec ce logiciel par exemple), pour produire un texte à placer dans ses notes.

L’essentiel est de ne pas dépendre d’un dispositif unique présent dans un lieu unique. On peut utiliser plusieurs ordinateurs et des lieux différents, utiliser l’ordiphone qu’on a toujours avec soi, la tablette sur laquelle on lit un livre et exporte des notes de lecture…

Tout ceci permet de générer rapidement des ressources exploitables et de les organiser en provenance de différents outils. Pour cela d’autres logiciels doivent encore être utilisés afin de sauvegarder et de synchroniser.

Synchroniser et sauvegarder

Comme je viens d’en discuter, l’organisation est primordiale mais s’en préoccuper sans cesse est plutôt lassant. Mieux vaut automatiser le plus possible.

Séparons dans un premier temps ce qui a trait à la gestion des sources documentaires et la production écrite.

Pour la gestion documentaire, l’ensemble est stocké sur un serveur Nextcloud (hébergé sur un serveur de confiance3). Sur chaque machine utilisée, une synchronisation est paramétrée avec un client Nextcloud. On travaille directement dans le dossier qui se synchronise automatiquement.

Pour la production écrite, c’est Git qui sera utilisé avec un serveur Gitlab (Framagit en l’occurrence). Sont concernés les fichiers suivants :

  • l’écriture des chapitres (fichiers .md),
  • les notes (autres que les notes de lecture) (fichiers .md),
  • le fichier bibtex de la bibliographie (contenant aussi le référencement descriptif de chaque source documentaire ainsi que les notes de lecture) (fichiers .bib).

Pour terminer, il faut aussi penser à faire une sauvegarde régulière de l’ensemble sur le second disque dur de la machine principale sur laquelle je travaille, doublée d’une sauvegarde sur un disque externe. La première sauvegarde est automatisée avec rsync et tâche cron exactement comme c’est décrit dans ce billet. La seconde tâche pourrait aussi être automatisée, mais je la fais manuellement pour éviter de toujours laisser branché le disque externe.

Gérer la bibliographie

Gérer sa bibliographie ne s’improvise pas. Il faut d’abord trouver le logiciel qui répond à ses attentes. Le choix est assez large pourvu que le logiciel en question puisse être en mesure d’exporter une bibliographie dans un format ouvert, exploitable par n’importe quel autre logiciel.

En la matière, selon moi, les deux formats intéressants sont le .bib et le .xml. Au stade de l’écriture, l’essentiel est donc de choisir un logiciel avec lequel on se sent à l’aise et dont les fonctionnalités d’export sont les plus étendues possibles. J’ai choisi Zotero et JabRef.

Pourquoi ces deux logiciels ? Dans les deux cas, des extensions permettent de les intégrer au navigateur Firefox (ainsi qu’à LibreOffice). Dans les deux cas on peut synchroniser la biblio en ouvrant un compte Zotero ou en plaçant son fichier .bib sur Nextcloud dans le cas de JabRef.

Mon usage est un peu exotique, je l’avoue : j’utilise Zotero pour engranger un peu tout et n’importe quoi et j’utilise JaBref pour mon travail proprement dit en utilisant le format .bibet souvent en éditant directement le fichier avec un éditeur de texte. Disons que le .bib final est un fichier très « propre » contenant pour l’essentiel la bibliographie citée alors que Zotero contient un peu de tout au gré des récupérations avec l’extension Firefox. Ce n’est pas l’essentiel : quoi qu’il en soit, lors de la production finale, on configurera ce qui doit apparaître ou non dans la bibliographie.

Enfin, je préfère utiliser le .bib car il est fait au départ pour le logiciel Bibtex lui-même destiné à une utilisation avec LaTeX. Si je veux pouvoir avoir le choix de production finale, autant utiliser ce format. En outre, sa lisibilité lorsqu’on l’édite avec un éditeur de texte permet de retravailler les informations, surtout en cas de problème d’encodage.

Produire un résultat

Nous voici arrivés à la production du manuscrit (on dit plutôt un tapuscrit dans ce cas). Il faut alors se demander ce que veut l’éditeur. Dans notre cas, il s’agissait de produire un fichier .odt avec une présentation complète de la bibliographie.

Nous avons à disposition des fichiers markdown et un fichier bibtex. On peut en faire exactement ce qu’on veut, à commencer par les éditer ad vitam æternam en plain text.

On notera que pour entrer des références bibliographique dans un document en markdown, la syntaxe est très simple et l’utilisation est décrite dans plusieurs billets de ce blog.

On utilisera pour cela un logiciel libre du nom de Pandoc qui permet non seulement de convertir du markdown en plusieurs types de formats mais aussi d’effectuer simultanément des opérations de compilation pour la bibliographie avec un processeur CSL nommé citeproc.

En effet, pour présenter la bibliographique il faut utiliser un format de style bibliographique. On utilise le Citation Style Language (CSL) qui est basé sur un agencement de champs en XML. Pour créer un modèle CSL, le mieux est encore de partir sur la base de modèles existants et adapter le sien. Il existe par exemple cet éditeur CSL.

En d’autres termes il s’agit d’ordonner ceci à Pandoc :

S’il te plaît, transforme mon fichier markdown en fichier au format .odt tout en utilisant la bibliographie que voici au format .bib et le modèle de présentation de bibliographie .csl que voici.

La ligne de commande est alors la suivante :

pandoc -s --bibliography mabiblio.bib --filter pandoc-citeproc --csl modif-monmodele.csl fichier-entree.md -o fichier-sortie.odt

Cela c’est pour l’éditeur ! pour ce qui me concerne, ce sera plutôt une transformation en .tex et une bonne vieille compilation avec XeLaTex + Biber avec un style de mise en page sympathique. De même… pour du epub.

Le seul ennui est qu’à ce stade il fallait encore travailler le texte et tout le processus de relecture qui s’est déroulé exclusivement avec LibreOffice Writer et la fonction de suivi de modification. On a donc quitté la quiétude des fichiers texte pour entrer dans un processus d’échange de fichiers .odt. Ce travail aurait tout aussi bien pu s’effectuer avec Git, évidemment. Mais au bout du compte il aurait tout de même fallu créer un .odt avec les styles de l’éditeur afin d’entrer le tout dans la moulinette de son processus éditorial. Mais cela ne nous… regarde pas.

Conclusion

Comme on peut le voir, tout le processus considère le fichier .odt comme un format obtenu en fin de production et non pas un format sur lequel on travaille directement. C’est une posture qui se justifie par la volonté de conserver la plus grande malléabilité possible sur les résultats finaux et sur la manipulation des fichiers de travail.

Par ailleurs concernant le flux de production d’écriture, une fois l’habitude prise, il est extrêmement confortable d’écrire « au kilomètre » dans un éditeur de texte bien configuré et qui, par sa légèreté n’a besoin que de très peu de ressources système.

Toute l’importance des formats ouverts est là, tant au niveau de la lecture avec différents logiciels qu’au niveau de la production finale et l’interopérabilité qu’ils permettent. De la même manière, on peut voir que tout le travail s’est effectué avec des logiciels libres (et sur des systèmes d’exploitation libres). Le grand choix dans ce domaine permet à chacun de travailler selon ses envies et ses petites manies.


  1. Certaines de ces fonctionnalités se retrouvent aussi sur LibreOffice Writer, bien entendu, mais je trouve que leur accès est plus rapide dans un éditeur de texte simple. ↩︎

  2. Certains me diront d’utiliser Emacs ou Vim. C’est ce que je fais de temps en temps mais l’apport vis-à-vis de mon travail n’est pas significatif. ↩︎

  3. Il s’agit de mon serveur à moi et aussi du serveur destiné à l’usage interne des membres de l’association Framasoft. J’utilise les deux mais c’est un détail. ↩︎


Publié le 11.05.2020 à 02:00

Revue articles et communications autour de Stop-Covid

Afin de garder une trace (!) des débats qui enflamèrent l’opinion publique lors de la crise sanitaire du printemps 2020, voici une revue partielle d’articles parus dans la presse et quelques communications officielles autour de l’application Stop-Covid, entre discours réalistes et solutionnisme technologique (cette liste est mise à jour régulièrement, autant que possible).

Presse écrite et en ligne

Numerama (18/06/2020), « StopCovid a été lancé alors que même la Cnil ne savait pas comment l’app fonctionnait »

Un chercheur a montré que le fonctionnement technique de StopCovid n’était pas similaire à ce qui était annoncé par le gouvernement, ce qui est écrit dans le décret d’application et même ce qui a été validé par la Cnil. … En résumé, la Cnil a validé un dispositif qui n’est pas celui qui est utilisé aujourd’hui dans l’application que tous les Français et Françaises sont fortement invités à utiliser, par le gouvernement et à grands coups de campagnes de communication. Comme on peut le voir au point numéro 37 qui était abordé dans l’avis du 25 mai, la Commission avait d’ailleurs elle-même « [pris] acte de ce que l’algorithme permettant de déterminer la distance entre les utilisateurs de l’application reste à ce stade en développement et pourra subir des évolutions futures ».

Le Monde - Pixel (16/06/2020), « L’application StopCovid collecte plus de données qu’annoncé »

Un chercheur a découvert que l’application collectait les identifiants de toutes les personnes croisées par un utilisateur, pas seulement celles croisées à moins d’un mètre pendant quinze minutes.

Mediapart (15/06/2020), « StopCovid, l’appli qui en savait trop »

Loin de se limiter au recensement des contacts « à moins d’un mètre pendant au moins quinze minutes », l’application mise en place par le gouvernement collecte, et transfère le cas échéant au serveur central, les identifiants de toutes les personnes qui se sont « croisées » via l’appli. De près ou de loin.

L’Usine Digitale (12/06/2020), « L’application StopCovid n’a été activée que par 2 % des Français »

Échec pour StopCovid. Du 2 au 9 juin, seuls 2 % des Français ont téléchargé et activé l’application. Un chiffre beaucoup trop bas pour qu’elle soit utile. Au moins 60 % de la population d’un pays doit utiliser un outil de pistage numérique de ce type pour que celui-ci puisse détecter des chaînes de contamination du virus.

Dossier Familial (12/06/2020), « Le flop de l’application StopCovid »

Alors même que son efficacité dépend de son succès, l’application StopCovid n’est utilisée effectivement que par environ 350 000 personnes.

France Inter (11/06/2020), « Coût et soupçon de favoritisme : l’appli StopCovid dans le collimateur d’Anticor »

L’association Anticor, qui lutte contre la corruption, a déposé un signalement auprès du Procureur de la République. Le coût de l’application StopCovid est en cause. L’inquiétude ne porte pas sur l’utilisation de nos données, mais sur son coût et… un soupçon de favoritisme.

Liberation (11/06/2020), « L’application StopCovid utilise-t-elle des services des Gafam ? »

Le logiciel développé par le gouvernement français a bien recours au «Captcha» de Google mais n’est pas hébergé sur des serveurs Microsoft (contrairement au projet, distinct, de Health Data Hub).

Le Monde (10/06/2020) « L’application StopCovid, activée seulement par 2 % de la population, connaît des débuts décevants »

Le coût de l’application de suivi de contacts, désormais supportée par l’Etat, pose question, une semaine après son lancement.

Slate.fr (03/06/2020), « Les trois erreurs qui plombent l’application StopCovid »

Ce projet tout à fait louable s’est écrasé en rase campagne en quelques semaines alors que tous les feux étaient au vert.

Nouvel Observateur (02/06/2020), « StopCovid, une application au coût salé »

L’application de lutte contre le Covid-19 a été développée gratuitement par des chercheurs et partenaires privés. Toutefois, depuis son lancement mardi 2 juin, sa maintenance et son hébergement sont bel et bien facturés, entre 200 000 et 300 000 euros par mois.

TV5 Monde (01/06/2020), StopCovid : « C’est le signe d’une société qui va très mal et qui est en train de devenir totalement paranoïaque »

A partir de ce mardi 2 juin, l’application StopCovid débarque en France. Son but : pister le Covid-19 pour éviter sa propagation. Alors cette application est-elle vraiment efficace ? Nos données personnelles sont-elles menacées ? Entretien avec Benjamin Bayart, ingénieur français, ancien président de French Data Network et co-fondateur de la Quadrature du Net.

The Conversation (25/05/2020) « Données de santé : l’arbre StopCovid qui cache la forêt Health Data Hub »

Le projet de traçage socialement « acceptable » à l’aide des smartphones dit StopCovid, dont le lancement était initialement prévu pour le 2 juin, a focalisé l’intérêt de tous. Apple et Google se réjouissaient déjà de la mise en place d’un protocole API (interface de programmation d’application) qui serait commun pour de nombreux pays et qui confirmerait ainsi leur monopole.

Mais la forte controverse qu’a suscitée le projet en France, cumulée au fait que l’Allemagne s’en est retirée et à l’échec constaté de l’application à Singapour, où seulement 20 % des utilisateurs s’en servent, annoncent l’abandon prochain de StopCovid.

« Ce n’est pas prêt et ce sera sûrement doucement enterré. À la française », estimait un député LREM le 27 avril auprès de l’AFP.

Pendant ce temps-là, un projet bien plus large continue à marche forcée : celui de la plate-forme des données de santé Health Data Hub (HDHub).

The Guardian (23/05/2020), « How did the Covidsafe app go from being vital to almost irrelevant? »

The PM told Australians in April the contact tracing app was key to getting back to normal but just one person has been identified using its data (En avril, le Premier ministre a déclaré aux Australiens que l’application de recherche des contacts était la clé du retour à la normale, mais seule une personne a été identifiée grâce à ses données)

Politico (20/05/2020) « Meet the Dutchman who cried foul on Europe’s tracking technology »

The national privacy watchdog has repeatedly broken ranks with EU peers over tracing technology. His approach seems to be winning.

(…) Alors que les gouvernements européens s’empressent d’adopter la technologie pour lutter contre le coronavirus, un Néerlandais au franc-parler est apparu comme une épine dans leur pied.

Le message d’Aleid Wolfsen : Ne prétendez pas que vos solutions sont respectueuses de la vie privée.

“Nous devons éviter de déployer une solution dont on ne sait pas si elle fonctionne réellement, avec le risque qu’elle cause principalement d’autres problèmes”, a déclaré en avril le responsable de l’autorité néerlandaise chargée de la protection de la vie privée, en référence aux applications de suivi des coronavirus pour smartphones en cours de développement dans la plupart des pays de l’UE.

Le Monde (18/05/2020), Tribune – Coronavirus : « Sur l’application StopCovid, il convient de sortir des postures dogmatiques »

Chercheurs à l’Inria et travaillant sur l’application StopCovid, Claude Castelluccia et Daniel Le Métayer mettent en garde, dans une tribune au « Monde », contre les oppositions de principe, notamment à un système centralisé, qui ne reposent pas sur une analyse précise des risques potentiels et des bénéfices attendus. (…)

(…) Même si la valeur ajoutée d’une application comme StopCovid dans le processus plus global de traçage (qui repose sur des enquêtes menées par des humains) reste à déterminer et à évaluer précisément…

The Economist (16/05/2020) « Don’t rely on contact-tracing apps »

Governments are pinning their hopes on a technology that could prove ineffective — and dangerous

Wired (13/05/2020), « Secret NHS files reveal plans for coronavirus contact tracing app »

Documents left unsecured on Google Drive reveal the NHS could in the future ask people to post their health status to its Covid-19 contact tracing app

Numerama (13/05/2020), « ‘Il n’y a rien du tout’ : la première publication du code source de StopCovid est inutile »

(…) les critiques et les moqueries ont fusé immédiatement sur ce qui a été publié le 12 mai. En effet, de l’avis de diverses personnes habituées à travailler avec du code informatique, ce qui est proposé ressemble surtout à une coquille vide. Impossible donc pour les spécialistes de passer aux travaux pratiques en analysant les instructions du logiciel.

Dalloz Actualité (12/05/2020) – par Caroline Zorn – « État d’urgence pour les données de santé (I) : l’application StopCovid »

À travers deux exemples d’actualité que sont l’application StopCovid (première partie) et le Service intégré de dépistage et de prévention (SIDEP) (seconde partie), la question de la protection des données de santé à l’aune du pistage est confrontée à une analyse juridique (et parfois technique) incitant à une réflexion sur nos convictions en période d’état d’urgence sanitaire. Cette étude a été séparée en deux parties, la première consacrée à StopCovid est publiée aujourd’hui.

Revue politique et parlementaire (11/05/2020), « Stopcovid : une application problématique sur le plan éthique et politique »

Pierre-Antoine Chardel, Valérie Charolles et Eric Guichard font le point sur les risques engendrés par la mise en œuvre d’une solution de type Stopcovid, solution techniciste de court terme qui viendrait renforcer une défiance des citoyens envers l’État et ses représentants, ou à l’inverse un excès de confiance dans le numérique, au détriment de projets technologiques soucieux de l’éthique et susceptibles de faire honneur à un État démocratique.

MIT Technology Review (11/05/2020) « Nearly 40% of Icelanders are using a covid app — and it hasn’t helped much »

The country has the highest penetration of any automated contact tracing app in the world, but one senior figure says it “wasn’t a game changer.”

Newstatesman – NSTech (11/05/2020), « The NHSX tracing app source code was released but privacy fears remain »

In a move designed to create the impression of radical transparency, NHSX finally released the source code for the UK’s Covid-19 tracing app last week. However, among experts, the reception was mixed.

Aral Balkan, software developer at Small Technology Foundation, expressed criticism that the source code for the server hadn’t been released, only that of the iOS and Android clients. “Without that, it’s a meaningless gesture,” he wrote on Twitter. “Without the server source you have no idea what they’re doing with the data.”

In further analysis, Balkan said the iOS app was “littered with Google tracking” and the app was using Firebase (a Google mobile and web application development platform) to build the app. He pointed out that Microsoft analytics also tracked what information the person has provided, such as partial postcode and collected contact events. 

France info, (09/05/2020) – Nouveau monde. Refuser l’application StopCovid revient à remettre en question notre système de santé, selon le directeur du comité d’éthique du CNRS

« Déjà, nous sommes tracés tous les jours par notre téléphone qui enregistre énormément d’informations. Surtout, nous sommes tous satisfaits de notre système étatique de santé et, avec un système étatique, contrairement aux États-Unis, l’État est nécessairement au courant de tout. L’État sait chez quels médecins nous allons, quels médicaments nous sont prescrits, quels hôpitaux nous fréquentons, etc. Bien sûr, cela doit se faire avec une certaine confidentialité mais si l’on prenait au sérieux certains discours actuels, cela remettrait en cause le système de santé tel qu’il existe aujourd’hui. Et ça, je pense que ce n’est pas légitime. »

Le Monde (08/05/2020), « Suivi des « cas contacts » : ce que contiendront les deux nouveaux fichiers sanitaires prévus par l’Etat Par Martin Untersinger »

La stratégie du gouvernement pour lutter contre une reprise de l’épidémie repose sur un suivi des « cas contacts ». Les autorités prévoient un « système d’information », reposant sur deux bases de données médicales : Sidep et Contact Covid.

Acteurs Publics, (07/05/2020) « Aymeril Hoang, l’architecte discret du projet d’application StopCovid »

Membre du Conseil scientifique Covid-19 en tant qu’expert du numérique, l’ancien directeur de cabinet de Mounir Mahjoubi au secrétariat d’État au Numérique a eu en réalité un rôle central, en coulisses, dans l’élaboration du projet d’application de traçage numérique StopCovid. Récit.

Les Echos (07/05/2020), « La Réunion lance sa propre appli de traçage… sans attendre StopCovid »

Des entrepreneurs réunionnais ont mis au point Alertanoo, une application mobile permettant aux habitants de l’île testés positifs au coronavirus d’alerter les personnes qu’elles ont croisées récemment.

Le Temps (06/05/2020), « A Singapour, le traçage par app dégénère en surveillance de masse »

Premier pays à avoir lancé le pistage du virus par smartphone de manière volontaire, Singapour lance un nouveau service liberticide, baptisé SafeEntry. La Suisse peut en tirer des leçons

(…) Ainsi, le système central obtiendra les coordonnées complètes – du nom au numéro de téléphone – des Singapouriens qui fréquentent ces lieux. SafeEntry diffère ainsi de TraceTogether sur deux points majeurs: d’abord, son caractère obligatoire, comme on vient de le voir – même si un haut responsable de la Santé vient de demander que TraceTogether devienne obligatoire. Ensuite, la qualité des données récoltées diffère: la première application lancée fonctionne de manière anonyme – ni le nom, ni la localisation des personnes n’étant révélés. SafeEntry ne semble pas avoir suscité, pour l’heure, de critiques.

Wired (05/06/2020), « India’s Covid-19 Contact Tracing App Could Leak Patient Locations »

The system’s use of GPS data could let hackers pinpoint who reports a positive diagnosis.

As countries around the world rush to build smartphone apps that can help track the spread of Covid-19, privacy advocates have cautioned that those systems could, if implemented badly, result in a dangerous mix of health data and digital surveillance. India’s new contact tracing app may serve as a lesson in those privacy pitfalls: Security researchers say it could reveal the location of Covid-19 patients not only to government authorities but to any hacker clever enough to exploit its flaws.

Nextinpact (04/05/2020), « SIDEP et Contact Covid, les deux fichiers du « contact tracing »

Le Conseil d’État estime que les conditions de mise en œuvre des fichiers, qui reposeront notamment sur le traitement de données de santé non anonymisées, « le cas échéant sans le consentement des personnes intéressées », « ne portent pas une atteinte disproportionnée au droit au respect de la vie privée ». Le projet de loi est examiné aujourd’hui au Sénat.

Numerama (04/05/2020), « Après l’échec du StopCovid local, Singapour passe à une solution beaucoup plus radicale »

À Singapour, l’application TraceTogether non fonctionnelle est accompagnée d’un nouveau mode de traçage des contacts numérique : le scan d’un QR Code. Et, dans les grandes lignes, il est obligatoire.

Medium (03/05/2020), par Cedric O. « StopCovid ou encore ? »

Le secrétaire d’Etat chargé du numérique Cedric O. se fend d’un long article sur Medium pour faire le point sur l’application Stop-Covid.

Liberation (02/05/2020), « Fichiers médicaux, isolement, traçage… Le gouvernement précise son état d’urgence sanitaire »

A l’issue du Conseil des ministres de samedi, Olivier Véran a justifié l’utilisation prochaine de «systèmes d’information» pour «tracer» les personnes infectées par le nouveau coronavirus et la prolongation de l’état d’urgence sanitaire jusqu’à juillet.

France Info Tv/2 (02/05/2020), « Déconfinement : le travail controversé des “brigades d’anges gardiens” »

Protéger, isoler, tester, pour mettre en place ce triptyque, la mise en place d’un nouvel outil, avec le suivi des patients, et la récolte des données personnelles est prônée par le gouvernement.

Allons-nous tous être fichés, et faut-il s’inquiéter ? Le gouvernement a dévoilé sa politique de traçage. Lorsqu’une personne est testée positive au Covid-19, elle apparaitra dans un fichier, appelé Sidep, les personnes qu’elle a côtoyé seront fichées dans un deuxième fichier nommé Contact Covid, afin d’être testées et si besoin isolées pour empêcher la propagation du virus. 3 à 4 000 personnes seront affectées à cette mission.

France Info (02/05/2020), « Application StopCovid : “Nous avons absolument besoin de ce regard”, affirme le président du syndicat de médecins généralistes MG France »

Selon Jacques Battistoni, les généralistes effectuent déjà une forme de surveillance en mentionnant les contaminations au coronavirus sur les arrêts de travail. Pour lui, l’application envisagé par le gouvernement donnera une “vision d’ensemble”.

Numerama (02/05/2020), « StopCovid : Olivier Véran confirme les incertitudes autour de l’application de contact tracing »

L’application StopCovid ne sera pas prête pour le 11 mai. Le ministre de la Santé Olivier Véran prépare déjà la France à ce qu’elle ne voit jamais le jour.

Reuters (02/05/2020), « India orders coronavirus tracing app for all workers »

NEW DELHI (Reuters) - India has ordered all public and private sector employees use a government-backed contact tracing app and maintain social distancing in offices as it begins easing some of its lockdown measures in districts less affected by the coronavirus. (…) “Such a move should be backed by a dedicated law which provides strong data protection cover and is under the oversight of an independent body,” said Udbhav Tiwari, Public Policy Advisor for internet browser company Mozilla. Critics also note that about 400 million of India’s population do not possess smartphones and would not be covered.

Capital (01/05/2020), « L’application “Stop Covid” dans le top de l’AppStore, sauf que ce n’est pas la bonne »

Des milliers de personnes ont téléchargé cette application sur Google Play ou l’AppStore, sauf qu’il s’agit de celle lancée par le gouvernement géorgien.

Charlie Hebdo (30/04/2020), « Stop Covid est un danger pour nos libertés »

Le Covid-19 va-t-il nous faire basculer vers une société de surveillance ? Bernard E. Harcourt, professeur de droit à Columbia University et directeur d’études à l’EHESS nous alerte notamment sur les risques de l’application Stop Covid. Il avait publié en janvier dernier un ouvrage intitulé « La société d’exposition », (Ed Seuil), dans lequel il montrait de manière saisissante comment les nouvelles technologies exploitent notre désir d’exhibition et de mise en avant de soi.

Buzzfeed (29/04/2020) « We Need An “Army” Of Contact Tracers To Safely Reopen The Country. We Might Get Apps Instead »

Without enough human contact tracers to identify infected people, the US is barreling toward a digital solution, and possible disaster.

(…) “My problem with contact tracing apps is that they have absolutely no value,” Bruce Schneier, a privacy expert and fellow at the Berkman Klein Center for Internet & Society at Harvard University, told BuzzFeed News. “I’m not even talking about the privacy concerns, I mean the efficacy. Does anybody think this will do something useful? … This is just something governments want to do for the hell of it. To me, it’s just techies doing techie things because they don’t know what else to do.”

Dalloz Actualités (28/04/2020) « Coronavirus : StopCovid, les avis de la CNIL et du CNNum »

Quoi que favorables à l’application de traçage StopCovid telle qu’elle est actuellement présentée, la Commission nationale informatique et libertés et le Conseil national du numérique relèvent cependant les risques et les garanties qui devront être discutées par le législateur.

Mediapart (28/04/2020) « Le gouvernement s’embourbe dans son projet d’application «StopCovid» »

Édouard Philippe a reconnu « les incertitudes » pesant sur le projet d’application de traçage des contacts des personnes contaminées. Celui-ci suscite l’opposition de défenseurs des libertés publiques comme de chercheurs.

Numerama (27/04/2020), « Application StopCovid : que sait-on du projet de contact tracing du gouvernement ? »

StopCovid est un projet d’application servant à suivre la propagation de la maladie dans la population. Présentée début avril, elle doit être prête lorsque la phase de déconfinement débutera. Mais cette stratégie est l’objet d’un intense débat. Que sait-on d’elle ? Numerama fait le point.

Le Monde (27/04/2020) « Coronavirus : « Substituons temporairement au terme “liberté” de notre devise française celui de “responsabilité” »

Trois spécialistes en épidémiologie de l’université de Toulouse, associée à l’Inserm, présentent dans une tribune au « Monde » un éclairage éthique sur le traçage numérique de la propagation du Covid-19, entre intérêt public et libertés individuelles.

France Culture (27/04/2020), « Traçage : “Ce n’est pas le numérique qui pose question, mais notre capacité à penser le bien commun”

Entretien | À travers le monde, les différentes solutions technologiques imaginées pour répondre à la pandémie via les applications de traçage “StopCovid” dessinent une carte assez précise de la façon dont le politique se saisit - ou pas - des questions numériques. Analyse avec Stéphane Grumbach, de l’INRIA.

Numerama (27/04/2020), « StopCovid dans l’impasse : Cédric O confirme que la France se lance dans un bras de fer avec Apple »

Cédric O a confirmé que la France choisissait le bras de fer avec Apple pour obtenir un passe-droit sur le Bluetooth, au risque de mettre en danger la vie privée des utilisatrices et utilisateurs d’iPhone. Sans cela, StopCovid ne fonctionnera pas.

Libération (26/04/2020). Tribune par Didier Sicard et al. « Pour faire la guerre au virus, armons numériquement les enquêteurs sanitaires »

Pourquoi se focaliser sur une application qu’il faudra discuter à l’Assemblée nationale et qui risque de ne jamais voir le jour, alors que nous devrions déjà nous concentrer sur la constitution et l’outillage numérique d’une véritable armée d’enquêteurs en épidémiologie ?

Le Figaro (26/04/2020). « Mobilisation générale pour développer l’application StopCovid »

Les récents avis rendus par la Cnil, le CNNum et le Conseil scientifique ont sonné le top départ pour les équipes de développement d’une application de «contact tracing».

Les Echos (26/04/2020), « StopCovid : le gouvernement passe en force et supprime le débat à l’Assemblée »

En intégrant le débat sur le projet d’application StopCovid à celui, général, sur le déconfinement, l’exécutif est accusé de passer en force. Une situation dénoncée à gauche comme au sein même de la majorité, où les réticences contre cette application sont fortes.

Politis (26/04/2020). « Covid-19 : la solution ne sera pas technologique »

Les débats autour de l’application StopCovid, souhaitée par le gouvernement français, révèlent la grande obsession de notre temps. Face aux périls qui nous menacent, nous devrions nous jeter à corps perdu dans la technologie. Surtout, ne rien remettre en cause, mais opter pour un monde encore et toujours plus numérisé. Au mépris de nos libertés, de l’environnement, de l’humain et, au final, de notre avenir.

Reuters (26/04/2020), « Germany flips to Apple-Google approach on smartphone contact tracing »

Germany changed course on Sunday over which type of smartphone technology it wanted to use to trace coronavirus infections, backing an approach supported by Apple and Google along with a growing number of other European countries.

Le Monde (26/04/2020), « Application StopCovid : la CNIL appelle le gouvernement « à une grande prudence » »

Dans son avis, la Commission nationale de l’informatique et des libertés donne un satisfecit au gouvernement tout en pointant les « risques » liés à ce projet d’application.

Le Monde (25/04/2020). Tribune par Antonio Casilli et al. « StopCovid est un projet désastreux piloté par des apprentis sorciers »

Il faut renoncer à la mise en place d’un outil de surveillance enregistrant toutes nos interactions humaines et sur lequel pèse l’ombre d’intérêts privés et politiques, à l’instar du scandale Cambridge Analytica, plaide un collectif de spécialistes du numérique dans une tribune au « Monde ».

La Dépêche du Midi (25/04/2020), « Coronavirus : la société toulousaine Sigfox propose des bracelets électroniques pour gérer le déconfinement »

Tracer les malades du Covid-19 via une application pour alerter tous ceux qui les ont croisés et qui ont été touchés par le nouveau coronavirus, c’est l’une des options étudiées par le gouvernement pour le déconfinement. La société toulousaine Sigfox a proposé ses services : un bracelet électronique au lieu d’une application. Plus sûr selon son patron.

Le Monde (24/04/2020), Tribune de Thierry Klein, entrepreneur du numérique, « Déconfinement : « Nous nous sommes encore tiré une balle dans le pied avec le RGPD »

L’entrepreneur Thierry Klein estime, dans une tribune au « Monde », que le Règlement général sur la protection des données est un monstre juridique dont la France subira les conséquences quand il s’agira de mettre en place des outils numériques de suivi de la contagion.

Extrait :

Le pompon de la bêtise, celle qui tue, est en passe d’être atteint avec le traitement du coronavirus. Au moment où nous déconfinerons, il devrait être possible de mettre une application traceuse sur chaque smartphone (« devrait », car il ne faut pas préjuger des capacités techniques d’un pays qui n’a su procurer ni gel ni masques à ses citoyens). Cette application, si vous êtes testé positif, va être capable de voir quels amis vous avez croisés et ils pourront être eux-mêmes testés. Ainsi utilisée, une telle application réduit significativement la contagion, sauve des vies (par exemple en Corée du Sud), mais réduirait selon certains nos libertés et, drame national, enfreindrait le RGPD.

Une telle interprétation est un détournement de la notion de citoyenneté, au bénéfice d’une liberté individuelle mal comprise – de fait, la liberté de tuer.

NextInpact (24/04/2020), « « Contact tracing » : la nécessité (oubliée) de milliers d’enquêteurs » (Par Jean-Marc Manach )

La focalisation du débat autour des seules applications Bluetooth de « contact tracing » fait complètement l’impasse sur le fait que, en termes de santé publique, le « contact tracing » repose d’abord et avant tout sur le facteur humain. Et qu’il va falloir en déployer des centaines de milliers, dans le monde entier.

Numerama (21/04/2020), « »StopCovid vs Apple : pourquoi la France s’est mise dans une impasse »

D’après Cédric O, secrétaire d’État au Numérique, l’application StopCovid ne sortira pas dans les temps à cause d’Apple. Cette politisation simpliste du discours autour de l’app de contact tracing cache un désaccord technique entre la méthode nationale de l’Inria et le développement international de la solution de Google et Apple. Résultat : la France est dans l’impasse.

Corriere Della Sera (21/04/2020), « Coronavirus, l’App (quasi) obbligatoria e l’ipotesi braccialetto per gli anziani »

Une idée pour l’incitation pourrait être de laisser la possibilité de télécharger l’application, ou de porter le bracelet, rester volontaire. Comme le gouvernement l’a déjà indiqué clairement. Mais prévoir que pour ceux qui choisissent de ne pas le télécharger, des restrictions de mobilité subsistent. Il reste à préciser ce que l’on entend exactement par restrictions à la liberté de circulation. Pas l’obligation de rester à la maison, ce ne serait pas possible. Mais il pourrait y avoir un resserrement du mouvement qui, pour tous les autres, dans la phase 2, sera autorisé progressivement. La proposition, encore en phase d’élaboration, pourrait être formalisée dans les prochains jours par la commission technico-scientifique, en accord avec Domenico Arcuri, le commissaire extraordinaire qui a signé l’ordre précisément pour l’application, et en accord également avec le groupe de travail dirigé par Vittorio Colao. La décision finale, bien sûr, appartient au gouvernement.

Korii-slate (20/04/2020), « Peut-on déjà se fier à une app de passeport immunitaire? » (voir original sur Quartz paru le 15/04/2020)

Une start-up propose déjà son CoronaPass aux États, sur des bases scientifiques pourtant balbutiantes.

Le Temps (18/04/2020), « L’EPFL se distancie du projet européen de traçage du virus via les téléphones »

L’EPFL, mais aussi l’EPFZ se distancient du projet européen de traçage des smartphones pour lutter contre le coronavirus. A l’origine, les deux établissements faisaient partie de l’ambitieux projet de recherche européen Pan-European Privacy-Preserving Proximity Tracing (PEPP-PT), regroupant 130 organismes de huit pays. Mais vendredi, les deux partenaires suisses ont décidé d’explorer une autre solution, davantage respectueuse de la vie privée.

Le Figaro (17/04/2020). Interview de Shoshana Zuboff « Shoshana Zuboff: «Les applications de contrôle de la pandémie doivent être obligatoires, comme les vaccins» » Traduction d’une interview parue originellement dans La Repubblica «Shoshana Zuboff: ‘Le app per il controllo della pandemia possono essere obbligatorie come i vaccini’ »

VU D’AILLEURS - L’auteure du livre L’ère du capitalisme de surveillance nous explique pourquoi les systèmes numériques de contrôle de la pandémie devraient relever du secteur public et donc devenir obligatoires.

L’Usine Nouvelle (16/04/2020) « Sanofi et Luminostics s’associent pour développer un autotest du Covid-19 sur smartphone »

Le français Sanofi et la start-up californienne Luminostics font alliance pour le développement d’un test de dépistage du Covid-19 à faire soi-même sur son smartphone. Les travaux doivent débuter dans quelques semaines et la solution pourra voir le jour d’ici à la fin 2020 sous réserve de l’obtention des autorisations réglementaires.

WIRED (14/04/2020), « The Apple-Google Contact Tracing Plan Won’t Stop Covid Alone »

Putting the privacy of these smartphone apps aside, few Americans have been tested—and there’s a risk of false positives.

Apple and Google are offering a bold plan using signals from more than 3 billion smartphones to help stem the spread of the deadly coronavirus while protecting users’ privacy. But epidemiologists caution that—privacy concerns aside—the scheme will be of limited use in combating Covid-19 because of the technology’s constraints, inadequate testing for the disease, and users’ reluctance to participate.

Le Monde (10/04/2020), « Coronavirus : Apple et Google proposent un outil commun pour les applications de traçage des malades »

Les deux géants de la téléphonie vont mettre en place une solution technique mise à disposition des gouvernements.

Wired (05/04/2020), « Google and Apple Reveal How Covid-19 Alert Apps Might Look »

As contact tracing plans firm up, the tech giants are sharing new details for their framework—and a potential app interface.

Finding out that you’ve been exposed to a serious disease through a push notification may still seem like something out of dystopian science fiction. But the ingredients for that exact scenario will be baked into Google and Apple’s operating system in as soon as a matter of days. Now the two companies have shown not only how it will work, but how it could look—and how it’ll let you know if you’re at risk.

France Inter (04/04/2020) « Google et le Covid-19 ou le Big data au service des gouvernement »

Google a mis en ligne vendredi l’ensemble des données de déplacements des utilisateurs (qui ont activé l’option localisation) de son outil de cartographie, Google Maps. Des données qui doivent, selon le géant du web américain, permettre d’aider les dirigeants à améliorer l’efficacité de leur politique de confinement.

La Tribune (24/03/2020), « Covid-19 et contagion : vers une géolocalisation des smartphones en France ? »

Un comité de douze chercheurs et médecins va être mis en place à l’Élysée à partir de ce mardi pour conseiller le gouvernement sur les moyens d’endiguer la propagation du coronavirus. Le numérique figure parmi les thèmes à l’étude, notamment pour identifier des personnes ayant été potentiellement exposées au virus. De nombreux pays ont déjà opté pour la géolocalisation des smartphones afin de traquer les déplacements des individus.

Avis et infos experts

CNIL (25/05/2020) – Délibération n° 2020-056 du 25 mai 2020 portant avis sur un projet de décret relatif à l’application mobile dénommée «StopCovid» (demande d’avis n° 20008032)

Feu vert de la CNIL.

SI Lex (01/05/2020), par Calimaq : StopCovid, la subordination sociale et les limites au « Consent Washing »

J’ai déjà eu l’occasion dans un précédent billet de dire tout le mal que je pensais de StopCovid et je ne vais pas en rajouter à nouveau dans ce registre. Je voudrais par contre prendre un moment sur la délibération que la CNIL a rendue en fin de semaine dernière à propos du projet d’application, car elle contient à mon sens des éléments extrêmement intéressants, en particulier sur la place du consentement en matière de protection des données personnelles.

CNIL (26/04/2020), Publication de l’avis de la CNIL sur le projet d’application mobile « StopCovid »

Dans le cadre de l’état d’urgence sanitaire lié à l’épidémie de COVID-19, et plus particulièrement de la stratégie globale de « déconfinement », la CNIL a été saisie d’une demande d’avis par le secrétaire d’État chargé du numérique. Celle-ci concerne l’éventuelle mise en œuvre de « StopCovid » : une application de suivi de contacts dont le téléchargement et l’utilisation reposeraient sur une démarche volontaire. Les membres du collège de la CNIL se sont prononcés le 24 avril 2020.

Dans le contexte exceptionnel de gestion de crise, la CNIL estime le dispositif conforme au Règlement général sur la protection des données (RGPD) si certaines conditions sont respectées. Elle relève qu’un certain nombre de garanties sont apportées par le projet du gouvernement, notamment l’utilisation de pseudonymes.

La CNIL appelle cependant à la vigilance et souligne que l’application ne peut être déployée que si son utilité est suffisamment avérée et si elle est intégrée dans une stratégie sanitaire globale. Elle demande certaines garanties supplémentaires. Elle insiste sur la nécessaire sécurité du dispositif, et fait des préconisations techniques.

Elle demande à pouvoir se prononcer à nouveau après la tenue du débat au Parlement, afin d’examiner les modalités définitives de mise en œuvre du dispositif, s’il était décidé d’y recourir.

Conseil National du Numérique (24/04/2020), « Stop-Covid. Avis du Conseil National du Numérique »

Dans le cadre de la réponse à la crise du COVID-19, ​le secrétaire d’État chargé du Numérique a saisi le Conseil national du numérique pour émettre un avis sur les modalités de fonctionnement et de déploiement de l’application pour téléphones mobiles StopCOVID​, dont le développement a été annoncé le 8 avril 2020.

Ligue des Droits de l’Homme (24/04/2020), « Lettre ouverte concernant le vote sur la mise en œuvre de l’application StopCovid »

Les risques d’atteinte au respect de la vie privée et au secret médical, les risques de surveillance généralisée au regard d’une efficacité tout à fait incertaine conduisent la Ligue des droits de l’Homme (LDH) à vous demander instamment de vous opposer au projet StopCovid.

Washington Post (23/04/2020). Tribune de Bill Gates (24/04/2020) « Here are the innovations we need to reopen the economy. Version lisible aussi sur son blog en [version courte](The first modern pandemic (short read) ) et en version longue. On peut voir qu’un informaticien devient « spécialiste » en épidémiologie et comment il promeut du solutionnisme technologique (tout en affirmant que ce n’est pas non plus la panacée). Il propose le contact tracing (tracage de contact)

Le deuxième domaine dans lequel nous avons besoin d’innovation est le contact tracing. Lorsqu’une personne est testée positive, les professionnels de santé publique doivent savoir qui d’autre cette personne pourrait avoir été infectée.

Pour l’instant, les États-Unis peuvent suivre l’exemple de l’Allemagne : interroger toutes les personnes dont le test est positif et utiliser une base de données pour s’assurer que quelqu’un assure le suivi de tous leurs contacts. Cette approche est loin d’être parfaite, car elle repose sur la déclaration exacte des contacts par la personne infectée et nécessite un suivi personnel important. Mais ce serait une amélioration par rapport à la manière sporadique dont le contact tracing se fait actuellement aux États-Unis.

Une solution encore meilleure serait l’adoption généralisée et volontaire d’outils numériques. Par exemple, il existe des applications qui vous aideront à vous rappeler où vous avez été ; si jamais vous êtes déclaré positif, vous pouvez revoir l’historique ou choisir de le partager avec la personne qui vient vous interroger sur vos contacts. Et certaines personnes ont proposé de permettre aux téléphones de détecter d’autres téléphones qui se trouvent à proximité en utilisant le Bluetooth et en émettant des sons que les humains ne peuvent pas entendre. Si une personne était testée positive, son téléphone enverrait un message aux autres téléphones, et son propriétaire pourrait se faire tester. Si la plupart des gens choisissaient d’installer ce genre d’application, cela en aiderait probablement certains.

Risque-tracage.fr (21/04/2020). Le traçage anonyme, dangereux oxymore. Analyse de risques à destination des non-spécialistes.

Des chercheurs de l’INRIA, du LORIA etc. se regroupent pour diffuser un note de vulgarisation sur les risques liés au traçage par téléphone. Ils produisent un PDF qui circule beaucoup.

Privacy International (20/04/2020) « There’s an app for that: Coronavirus apps »

Increased trust makes every response to COVID-19 stronger. Lack of trust and confidence can undermine everything. Should we trust governments and industry with their app solutions at this moment of global crisis?

Key findings:

  • There are many apps across the world with many different uses.
  • Some apps won’t work in the real world; the ones that do work best with more virus testing.
  • They all require trust, and that has yet to be built after years of abuses and exploitation.
  • Apple and Google’s contributions are essential to making contact-tracing work for their users; these are positive steps into privacy-by-design, but strict governance is required for making, maintaining and removing this capability.

La Quadrature du Net (14/04/2020), « Nos arguments pour rejeter StopCovid Posted »

Utilisation trop faible, résultats vagues, contre-efficacité sanitaire, discriminations, surveillance, acclimatation sécuritaire…

Ross Anderson (chercheur Univ. Cambridge), (12/04/2020) « Contact Tracing in the Real World »

Voici le véritable compromis entre la surveillance et la santé publique. Pendant des années, une pandémie a figuré en tête du registre des risques de la Grande-Bretagne, mais on a beaucoup moins dépensé pour s’y préparer que pour prendre des mesures antiterroristes, dont beaucoup étaient plus ostentatoires qu’efficaces. Pire encore, la rhétorique de la terreur a gonflé les agences de sécurité au détriment de la santé publique, prédisposant les gouvernements américain et britannique à ignorer la leçon du SRAS en 2003 et du MERS en 2015 - contrairement aux gouvernements de la Chine, de Singapour, de Taïwan et de la Corée du Sud, qui y ont prêté au moins quelque attention. Ce dont nous avons besoin, c’est d’une redistribution radicale des ressources du complexe industriel de surveillance vers la santé publique.

Nos efforts devraient porter sur l’extension des tests, la fabrication de ventilateurs, le recyclage de tous ceux qui ont une formation clinique, des infirmières vétérinaires aux physiothérapeutes, et la construction d’hôpitaux de campagne. Nous devons dénoncer des conneries quand nous en voyons et ne pas donner aux décideurs politiques le faux espoir que la techno-magie pourrait leur permettre d’éviter les décisions difficiles. Sinon, nous pouvons mieux être utiles en nous tenant à l’écart. La réponse ne doit pas être dictée par les cryptographes mais par les épidémiologistes, et nous devons apprendre ce que nous pouvons des pays qui ont le mieux réussi jusqu’à présent, comme la Corée du Sud et Taïwan.

Union Européenne (08/04/2020) - Rapport technique sur le contact tracing. European Centre for Disease Prevention and Control . « Contact tracing: public health management of persons, including healthcare workers, having had contact with COVID-19cases in the European Union. » Lien vers le pdf , Lien vers la page.

This document aims to helpEU/EEA public health authorities in the tracing and management of persons,including healthcare workers, who had contact with COVID-19 cases. It should be implemented in combination with non-pharmaceutical measures as appropriate.

The purpose of identifying and managing the contacts ofprobable or confirmedCOVID-19casesisto rapidly identify secondary cases that may arise after transmission from the primary known cases in order tointervene andinterruptfurther onward transmission. This is achieved through:

  • the prompt identification of contacts of a probable or confirmedcase of COVID-19;
  • providing contacts withinformation on self-quarantine, proper hand hygiene and respiratory etiquette measures,and advice around what to do if they develop symptoms;
  • timely laboratory testingfor all those withsymptoms.

CEVIPOF (01/04/2020), Martial Foucault « Note 3 - Opinons sur l’usage du téléphone portable en période de crise du Coronavirus »

En France, aucune décision n’a encore été prise. Comme le démontrent les exemples étrangers précédents, plusieurs modalités d’usage des données cellulaires sont envisageables, allant d’une politique de santé publique partagée (Singapour) à une politique de surveillance sans consentement (Iran). Dans le cadre de l’enquête comparée «Attitudes sur le COVID-19», nous avons interrogé un échantillon représentatif de Français sur «la possibilité de mobiliser les opérateurs téléphoniques à des fins de contrôle des déplacements». Àcette question, une majorité de personnes exprime une opinion fortement défavorable (48%). Seules 33% des personnes interrogées (échantillon de 2000 personnes) y sont favorables. Le niveau d’indécision sesitue à 18,4%.L’évolution des réponses à cette question posée dans les mêmes termes entre les 16-17 mars et les 24-25 mars montre une dynamique fortement positive. Les raisons de cette progression sont à rechercher autour de l’aggravation réelle de la pandémie et de la perception par l’opinion de l’urgence de l’ensemble des politiques sanitaires, technologiques et maintenant numériques. Le cadrage médiatique, fondé sur des expériences étrangères, du possible recours aux téléphones ne précise pas la position que pourraient prendre les autorités françaises en la matière. C’est pourquoi, ici, la question posée dans les deux enquêtesporte volontairement sur la dimension la plus intrusive sur la vie privée et la plus liberticide (la formulation insiste sur une politique de surveillance).

Chaos Computer Club (06/04/2020), « 10 requirements for the evaluation of “Contact Tracing” apps »

Loin d’être fermé à la mise en oeuvre d’application mobile de contact tracing le CCC émet 10 recommandation hautement exigeantes pour rendre ces applications acceptables.

Facebook (06/04/2020), « De nouveaux outils pour aider les chercheurs en santé à suivre et à combattre le COVID-19 »

Dans le cadre du programme Data for Good de Facebook, nous proposons des cartes sur les mouvements de population que les chercheurs et les organisations à but non lucratif utilisent déjà pour comprendre la crise du coronavirus, en utilisant des données agrégées pour protéger la vie privée des personnes. Ils nous ont dit combien ces informations peuvent être précieuses pour répondre au COVID-19, et aujourd’hui nous annonçons de nouveaux outils pour soutenir leur travail :…

Google (blog), (03/04/2020), « Helping public health officials combat COVID-19 »

Starting today we’re publishing an early release of our COVID-19 Community Mobility Reports to provide insights into what has changed in response to work from home, shelter in place, and other policies aimed at flattening the curve of this pandemic. These reports have been developed to be helpful while adhering to our stringent privacy protocols and policies.

Officiel

Anti Cor (12/11/2020) « Application StopCovid : Anticor saisit le parquet national financier »

Anticor a déposé un signalement auprès du Procureur de la République, mercredi 10 juin, ayant pour objet l’attribution du contrat de maintenance de l’application StopCovid, qui n’aurait été soumis à aucune procédure de passation de marché public.

FRA (European Union Agency For Fundamentals Rights) - 28/05/2020 « Les réponses technologiques à la pandémie de COVID-19 doivent également préserver les droits fondamentaux »

Protection des données, respect de la vie privée et nouvelles technologiesAsile, migration et frontièresAccès à l’asileProtection des donnéesEnfants, jeunes et personnes âgéesPersonnes handicapéesOrigine raciale et ethniqueRomsDroits des victimes

De nombreux gouvernements sont à la recherche de technologies susceptibles de les aider à suivre et tracer la diffusion de la COVID-19, comme le montre un nouveau rapport de l’Agence des droits fondamentaux de l’UE (FRA). Les gouvernements qui utilisent la technologie pour protéger la santé publique et surmonter la pandémie se doivent de respecter les droits fondamentaux de chacun.

Office parlementaire d’évaluation des choix scientifiques et technologiques, 12/05/2020. Audition de M. Guillaume Poupard, directeur général de l’Agence nationale de la sécurité des systèmes d’information (ANSSI) – Vidéos Sénat.

Explications sur Stop-Covid, nécessité de conserver la souveraineté de l’Etat dans ce domaine, inquiétudes au sujet de la progression des GAFAM dans le secteur de la santé. Inquiétudes au sujet de la montée en puissance du tracage de contacts dans les dispositifs Apple / Google, et l’éventualité d’un futur développement d’une économie dans ce secteur avec tous les biais que cela suppose.

ANSSI (27/04/2020), « Application StopCovid –L‘ANSSI apporte à Inria son expertise technique sur le volet sécurité numérique du projet »

Pilote du projet d’application StopCovid, à la demande du Secrétaire d’Etat chargé du numérique, Cédric O, l’Institut national de recherche en sciences et technologies du numérique (Inria) est accompagné par l’Agence nationale de la sécurité des systèmes d’information (ANSSI) sur les aspects de sécurité numérique.

INRIA (26/04/2020). Communiqué de presse annonçant officiellement l’équipe-projet de l’application Stop-Covid.

Inria, ANSSI, Capgemini, Dassault Systèmes, Inserm, Lunabee Studio, Orange, Santé Publique France et Withings (et Beta.gouv a été débarqué du projet, qui contiendra finalement peu de briques open-source).

Protocoles

Les protocoles et applications suivants, développés dans le cadre de la lutte contre Covid-19 utilisent en particulier le Bluetooth.

BlueTrace est le protocole open source inventé au sein du gouvernement de Singapour dans le cadre de la lutte contre la propagation du virus Covid-19. Le protocole est utilisé dans l’application TraceTogether. À son tour le gouvernemetn Australien implémente ce protocole dans l’application COVIDSafe distribuée en Australie.

En Europe, le protocole ouvert Pan-European Privacy-Preserving Proximity Tracing (PEPP-PT/PEPP) utilise le bluetooth pour rechercher des contacts mais centralise des rapports sur un serveur centralisé. Son concurrent open source Decentralized Privacy-Preserving Proximity Tracing ne permet pas au serveur central de signalement d’accéder aux journaux de contacts.

Pour la France, le protocole ROBERT (ROBust and privacy-presERving proximity Tracing) a été publié par l’INRIA le 18 avril 2020

Listes d’applications Covid-19 : fr.wikipedia.org/wiki/Applications_Covid-19


Publié le 10.04.2020 à 02:00

Prophètes et technologistes à l’ère de la suspicion généralisée

Ha ! Le sacro-saint « révélateur ». À écouter et lire les médias, la pandémie Covid-19 que nous traversons aujourd’hui est censée « révéler » quelque chose, un message, un état d’esprit, l’avènement d’une prophétie. Et on voit proliférer les experts toutologues, devins des temps modernes, avatars des prédicateurs de l’An Mille, les charlatans de fin du monde. Je voudrais partager ici quelques réflexions au sujet des discours actuels sur la surveillance en situation de crise sanitaire.

(Note : ce billet a été publié sur le Framablog le 10 avril 2020)

Les prophètes

Faire une révélation, nous dit le dictionnaire, c’est porter à la connaissance quelque chose qui était auparavant caché, inconnu. Et le pas est vite franchi : pour nos prêtres médiatiques, il est très commode de parler de révélation parce que si le divin à travers eux manifeste ce qu’eux seuls peuvent dévoiler au public (eux seuls connaissent les voies divines), il leur reste le pouvoir de décider soit de ce qui était auparavant caché et doit être dévoilé, soit de ce qui était caché et n’est pas censé être dévoilé. Bref, on refait l’histoire au fil des événements présents : la sous-dotation financière des hôpitaux et les logiques de coupes budgétaires au nom de la rigueur ? voilà ce que révèle le Covid-19, enfin la vérité éclate ! Comment, tout le monde le savait ? Impossible, car nous avions tous bien affirmé que la rigueur budgétaire était nécessaire à la compétitivité du pays et maintenant il faut se tourner vers l’avenir avec ce nouveau paramètre selon lequel la rigueur doit prendre en compte le risque pandémique. Et là le prêtre devient le prophète de jours meilleurs ou de l’apocalypse qui vient.

Pourquoi je raconte tout cela ? Je travaille dans un CHU, les politiques de santé publiques me sont quotidiennes ainsi que la manière dont elles sont décidées et appliquées. Mais vous le savez, ce n’est pas le sujet de mes études. Je m’intéresse à la surveillance. Et encore, d’un point de vue historique et un peu philosophique, pour faire large. Je m’intéresse au capitalisme de surveillance et j’essaie de trouver les concepts qui permettent de le penser, si possible au regard de notre rapport à l’économie et au politique.

J’ai appris très tôt à me méfier des discours à tendance technologiste, et cela me vient surtout de ma formation initiale en philosophie, vous savez ce genre de sujet de dissertation où l’on planche sur le rapport technologie / politique / morale. Et à propos, sans pour autant faire de la philo, je ne saurais que conseiller d’aller lire le livre de Fred Turner qui, déjà en 2006 (la traduction est tardive), grattait assez profondément le vernis de la cyberculture californienne. Mais au fil des années de mon implication dans le logiciel libre et la culture libre, j’ai développé une autre sorte de sensibilité : lorsque les libertés numériques sont brandies par trop de prophètes d’un coup, c’est qu’il faut aller chercher encore ailleurs le discours qui nous est servi.

Pour exemple de l’effet rhétorique de la révélation, on peut lire cet article du géographe Boris Beaude, paru le 07 avril 2020 dans Libération, intitulé « Avec votre consentement ». L’auteur passe un long moment à faire remarquer au lecteur à quel point nous sommes vendus corps et âmes aux GAFAM et que la pandémie ne fait que révéler notre vulnérabilité :

Lorsque nous acceptons que de telles entreprises collectent les moindres détails de nos existences pour le compte de leurs clients et que nous doutons conjointement des régimes politiques qui nous gouvernent, nous réalisons que les effets de la propagation du Sars-Cov-2 ne sont qu’un révélateur de l’ampleur de notre vulnérabilité.

Il est important de comprendre la logique de ce discours : d’un côté on pose un diagnostic que seul un sage est capable de révéler et de l’autre on élève la pandémie et ses effet délétères au rang des sept plaies d’Égypte, qui sert de porte à une nouvelle perception des choses, en l’occurrence notre vulnérabilité face aux pratiques d’invasion de la vie privée par les GAFAM, et par extension, les pratiques des États qui se dotent des moyens technologiques pour surveiller et contrôler la population. Évidemment, entre la population assujettie et l’État-GAFAM, il y a la posture du prophète, par définition enviable puisqu’il fait partie d’une poignée d’élus livrant un testament aux pauvres pêcheurs que nous sommes. Reste plus qu’à ouvrir la Mer Rouge…

Arrêtons là si vous le voulez bien la comparaison avec la religion. Je l’affirme : non la crise COVID-19 ne révèle rien à propos du capitalisme de surveillance. Elle ne révèle rien en soi et encore moins à travers les prophètes auto-proclamés. Et la première des raisons est que ces derniers arrivent bien tard dans une bataille qui les dépasse.

Pendant la crise sanitaire que nous traversons il ne faut pas se demander ce qu’elle peut révéler mais interroger les discours qui se servent de cette crise pour justifier et mettre en œuvre des pratiques de surveillance et limiter encore davantage nos libertés. Penser les choses en termes de révélation n’a pour autre effet que de limiter toujours plus notre pouvoir d’action : que peut-on à l’encontre d’une révélation ?

Les amis de la Quadrature du Net (comme beaucoup d’autres, heureusement) préfèrent une approche bien plus structurée. Ils affirment par exemple dans un récent communiqué que, au regard de la surveillance, la crise sanitaire Covid-19 est un évènement dont l’ampleur sert d’argument pour une stratégie de surveillance de masse, au même titre que les attentats terroristes. Ceci n’est pas une révélation, ni même une mise en garde. C’est l’exposé des faits, ni plus ni moins. Tout comme dire que notre ministre de l’intérieur C. Castaner a d’abord affirmé que l’État Français n’avait pas pour intention de copier la Corée du Sud et la Chine en matière de traçage de téléphones portables, avant de revenir sur ses propos et affirmer que les services gouvernementaux planchent sur une application censée tracer les chaînes de transmission. Qui s’est offusqué de ce mensonge d’État ? C’est devenu tellement banal. Pire, une telle application permettrait d’informer les utilisateurs s’ils ont « été dans les jours précédents en contact avec quelqu’un identifié positif au SARS-CoV-2 », comme l’affirment les deux ministres Castaner et Véran dans un entretien au Monde. C’est parfait comme technique de surveillance : la Stasi pratiquait déjà ce genre de chose en organisant une surveillance de masse basée sur la suspicion au quotidien.

Le smartphone n’est qu’un support moderne pour de vieilles recettes. Le Covid-19 est devenu un prétexte, tout comme les attentats terroristes, pour adopter ou faire adopter une représentation d’un État puissant (ce qu’il n’est pas) et faire accepter un État autoritaire (ce qu’il est). Cette représentation passe par un solutionnisme technologique, celui prôné par la doctrine de la « start-up nation » chère à notre président Macron, c’est-à-dire chercher à traduire l’absence d’alternative politique, et donc l’immobilisme politique (celui de la rigueur budgétaire prôné depuis 2008 et même avant) en automatisant la décision et la sanction grâce à l’adoption de recettes technologiques dont l’efficacité réside dans le discours et non dans les faits.

Techno-flop

Le solutionnisme technologique, ainsi que le fait remarquer E. Morozov, est une idéologie qui justifie des pratiques de surveillance et d’immenses gains. Non seulement ces pratiques ne réussissent presque jamais à réaliser ce pourquoi elles sont prétendues servir, mais elles sont le support d’une économie d’État qui non seulement dévoie les technologies afin de maîtriser les alternatives sociales, voire la contestation, mais entre aussi dans le jeu financier qui limite volontairement l’appropriation sociale des technologies. Ainsi, par exemple, l’illectronisme des enfants et de leurs enseignants livrés à une Éducation Nationale numériquement sous-dotée, est le fruit d’une volonté politique. Comment pourrait-il en être autrement ? Afin d’assurer la « continuité pédagogique » imposée par leur ministre, les enseignants n’ont eu d’autres choix que de se jeter littéralement sur des services privateurs. Cette débandade est le produit mécanique d’une politique de limitation volontaire de toute initiative libriste au sein de l’Éducation Nationale et qui serait menée par des enseignants pour des enseignants. Car de telles initiatives remettraient immanquablement en question la structure hiérarchique de diffusion et de valorisation des connaissances. Un tel gouvernement ne saurait supporter quelque forme de subsidiarité que ce soit.

La centralisation de la décision et donc de l’information… et donc des procédés de surveillance est un rêve de technocrates et ce rêve est bien vieux. Déjà il fut décrié dès les années 1970 en France (voir la première partie de mon livre, Affaires Privées) où la « dérive française » en matière de « grands fichiers informatisés » fut largement critiquée pour son inefficacité coûteuse. Qu’importe, puisque l’important n’est pas de faire mais de montrer qu’on fait. Ainsi l’application pour smartphone Stop Covid (ou n’importe quel nom qu’on pourra lui donner) peut d’ores et déjà figurer au rang des grands flops informatiques pour ce qui concerne son efficacité dans les objectifs annoncés. Il suffit de lire pour cela le récent cahier blanc de l’ACLU (Union Américaine pour les libertés civiles), une institution fondée en 1920 et qu’on ne saurait taxer de repère de dangereux gauchistes.

Dans ce livre blanc tout est dit, ou presque sur les attentes d’une application de tracing dont l’objectif, tel qu’il est annoncé par nos ministres (et tel qu’il est mentionné par les pays qui ont déjà mis en œuvre de telles applications comme la Chine ou Israël), serait de déterminer si telle personne a été exposée au virus en fréquentant une autre personne définie comme contagieuse. C’est simple :

  1. Il faut avoir un smartphone avec soi et cette application en fonction : cela paraît basique, mais d’une part tout le monde n’a pas de smartphone, et d’autre part tout le monde n’est pas censé l’avoir sur soi en permanence, surtout si on se contente de se rendre au bureau de tabac ou chez le boulanger…
  2. aucune technologie n’est à ce jour assez fiable pour le faire. Il est impossible de déterminer précisément (c’est-à-dire à moins de deux mètres) si deux personnes sont assez proches pour se contaminer que ce soit avec les données de localisation des tours de téléphonie (triangulation), le GPS (5 à 20 mètres) ou les données Wifi (même croisées avec GPS on n’a guère que les informations sur la localisation de l’émetteur Wifi). Même avec le bluetooth (technologie plébiscitée par le gouvernement Français aux dernières nouvelles) on voit mal comment on pourrait assurer un suivi complet. Ce qui est visé c’est en fait le signalement mutuel. Cependant, insister sur le bluetooth n’est pas innocent. Améliorer le tracing dans cette voie implique un changement dans nos relations sociales : nous ne sommes plus des individus mais des machines qui s’approchent ou s’éloignent mutuellement en fonction d’un système d’alerte et d’un historique. Qui pourra avoir accès à cet historique ? Pourra-t-on être condamné plus tard pour avoir contaminé d’autres personnes ? Nos assurances santé autoriseront-elles la prise en charge des soins s’il est démontré que nous avons fréquenté un groupe à risque ? Un projet européen existe déjà (PEPP-PT), impliquant entre autres l’INRIA, et il serait important de surveiller de très près ce qui sera fait dans ce projet (idem pour ce projet de l’École Polytechnique de Lausanne).
  3. Ajoutons les contraintes environnementales : vous saluez une personne depuis le second étage de votre immeuble et les données de localisation ne prennent pas forcément en compte l’altitude, vous longez un mur, une vitrine, une plaque de plexiglas…

Bref l’UCLA montre aimablement que la tentation solutionniste fait perdre tout bon sens et rappelle un principe simple :

Des projets ambitieux d’enregistrement et d’analyse automatisés de la vie humaine existent partout de nos jours, mais de ces efforts, peu sont fiables car la vie humaine est désordonnée, complexe et pleine d’anomalies.

Les auteurs du rapport écrivent aussi :

Un système de suivi de localisation dans le temps peut être suffisamment précis pour placer une personne à proximité d’une banque, d’un bar, d’une mosquée, d’une clinique ou de tout autre lieu sensible à la protection de la vie privée. Mais le fait est que les bases de données de localisation commerciales sont compilées à des fins publicitaires et autres et ne sont tout simplement pas assez précises pour déterminer de manière fiable qui était en contact étroit avec qui.

En somme tout cela n’est pas sans rappeler un ouvrage dont je conseille la lecture attentive, celui de Cathy O’Neil, Algorithmes: la bombe à retardement (2018). Cet ouvrage montre à quel point la croyance en la toute puissance des algorithmes et autres traitements automatisés d’informations dans le cadre de processus décisionnels et de politiques publiques est la porte ouverte à tous les biais (racisme, inégalités, tri social, etc.). Il n’en faudrait pas beaucoup plus si l’on se souvient des débuts de la crise Covid-19 et la suspicion dans nos rues où les personnes présentant des caractères asiatiques étaient stigmatisées, insultées, voire violentées…

Ajoutons à cela les effets d’annonce des GAFAM et des fournisseurs d’accès (Orange, SFR…) qui communiquaient il y a peu, les uns après les autres, au sujet de la mise à disposition de leurs données de localisation auprès des gouvernements. Une manière de justifier leur utilité sociale. Aucun d’entre eux n’a de données de localisations sur l’ensemble de leurs utilisateurs. Et heureusement. En réalité, les GAFAM tout comme les entreprises moins connues de courtage de données (comme Acxiom), paient pour cela. Elles paient des entreprises, souvent douteuses, pour créer des applications qui implémentent un pompage systématique de données. L’ensemble de ces pratiques crée des jeux de données vendues, traitées, passées à la moulinette. Et si quiconque souhaite obtenir des données fiables permettant de tracer effectivement une proportion acceptable de la population, il lui faut accéder à ces jeux… et c’est une denrée farouchement protégée par leurs détenteurs puisque c’est un gagne-pain.

De la méthode

À l’heure où les efforts devraient se concentrer essentiellement sur les moyens médicaux, les analyses biologiques, les techniques éprouvées en santé publique en épidémiologie (ce qui est fait, heureusement), nous voilà en train de gloser sur la couleur de l’abri à vélo. C’est parce que le solutionnisme est une idéologie confortable qui permet d’évacuer la complexité au profit d’une vision du monde simpliste et inefficace pour laquelle on imagine des technologies extrêmement complexes pour résoudre « les grands problèmes ». Ce n’est pas une révélation, simplement le symptôme de l’impuissance à décider correctement. Surtout cela fait oublier l’impréparation des décideurs, les stratégies budgétaires néfastes, pour livrer une mythologie technologiste à grand renfort de communication officielle.

Et l’arme ultime sera le sondage. Déjà victorieux, nos ministères brandissent une enquête d’opinion du département d’économie de l’Université d’Oxford, menée dans plusieurs pays et qui montre pour la France comme pour les autres pays, une large acceptation quant à l’installation d’une application permettant le tracing, que cette installation soit volontaire ou qu’elle soit imposée1. Est-ce étonnant ? Oui, effectivement, alors même que nous traversons une évidente crise de confiance envers le gouvernement, la population est prête à jouer le jeu dangereux d’une surveillance intrusive dont tout laisse supposer que cette surveillance se perpétuera dans le temps, virus ou pas virus. Mais cela ne signifie pas pour autant que la confiance envers les dirigeants soit rétablie. En effet le même sondage signale que les retombées politiques en cas d’imposition d’un tel système sont incertaines. Pour autant, c’est aussi un signal envoyé aux politiques qui vont alors se lancer dans une quête frénétique du consentement, quitte à exagérer l’assentiment pressenti lors de cette enquête. C’est déjà en cours.

À mon avis, il faut rapprocher le résultat de cette enquête d’une autre enquête récente portant le plébiscite de l’autoritarisme en France. C’est une enquête du CEVIPOF parue en mars 2020 qui montre « l’emprise du libéralisme autoritaire en France », c’est-à-dire que le manque de confiance dans l’efficacité du gouvernement ne cherche pas son remède dans une éventuelle augmentation des initiatives démocratiques, voire alternativistes, mais dans le refuge vers des valeurs de droite et d’extrême droite sacrifiant la démocratie à l’efficacité. Et ce qui est intéressant, c’est que ceux qui se vantaient d’apporter plus de société civile à la République sont aussi ceux qui sont prêts à dévoyer la démocratie. Mais qu’on y prenne garde, ce n’est pas vraiment une affaire de classe sociale, puisque cette orientation autoritaire est aussi valable dans les tranches basses et moyennes. On rejoint un peu les propos d’Emmanuel Todd dans la première partie de son ouvrage Les Luttes de classes en France au XXIe siècle, données sérieuses à l’appui (y compris celles de l’Insee).

Alors quoi ? les Français sont-ils définitivement des veaux heureux d’aller à l’abattoir ? Honnêtement, parfois on peut le penser. Mais pas là. Non. L’enquête d’opinion d’Oxford a été menée dans un climat général extrêmement angoissant, et inédit. Pour retrouver un tel degré de panique dans la population, il faudrait par exemple se souvenir de la crise des missiles cubains et de la manière dont elle a été mise en scène dans les médias américains. Même l’épisode Tchernobyl en France n’a pas eu cet impact (ok, on a largement minimisé le problème). Et là dedans, avec un gouvernement à la fois empêtré et sidéré (avec la chargée de comm' S. Ndiaye alignant ad nauseam sottises et âneries), on fait un sondage dont les tenants et aboutissants techniques sont loin d’être évidents et qui pose la question : êtes-vous prêt à installer une application de tracing sur votre mobile qui permettrait de lutter contre l’épidémie ? Sérieux, on attend quoi comme réponse ? Sur plusieurs pays qui ont connu les mêmes valses-hésitations politiques, le fait que les réponses soient à peu près les mêmes devrait mettre la puce à l’oreille, non ? Bien sûr, allez demandez ce qu’elles pensent de la vidéosurveillance à des personnes qui se sont fait agresser dans la rue, pensez-vous que nous aurions les mêmes réponses si le panel était plus large ? Ce que je veux dire, c’est que le panel des 1.000 personnes interrogées en pleine crise sanitaire n’est représentatif que de la population touchée par la crise sanitaire, c’est-à-dire un panel absolument homogène. Évidemment que les tendances politiques ne viennent donc qu’en second plan et ne jouent qu’un rôle négligeable dans les réponses données.

Je ne suis pas statisticien, je ne peux donner mon sentiment qu’avec mes mots à moi. Mais, n’est-ce pas, nous sommes déjà habitués au techniques d’extorsion (fabrique ?) de consentement. À celui-ci s’ajoute une certaine pauvreté dans la manière d’appréhender cette fuite en avant vers la surveillance. Avec l’expression « Big Brother », on a l’impression d’avoir tout dit. Mais c’est faux. On ne passe pas si facilement d’un libéralisme autoritaire à une dystopie orwellienne, il y a des étapes, et à chaque étape nous prenons une direction. Scander « Big Brother » (comme la récente Une de l’Obs le 02 avril 2020 « Big Brother peut-il nous sauver ? »), c’est un peu comme si on cherchait à donner une théorie sans d’abord la démontrer. « Big Brother » impose une grille de lecture des événements tout en prédisant déjà la fin. Ce n’est pas une bonne méthode.

Y-a-t’il une bonne méthode ? Étudier la surveillance, c’est d’abord faire appel à un ensemble de concepts que l’on met à l’épreuve. Il faut signaler sur ce point l’excellent édito de Martin French et Torin Monahan dans le dernier numéro de la revue canadienne Surveillance & Society, intitulé « Dis-ease Surveillance: How Might Surveillance Studies Address COVID-19? ». C’est tout un programme de recherche qui est développé ici, à titre prospectif. La première chose que s’empressent de signaler les auteurs, c’est que surveiller le Covid-19, ce n’est pas surveiller la population. Ce sont deux choses bien différentes que les politiques feraient mieux de ne pas perdre de vue. Surveiller le Covid-19 c’est faire de l’épidémiologie, et identifier des cas (suspects, déclarés, etc.). Et là où on peut s’interroger, c’est sur la complexité des situations qu’une approche scientifique réduit à des éléments plus simples et pertinents. Si, pour les besoins d’une étude, il faut faire un tri social, il importe de savoir ce que l’étude révélera finalement : y-a-t’il plus de patients Covid-19 dans les couches pauvres de la population ? Comment l’information sur la surveillance circule et est reçue par les populations ? Et plus généralement qu’est-ce que la surveillance des populations en situation de pandémie, quelles sont les contraintes éthiques, comment les respecter ?

Ensuite vient tout un ensemble de concepts et notions qu’il faut interroger au regard des comportements, des groupes de pression, des classes sociales et tous autres facteurs sociaux. Par exemple la vigilance : est-elle encouragée au risque de la délation, est-elle définie par les autorités comme une vigilance face à la maladie et donc une forme d’auto-surveillance ? Il en est de même au sujet de l’anticipation, la stigmatisation, la marginalisation, la prévention, la victimisation, l’exclusion, la confiance, autant d’idées qui permettent de définir ce qu’est la surveillance en situation de pandémie. Puis vient la question des conséquences de la surveillance en situation de pandémie. Là on peut se référer à la littérature existante à propos d’autres pandémies. Je ne résiste pas à citer les auteurs :

L’écologie informationnelle contemporaine se caractérise par une forme de postmodernisme populiste où la confiance dans les institutions est érodée, ne laissant aucun mécanisme convenu pour statuer sur les demandes de vérité. Dans un tel espace, la peur et la xénophobie remplissent facilement le vide laissé par l’autorité institutionnelle. En attendant, si les gens ont perdu confiance dans l’autorité institutionnelle, cela ne les protégera pas de la colère des institutions si l’on pense qu’ils ont négligemment contribué à la propagation de COVID-19. Déjà, des poursuites pénales sont en cours contre la secte chrétienne qui a contribué à l’épidémie en Corée du Sud, et les autorités canadiennes affirment qu’elles n’excluent pas des sanctions pénales pour « propagation délibérée de COVID-19 ». Comme nous l’avons vu en ce qui concerne le VIH, la réponse de la justice pénale a connu un regain d’intérêt au cours de la dernière décennie, ce qui laisse entrevoir la montée d’une approche de plus en plus punitive des maladies infectieuses. Dans le cas du VIH, cette évolution s’est produite sans qu’il soit prouvé qu’une réponse de la justice pénale contribue à la prévention du VIH. À la lumière de ces développements, les chercheurs devraient s’attendre — et s’interroger sur les implications des flux de données sanitaires dans les systèmes de justice pénale.

Effectivement, dans un monde où le droit a perdu sa fonction anthropologique et où l’automatisation de la justice répond à l’automatisation de nos vies (leur gafamisation et leur réduction à des données numériques absconses) on peut se demander si l’autoritarisme libéral ne cherchera pas à passer justement par le droit, la sanction (la punition) pour affirmer son efficacité, c’est-à-dire se concentrer sur les effets au détriment de la cause. Qu’importe si l’application pour smartphone Covid-19 dit le vrai ou pas, elle ne saurait être remise en cause parce que, de manière statistique, elle donne une représentation de la réalité que l’on doit accepter comme fidèle. Ce serait sans doute l’une des plus grandes leçons de cette épidémie : la consécration du capitalisme de surveillance comme la seule voie possible. Cela, ce n’est pas une prophétie, ce n’est pas une révélation, c’est le modèle dans lequel nous vivons et contre lequel nous ne cessons de résister (même inconsciemment).


Crédit image d’en-tête : Le Triomphe de la Mort, Pieter Brueghel l’Ancien (1562) – Wikipédia.


  1. Un sondage réalisé à une semaine d’intervalle dément complètement les résultats de celui de l’université d’Oxford. Il a été réalisé sur la population française par l’IFOP suite à une demande de la Fondation Jean-Jaurès. Il apparaît qu’une majorité de français est en fait opposée à une application de type Stop-Covid. Voir Maxime des Gayets, « Tracking et Covid : extension du domaine de l’absurde », Fondation Jean-Jaurès, 12/04/2020 ↩︎


Publié le 24.03.2020 à 01:00

Culture de la surveillance : résistances

« Lutte pour les libertés numériques », « droits et libertés sur Internet », liberté, liberté, j’écris ton nom… Sauf qu’il n’a jamais été autant question de liberté dans le monde numérique sans qu’elle finisse invariablement à se retrouver comme réduite à une simple revendication d’auto-détermination individuelle. Nous revendiquons un « droit à la connexion », nous exigeons de pouvoir rester maîtres des données que nous transmettons (et nous ne le sommes pas). Mais ces droits et ces libertés, nous les réclamons en tant que sujets de pouvoir ou plutôt d’une couche de pouvoirs, impérialisme économique et concentration de technologies. Par ces incessantes réclamations, n’est-ce pas plus simplement que nous réaffirmons sans cesse notre soumission au capitalisme de surveillance ?

J’ignore encore, à l’heure où j’écris ces lignes, où je veux en venir exactement. Pas banal direz-vous, car j’ai habitué les lecteurs de ce blog à d’autres stratégies, mais baste ! En ces instants de confinement généralisé, j’ai bien envie de me laisser aller à quelques détours réflexifs. Je voudrais vous parler de Michel Foucault, de Michel de Certeau, des surveillance studies1, et d’autres enjeux que je ne développe pas dans mon récent bouquin (Affaires Privées) parce que la réflexion n’est pas encore assez mûre.

Je feuilletais récemment un ouvrage collectif intitulé Data Politics. Worlds, Subjects, Rights2, un de ces nombreux ouvrages qui fleurissent depuis une dizaine d’années (et plus encore depuis les révélations d’E. Snowden) dans le monde de la recherche en politique et sociologie du côté anglo-saxon. Me sont venues alors quelques réflexions. Ce n’est pas que dans la vieille Europe nous soyons démunis de ce côté-là, et en France encore moins, mais nous avons un gros défaut : une tendance à l’auto-centrisme.

C’est peut-être en réponse à cette limitation intellectuelle que récemment la « littérature » scientifique (et journalistique) en France a commencé par cesser la complainte du « ils nous surveillent, regardez comment », pour se pencher sur l’analyse des causes et des processus de ce qu’on a encore bien du mal à appeler le capitalisme de surveillance. Cette dernière expression est employée un peu partout, mais il est bien rare de trouver une publication académique en France qui l’utilise vraiment. Lorsque c’est le cas, on se tourne généralement vers une seule autrice, Shoshana Zuboff, qui propose effectivement une lecture du capitalisme de surveillance très pertinente puisqu’elle donne une analyse systématique des pratiques des entreprises, la répartition du pouvoir et de la décision que cela induit et l’impact sur la vie privée. Ainsi on a assisté depuis 2014 à la publication de nombreux articles de S. Zuboff en Allemagne (en particulier dans les versions allemandes et anglaises du Frankfurter Allgemeine Zeitung ) et aux États-Unis, avec le point culminant de son ouvrage monumental The Age of Surveillance Capitalism (publié d’abord en Allemagne puis aux États-Unis, et bientôt en France). On prévoit alors la « déferlante Zuboff » dans les prochaines publications ici et là : le Monde Diplomatique à son tour, puis la revue Esprit… Les colonnes sont ouvertes, on bouffera du Zuboff en 2020.

Tout cela est bon. Vraiment. Déjà parce que Zuboff est plus digeste que Masutti (cf. AffairesPrivées), mais surtout parce qu’il est très important d’avoir une base solide sur laquelle on peut commencer à discuter. Je l’ai déjà dit sur d’autres billets de ce blog, mais j’admire vraiment S. Zuboff parce qu’elle fourni dans son travail une analyse globale des pratiques de surveillance de l’économie numérique. C’est un travail essentiel aujourd’hui. Plus encore en ces jours de confinement « Covid 19 » où le solutionnisme technologique bat son plein dans les tentatives pathétiques de contrôle des populations. Il est vrai que la « start-up nation » tant vantée ces deux dernières années est encore attendue au tournant alors que c’est bien du côté de l’Économie Sociale et Solidaire que nous voyons émerger créativité et solidarité numériques pour palier les manquements de l’État-Gafam. S. Zuboff ne montre pas autre chose que le grignotage néolibéral des fonctions publiques et des libertés individuelles, ce qu’elle voit à la fois comme une injustice et une menace pour la démocratie.

Cependant (vous le reconnaissez cet adverbe assassin et jubilatoire des pédants qui critiquent le travail des autres ?), cependant, dis-je, cette analyse de S. Zuboff repose presque exclusivement sur l’idée que le capitalisme de surveillance est une dépossession de l’expérience individuelle, au sens d’un contrôle des masses consommatrices et productives, afin d’imposer un modèle économique qui ne crée pas autre chose qu’un déséquilibre dans la dynamique normale du capitalisme (concurrence, égalité, choix, etc.). Elle en vient même à déclarer que l’atteinte à la vie privée, moteur du capitalisme de surveillance est la marque d’une appropriation de savoirs (qui possède l’information et qui décide ?) d’ordre « pathologique ». En d’autres termes nous parlons donc d’un capitalisme malade qu’il faudrait soigner. Et, de là, S. Zuboff plaide pour une prise de conscience générale des décideurs afin de ré-organiser la régulation et rétablir l’équilibre économique.

Bon. Là-dessus, je ne suis pas d’accord (et je ne suis pas le seul). D’abord, d’un point de vue méthodologique il y a comme un (gros) problème : cette économie de la surveillance ne commence pas avec les géants de la Silicon Valley, elle s’inscrit dans une histoire que S. Zuboff élude complètement. Et si elle l’élude, c’est parce que vouloir influencer les comportements de consommation de masse, c’est déjà vieux (le marketing, c’est les années 1920), mais surtout la critique consistant à dénoncer les atteintes à la vie privée en s’appuyant sur des procédures informatisées et des formules prédictives, c’est un processus normal du capitalisme moderne dans une société informatisée, c’est-à-dire au moins depuis les années 1960 — et ça c’est ce que j’écris dans mon bouquin, entre autre. Si bien que S. Zuboff s’inscrit en fait dans une tradition déjà bien ancienne des contempteurs d’une économie de l’atteinte à la vie privée, qui dénonçaient déjà les pratiques à l’œuvre et dont les ouvrages furent de véritables best-seller dans les années 1960 et 1970 (Arthur Miller, James B. Rule, Alan Westin, etc.).

Mais S. Zuboff apporte bien des nouvelles choses. Elle contextualise son analyse en se concentrant sur l’idéologie de la Silicon Valley dont elle démontre comment, de manière réfléchie, cette idéologie grignote petit à petit nos libertés. S. Zuboff fait tout cela de manière excessivement renseignée, pointant, démontrant avec exactitude (et de nombreux exemples) comment les stratégies des « capitalistes de la surveillance » organisent la confusion entre marché et individu, nient la société pour nous assujettir à leurs modèles. Ce que des gens comme Fred Turner avaient déjà pointé en montrant que les utopies soi-disant contre-culturelles à l’origine de ce « nouveau monde numérique », n’étaient finalement qu’un échafaudage en carton-pâte, S. Zuboff l’intègre davantage dans une confrontation entre une nouvelle idéologie néfaste de la dérégulation et un capitalisme bien régulé où l’État reprendrait ses prérogatives et les individus leur pouvoir d’autodétermination de soi.

Oui, mais… non. Car si ce capitalisme de surveillance apporte des nouvelles règles, elles sont fatalement à l’épreuve de la société et de la culture. Et ce travail d’analyse manque cruellement à S. Zuboff. La réalité de l’idéologie de la Silicon Valley, c’est une augmentation délirante du chômage et de la précarisation, des exploitations nationales et mondiales de la pauvreté, de l’environnement et du climat, mais aussi les luttes solidaires contre l’ubérisation de l’économie, et tout un ensemble de résistances sociales qui font que non, décidément non, nous ne sommes pas que des sujets soumis aux pouvoirs. Si le capitalisme de surveillance impose ses jeux de pouvoir par le biais des États qui, sous couvert de solutionnisme technologique usent et abusent des contrôle des populations, ou par le jeu plus direct de la captation des données et de la prédictions des comportements de consommation, il reste que concrètement, aux bas niveaux des interactions sociales et des comportements collectifs, tout ne se passe pas de manière aussi mécanique qu’on voudrait le croire.

S. Zuboff reprend (sans le dire) l’expression de capitalisme de surveillance des auteurs de la Monthly Review. J’ai déjà eu l’occasion de disserter sur cette usurpation ici et , et j’en parle aussi dans mon ouvrage, aussi je ne vais pas y revenir. En fait, le capitalisme de surveillance est surtout un projet d’étude, une approche du capitalisme. Au lieu d’en faire un objet qui serait le résultat d’une distorsion d’un capitalisme idéal, c’est au contraire une lecture historique (matérialiste) du capitalisme qui est proposée et que S. Zuboff ne peut pas voir. Il est en effet primordial d’envisager le capitalisme de surveillance dans l’histoire, dans une histoire de la surveillance. Par conséquent il est tout aussi important de confronter la lecture de S. Zuboff aux faits sociaux et historiques. C’est ce que j’ai fait dans mon livre avec l’informatisation de la société depuis les années 1960, mais on peut aussi bien le faire avec une approche sociologique.

Maintenant j’en reviens à la référence que je citais en tout début de ce billet, Data Politics. Worlds, Subjects, Rights. Reconnu depuis des années dans le milieu des surveillance studies, le sociologue David Lyon, publie dans ce livre un chapitre (num. 4) que j’ai trouvé tout particulièrement pertinent. Il s’intitule « Surveillance Capitalism, Surveillance Culture and Data Politics ». Ces derniers temps, D. Lyon a beaucoup œuvré autour du livre de S. Zuboff et de la question du capitalisme de surveillance, notamment par des communications dans des colloques (comme ici) ou en interview (comme ici)3. Cela m’avait un peu étonné qu’il ne choisisse pas d’avoir un peu plus de recul par rapport à ces travaux, mais en réalité, j’avais mal lu. Dans le chapitre en question, D. Lyon propose de sortir du dilemme « zubovien » (pour le coup je ne suis pas fort en néologismes) en confrontant d’un côté le point de vue de S. Zuboff et, de l’autre côté, l’idée qu’il existe une « culture de la surveillance », c’est-à-dire en fait une porte de sortie que S. Zuboff ne parvient pas à entr’ouvrir mais qui existe bel et bien, celle des résistances aux capitalisme de surveillance. Des résistances qui ne sont pas de simples revendications pour un capitalisme mieux régulé. En fait, sans trop le dire, D. Lyon voit bien que l’analyse de S. Zuboff, aussi complète soit-elle du côté des pratiques, ne va guère plus loin en raison d’une croyance tout aussi idéologique en la démocratie libérale (et ça c’est moi qui l’ajoute, mais c’est pourtant vrai).

Après avoir rapidement mentionné l’existence de poches de résistances importantes autour du libre accès aux connaissances et les luttes collectives d’activistes, D. Lyon en vient à montrer que les contours d’une culture de la surveillance sont justement dessinés par les résistances et les pratiques de contournement dans la société. Autant, selon moi, le salut réside dans des résistances affirmées comme telles et qui s’imposent aux pouvoirs économiques et politiques (j’y reviendrai plus loin), autant il est vrai que ces résistances plus affirmées ne seraient rien si elles ne prenaient pas leurs racines sociales dans quelque chose de beaucoup plus diffus et que D. Lyon va chercher chez un penseur bien français-de-chez-nous (mais avec une carrière internationale), Michel de Certeau.

Bon alors, là c’est un gros morceau, je vais essayer de faire court, surtout que je ne suis pas sûr de viser juste car je rappelle que ceci n’est qu’un billet de blog prospectif.

Penchons-nous un instant sur des sujets qui gravitent autour de la théorie de l’action. On parle d’action individuelle ou collective, et de la manière dont elle se « déploie ». Par exemple, on peut penser l’action selon plusieurs angles de vue : la décision, le choix, les déterminant cognitifs, la rationalité, mais aussi la manière dont l’action peut être contrainte, normée, obéissant à une éthique, consciente ou inconsciente, etc. En sociologie ou en anthropologie, on peut dire que l’action est le plus souvent vue comme soumise à des contraintes (les institutions, les organisations sociales, les traditions).

Parmi les élément rationnels qui guident l’action, on peut mentionner les savoirs, mais aussi les éléments culturels qui ne sont pas vraiment des savoirs (au sens de connaissances ou de savoir-faire) mais sont de l’ordre des éléments de construction des représentations. Une vue de l’extérieur de l’environnement social contraint. Pour David Lyon, il y a les utopies (ou les dystopies) qui, comme œuvres artistiques constituent autant d’accroches à une éthique de l’action. De mon côté, j’ai pu voir à quel point, effectivement, depuis 50 ans, l’œuvre 1984 d’Orwell est systématiquement utilisée, presque de manière méthodologique, pour justifier des réflexions sur la société de surveillance. Ce faisant, on peut alors effectivement penser la société en fonction de ces représentations et orienter des actions de résistance, par exemple en fonction de valeurs que l’on confronte aux normes imposées. C’est tout l’objet de cette conférence d’Alain Damasio au Festival de la CNT en 2015.

Par exemple, je reprendrai uniquement cette citation d’Arthur R. Miller, écrite dans son célèbre ouvrage Assault on Privacy: Computers, Data Banks and Dossiers en 1971, et qui donne immédiatement la saveur des débats qui avaient lieu à ce moment-là :

Il y a à peine dix ans, on aurait pu considérer avec suffisance Le meilleur des mondes de Huxley ou 1984 d’Orwell comme des ouvrages de science-fiction excessifs qui ne nous concerneraient pas et encore moins ce pays. Mais les révélations publiques répandues au cours des dernières années au sujet des nouvelles formes de pratiques d’information ont fait s’envoler ce manteau réconfortant mais illusoire.

L’informatisation de la société a provoqué des changements évidents dans les contraintes sociales. Institutions, organisations, cadres juridiques, hiérarchies, tout s’est en quelque sorte enrichi d’une puissance calculatoire et combinatoire qu’est l’informatique. C’est dans ce contexte (et le terme contexte est important ici) qu’il faut penser la théorie de l’action. Et j’estime que les penseurs post-modernes, à l’époque même de l’informatisation de la société, n’ont pas vraiment pris la mesure du problème de la captation des données et de la transformation de l’économie. Certes, il y a toujours Deleuze et sa fameuse « société de contrôle », mais comme d’autres il ne pouvait pas penser qu’allait émerger une culture de la surveillance car il pensait d’abord en termes de contraintes sociales imposées (par les institutions, d’abord, ou par les organisations comme les banques) et, dans tout cela, l’individu en recherche impossible d’émancipation parce que tout est bouclé par le discours, une impossibilité d’énoncer l’alternative.

Revenons alors à la théorie de l’action. L’individu (doté d’un capital de savoirs spécifique à chacun) serait toujours sujet soumis aux forces, aux contraintes de l’environnement (géographie, économie, politique, anthropologie…) dans lequel il se situe. C’est en quelque sorte l’héritage de la sociologie de Bourdieu, celle de la reproduction des hiérarchies sociales mais aussi celle d’une théorie de l’action selon laquelle les stratégies des individus sont des habitus adaptés au monde social dans lequel il évoluent dans les contraintes de compétitions, de structures et de violence symbolique. En somme, l’individu est fondamentalement soumis aux règles dictées par les hiérarchies sociales et l’environnement social construit pour lui dans lequel il doit lui aussi essayer d’exister socialement. Mais dans ce contexte, l’individu n’est pas pleinement conscient de ses pratiques. Elles lui sont soit naturelles soit subies, mais elles sont aussi ce qui le structure comme un individu. À la nécessité de déployer ces pratiques correspond comme une sorte de prolétarisation de l’être : ce savoir-être qu’il n’a pas (dont on le prive) et qui se résout à n’être qu’un ploiement face aux normes.

Un peu dans le même ordre d’idée, l’individu chez Michel Foucault est soumis aux pratiques de décisions des institutions. C’est flagrant dans Surveiller et Punir, toutes ces procédures, administrations et techniques forment un ordre du pouvoir. Il peut être la tentative de rétablir un système de relations sociales normées (dans l'Histoire de la Folie), ou une force disciplinaire qui circonscrit l’espace à un espace cellulaire universel (le même pour tous) et permet le contrôle social.

Mais n’y a-t-il pas d’autre méthode que de réduire tout le fonctionnement social à une procédure dominante qui serait le contrôle et la surveillance ?

Chez Michel de Certeau, l’ordre des choses est loin d’être aussi simple, et ce n’est pas vraiment un ordre (au sens d’ordonnancement ou au sens du pouvoir donneur d’ordres). C’est la question du rapport entre pensée et action. D’abord, son point de vue sur le sujet est beaucoup plus optimiste puisqu’il le dote d’une certaine puissance. Cette puissance se traduit par le fait qu’il est tout à fait conscient de sa résistance à l’ordre imposé et même, M. de Certeau décompose l’ordre et la résistance en distinguant deux démarches différentes : stratégies et tactiques. Dans L’invention du quotidien, M. de Certeau analyse cela sous l’angle d’une réflexion sur le quotidien et s’oppose en quelque sorte à la seule logique du discours qui, chez Foucault est quasiment la seule logique qui explique les rapports de pouvoir. Pour M. de Certeau, le discours, c’est le contexte, c’est-à-dire que l’énonciation d’un état de choses, d’un ordre, est toujours relative au contexte, un temps et un espace, dans lequel on exprime. L’énonciation peut alors avoir deux niveaux. Le premier est la représentation, c’est un calcul, une stratégie où le sujet fait de volonté et de pouvoir (intention, délibération, exécution, etc.) observe de l’extérieur et détermine les choix rationnels : le sujet en question peut être aussi bien un individu qu’une institution ou une entreprise, peu importe. Par l’ingéniosité, la stratégie permet alors de saisir des occasions (avec une prudence toute aristotélicienne) qui font basculer les choix dans l’intérêt du sujet (ou pas…). Déjà, là, nous sommes loin de Bourdieu et sa théorie dispositionnelle où c’est à l’intérieur de l’individu, dans sa structure cognitive, qu’entrent en jeu les dispositions qui orientent son action dans un contexte donné. Avec M. de Certeau, ce n’est pas qu’on réfute l’idée que la cognition ne joue pas un rôle, mais on ajoute quelque chose de très pertinent : l’occasion, qui au fond est la mesure de la pertinence de l’action. La stratégie est d’ordre topologique, elle exprime un rapport essentiellement à l’espace, qu’elle cherche non seulement à mesurer et calculer mais aussi contrôler sous les trois piliers que sont la prospective (prévoir), la théorie (savoir) et la domination (pouvoir).

Le second niveau de l’énonciation, ce sont les tactiques. Elles sont propres aux individus mais ne sont en aucun lieu déterminé puisqu’elles s’expriment selon les occasions sur le terrain ou la loi imposés par le stratège, celui qui a décidé (voir paragraphe précédent), qui a pu envisager l’ordre de l’extérieur et le designer. Ces tactiques relèvent d’une pratique du temps, ce sont des actes et des usages. Elles n’organisent pas de discours, elles sont « purement » pratiques et surtout créatrices. Elles explorent le territoire, mais sont autant de résistances à la loi imposée. Ce sont des « manières de faire », des « ruses ». En d’autre termes, là où le commandement implique une stabilité et une identification précise et fixe des lieux (par exemple l’institution Républicaine qui a des lieux précis, préfectures, et administrations), résistance et tactiques jouent des circonstances et créent des usages qui ne sont pas forcément raccord avec l’ordre déterminé stratégiquement. En fait, c’est même tout leur objet, de ne pas être raccord, puisqu’elles sont un art de vivre, des savoir-vivre.

Pour illustrer cela on peut se reporter au rapport entre lecture et écriture. C’est un exemple de M. de Certeau. La lecture déstabilise toujours l’écrit là où on l’on pensait au contraire que la réception de l’écrit est universelle et balisée, au contraire une lecture diffère toujours d’une autre, elle « déterritorialise » l’écrit. On peut encore illustrer en reprenant la manière dont la chercheuse Anne Cordier fait référence à Michel de Certeau dans son livre Grandir connectés, les adolescents et la recherche d’information en mentionnant la manière dont les élèves élaborent des tactiques dans l’environnement contraint du CDI ou de l’institution pour satisfaire l’enseignant lors de la recherche d’information (montrer ostensiblement qu’on ne va pas sur Wikipédia tout en contournant la règle pour y récupérer des informations).

On comprend peut-être mieux à quel point les utopies (ou les dystopies) sont en soit des actes de résistance. Puisqu’elles détournent les stratégies pour être des matrices créatrices de nouveaux usages. Le détour du tacticien par l’utopie lui permet d’imaginer un autre ordre possible que le territoire qui lui est donné. Et de cette occasion-là, il peut se servir pour changer le quotidien.

Cette manière de penser l’action est un peu le contre-pied du point de vue de Bernard Stiegler. Pour ce dernier, les GAFAM ont entrepris un vaste projet de prolétarisation des savoirs (savoir-être et savoir-vivre) et il nous appartient de chercher à se déprolétariser en fondant une économie de la contribution, qui soit le contraire d’une économie de la consommation-extraction-des-données où nous sommes les produits et les agents consommateurs. Mais dans ce point de vue, on en reste à l’idée que la résistance ne peut se faire qu’un revendiquant, de manière révolutionnaire, notre libération de ces contraintes. Cela me fait penser à Jean Baudrillard qui oppose société de consommation (où notre objectif consiste à satisfaire nos egos et nous distinguer des autres) et société de non consommation (la Chine de Mao ?). Faire cette distinction revient à penser que le consumérisme, pilier du libéralisme, est une affaire de choix individuels (au pluriel, les agents rationnels de l’économie) et s’oppose au choix collectif qui pourrait nous mener vers une société meilleure (le choix social communiste ?). Mais, selon moi, c’est oublier que le choix consumériste, libéral ou néolibéral, est d’abord et avant tout un choix politique, donc collectif ! Penser l’individu en tant qu’un éternel sujet soumis aux contraintes, aux normes ou à ses appétences non maîtrisées de petit élève consommateur… cela implique que des sachants viennent enfin lui expliquer comment sortir de son état prolétaire. Mais il y a déjà des tactiques à l’œuvre et nous sommes tous individuellement des résistants conscients de leurs résistances. En tout cas au moins depuis les Lumières où nous nous sommes sortis des carcans et des prescriptions… cf. Kant. Je ne veux pas opposer ici la philosophie kantienne mais, tout de même, l’anthropologie et la sociologie nous montrent bien tout cela. Si on prend le simple exemple de Wikipédia, c’est sur ce genre de tactique que s’est monté l’un des plus vastes mouvements d’émancipation de savoirs au monde (hors du cadre académique).

La culture de la surveillance, ce n’est pas seulement être habitué à être surveillé et même à y trouver des avantages (les gens se rendent sur Facebook par envie et par plaisir) ou contourner la surveillance pour son propre avantage (piratage de films contre le cadre Hadopi). La culture de la surveillance, c’est aussi la mise en pratique de toutes ces tactiques qui sont rendues possibles avec Internet parce qu’Internet fourni aussi les outils de résistance et de formulation de contre-ordre, de contre-culture.

Si nous en revenons au capitalisme de surveillance, finalement de quoi s’agit-il ? s’il s’agit d’un ordre économique et politique qui nous est imposé, et il est imposé parce que les données avec lesquelles il élabore la stratégie sont en grande partie des données issues non pas de notre quotidien (qui est la dynamique de nos tactiques, nous inventons notre quotidien) mais une extraction de notre quotidienneté, c’est à dire, comme le disait Henri Lefevre dans sa Critique de la vie quotidienne4, la banalité inconsciente et inconséquente de nos actions (tout le monde chez Mac Do, tout le monde regarde Netflix, tout le monde achète sur Amazon…) l’insignifiance de nos gestes… Une insignifiance dans le sens ou, pour reprendre M. de Certeau, il s’agit de la part non tacticienne de soumission au stratège : notre obéissance à l’ordre. Et donc la captation de nos données consiste à une extrapolation de ce que nous sommes, en tant qu’individus, une re-construction théorique. Nos doubles numériques sont eux-mêmes doublement construits : re-construction des données (par inférence, recoupement, calcul, combinaisons et algorithme), et re-construction théorique de notre quotidienneté. Mais tout cela n’est pas notre quotidien.

Nous sommes des résistants.

Le problème est de savoir si nos tactiques, nos résistances à l’ordre du capitalisme de surveillance doivent se résoudre à n’être qu’individuelles. Ce serait là une grossière erreur. D’abord parce que, comme le montre l’exemple de Wikipédia, mais aussi tous les mouvements ouverts, les collectifs, les zads, les libristes (et j’en passe) sont bien des actions collectives qui détournent, contournent l’ordre des institutions et créent de nouvelles structures, repensent la démocratie, et le tout dans une dynamique où la méthode est presque aussi importante que les actes. On peut difficilement faire plus conscient que cela. Et si ces mouvements se créent par des logiques tacticiennes, souvent par spontanéité, c’est parce que les cadres et les institutions n’emportent plus l’adhésion générale. Si bien que l’ensemble des tactiques fait monter la pression entre le cadre et le désir, et se créent alors des espaces de violence.

Le souhait le plus ardent des stratèges, en faisant la bonne figure d’un capitalisme régulé (régulé par la loi, donc la politique, donc soi-disant par tous) est donc de réduire les tactiques à la seule dimension individuelle. L’individu responsable, donc libre de disposer de soi dans les limites de la loi et du contrat social. Un contrat qui ne fait qu’imposer la logique d’un modèle unique de démocratie élective (parfois pas) et libérale. Donc lutter contre le capitalisme de surveillance par la revendication des libertés individuelles, en prônant l’idée que la vie privée est d’abord un concept qui garanti les choix individuels, c’est en quelque sorte conforter le cadre stratégique de l’aliénation et revenir à définir la résistance sociale à la somme des résistances individuelles. C’est l’échec, à mon avis.

Menons encore une petite prospective. Comme on parle de Michel de Certeau, généralement, la théologie et le mysticisme ne sont pas loin. Je pense à la théologie de la libération, ce courant christiano-marxiste porté notamment en Amérique du Sud dans les années 1970 puis à travers tout ce qu’on a appelé le « Tiers monde ». Ce qui me plaît là-dedans, ce n’est pas le message théologique, mais l’idée que dans le mouvement de résistance, en particulier face aux dictatures, c’est à la base des hiérarchies sociales, donc les plus pauvres généralement, que se situe l’appropriation des savoirs (ici la parole divine, les évangiles, etc.), à la fois pour se libérer des conditions sociales imposées, mais aussi des conditions religieuses imposées par les colonisateurs et classes dominantes pour se créer leur propre cadre religieux chrétien. On dépasse le cadre de la charité pour permettre aux pauvres d’agir eux-mêmes pour améliorer leur condition. Et si la théologie de la libération a pu trouver un échos dans les classes sociales, c’est parce qu’elle cristallisait au bon moment les tactiques de contournement des masses à l’ordre social imposé. Des tactiques que d’aucun aurait pu juger qu’il s’agissait de l’effacement de la personnalité au profit de l’humilité face aux blancs colonisateurs… jusqu’au jour où le colonisateur se prenant une balle perdue au milieu de la pampa, l’illumination sur la réalité sociale se fait.

Évidemment, on parle ici de guérillas et de répressions. Mais le plus important pour mon propos est de constater qu’il s’agit bien d’une réflexion sur l’action. Ce que certains, à la même époque d’ailleurs, on appelé l’action directe. L’action directe n’est pas d’emblée une action violente (elle est même souhaitable, c’est ce que je dis ci-dessous) mais elle contribue fatalement à augmenter la pression entre les tactiques et le cadre imposé. Et souvent la violence ne vient pas « d’en-bas ».

Alors comment ? Comment faire pour favoriser la résistance collective ? Déjà il faut comprendre qu’elle est déjà-là. Il faut surtout la comprendre et formuler ses formes idéales qui, selon moi, doivent prendre deux aspects : la préfiguration et l’archipélisation.

Pour ce qui concerne la préfiguration, j’ai déjà écrit ce billet. Je répéterai simplement qu’il s’agit d’une voie de l’avènement de pratiques collectives, non uniformisées, dont la diversité dans les organisations et les actions fait la force, en lutte contre les oppressions et de manière générale contre les cadres imposés qui n’emportent plus l’adhésion ou la supposée adhésion. Dès lors, ces pratiques sont toujours en mode préfiguratif : elles n’attendent ni validation ni autorisation des institutions. C’est l’idée du faire, faire sans eux, faire contre eux. À mon sens c’est une attitude résolument anarchiste.

Quant à l’achipélisation, c’est un concept qui revient à Édouard Glissant. Elle permet d’inclure ce qui manque dans la réflexion précédente (même si en affirmant qu’il s’agit d’anarchie, je l’inclus évidemment) : le rôle de l’autre, notre relation à l’autre. C’est en cela que la préfiguration, comme action de tactique collective, est d’abord un mouvement altruiste. Je copie ici un paragraphe de la conclusion de Affaires Privées :

Si le mouvement d’émancipation est d’essence anarchique, la cartographie des initiatives est celle d’un archipel. Cette métaphore insulaire, nous la reprenons du philosophe Edouard Glissant. On peut en effet prendre exemple sur l’imprévisible pluralité créole chère à ce grand penseur antillais (martiniquais). Elle montre que la richesse langagière, culturelle, sociale et sans doute politique ne réside ni dans le pouvoir et l’ordre ni dans la centralisation (continentale) mais dans le jeu de l’échange et du partage, au point que chaque individu possède en lui une pensée-archipel qui permet d’entrer en relation avec l’autre. L’archipélisation permet d’englober cela de manière à voir une cohérence dans l’insularité des imaginaires et des initiatives, et les regrouper dans une inter-insularité coopérative. La démarche préfigurative peut donc être anarchique, mais la concevoir dans un monde-archipel permet de penser l’inattendu de l’expérimentation, l’indétermination des alternatives au monde-continent. Ainsi, toutes les initiatives ne sont pas censées adhérer à des principes anarchistes, se reconnaître comme telles, ou même seulement penser à l’être. On ne compte plus les mouvements qui se revendiquent de l’autogestion, de la gestion collective, de l’initiative libre, de la participation ouverte, ou qui se présentent comme des collectifs, d’associations pluri-représentatives, des groupes informels, des groupes anonymes… en somme tout cela est finalement très cohérent puisque les normes structurelles existantes n’emportent plus l’adhésion.

Pour conclure ce billet un peu foutraque, tout cela mérite d’être amplement retravaillé, révisé, et sans doute mieux compris. Car je ne cache pas que les pensées de tous les auteurs cités ici sont loin de me mettre à l’aise. Je pense néanmoins ne pas être si éloigné que cela des problématiques actuelles que pose le capitalisme de surveillance et auxquelles je souhaiterais répondre par une forme de théorie de l’émancipation, histoire de sortir un peu de la sempiternelle plainte à l’encontre des pratiques des GAFAM et des États à la sauce start-up-nation-de-contrôle. Une plainte qui, sans être accompagnée de la recherche au moins théorique d’une porte de sortie, ne fait que tourner en rond depuis les premiers âges de l’informatisation de la société.


  1. Voir « La » revue de référence en la matière : Surveillance & Society. ↩︎

  2. Didier Bigo, Engin Isin, Evelyn Ruppert, Data Politics. Worlds, Subjects, Rights, London : Routledge, 2019. ↩︎

  3. Zuboff, Shoshana & Möllers, Norma & Murakami Wood, David & Lyon, David. (2019). « Surveillance Capitalism: An Interview with Shoshana Zuboff », Surveillance & Society, 17, 2019, p. 257-266. ↩︎

  4. Henri Lefebvre, Critique de la vie quotidienne, Paris, L’Arche, 1958. ↩︎


Publié le 20.03.2020 à 01:00

Affaires Privées

Au quotidien, nos échanges numériques et nos comportements de consommateurs sont enregistrés, mesurés, calculés afin de construire des profils qui s’achètent et se vendent. Des débuts de la cybernétique aux big data, la surveillance a constitué un levier économique autant qu’idéologique.

Dans Affaires privées, Christophe Masutti retrace l’histoire technique et culturelle de soixante années de controverses, de discours, de réalisations ou d’échecs. Ce retour aux sources offre un éclairage passionnant sur le capitalisme de surveillance et sur le rôle joué par le marketing dans l’informatisation de la société.Il décrit la part prise par les révolutions informatiques et le marché des données dans les transformations sociales et politiques.

La surveillance est utilisée par les administrations à des fins de contrôle, et par les entreprises pour renforcer leurs capacités commerciales. Si les pratiques de renseignement des États ont souvent été dénoncées, la surveillance venue du monde des affaires n’a longtemps suscité qu’indifférence. Le business des données en a profité pour bousculer les cadres juridiques et réglementaires de la vie privée.

Comment développer une économie numérique qui respecterait la vie privée des individus ? Comment permettre à la vie privée d’échapper au pouvoir des affaires ? Christophe Masutti propose une réflexion historique et politique sur les conditions d’émancipation face à l’économie de la surveillance.


Masutti, Christophe. Affaires Privées. Aux sources du capitalisme de surveillance. C&F éditions, 2020.

Lien vers le site de l’éditeur : https://cfeditions.com/masutti/



Publié le 17.03.2020 à 01:00

Affaires Privées : en attendant

En raison de l’épidémie qui touche notre pays actuellement, l’éditeur C&F éditions n’est pas encore en mesure d’effectuer les envois des exemplaires précommandés de mon ouvrage Affaires Privées. Aux sources du capitalisme de surveillance. En attendant, voici quelques éléments pour vous mettre en bouche…

Tout d’abord, je voudrais remercier ceux qui comptent précommander l’ouvrage avant même sa sortie et toutes les critiques qui ne manqueront pas de le dézinguer (ou pas !). C’est important pour moi parce que cela montre dans quelle mesure le livre est attendu (histoire de me rassurer un peu), et c’est important pour l’éditeur qui joue tout de même sa réputation en publiant un livre qui ne soit pas totalement hors de propos.

Sachez aussi qu’en raison de la situation sanitaire Covid-19, l’éditeur C&F éditions a choisi d’allonger la durée de souscription (donc avec une petite remise sur le prix final). Allez-y, n’hésitez plus !

C’est presque Noël ! l’éditeur a aussi décidé d’accélérer la fabrication de la version epub de l’ouvrage. Elle sera garantie sans DRM (on dirait une publicité pour légumes bio quand on dit des choses pareilles !). Donc ceux qui ont choisi la souscription, et n’auront pas la joie de découvrir l’ouvrage dans leur boîte à lettres dans un délai raisonnable, pourront toujours se réconforter avec la version électronique.


Pour terminer, et si vous avez les crocs, voici ci-dessous quelques liens vers des billets de ce blog qui concernent Affaires Privées. Ils sont loin (très loin) de présenter un aperçu général de l’ouvrage (475 pages, tout de même, c’est pas si cher au kilo… pour suivre la métaphore des légumes bio). Par ailleurs il y a eu des modifications substantielles entre le moment où j’ai écrit ces billets et la publication du livre, alors ne soyez pas sévères…

Dans un premier temps voici deux billets qui transcrivent des passages complets du livre. Le premier concerne le projet Cybersyn, à une époque où le fait qu’un gouvernement puisse posséder un pouvoir de surveillance « total » n’était pas si mal vu. Le second est un point de vue plus théorique sur notre modernité à l’ère de la surveillance et qui reprend un passage où j’expose comment je vais chercher chez Anthony Giddens quelques clés de lecture.

Les deux billets suivants font partie de l’argumentation qui me situe par rapport au récent livre de Shoshana Zuboff, The Age of Surveillance Capitalism qui a fait l’objet d’une grande couverture médiatique. Attention : il ne s’agit absolument pas d’une argumentation complète, mais le format « billet » pourra peut-être aider à une meilleure compréhension lorsque vous accrocherez la dernière partie de l’ouvrage.

Alors, je vous souhaite bonne lecture en attendant le pavé dans la mare…

Christophe Masutti, Affaires Privées. Aux sources du capitalisme de surveillance (couverture)


Commander sur le site de l’éditeur : C&F éditions



Publié le 02.03.2020 à 01:00

Parution : Affaires Privées

Au quotidien, nos échanges numériques et nos comportements de consommateurs sont enregistrés, mesurés, calculés afin de construire des profils qui s’achètent et se vendent. Des débuts de la cybernétique aux big data, la surveillance a constitué un levier économique autant qu’idéologique.

Table des matières

Descriptif

Titre : AFFAIRES PRIVÉES. Aux sources du capitalisme de surveillance

Auteur : Christophe Masutti

Préface de Francesca Musiani

Édition : C&F éditions, Collection Société numérique, 5

Date de parution : mars 2020

Nombre de pages : 475

ISBN : 978-2-37662-004-4

Dimensions : 15 x 21 cm

Commander sur le site de l’éditeur : C&F éditions

Télécharger un descriptif de l’ouvrage (PDF)

Couverture

Christophe Masutti, Affaires Privées. Aux sources du capitalisme de surveillance (couverture)

4e couverture

Au quotidien, nos échanges numériques et nos comportements de consommateurs sont enregistrés, mesurés, calculés afin de construire des profils qui s’achètent et se vendent. Des débuts de la cybernétique aux big data, la surveillance a constitué un levier économique autant qu’idéologique.

Dans Affaires privées, Christophe Masutti retrace l’histoire technique et culturelle de soixante années de controverses, de discours, de réalisations ou d’échecs. Ce retour aux sources offre un éclairage passionnant sur le capitalisme de surveillance et sur le rôle joué par le marketing dans l’informatisation de la société. Il décrit les transformations sociales et politiques provoquées par les révolutions informatiques et le marché des données.

La surveillance est utilisée par les administrations à des fins de contrôle, et par les entreprises pour renforcer leurs capacités commerciales. Si les pratiques de renseignement des États ont souvent été dénoncées, la surveillance venue du monde des affaires n’a longtemps suscité qu’indifférence. Le business des données en a profité pour bousculer les cadres juridiques et réglementaires de la vie privée.

Comment développer une économie numérique qui respecterait la vie privée des individus ? Comment permettre à la vie privée d’échapper au pouvoir des affaires ? Christophe Masutti propose une réflexion historique et politique sur les conditions d’émancipation face à l’économie de la surveillance.

Une citation

Cité dans l’ouvrage :

Ces grandes banques de données permettront au citoyen, lorsqu’il est confronté à un nouvel environnement, d’établir « qui il est » et d’acquérir rapidement les avantages qui découlent d’une évaluation de solvabilité (bancaire) fiable et d’un caractère social acceptable aux yeux de sa nouvelle communauté. En même temps, les établissements commerciaux ou gouvernementaux en sauront beaucoup plus sur la personne avec laquelle ils traitent. Nous pouvons nous attendre à ce qu’un grand nombre de renseignements sur les caractéristiques sociales, personnelles et économiques soient fournis volontairement – souvent avec empressement – afin de profiter des bienfaits de l’économie et du gouvernement.

Lance J. Hoffman, « Computer and Privacy : a survey » (1969).

Argumentaire

« Envahisseurs de la vie privée », « homme informatisé », « société du dossier », « surveillance publique », « contrôle social »… toutes ces expressions sont nées à la fin des années 1960. Le processus d’informatisation de la société occidentale s’est fait sur le fond d’une crainte de l’évènement de la dystopie de 1984. Et pourtant, lorsqu’on raconte l’histoire de la révolution informatique, on retient surtout l’épopée des innovations technologiques et le storytelling californien.

Les pratiques de surveillance sont les procédés les plus automatisés possible qui consistent à récolter et stocker, à partir des individus, de leurs comportements et de leurs environnements, des données individuelles ou collectives à des fins d’analyse, d’inférence, de quantification, de prévision et d’influence. Des années 1960 à nos jours, elles se révèlent être les outils précieux des administrations publiques et répondent aux besoins concurrentiels et organisationnels des entreprises. On les appréhende d’autant mieux que l’on comprend, grâce à de nombreux exemples, qu’elles dépendent à la fois des infrastructures informatiques et de leur acceptation sociale. Ainsi, le marché de la donnée s’est progressivement étendu, économique, idéologique, culturel. Fruit de rapports sociaux, le capitalisme de la surveillance n’est pas un nouveau système économique, il est le résultat de l’adjonction aux affaires économiques de la surveillance électronique des individus et de la société.

Faire l’histoire (critique) du capitalisme de surveillance, c’est analyser les transformations sociales que l’informatisation a rendu possibles depuis les années 1960 en créant des modèles économiques basés sur le traitement et la valorisation des données personnelles. La prégnance de ces modèles ajoutée à une croissance de l’industrie et des services informatiques a fini par créer un marché hégémonique de la surveillance. Cette hégémonie associée à une culture consumériste se traduit dans plusieurs contextes : l’influence des consommateurs par le marketing, l’automatisation de la décision, la réduction de la vie privée, la segmentation sociale, un affaiblissement des politiques, un assujettissement du droit, une tendance idéologique au solutionnisme technologique. Il fait finalement entrer en crise les institutions et le contrat social.

Du point de vue de ses mécanismes, le capitalisme de surveillance mobilise les pratiques d’appropriation et de capitalisation des informations pour mettre en œuvre le régime disciplinaire de son développement industriel et l’ordonnancement de la consommation. Des bases de données d’hier aux big data d’aujourd’hui, il permet la concentration de l’information, des capitaux financiers et des technologies par un petit nombre d’acteurs tout en procédant à l’expropriation mercantile de la vie privée du plus grand nombre d’individus et de leurs savoirs. Et parce que nous sommes capables aujourd’hui d’énoncer cette surveillance aux multiples conséquences, il importe de proposer quelques solutions collectives d’émancipation.


Publié le 18.02.2020 à 01:00

Zettlr : markdown puissance dix

Le logiciel libre a toujours quelque chose de magique. Cédant au plaisir coupable d’une attitude consommatrice, on se met à essayer frénétiquement plusieurs solutions logicielles, rien que « pour voir ». Zettlr fera-t-il partie de ces nombreux éditeurs markdown que je recense dans l’espoir de trouver le Graal du genre ? Attention : on n’essaye pas Zettlr sans en comprendre d’abord les objectifs.

Comparaison et flux de travail

Dès les premières pages de présentation dans la documentation de Zettlr, on voit clairement que pour se servir de ce logiciel, il faut de bonnes raisons.

On peut expliquer ces raisons en comparant Zettlr avec d’autres éditeurs spécialisés dans le markdown. Essayons par exemple de le comparer Ghostwriter (j’en ai parlé dans ce billet), du point de vue utilisateur.

La première différence c’est que là où Ghostwriter propose une interface très facile et rapide à prendre en main… Zettlr n’est pas aussi explicite. Bien sûr, on peut d’emblée commencer à écrire en markdown, enregistrer un fichier, mais ce n’est pas le but unique de Zettlr. Si Ghostwriter se concentre avant tout sur la partie éditeur, Zettlr est à la fois dédié à l’écriture et à la gestion de connaissances. Et pour cause, il a été créé et il est utilisé essentiellement dans le monde universitaire. C’est donc dans un contexte qui concerne les documents longs qu’il faut appréhender Zettlr, là où Ghostwriter servira bien la cause pour écrire un billet de blog, par exemple.

En fait tout se joue dans la manière dont on intègre un éditeur markdown dans un flux de travail. Dans mon cas, l’éditeur que j’utilise ne constitue pas un nœud décisif, ce qui fait que, selon les situations, je peux opter pour un autre éditeur (spécialisé ou non dans le markdown) pour continuer à travailler sur le même document.

J’aime bien avoir cette possibilité d’utiliser plusieurs éditeurs pour un même fichier, indépendamment du système sur lequel je travaille. Ensuite, pour produire le document final, j’exporte directement dans un format donné (si l’éditeur le permet) ou bien j’utilise pandoc qui me permet de transformer le fichier markdown en à peu près tout ce que je veux. Dans ce cas, je « sors » de l’éditeur pour utiliser la ligne de commande, puis une fois le document produit, j’utilise un autre logiciel pour terminer ma production selon le format choisi (LibreOffice pour.odt, un éditeur TeX pour(La).TeX, un éditeur de texte pour le .html, LibreOffice pour .docx, etc.). Pour les questions liées à la gestion de la bibliographie, c’est un peu complexe, puisque je suis contraint d’ouvrir, en plus de mon éditeur, un gestionnaire de bibliographie tel Zotero ou JabRef, repérer les clé bibtex des références, les insérer sous la forme [@dupont1955].

Tout dépend des goûts, mais on voit bien qu’un éditeur markdown trouve vite ses limites lorsqu’on commence à intégrer le markdown dans une démarche de rédaction plus « soutenue » et afin de rédiger des documents longs. Des allers-retour avec d’autres logiciels (notamment pour la gestion de la bibliographie) sont nécessaires.

Bien sûr les éditeurs comme Ghostwriter permettent de faire des exports en différents formats. Ils peuvent même créer du PDF en utilisant LaTeX (c’est d’ailleurs l’option recommandée pour un bon résultat, à condition d’avoir préalablement installé LaTeX). Mais il faut savoir se méfier des solutions qui prétendent tout faire. Ainsi, lorsqu’on commence à manipuler de la bibliographie, les « exports-gadgets » sont plus encombrants qu’autre chose. Cependant, il faut reconnaître que Zettlr a plutôt bien réussi à intégrer ces fonctionnalités d’export.

Pour ce qui me concerne, la solution que j’ai adoptée consiste à utiliser un éditeur de texte nommé Atom qui dispose d’extensions permettant d’écrire en markdown, faire de l’autocomplétion avec du Bibtex, intégrer un convertisseur avec pandoc et utiliser la console pour lancer des commandes (et plein d’autres choses). Cela me permet d’avoir mon flux de travail concentré pour l’essentiel sur un seul logiciel et utiliser les fonctionnalités au besoin, en gardant l’avantage de segmenter l’activité.

Alors, si de tels couteaux suisses existent, me demanderez-vous, pourquoi s’intéresser à Zettlr ? parce que les couteaux suisses demandent un temps d’apprentissage assez long, disposent d’une foule de fonctionnalités au point de s’y perdre et que Zettlr cherche à concentrer l’essentiel (avec quelques bémols toutefois).

De la gestion de connaissance

Avant de parler des fonctionnalités concrètes de Zettlr, il faut questionner l’ambition générale de ce logiciel.

Il a été créé essentiellement pour les chercheurs et les écrivains. C’est d’ailleurs un chercheur en sciences humaines, Hendrik Erz, qui a créé Zettlr afin de pouvoir sortir du carcan « traitement de texte » qui ne correspond pas vraiment aux besoins lorsqu’on écrit ou prend des notes dans une activité de production de connaissances (là où le traitement de texte devrait intervenir à une étape ultérieure de « mise au propre »).

Quels sont ces besoins ? pouvoir écrire en se concentrant sur ce qu’on écrit, tout en disposant d’une aide pour accéder aux ressources cognitives qu’on aura prit soin d’organiser en amont.

Cette organisation passe par la gestion bibliographique (à l’aide de logiciels dédiés tels Zotero) ainsi que par la gestion des notes et autres notices ou fiches que l’on stocke dans un système de pensée qui nous est propre.

Pour ce qui concerne la gestion bibliographique, l’utilisation de logiciels dédiés (et capables de sortir différents formats de bibliographie) est une habitude que bon nombre de chercheurs ont déjà (si ce n’est pas le cas, il y a un problème). Zettlr permet d’intégrer l’utilisation de références bibliographiques au cours du travail d’écriture dans l’éditeur markdown. Il suffit de renseigner le fichier .bib (ou CSL Json, qu’on obtient avec Zotero) puis Zettlr permet son utilisation au cour de la frappe. Cela rappelle par exemple l'extension Zotero qu’on installe dans LibreOffice, mais de manière plus brute et beaucoup plus fluide.

Saisie de référence biblio

Pour ce qui concerne la mobilisation des connaissances, Zettlr a été conçu pour créer un système de Zettelkästen. On le note en allemand (ici au pluriel) parce que, pour un néophyte qui se rendrait dans les options de configuration de Zettlr, il y a une rubrique entièrement dédiée au « flux de travail Zettelkasten », et très franchement ça peut surprendre (sauf qu’on comprend aussi pourquoi Zettlr se nomme ainsi).

Une Zettelkasten signifie littéralement « boîte » (der Kasten) à notices ou pense-bêtes (der Zettel). Personnellement j’appelle cela une « boîte à fiches ». Dans ce cas, direz-vous, il y a déjà des logiciels spécialisés dans les « notes », y compris en permettant de synchroniser en ligne, avec une interface pour smartphone, etc. Oui, évidemment, et il n’est pas idiot de penser que, dans la mesure où ces logiciels de prise de notes utilisent le plus souvent le markdown, ces notes peuvent aussi être ouvertes avec Zettlr (c’est que je fais). Mais cela va plus loin.

Zettlr permet de créer des fiches tout en créant soi-même un système de rangement. C’est ce qui est expliqué ici. Le logiciel ne cherche pas à formater les notes ou à créer une seule manière de les rédiger ou les stocker : c’est à vous de créer votre système de rangement. On utilise alors pour cela les outils courants de liens externes entre les fiches et les mots-clés qu’on note pour chaque fiche. Un genre wiki, si on veut (même si un logiciel comme Dokuwiki sera bien plus puissant), mais sans quitter Zettlr.

Fiche demo

L’intérêt réside selon moi dans la création et le nommage des fiches. Selon le besoin, il est possible de configurer l’identifiant de la fiche (le nom du fichier) et créer des liens entre les fiches en profitant de l’assistant (menu contextuel qui liste les noms de fiche). Ces fonctionnalités sont très simples, on pourra même les qualifier de basiques, mais à l’utilisation quotidienne, elle permettent un réel gain de temps… Et à propos de temps on notera que si Zettlr propose un format d’export en Org (pour Emacs), ce n’est pas pour rien !

Fiche lien

Aide à la saisie

Zettlr est d’abord un éditeur markdown et le moins qu’on puisse dire est qu’il accompli ce rôle avec brio. L’aide à la saisie, indissociable de l’interface, est soignée.

Outre un petit menu, en haut, dédié à la mise en forme, on notera :

  • la visibilité automatique des titres de section, avec la possibilité de masquer la section ;
  • l’aide à la saisie de tableaux ;
  • quelques raccourcis et astuces (voir la documentation) tels la combinaison Ctrl + alt + F qui permet d’entrer une référence de note de bas de page automatiquement, ou encore Ctrl + alt + pointage curseur qui permet de saisir le même texte à deux endroits en même temps…

Aide à la saisie de tableaux

Correction en cours de frappe

L’ajout d’une fonction de correction basée sur des dictionnaires est quelque chose d’assez banal. Zettlr l’intègre pour plusieurs langues et c’est un atout très important. Mais pour un éditeur markdown, la possibilité de configurer soi-même la correction en cours de frappe est, osons le dire, assez exceptionnel. Ainsi, dans Paramètres > AutoCorrect il est possible d’activer l’utilisation des guillemets selon le contexte linguistique, mais aussi toutes sortes de saisies utiles, en particulier pour la typographie. Ainsi, on peut faire en sorte que la frappe d’un double point soit remplacée par une séquence qui associe une espace insécable (AltGr + Esp) et un double point, et toutes autres joyeusetés relatives aux règles typographiques.

Fonction auto-correction

Travailler par projet

Comme le font beaucoup d’éditeurs, en particulier pour la programmation, l’utilisation de Zettlr sera d’autant plus efficace si vous optimisez la gestion des fichiers en créant un dossier par projet. C’est ce dossier que vous ouvrez alors, et c’est dans ce dossier que seront listés les fichiers que vous créez (dans le panneau de gauche). Ainsi, dans les options d’export, je conseillerais plutôt de cocher l’option qui consiste à sauvegarder les fichiers exportés dans le dossier en cours.

La bibliographie

Comme mentionné plus haut, Zettlr fournir un outil d’aide à la saisie de références bibliographiques.

Le principe qui a été retenu par les créateurs est celui-ci : dans les paramètres, vous entrez le chemin du fichier de bibliographie que vous avez créé. Vous pouvez entrer un fichier .bib ou un fichier .json créé par exemple avec Zotero.

À la différence de la gestion bibliographique via une extension Zotero ou JabRef dans le logiciel de traitement de texte tel LibreOffice, il faut entrer le chemin du fichier .bib ou .json dans les paramètres et ce seront ces données qui seront utilisées par Zettlr. Évidemment, si vous complétez votre bibliographie il faut s’assurer que Zettlr pourra bien trouver dans le fichier vos nouvelles références sans pour autant remplacer le fichier à chaque fois et devoir recharger Zettlr. Une fonctionnalité de Zotero vous sera très utile pour cela :

  • Dans Zotero, sélectionnez la bibliothèque que vous souhaitez exporter, clic droit puis Exporter la bibliothèque
  • Sélectionnez le format Better BibTeX ou Json et cochez la case Garder à jour
  • Sauvegardez et entrez le chemin vers ce fichier dans Zettlr
  • Désormais, lorsque la bibliothèque Zotero subira des modifications, le fichier d’export sera toujours à jour (et vous retrouverez vos nouvelles références)

À mes yeux, c’est une posture bancale. Certes, le fichier sera toujours à jour mais c’est une fonctionnalité qui dépend d’un autre programme (et tant pis si vous n’aimez pas Zotero). Par ailleurs, cela implique aussi que le fichier de bibliographie soit le même pour tous vos projets, ce qui signifie que si, comme moi, vous avez une biblio séparée pour chaque projet dans Zotero, la seule bibliothèque à exporter, c’est la principale. Cela dit, une fois configurée la bibliographie, Zettlr permet l’autocomplétion des références, ce qui est déjà d’une grande aide.

Ceci est valable aussi pour la configuration du format de bibliographie à la production de sortie, c’est-à-dire à l’export. En effet, pour formater la bibliographie, Zettlr permet de sélectionner le fichier de style CSL (que vous pourrez trouver sur ce dépôt ou via ce configurateur – reportez-vous à la section Bibliographie de ce billet pour comprendre de quoi il s’agit). Là encore, l’idée me semble bancale : si vous rédigez plusieurs documents avec des exigences différentes de format de bibliographie, il faut changer à chaque fois.

Donc idéalement, l’une des prochaines améliorations de Zettlr devrait inclure une solution d’extension Zotero ou JabRef capable de générer le fichier de bibliographie final à la volée et une solution de sélection de fichiers de style CSL. Plus facile à dire qu’à faire… 

Paramètrage de la biblio

Export et pandoc

Pour utiliser les fonctionnalités d’export de Zettlr, il vous faut le logiciel pandoc installé sur votre système. Vous ne serez pas efficace si vous ne connaissez pas dans les grandes lignes le fonctionnement de ce logiciel… Qui ne connaît pas pandoc aura toutes les peines du monde à comprendre comment Zettlr exporte les fichiers dans un format choisi.

Pandoc est un logiciel de conversion muti-format très puissant et avec des résultats très propres (il ne s’encombre pas de formules polluantes qui rendent inutilisables les fichiers produits). Là où pandoc prend toute sa valeur dans notre cas, c’est qu’il permet de transformer le format markdown en à peu près tout ce que vous voulez. Par ailleurs, il est capable non seulement de convertir, mais aussi de convertir en utilisant des modèles et même d’autres logiciels qui paramètrent la conversion. Je vous invite à lire ce billet à propos de la manipulation de documents markdown et ce billet à propos de pandoc et LaTeX pour vous faire une idée (complétez aussi par celui-ci).

Ces lectures vont vous permettre de mieux comprendre la section des paramètres avancés de Zettlr.

Zettlr Paramètres avancés Dans l’illustration, la liste des annexes concerne les fichiers que vous allez voir figurer dans le panneau latéral de droite (en cliquant sur la petit trombone) lorsque vous liez des documents annexes à votre document. Quant aux chemins vers pandoc et XeLaTeX, inutile de vous en soucier, pourvu que ces programmes soient bien installés.

Ce qui nous intéresse dans les paramètres avancés, c’est la commande pandoc réservée aux « utilisateurs avancés seulement ». Parce qu’en réalité, elle détermine comment pandoc doit fonctionner avec Zettlr. Essayons de comprendre.

Pandoc est un logiciel dont l’usage est simple. Ce n’est pas parce qu’il s’utilise en ligne de commande que cela en fait un logiciel compliqué. La preuve : pour utiliser pandoc, vous devez lancer la commande pandoc en précisant le fichier sur lequel vous voulez travailler, le nom du fichier à produire et les options et formats choisis pour la conversion. Ainsi la commande

$pandoc source.md -o sortie.odt

Consiste à produire un fichier .odt nommé « sortie » à partir d’un fichier nommé « source ». Le -o signifie « output » (vers la sortie).

Une variante pourrait être   : $pandoc -f markdown -t odt bonjour.md … c’est à dire transformer le fichier « bonjour.md » du markdown vers (-f c-à-d. : from markdown vers -t c-à-d. : to) le .odt.

Ça va jusque là ? vous voyez il n’y a rien de compliqué. Continuons un peu.

Pandoc ne fait pas « que » convertir. Il est capable de convertir en utilisant des informations beaucoup plus complexes et qui permettent même d’enrichir le fichier de départ, surtout si ce dernier n’est qu’en markdown. Par exemple :

  • avec le programme citeproc il est capable d’interpréter un format de bibliographie (en CSL) et on aura pris soin de renseigner dans la ligne de commande à la fois l’option citeproc et le chemin vers le fichier de bibliographie ;
  • avec reveal.js il est capable de sortir, à partir d’un fichier markdown rédigé à cette intention, une très jolie présentation en HTML qu’il reste à afficher dans un navigateur en vue de faire une conférence.

Maintenant imaginez que vous n’avez pas le nom du fichier source ni le nom de sortie et que vouliez permettre à un utilisateur de choisir le format de sortie. Et bien il vous reste à créer une ligne de commande qui, au lieu de donner des instruction rigides, propose des valeurs (avec des $ qui seront utilisées (ou pas). Et vous voilà avec la ligne de commande que propose Zettlr dans les paramètres avancés.

Exporter en PDF

L’export au format PDF à partir de Zettlr suppose que vous ayez LaTeX (et XeLaTeX) installé sur votre système. Si tel est le ca,s il vous reste à vous rendre dans le menu fichier > Paramètres de PDF afin d’y renseigner divers éléments dont un modèle .tex qui pourra être utilisé. Rendez-vous sur la documentation de Pandoc pour apprendre à vous en servir.

Paramètres du PDF

Attention : Si vous avez une version de pandoc antérieure à 2.0 (c’est le cas pour beaucoup d’installations), Zettlr (via pandoc) retournera une erreur du type unrecognized option --pdf-engine=xelatex. L’explication se trouve ici. Il s’agit d’un changement qui a eu lieu pour pandoc 2.0  qui est passé de la commande --latex-engine=xelatex à la commande --pdf-engine=xelatex. Pour résoudre ce problème, remplacez simplement l’occurrence dans la ligne de commande pandoc que vous trouverez dans Paramètres > Paramètres avancés. Ou bien installez la dernière version de pandoc.

Attention (bis) : Dans les options du PDF, section Police sont indiquées les polices de caractères que pandoc utilisera pour la transformation en PDF via XeLaTeX. Si vous ne les avez pas sur votre système, un message d’erreur sera affiché. Indiquez à cet endroit les polices de caractères que vous souhaitez utiliser.

Les autres formats

Zettlr permet de faire des présentations en markdown puis de les exporter en utilisant reveal.js. Il vous reste donc à rédiger votre présentation et choisir parmi les modèles proposés (couleurs dominantes).

Export de présentaiton

Vous pouvez aussi exporter directement en HTML  : pour cela Zettlr dispose d’un modèle et exportera votre document en une page HTML contenant aussi les styles (on dit « standalone » ou option -s avec pandoc).

Quand aux autres formats, le choix reste intéressant :

Format Destiné pour
HTML Navigateur
.ODT Traitement de texte type LibreOffice, MSWord, AbiWord, etc.
.DOCX Microsoft
rST ReStructuredText : mise en forme pour de la doc de langage type Python
RTF Rich Text Format : format descriptif pour traitement de texte
TeX Format pour TeX / LaTeX
TXT Format texte (simple)
ORG Pour Emacs Org (pour les utilisateurs d’org-mode, très puissant
Bdl / Pck TextBundle (un conteneur markdown + description + fichiers liés) / Variante

… il manque selon moi la possibilité d’exporter en .epub, un tâche dont s’acquitte très bien pandoc et qui pourrait avoir son application pour l’écriture de livre, lorsqu’on a plusieurs chapitres dans des fichiers séparés. Peut-être que cette fonctionnalité sera ajoutée ultérieurement.

Conclusion

Zettlr est un excellent logiciel qui tire de nombreux avantages du markdown dans le flux de production de documents longs et dans la gestion de documentation personnelle. Il pêche encore par manque de pédagogie, mais il est sur la bonne voie. Par ailleurs, sur les aspects qui concernent l’exportation, ce que propose Zettlr est une interface graphique de pandoc. Les habitués de al ligne de commande, comme moi, ne seront pas franchement épatés : j’estime qu’il à ce niveau plus important d’apprendre à complètement se servir de pandoc. Et s’il lui faut une interface graphique (et je pense que ce serait plutôt bien), dans ce cas, je préférerais largement un programme uniquement dédié aux fonctions de conversion de pandoc (et pas au markdown).

Des directions devront être envisagées en fonction du public visé pour Zettlr. Par exemple, au vu de son fonctionnement global, il pourrait tout à fait être utilisé en binôme avec Git et par conséquent intégrer des options spécialisées dans le versionning. Une autre possibilité consisterait à utiliser une connexion à un dépôt Nextcloud afin de pouvoir synchroniser facilement l’écriture de documents en markdown. Bien sûr, qu’il s’agisse de Git ou de Nextcloud, il est déjà possible soit de commiter les fichiers à part, soit de travailler dans un dossier distant, mais il s’agit-là de tâches spécialisées avec lesquelles tout le monde n’est pas familier.


 

 Persos A à L
Mona CHOLLET
Anna COLIN-LEBEDEV
Julien DEVAUREIX
Cory DOCTOROW
EDUC.POP.FR
Marc ENDEWELD
Michel GOYA
Hubert GUILLAUD
Gérard FILOCHE
Alain GRANDJEAN
Hacking-Social
Samuel HAYAT
Dana HILLIOT
François HOUSTE
Tagrawla INEQQIQI
Infiltrés (les)
Clément JEANNEAU
Paul JORION
Michel LEPESANT
Frédéric LORDON
Blogs persos du Diplo
LePartisan.info
 
 Persos M à Z
Henri MALER
Christophe MASUTTI
Romain MIELCAREK
Richard MONVOISIN
Corinne MOREL-DARLEUX
Fabrice NICOLINO
Timothée PARRIQUE
Emmanuel PONT
VisionsCarto
Yannis YOULOUNTAS
Michaël ZEMMOUR
 
  Numérique
Binaire [Blogs Le Monde]
Christophe DESCHAMPS
Louis DERRAC
Olivier ERTZSCHEID
Olivier EZRATY
Framablog
Francis PISANI
Pixel de Tracking
Irénée RÉGNAULD
Nicolas VIVANT
 
  Collectifs
Arguments
Bondy Blog
Dérivation
Dissidences
Mr Mondialisation
Palim Psao
Paris-Luttes.info
ROJAVA Info
 
  Créatifs / Art / Fiction
Nicole ESTEROLLE
Julien HERVIEUX
Alessandro PIGNOCCHI
XKCD
🌞