Statium Blog

Le blog de Christophe MASUTTI

(H)ac(k)tiviste, Chercheur associé à l'UMR 7363 SAGE (Sociétés, Acteurs, Gouvernement en Europe - Université de Strasbourg ), administrateur de Framasoft

Publications

Publié le 17.03.2024 à 01:00

Bibliographie : aidez vos étudiants !

Dans ce court billet, je questionne le rapport à la gestion bibliographique dans l’enseignement supérieur. Souvent, les exigences de rendus (devoirs et rapports) précisent combien la présentation de la bibliographie est importante, alors qu’on néglige son apprentissage. Ne serait-ce pas souhaitable d’enseigner l’automatisation de la gestion bibliographique plutôt que de se contenter de distribuer des documents exhortant à reproduire des modèles plus ou moins fiables ?

Chacun sait combien il est important, lors de toute activité scientifique, d’être en mesure de citer des références bibliographiques. Les raisons sont multiples : la première consiste à prouver de cette manière dans quel domaine, dans quelle école de pensée, ou dans quelle discipline on souhaite inscrire ce qu’on est en train d’écrire. Une seconde raison consiste à démontrer la maîtrise du sujet qu’on prétend aborder, c’est-à-dire démontrer qu’une recherche préalable a été effectuée et permettre aux lecteur·ices de considérer la pertinence de l’argumentation. Une troisième raison concerne les sources qu’on utilise pour les besoins de l’argumentation. Ces sources doivent être convenablement citées de manière à ce que les lecteur·ices puissent s’y rapporter et juger ainsi de la fiabilité autant que de la scientificité de la démonstration.

C’est pourquoi l’apprentissage de la gestion bibliographique doit commencer très tôt dans la formation des étudiants. Elle doit faire partie intégrante des enseignements, et non se présenter comme un vague module optionnel offert par un service interne dont la plupart des étudiants ignorent l’existence. D’autant plus qu’une initiation ne demande pas énormément d’heures d’enseignement et reste d’autant plus efficace qu’elle est adaptée à la discipline concernée.

Elle est même nécessaire si on compare l’état de l’enseignement supérieur d’une vingtaine d’années plus tôt. Les étudiants ont aujourd’hui à rendre des travaux écrits qui demandent davantage de travail rédactionnel sous format numérique, en particulier les différents rapports d’activité ou de stage. Avec la progression des outils numériques, on attend des étudiants dès la première année une certaine maîtrise des logiciels bureautiques dans la préparation de documents longs. Or, bien que les formations du secondaire aient quelque peu progressé, très rares sont les étudiants qui, dès la première année, sont capables d’utiliser correctement un logiciel de traitement de texte comme LibreOffice dans cet objectif, car ils n’ont jamais eu à écrire de longs textes rigoureux. Les éléments à maîtriser sont, en vrac : la gestion des styles, la gestion des index, les règles de mise en page, la correction ortho-typographique, et… la bibliographie. Autant d’éléments dont on ne se souciait guère lorsqu’il s’agissait de rendre un devoir de 4 copies doubles manuscrites (dans le cas des études en humanités).

De même, très peu d’étudiants ont déjà mis en place, avec leurs propres compétences numériques, une sorte de chaîne éditoriale qui leur permettrait d’écrire, d’organiser leurs fichiers correctement et de gérer leur documentation. L’exemple de la gestion de prise de notes avec une méthodologie de type Zettelkasten, un format malléable comme le markdown (y compris avec des logiciels spécialisés permettant de saisir des mathématiques), des sorties d’exportation vers du PDF ou des formats .odt, docx, ou LaTeX… tout cela ne s’acquiert finalement qu’assez tard dans les études supérieures.

Pourtant, beaucoup de formations ont tendance à considérer ces questions comme étant annexes. Pire, elles incitent les étudiants à utiliser des outils tout intégrés et privateurs chez Microsoft et Google parce que les universités passent des marchés avec des prestataires, et non pour aider vraiment les étudiants à maîtriser les outils numériques. Dans ce contexte, la question de la gestion bibliographique devient vite un bazar :

  • les enseignants qui s’y collent ont souvent leurs propres (mauvaises) habitudes,
  • on s’intéresse à la présentation de la bibliographie uniquement, sans chercher à former l’étudiant à la gestion bibliographique,
  • les modèles proposés sont souvent complètement inventés, tirés de revues diverses, alors qu’une seule norme devrait servir de repère : ISO 690.

On constate que presque aucune université ou école française ne propose de style bibliographique à utiliser dans un format de type CSL (et ne parlons même pas de BibTeX). À la place on trouve tout un tas de documents téléchargeables à destination des étudiants. Ces documents ne se ressemblent jamais, proposent des styles très différents et, lorsque les rédacteurs y pensent, renvoient les étudiants aux logiciels de gestion bibliographique comme Zotero sans vraiment en offrir un aperçu, même succinct.

Prenons deux exemples : ce document de l’Université Paris 8 et ce document de l’Université de Lorraine. Seul le second mentionne « en passant » la question de l’automatisation de la gestion bibliographique et propose d’utiliser le style APA de l’Université de Montréal (en CSL). Mais les deux documents proposent des suites d’exemples qu’on peut s’amuser à comparer et deviner le désarroi des étudiants : les deux proposent un style auteur-date, mais ne sont pas harmonisés quand à la présentation. Il s’agit pourtant de deux universités françaises. Il y a pléthore de documents de cet acabit. Tous ne visent qu’à démontrer une chose : pourvu que la bibliographie soit présentée de manière normalisée, il est inutile de dresser des listes interminables d’exemples, mieux vaut passer du temps à apprendre comment automatiser et utiliser un style CSL une fois pour toute.

Ce qui se produit in fine, c’est une perte de temps monstrueuse pour chaque étudiant à essayer de faire ressembler sa liste bibliographique au modèle qui lui est présenté… et sur lequel il peut même être noté ! Et tout cela lorsqu’on ne lui présente pas plusieurs modèles différents au cours d’une même formation.

Je vais l’affirmer franchement : devrait se taire sur le sujet de la bibliographie qui n’est pas capable d’éditer un fichier CSL (en XML) correctement (en suivant la norme ISO 690), le donner à ses étudiants pour qu’ils s’en servent avec un logiciel comme Zotero et un plugin pour traitement de texte. À la limite, on peut accepter que savoir se servir d’un fichier CSL et montrer aux étudiants comment procéder pour l’utiliser peut constituer un pis-aller, l’essentiel étant de faciliter à la fois la gestion bibliographique et la présentation.

Oui, c’est élitiste ! mais à quoi servent les documents visant à montrer comment présenter une bibliographie s’ils ne sont pas eux-mêmes assortis du fichier CSL qui correspond à la présentation demandée ?

Ce serait trop beau de penser que les rédacteurs de tels documents proposent rigoureusement les mêmes exigences de présentation. Il y a toujours des variations, et souvent, pour une même ressource bibliographique, des présentations très différentes, voire pas du tout normalisées. S’il existe un tel flou, c’est pour ces raisons :

  1. la norme ISO (lorsqu’elle est respectée) permet toujours de petites variations selon la présentation voulue, et ces petites variations sont parfois interprétées comme autant de libertés que s’octroie arbitrairement le corps enseignant jusqu’à croire détenir le modèle ultime qui devient alors la « norme » à utiliser,
  2. toutes les bibliographies ne sont pas censées utiliser la méthode auteur-date (certains s’évertuent toujours à vouloir citer les références en notes de bas de page…), et le style APA fait tout de même dans les 400 pages,
  3. les abréviations ne sont pas toujours toutes autorisées,
  4. des questions ne sont pas toujours résolues de la même manière, par exemple : lorsqu’un document possède une URL, faut-il écrire : « [en ligne] », « URL », « DOI », « [consulté le xxx] », « [date de dernière consultation : xxx] »… etc.

Pour toutes ces raisons, on ne peut pas se contenter de donner aux étudiants un document illustratif, il faut les aider à automatiser la bibliographie et sa présentation de manière à ce que le document final soit harmonisé de manière efficace tout en permettant à l’étudiant de stocker ses références pour une utilisation ultérieure.

Pour finir, quelques liens :


Publié le 22.11.2023 à 01:00

Les IA génératives ? Jorge nous en parlait déjà

Les IA génératives. Sujet à la mode s’il en est. J’avoue qu’en la matière je n’y connais goutte sur le plan technique. Par contre à travers le tintamarre des médias à ce propos, on peut capter quelques bribes intéressantes et s’amuser à faire des parallèles. Ici, on va se référer au célèbre roman d’Umberto Eco, Le Nom de la Rose.


Les IA génératives c’est quoi ? ce sont des systèmes dits d’Intelligence Artificielle (cybernétiques pourrait-on dire), qui sont entraînés selon des modèles d’apprentissage sur des panels de données agrégées de différents types, les plus exhaustifs possibles, de manière à être capables de générer d’autres données. Notons que ces données sont générées à partir de ce qu’on donne « à manger » à l’entraînement. On pourra glauser sur les modèles en question, leurs puissances et leurs intérêts, toujours est-il que l’IA générative ne génère quelque chose qu’à partir de ce qu’elle connaît. Sa puissance combinatoire ne peut en aucun cas être de la même nature que notre intelligence à nous autres humains. J’arrête-là car nous entrons dans un débat philosophique qui risque de nous entraîner un peu trop loin et je voudrais, pour changer, faire un billet court.

J’ai pensé à cela lorsque j’écoutais ce matin Xavier Niel sur F. Inter, vantant son projet Kyutai, un projet de laboratoire ouvert en AI. Il parlait des IA génératives et trouvait cela géniâââl. Je le cite à peu près à 10'25 (de cette vidéo) : on agrège un maximum de données, par exemple tout ce qui s’est dit depuis 30 ans dans cette émission et quand vous allez me poser une question, je vais vous donner la meilleure réponse. Donc l’IA générative, c’est mixer des données et apporter les meilleures réponses.

C’est pas rien comme objectif tout de même. « Meilleure réponse », cela veut dire que la réponse n’est pas forcément exacte ou vraie mais qu’en l’état des connaissances disponibles on ne peut pas mieux faire. In extenso : les meilleures réponses ne s’obtiennent pas en réfléchissant à la question mais en réfléchissant à comment agréger et combiner pour générer l’information la plus pertinente. On ne s’intéresse plus aux connaisances disponibles (considérées comme un déjà-là disponible), mais aux modèles dont on choisira toujours le plus performant.

Allons plus loin, en prenant le scénario par l’absurde. Si les IA génératives apportent les meilleures réponses, on va finir par ne combiner que ces réponses. En effet, toute démarche visant à créer de la connaissance commence par distinguer les questions auxquelles on peut répondre (et vérifier) de celles qui restent sans réponse valide. Les sciences formulent des hypothèses et tentent d’en tirer des lois (grosso modo), mais si nous partons de la certitude que les meilleures réponses sont celles des IA génératives, c’est-à-dire une formulation idéale des connaissances disponibles, les hypothèses qu’un scientifique est censé émettre devront non seulement être des hypothèses plausibles au regard de ses connaissances à lui, mais aussi plausibles au regard de ce qui échapperait à l’IA générative (puisqu’elle donnerait toujours la meilleure réponse). Or, il n’y a déjà plus de place pour la conjecture puisque toute conjecture attend d’être vérifiée et il n’y a plus besoin de vérifier quoi que ce soit puisque nous avons déjà les meilleures réponses. Quand aux hypothèses, les seules qui seraient pertinentes pour l’avancement scientifique devront échapper à l’esprit humain car ce dernier, de manière à créer une hypothèse qui échapperait à la contre-hypothèse donnée par les « meilleures réponses », n’est pas capable d’agréger toutes les connaissances sur lesquelles un système d’IA peut être entraîné. De même la déductibilité à partir de ces hypothèses trouverait toujours une impossibiltié formelle si la « meilleure réponse » donne toujours tort à celui qui formule la déduction : ce qui fait un avancement scientifique, c’est un changement de paradigme, or si on reste toujours volontairement enfermé dans le même paradigme, aucune chance de révolutionner les sciences ni de faire des expérimentations cruciales (inutile puisque nous partons du principe que nous savons déjà tout ce qu’il faut savoir).

Je sais bien que je caricature et que je tire un peu trop loin les implications de l’expression « meilleure réponse ». Mais vous avez saisi l’idée générale. Pour l’avancement scientifique, l’utilisation des IA génératives nous promet de belles discussions épistémologiques. Et cela se double d’une aporie intéressante. En l’état actuel, si on part du principe exprimé par X. Niel selon lequel les IA génératives donnent les « meilleures réponses », toute IA générative devrait donc logiquement être entraînée sur la base de ces meilleures réponses pour être performantes, d’où la création de nouveaux modèles, et ainsi de suite. Si bien que les IA génératives vont finir par n’être nourries que par elles-mêmes. Bref, une gigantesque tautologie : 1=1.

Et puis, j’ai pensé au roman Le Nom de la Rose de Umberto Eco. Un ouvrage qui, chez moi, a fait tilt dans mon adolescence (je l’ai lu avant de voir le film à la TV, je n’avais rien compris, du coup je l’ai relu 3-4 fois par la suite, citations latines comprises). On y trouve ce personnage fascinant, le vénérable Jorge, doyen de l’abbaye, incarné dans le film par le magnifique Fiodor Chaliapin Jr., qui faisait vraiment peur ! À côté de lui, bouffant les pages empoisonnées du vrai-faux livre d’Aristote dans la bibliothèque à la lumière vacillante d’une bougie, les films de morts-vivants sont des blagues.

Bref, ce Jorge me fascinait, et surtout son discours qui dévoile le fin mot de l’intrigue. Pourquoi ce livre est-il interdit ? Non pas parce qu’il est censé être l’ouvrage perdu d’Aristote (le second tome de La Poétique, censé porter sur la comédie, alors que le premier porte sur la tragédie et que seule la tragédie est capable de catharsis, c’est-à-dire l’apprentissage des mœurs). Non pas parce que, portant sur la comédie, il porte sur la question du rire, propre de l’homme (même les saints hommes riaient ou avaient des situations comiques, cf. le passage du scriptorium dans le roman). Non pas enfin parce qu’il serait interdit de rire dans cette épouvantable abbaye.

Alors, pourquoi donc ? parce que le savoir authentique (la bibliothèque) n’est ni dynamique ni novateur, pour Jorge. L’important n’est pas ce qu’il y a d’écrit dans le livre, mais le fait même de vouloir chercher un livre qui n’est pas censé exister : la recherche du savoir doit se borner à ce qu’on peut tirer de la bibliothèque sous surveillance, car c’est un labyrinthe où seuls les initiés peuvent circuler et venir en retirer les bribes de savoirs jugés utiles aux simples lecteurs ou enlumineurs. Rien d’autre ne peut venir en surplus car qu’y a t-il de mieux, de plus sécurisant, que de savoir que tout le savoir est en un seul lieu et que toutes les questions y trouvent leurs réponses ? Pas de place au doute. C’est le sens de la « sublime récapitulation » dans le monologue de Jorge (cf. l’extrait ci-dessous).

Le rapport avec les IA générative ? la récapitulation. « Continue et sublime ». Voilà ce qu’est le monde des IA génératives. Elle ne sont novatrices que par leur propre nouveauté, mais elles nous mènent dans un monde où il ne peut plus y avoir d’innovation. Elles sont le reflet de ce début de siècle : nous cherchons des certitudes. Et qu’y a-t-il de plus sécurisant que de se persuader que les meilleures réponses sont dans le savoir déjà produit ?

Extrait :

« […] notre unique vraie richesse était l’observance de la règle, la prière et le travail. Mais de notre travail, du travail de notre ordre, et en particulier du travail de ce monastère fait partie – ou plutôt en est la substance – l’étude, et la garde du savoir. La garde, dis-je, pas la recherche, car le propre du savoir, chose divine, est d’être complet et défini dès le commencement, dans la perfection du verbe qui s’exprime à lui-même. La garde, dis-je, pas la recherche, car le propre du savoir, chose humaine, est d’avoir été défini et complété dans l’espace des siècles qui va de la prédication des prophètes à l’interprétation des Pères de l’Eglise. Il n’est point de progrès, il n’est point de révolution d’âges, dans les vicissitudes du savoir, mais au mieux une continue et sublime récapitulation. L’histoire de l’humanité marche d’un mouvement irrépressible depuis la création, à travers la rédemption, vers le retour du Christ triomphant, qui apparaîtra auréolé d’un nimbe pour juger les vivants et les morts, mais le savoir divin ne suit pas ce cours : immobile comme une forteresse indestructible, il nous permet, quand nous nous faisons humbles et attentifs à sa voix, de suivre, de prédire ce cours, sans en être entamé. »


Publié le 09.10.2023 à 02:00

Logiciel libre et anarchisme

Quels liens peut-on faire entre le mouvement pour le logiciel libre et l’anarchisme ? Se poser la question revient à s’interroger sur la place que nous réservons à la production des communs numériques dans la société. C’est aussi l’occasion de voir comment les mouvements peuvent converger et apprendre les uns des autres.

Table des matières


Cet article a été publié sur le Framablog, le 09/10/2023


Introduction

À travers le monde et à travers l’histoire, les mouvements anarchistes ont toujours subi la surveillance des communications. Interdiction des discours publics et rassemblements, arrestations d’imprimeurs, interceptions téléphoniques, surveillance numérique. Lorsque je parle ici de mouvements anarchistes, je désigne plutôt tous les mouvements qui contiennent des valeurs libertaires. Bien au-delà des anciennes luttes productivistes des mouvements ouvriers, anarcho-syndicalistes et autres, le fait est qu’aujourd’hui énormément de luttes solidaires et pour la justice sociale ont au moins un aspect anarchiste sans pour autant qu’elles soient issues de mouvements anarchistes « historiques ». Et lorsqu’en vertu de ce « déjà-là » anarchiste qui les imprègne les sociétés font valoir leurs libertés et leurs souhaits en se structurant en organes collectifs, les États et les organes capitalistes renforcent leurs capacités autoritaires dont l’un des aspects reconnaissables est le contrôle des outils numériques.

Cela aboutit parfois à des mélanges qu’on trouverait cocasses s’ils ne démontraient pas en même temps la volonté d’organiser la confusion pour mieux dénigrer l’anarchisme. Par exemple cette analyse lamentable issue de l’École de Guerre Économique, au sujet de l’emploi du chiffrement des communications, qui confond anarchisme et crypto-anarchisme comme une seule « idéologie » dangereuse. Or il y a bien une différence entre prémunir les gens contre l’autoritarisme et le contrôle numérique et souhaiter l’avènement de nouvelles féodalités ultra-capitalistes au nom dévoyé de la liberté. Cette confusion est d’autant plus savamment orchestrée qu’elle cause des tragédies. En France, l’affaire dite du 8 décembre 20201, sorte de remake de l’affaire Tarnac, relate les gardes à vue et les poursuites abusives à l’encontre de personnes dont le fait d’avoir utilisé des protocoles de chiffrement et des logiciels libres est déclaré suspect et assimilable à un comportement dont le risque terroriste serait avéré – en plus d’avoir lu des livres d’auteurs anarchistes comme Blanqui et Kropotkine. Avec de tels fantasmes, il va falloir construire beaucoup de prisons.

Le logiciel libre a pourtant acquis ses lettres de noblesses. Par exemple, si Internet fonctionne aujourd’hui, c’est grâce à une foule de logiciels libres. Ces derniers sont utilisés par la plupart des entreprises aujourd’hui et il n’y a guère de secteurs d’activités qui en soient exempts. En revanche, lorsqu’on considère l’ensemble des pratiques numériques basées sur l’utilisation de tels communs numériques, elles font très souvent passer les utilisateurs experts pour de dangereux hackers. Or, lorsque ces utilisations ont pour objectif de ne pas dépendre d’une multinationale pour produire des documents, de protéger l’intimité numérique sur Internet, de faire fonctionner des ordinateurs de manière optimale, ne sont-ce pas là des préoccupations tout à fait légitimes ? Ces projections établissent un lien, souvent péjoratif, entre logiciel libre, activité hacker et anarchisme. Et ce lien est postulé et mentionné depuis longtemps. Le seul fait de bricoler des logiciels et des machines est-il le seul rapport entre logiciel libre et anarchisme ? Que des idiots trouvent ce rapport suspect en fait-il pour autant une réalité tangible, un lien évident ?

Le logiciel libre comporte quatre libertés : celle d’utiliser comme bon nous semble le logiciel, celle de partager le code source tout en ayant accès à ce code, celle de le modifier, et celle de partager ces modifications. Tout cela est contractuellement formalisé par les licences libres et la première d’entre elles, la Licence Publique Générale, sert bien souvent de point de repère. L’accès ouvert au code combiné aux libertés d’usage et d’exploitation sont communément considérés comme les meilleurs exemples de construction de communs numériques et de gestion collective, et représentent les meilleures garanties contre l’exploitation déloyale des données personnelles (on peut toujours savoir et expertiser ce que fait le logiciel ou le service). Quelle belle idée que de concevoir le Libre comme la traduction concrète de principes anarchistes : la lutte contre l’accaparement du code, son partage collaboratif, l’autogestion de ce commun, l’horizontalité de la conception et de l’usage (par opposition à la verticalité d’un pouvoir arbitraire qui dirait seul ce que vous pouvez faire du code et, par extension, de la machine). Et tout cela pourrait être mis au service des mouvements anarchistes pour contrecarrer la surveillance des communications et le contrôle des populations, assurer la liberté d’expression, bref créer de nouveaux communs, avec des outils libres et une liberté de gestion.

Belle idée, partiellement concrétisée à maints endroits, mais qui recèle une grande part d’ombre. Sur les communs que composent les logiciels libres et toutes les œuvres libres (logiciels ou autres), prolifère tout un écosystème dont les buts sont en réalité malveillants. Il s’agit de l’accaparement de ces communs par des acteurs moins bien intentionnés et qui paradoxalement figurent parmi les plus importants contributeurs au code libre / open source. C’est que face à la liberté d’user et de partager, celle d’abuser et d’accaparer n’ont jamais été contraintes ni éliminées : les licences libres ne sont pas moralistes, pas plus qu’elles ne peuvent légitimer une quelconque autorité si ce n’est celle du contrat juridique qu’elles ne font que proposer. On verra que c’est là leur fragilité, nécessitant une identification claire des luttes dont ne peut se départir le mouvement du logiciel libre.

Collaboration sans pouvoir, contribution et partage : ce qui pourrait bien s’apparenter à de grands principes anarchistes fait-il pour autant des mouvements libristes des mouvements anarchistes et du logiciel libre un pur produit de l’anarchie ? Par exemple, est-il légitime que le système d’exploitation Android de Google-Alphabet soit basé sur un commun libre (le noyau Linux) tout en imposant un monopole et des contraintes d’usage, une surveillance des utilisateurs et une extraction lucrative des données personnelles ? En poussant un peu plus loin la réflexion, on constate que la création d’un objet technique et son usage ne sont pas censés véhiculer les mêmes valeurs. Pourtant nous verrons que c’est bien à l’anarchie que font référence certains acteurs du logiciel libre. Cette imprégnation trouve sa source principale dans le rejet de la propriété intellectuelle et du pouvoir qu’elle confère. Mais elle laisse néanmoins l’esprit anarchiste libriste recroquevillé dans la seule production technique, ouvrant la voie aux critiques, entre tentation libertarienne, techno-solutionnisme et mépris de classe. Sous certains aspects, l’éthique des hackers est en effet tout à fait fongible dans le néolibéralisme. Mais il y a pourtant un potentiel libertaire dans le libre, et il ne peut s’exprimer qu’à partir d’une convergence avec les luttes anticapitalistes existantes.

Des libertés fragiles

Avant d’entrer dans une discussion sur le rapport historique entre logiciel libre et anarchie, il faut expliquer le contexte dans lequel un tel rapport peut être analysé. Deux points de repère peuvent être envisagés. Le premier point de repère consiste à prendre en compte que logiciel libre et les licences libres proposent des développements et des usages qui sont seulement susceptibles de garantir nos libertés. Cette nuance a toute son importance. Le second point consiste à se demander, pour chaque outil numérique utilisé, dans quelle mesure il participe du capitalisme de surveillance, dans quelle mesure il ouvre une brèche dans nos libertés (en particulier la liberté d’expression), dans quelle mesure il peut devenir un outil de contrôle. C’est ce qui ouvre le débat de l’implication des mouvements libristes dans diverses luttes pour les libertés qui dépassent le seul logiciel en tant qu’objet technique, ou l’œuvre intellectuelle ou encore artistique placée sous licence libre.

Ce sont des techniques…

Il ne faut jamais perdre de vue que, en tant que supports de pensée, de communication et d’échanges, les logiciels (qu’ils soient libres ou non) les configurent en même temps2. C’est la question de l’aliénation qui nous renvoie aux anciennes conceptions du rapport production-machine. D’un point de vue marxiste, la technique est d’abord un moyen d’oppression aux mains des classes dominantes (l’activité travail dominée par les machines et perte ou éloignement du savoir technique). Le logiciel libre n’est pas exempt de causer cet effet de domination ne serait-ce parce que les rapports aux technologies sont rarement équilibrés. On a beau postuler l’horizontalité entre concepteur et utilisateur, ce dernier sera toujours dépendant, au moins sur le plan cognitif. Dans une économie contributive idéale du Libre, concepteurs et utilisateurs devraient avoir les mêmes compétences et le même degré de connaissance. Mais ce n’est généralement pas le cas et comme disait Lawrence Lessig, « Code is law »3.

Le point de vue de Simondon, lui, est tout aussi acceptable. En effet l’automatisation - autonomisation de la technique (émancipation par rapport au travail) suppose aussi une forme d’aliénation des possédants vis-à-vis de la technique4. Le capital permet la perpétuation de la technique dans le non-sens du travail et des comportements, leur algorithmisation, ce qui explique le rêve de l’usine automatisée, étendu à la consommation, au-delà du simple fait de se débarrasser des travailleurs (ou de la liberté des individus-consommateurs). Cependant la culture technique n’équivaut pas à la maîtrise de la technique (toujours subordonnée au capital). Censé nous livrer une culture technique émancipatrice à la fois du travail et du capital (la licence libre opposée à la propriété intellectuelle du « bien » de production qu’est le logiciel), le postulat libriste de l’équilibre entre l’utilisateur et le concepteur est dans les faits rarement accompli, à la fois parce que les connaissances et les compétences ne sont pas les mêmes (voir paragraphe précédent) mais aussi parce que le producteur lui-même dépend d’un système économique, social, technique, psychologique qui l’enferme dans un jeu de dépendances parfois pas si différentes de celles de l’utilisateur. L’équilibre peut alors être trouvé en créant des chaînes de confiance, c’est-à-dire des efforts collectifs de création de communs de la connaissance (formations, entraide, vulgarisation) et des communs productifs : des organisations à tendances coopératives et associatives capables de proposer des formules d’émancipation pour tous. Créer du Libre sans proposer de solutions collectives d’émancipation revient à démontrer que la liberté existe à des esclaves enchaînés tout en les rendant responsables de leurs entraves.

…Issues de la culture hacker

La culture hacker est un héritage à double tranchant. On a longtemps glorifié les communautés hackers des années 1960 et 1970 parce qu’elles sont à l’origine de l’aventure libératrice de l’ordinateur et des programmes hors du monde hiérarchisé de la Défense et de l’Université. Une sorte de « démocratisation » de la machine. Mais ce qu’on glorifie surtout c’est le mode de production informatique, celui qui a donné lieu aux grandes histoires des communautés qui partageaient la même éthique des libertés numériques et que Steven Lévy a largement popularisé en définissant les contours de cette « éthique hacker »5. Le projet GNU de R. M. Stallman, à l’origine dans les années 1980 de la Licence Publique Générale et de la formulation des libertés logicielles en droit, est surtout l’illustration d’une économie logicielle qui contraint la contribution (c’est la viralité de la licence copyleft) et promeut un mode de développement collectif. Ce qu’on retient aussi de la culture hacker, c’est la réaction aux notions de propriété intellectuelle et d’accaparement du code. On lui doit aussi le fait qu’Internet s’est construit sur des protocoles ouverts ou encore les concepts d’ouverture des formats. Pourtant l’état de l’économie logicielle et de l’Internet des plateformes montre qu’aujourd’hui nous sommes loin d’une éthique de la collaboration et du partage. Les enjeux de pouvoir existent toujours y compris dans les communautés libristes, lorsque par exemple des formats ou des protocoles sont imposés davantage par effet de nombre ou de mode que par consensus6.

Comme le montre très bien Sébastien Broca7, l’éthique hacker n’est pas une simple utopie contrariée. Issue de la critique antihiérarchique des sixties, elle a aussi intégré le discours néomanagérial de l’accomplissement individuel qui voit le travail comme expression de soi, et non plus du collectif. Elle a aussi suivi les transformations sociales qu’a entraîné le capitalisme de la fin du XXe siècle qui a remodelé la critique artistique des sixties en solutionnisme technologique dont le fleuron est la Silicon Valley. C’est Fred Tuner qui l’écrit si bien dans un ouvrage de référence, Aux sources de l’utopie numérique : de la contre culture à la cyberculture8. Et pour paraphraser un article récent de ma plume à son propos9 : quelle ironie de voir comment les ordinateurs sont devenus synonymes d’émancipation sociale et de rapprochements entre les groupes sociaux, alors qu’ils sont en même temps devenus les instruments du capitalisme, du nouveau management et de la finance (ce que Detlef Hartmann appelait l'offensive technologique10), aussi bien que les instruments de la surveillance et de la « société du dossier ». C’est bien en tant que « menaces sur la vie privée » que les dépeignaient les premiers détracteurs des bases de données gouvernementales et des banques à l’instar d’Alan Westin11 au soir des années 1960. Tout s’est déroulé exactement comme si les signaux d’alerte ne s’étaient jamais déclenchés, alors que depuis plus de 50 ans de nombreuses lois entendent réguler l’appétit vorace des plateformes. Pourquoi ? Fred Turner y répond : parce que la priorité avait été choisie, celle de transformer le personal is political12 en idéologie néolibérale par le biais d’une philosophie hacker elle-même dévoyée au nom de la liberté et de l’accomplissement de soi.

Des communs mal compris et mal protégés

Ces communs sont mal compris parce qu’ils sont la plupart du temps invisibilisés. La majorité des serveurs sur Internet fonctionnent grâce à des logiciels libres, des protocoles parmi les plus courants sont des protocoles ouverts, des systèmes d’exploitation tels Android sont en fait construits sur un noyau Linux, etc. De tout cela, la plupart des utilisateurs n’ont cure… et c’est très bien. On ne peut pas attendre d’eux une parfaite connaissance des infrastructures numériques. Cela plonge néanmoins tout le monde dans un univers d’incompréhensions.

D’un côté, il y a l’ignorance du public (et bien souvent aussi des politiques publiques) du fait que la majeure partie des infrastructures numériques d’aujourd’hui reposent sur des communs, comme l’a montré N. Egbhal13. Ce fait crée deux effets pervers : le ticket d’entrée dans la « nouvelle économie », pour une start-up dont le modèle repose sur l’exploitation d’un système d’information logiciel, nécessite bien moins de ressources d’infrastructure que dans les années 1990 au point que la quasi-exclusivité de la valeur ajoutée repose sur l’exploitation de l’information et non la création logicielle. Il en résulte un appauvrissement des communs (on les exploite mais on ne les enrichit pas14) et un accroissement de l’économie de plateforme au détriment des infrastructures elles-mêmes : pour amoindrir encore les coûts, on s’en remet toujours plus aux entreprises monopolistes qui s’occupent de l’infrastructure matérielle (les câbles, les datacenter). D’un autre côté, il y a le fait que beaucoup d’organisations n’envisagent ces communs numériques qu’à l’aune de la rentabilité et de la compromission avec la propriété productive, ce qui a donné son grain à moudre à l’Open Source Initiative et sa postérité, reléguant les libristes dans la catégorie des doux utopistes. Mais l’utopie elle-même a ses limites : ce n’est pas parce qu’un service est rendu par des logiciels libres qu’il est sécurisé, durable ou protège pour autant les utilisateurs de l’exploitation lucrative de leurs données personnelles. Tout dépend de qui exploite ces communs. Cela relève en réalité du degré de confiance qu’on est capable de prêter aux personnes et aux organisations qui rendent le service possible.

Les licences libres elles-mêmes sont mal comprises, souvent vécues comme un abandon de l’œuvre et un manque à gagner tant les concepts de la « propriété intellectuelle » imprègnent jusqu’à la dernière fibre le tissu économique dans lequel nous sommes plus ou moins contraints d’opérer. Cela est valable pour les logiciels comme pour les productions intellectuelles de tous ordres, et cela empêche aussi le partage là où il pourrait être le plus bénéfique pour tous, par exemple dans le domaine de la recherche médicale.

Au lieu de cela, on assiste à un pillage des communs15, un phénomène bien identifié et qui connaît depuis les années 2000 une levée en force d’organisations de lutte contre ce pillage, qu’il s’agisse des biens communs matériels (comme l’eau, les ressources cultivables, le code génétique…) ou immatériels (l’art, la connaissance, les logiciels…). C’est la raison pour laquelle la décentralisation et l’autogestion deviennent bien plus que de simples possibilités à opposer à l’accaparement général des communs, mais elles sont aussi autant de voies à envisager par la jonction méthodologique et conceptuelle des organisations libristes, de l’économie solidaire et des mouvements durabilistes16.

Le libre et ses luttes, le besoin d’une convergence

Alors si le Libre n’est ni l’alpha ni l’oméga, si le mouvement pour le logiciel Libre a besoin de réviser sa copie pour mieux intégrer les modèles de développement solidaires et émancipateurs, c’est parce qu’on ne peut manifestement pas les décorréler de quatre autres luttes qui structurent ou devraient structurer les mouvements libristes aujourd’hui.

Une lutte pour imposer de nouveaux équilibres en droit

Les licences libres et leurs domaines d’application, en particulier dans les communs immatériels, ont besoin de compétences et d’alliances pour ne plus servir d’épouvantail, de libre-washing ou, pire, être détournés au profit d’une lucrativité de l’accès ouvert (comme c’est le cas dans le monde des revues scientifiques). Elles ont aussi besoin de compétences et d’alliances pour être mieux défendues : même si beaucoup de juristes s’en sont fait une spécialité, leur travail est rendu excessivement difficile tant le cadre du droit est rigide et fonctionne en référence au modèle économique dominant.

Une lutte pour imposer de nouveaux équilibres en économie

Pouvons-nous sciemment continuer à fermer les yeux sur l’usage d’une soi-disant éthique hacker au nom de la liberté économique sachant qu’une grande part des modèles économiques qui reposent sur des communs immatériels ont un intérêt public extrêmement faible en proportion des capacités d’exploitation lucrative et de la prolétarisation17 qu’ils entraînent. Cela explique par exemple que des multinationales telles Intel et IBM ou Google et Microsoft figurent parmi les grands contributeurs au Logiciel libre et open source18 : ils ont besoin de ces communs19. Et en même temps, on crée des inégalités sociales et économiques : l’exploitation de main-d’œuvre bon marché (comme les travailleurs du clic20) dont se gavent les entreprises du numérique repose elle aussi sur des infrastructures numériques libres et open source. Les communs numériques ne devraient plus être les supports de ce capitalisme21.

Une lutte pour un rééquilibrage infrastructurel

Parce que créer du code libre ne suffit pas, encore faut-il s’assurer de la protection des libertés que la licence implique. En particulier la liberté d’usage. À quoi sert un code libre si je ne peux l’utiliser que sur une plateforme non libre ? à quoi sert un protocole ouvert si son utilisation est accaparée par des systèmes d’information non libres ? À défaut de pouvoir rendre collectifs les câbles sous-marins (eux-mêmes soumis à des contraintes géopolitiques), il est toutefois possible de développer des protocoles et des logiciels dont la conception elle-même empêche ces effets d’accaparement. Dans une certaine mesure c’est ce qui a été réalisé avec les applications du Fediverse22. Ce dernier montre que la création logicielle n’est rien si les organisations libristes ne se mobilisent pas autour d’un projet commun et imaginent un monde numérique solidaire.

Une lutte contre les effets sociaux du capitalisme de surveillance

Qu’il s’agisse du conformisme des subjectivités engendré par l’extraction et l’exploitation des informations comportementales (ce qui dure depuis très longtemps23) ou du contrôle des populations rendu possible par ces mêmes infrastructures numériques dont la technopolice se sert (entre autres), les communautés libristes s’impliquent de plus en plus dans la lutte anti-surveillance et anti-autoritaire. C’est une tradition, assurément, mais ce qu’il manque cruellement encore, c’est la multiplication de points de contact avec les autres organisations impliquées dans les mêmes luttes et qui, bien souvent, se situent sur la question bien plus vaste des biens communs matériels. Combien d’organisations et de collectifs en lutte dans les domaines durabilistes comme l’écologie, le partage de l’eau, les enjeux climatiques, en sont encore à communiquer sur des services tels Whatsapp alors qu’il existe des canaux bien plus protégés24 ? Réciproquement combien d’associations libristes capables de déployer des solutions et de les vulgariser ne parlent jamais aux durabilistes ou autres ? Or, penser les organisations libristes sur un mode solidaire et anti-capitaliste revient à participer concrètement aux luttes en faveur des biens communs matériels, créer des alliances de compétences et de connaissances pour rendre ces luttes plus efficaces.

Le (mauvais) calcul anarchiste

Il y a toute une littérature qui traite du rapport entre librisme et anarchisme. Bien qu’elle ne soit pas toujours issue de recherches académiques, cela n’enlève rien à la pertinence et la profondeur des textes qui ont toujours le mérite d’identifier les valeurs communes tels l’anti-autoritarisme de l’éthique hacker, le copyleft conçu comme une lutte contre la propriété privée, le partage, ou encore les libertés d’usage. Et ces valeurs se retrouvent dans de nombreuses autres sphères inspirées du modèle libriste25 et toutes anticapitalistes. Pour autant, l’éthique hacker ou l’utopie « concrète » du logiciel libre, parce qu’elles sont d’abord et avant tout des formes de pratiques technologiques, ne portent pas per se ces valeurs. Comme je l’ai mentionné plus haut, l’éthique hacker et les utopies plus ou moins issues de la tradition hippie des années 1960 et 1970 sont aussi dépositaires du capitalisme techno-solutionniste exprimé, pour les besoins de la cause, par l’idéologie de la Silicon Valley.

C’est ce point de tension qui a tendance aujourd’hui à causer la diffusion d’une conception binaire du lien entre anarchisme et philosophie hacker. Elle repose sur l’idée selon laquelle c’est l’anarchisme américain qui donne une part fondatrice à la philosophie hacker et qui crée en quelque sorte une opposition interne entre une faction « de gauche » attachée aux combats contre la propriété et une faction « de droite » fongible dans le capitalisme dans la mesure où c’est l’efficacité dans l’innovation qui emporte le reste, c’est-à-dire un anarchisme réduit à être un mode d’organisation de la production et un faire-valoir d’une liberté de lucrativité « décomplexée ».

C’est caricatural, mais la première partie n’est pas inexacte. En effet, nous parlons pour l’essentiel d’un mouvement né aux États-Unis et, qui plus est, dans une période où s’est structurée la Nouvelle Gauche Américaine en phase avec des mouvements libertaires et/ou utopistes issus de la génération anti-guerre des années 1950. Simultanément, les ordinateurs mainframe ont commencé à être plus accessibles dans les milieux universitaires et les entreprises, favorisant la naissance des communautés hackers dans un mouvement d’apprentissage, de partage de connaissances et de pratiques. Par la suite ces communautés se structurèrent grâce aux communications numériques, en particulier Internet, et s’agrandirent avec l’apparition de la microinformatique.

Se reconnaissent-elles dans l’anarchisme ? Même si ses pratiques sont anarchistes, un collectif n’a nul besoin de se reconnaître en tant que tel. Il peut même ne pas en avoir conscience. C’est donc du côté des pratiques et in situ qu’il faut envisager les choses. Les communautés hacker sont issues d’une conjonction historique classique entre la cristallisation des idées hippies et libertaires et l’avènement des innovations techniques qui transforment alors radicalement l’économie (les systèmes d’information numériques). Cela crée par effet rétroactif des communautés qui génèrent elles-mêmes des objets techniques en se réappropriant ces innovations, et en changeant à leur tour le paysage économique en proposant d’autres innovations. On pense par exemple aux Bulletin Board Systems (par exemple le projet Community Memory, premier forum électronique géant et collaboratif), aux systèmes d’exploitation (comment Unix fut créé, ou comment Linux devint l’un des plus grands projets collaboratifs au monde), à des logiciels (le projet GNU), etc. Toutes ces pratiques remettent en cause la structure autoritaire (souvent académique) de l’accès aux machines, provoquent une démocratisation des usages informatiques, incarnent des systèmes de collaboration fondés sur le partage du code et des connaissances, permettent l’adoption de pratiques de prise de décision collective, souvent consensuelles. Couronnant le tout, l’apparition de la Licence Publique Générale initiée par Richard M. Stallman et Eben Moglen avec la Free Software Foundation propose une remise en question radicale de la propriété intellectuelle et du pouvoir qu’elle confère.

Le rapport avec l’anarchisme est de ce point de vue exprimé à maintes reprises dans l’histoire des communautés hacker. On y croise très souvent des références. Dans la biographie de Richard M. Stallman26, par exemple, le AI Lab qui devient le haut lieu de la « Commune Emacs », est décrit ainsi : « La culture hacker qui y régnait et sa politique d’anarchie allaient conférer au lieu l’aura d’éternel rebelle ». Plus loin dans le même livre, E. Moglen se remémore sa rencontre avec R. M. Stallman qu’il décrit comme la rencontre de deux anarchistes. Inversement, R. M. Stallman ne s’est jamais défini comme un anarchiste. Il va même jusqu’à soutenir que le logiciel libre est un mélange de communisme (au sens d’appropriation collective de la production), de capitalisme « éthique » (pouvoir en tirer des avantages lucratifs tant qu’on respecte les libertés des autres), et d’anarchisme (réduit à la liberté de contribuer ou non et d’user comme on veut)27.

Une approche fondée sur une enquête plus solide montre néanmoins que les principes anarchistes ne sont pas considérés comme de simples étiquettes dans les communautés hacker d’aujourd’hui. Menée au cœur des communautés libristes californiennnes, l’enquête de Michel Lallement dans L’âge du faire28 montre une typologie intéressante chez les hackers entre les « pur jus », parmi les plus anciens le plus souvent des hommes au charisme de leader ou de gourous et qui se réclament d’un certain radicalisme anarchiste (sur lequel je vais revenir plus loin) et la masse plus diffuse, plus ou moins concernée par l’aspect politique. Majoritaires sont cependant ceux qui ont tendance à la compromission, jusqu’au point où parfois le travail à l’intérieur de la communauté est valorisé dans l’exercice même de la réussite capitaliste à l’extérieur. J’irais même jusqu’à dire, pour en avoir côtoyé, que certains voient dans le hacking et l’éthique hacker une sorte d’exutoire de la vie professionnelle étouffée par l’économie capitaliste.

Sur l’aspect proprement américain, ce qui est surtout mis en avant, c’est l’opposition entre la bureaucratie (entendue au sens de l’action procédurière et autoritaire) et l’anarchisme. À l’image des anciennes communautés hacker calquées sur l’antique Homebrew Club, ce refus de l’autorité institutionnelle s’apparente surtout à une forme de potacherie corporatiste. Le point commun des communautés, néanmoins, consiste à s’interroger sur les process de prise de décision communautaire, en particulier la place faite au consensus : c’est l’efficacité qui est visée, c’est-à-dire la meilleure façon de donner corps à une délibération collective. C’est ce qui permet de regrouper Noisebridge, MetaLab ou le Chaos Computer Club. Certes, au point de vue du fonctionnement interne, on peut invoquer beaucoup de principes anarchistes. Une critique pointerait cependant que ces considérations restent justement internalistes. On sait que le consensus consolide le lien social, mais la technologie et les savoir-faire ont tendance à concentrer la communauté dans une sorte d’exclusion élective : diplômée, issue d’une classe sociale dominante et bourgeoise, en majorité masculine (bien que des efforts soient menés sur la question du genre).

Si nous restons sur le plan internaliste, on peut tenter de comprendre ce qu’est ce drôle d’anarchisme. Pour certains auteurs, il s’agit de se concentrer sur l’apparente opposition entre libre et open source, c’est-à-dire le rapport que les communautés hacker entretiennent avec le système économique capitaliste. On peut prendre pour repères les travaux de Christian Imhorst29 et Dale A. Bradley30. Pour suivre leur analyse il faut envisager l’anarchisme américain comme il se présentait à la fin des années 1970 et comment il a pu imprégner les hackers de l’époque. Le sous-entendu serait que cette imprégnation perdure jusqu’à aujourd’hui. Deux étapes dans la démonstration.

En premier lieu, la remise en cause de la propriété et de l’autorité est perçue comme un radicalisme beaucoup plus fortement qu’elle ne pouvait l’être en Europe au regard de l’héritage de Proudhon et de Bakhounine. Cela tient essentiellement au fait que la structuration du radicalisme américain s’est établie sur une réverbération du bipartisme américain. C’est ce qu’analyse bien en 1973 la chercheuse Marie-Christine Granjon au moment de l’éveil de la Nouvelle Gauche aux États-Unis : chasser les radicaux du paysage politique en particulier du paysage ouvrier dont on maintenait un niveau de vie (de consommation) juste assez élevé pour cela, de manière à « maintenir en place la structure monopolistique de l’économie sur laquelle repose le Welfare State — l’État des monopoles, des managers, des boss du monde syndical et de la politique —, pour protéger cette Amérique, terre de l’égalité, de la liberté et de la poursuite du bonheur, où les idéologies n’avaient plus de raison d’être, où les radicaux étaient voués à la marginalité et tolérés dans la mesure de leur inaction et de leur audience réduite »31. En d’autres termes, être radical c’est être contre l’État américain, donc soit contre le bien-être du peuple et ses libertés, soit le contraire (et chercher à le démontrer), mais en tout cas, contre l’État américain.

En second lieu, la dichotomie entre anarchisme de droite et anarchisme de gauche pourrait se résumer à la distinction entre libertariens et communautaires anticapitalistes. Ce n’est pas le cas. Mais c’est ainsi que posent les prémisses du problème C. Imhorst comme D. A. Bradley et avec eux beaucoup de ceux qui réduisent la distinction open-source / librisme. Sur ce point on reprend souvent la célèbre opposition entre les grandes figures des deux « camps », d’un côté R. M. Stallman, et de l’autre côté Eric S. Raymond, auteur de La Cathédrale et le bazar, évangéliste du marché libre ne retenant de la pensée hacker que l’efficacité de son organisation non hiérarchique. Cette lecture binaire de l’anarchisme américain, entre droite et gauche, est exprimée par David DeLeon en 1978 dans son livre The American as Anarchist32, assez critiqué pour son manque de rigueur à sa sortie, mais plusieurs fois réédité, et cité de nombreuses fois par C. Imhorst. Dans la perspective de DeLeon, l’anarchisme américain est essentiellement un radicalisme qui peut s’exprimer sur la droite de l’échiquier politique comme le libertarianisme, profondément capitaliste, individualiste-propriétariste et contre l’État, comme sur la gauche, profondément anticapitaliste, communautaire, contre la propriété et donc aussi contre l’État parce qu’il protège la propriété et reste une institution autoritaire. En écho, réduire le mouvement libriste « radical » à la figure de R. M. Stallman, et l’opposer au libertarianisme de E. S. Raymond, revient à nier toutes les nuances exprimées en quarante ans de débats et de nouveautés (prenons simplement l’exemple de l’apparition du mouvement Creative Commons).

Le but, ici, n’est pas tant de critiquer la simplicité de l’analyse, mais de remarquer une chose plus importante : si le mouvement hacker est perçu comme un radicalisme aux États-Unis dès son émergence, c’est parce qu’à cette même époque (et c’est pourquoi j’ai cité deux références de l’analyse politique des années 1970) le radicalisme est conçu hors du champ politique bipartite, contre l’État, et donc renvoyé à l’anarchisme. En retour, les caractéristiques de l’anarchisme américain offrent un choix aux hackers. Ce même choix qui est exprimé par Fred Turner dans son analyse historique : comment articuler les utopies hippies de la Nouvelle Gauche avec la technologie d’un côté, et le rendement capitaliste de l’autre. Si on est libertarien, le choix est vite effectué : l’efficacité de l’organisation anarchiste dans une communauté permet de s’affranchir de nombreux cadres vécus comme des freins à l’innovation et dans la mesure où l’individualisme peut passer pour un accomplissement de soi dans la réussite économique, la propriété n’a aucune raison d’être opposée au partage du code et ce partage n’a pas lieu de primer sur la lucrativité.

Considérer le mouvement pour le logiciel libre comme un mouvement radical est une manière d’exacerber deux positions antagonistes qui partent des mêmes principes libertaires et qui aboutissent à deux camps, les partageux qui ne font aucun compromis et les ultra-libéraux prêts à tous les compromis avec le capitalisme. On peut néanmoins suivre D. A. Bradley sur un point : le logiciel libre propose à minima la réorganisation d’une composante du capitalisme qu’est l’économie numérique. Si on conçoit que la technologie n’est autre que le support de la domination capitaliste, penser le Libre comme un radicalisme reviendrait en fait à une contradiction, celle de vouloir lutter contre les méfaits de la technologie par la technologie, une sorte de primitivisme qui s’accommoderait d’une éthique censée rendre plus supportable le techno-capitalisme. Or, les technologies ne sont pas intrinsèquement oppressives. Par exemple, les technologies de communication numérique, surtout lorsqu’elles sont libres, permettent la médiatisation sociale tout en favorisant l’appropriation collective de l’expression médiatisée. Leurs licences libres, leurs libertés d’usages, ne rendent pas ces technologies suffisantes, mais elles facilitent l’auto-gestion et l’émergence de collectifs émancipateurs : ouvrir une instance Mastodon, utiliser un système de messagerie sécurisée, relayer les informations anonymisées de camarades qui subissent l’oppression politique, etc.

L’anarchisme… productiviste, sérieusement ?

Le Libre n’est pas un existentialisme, pas plus que l’anarchisme ne devrait l’être. Il ne s’agit pas d’opposer des modes de vie où le Libre serait un retour idéaliste vers l’absence de technologie oppressive. Les technologies sont toujours les enfants du couple pouvoir-connaissance, mais comme disait Murray Bookchin, si on les confond avec le capitalisme pour en dénoncer le caractère oppresseur, cela revient à «  masquer les relations sociales spécifiques, seules à même d’expliquer pourquoi certains en viennent à exploiter d’autres ou à les dominer hiérarchiquement ». Il ajoutait, à propos de cette manière de voir : « en laissant dans l’ombre l’accumulation du capital et l’exploitation du travail, qui sont pourtant la cause tant de la croissance que des destructions environnementales, elle ne fait ainsi que leur faciliter la tâche. »33

Le rapport entre le libre et l’anarchisme devrait donc s’envisager sur un autre plan que l’opposition interne entre capitalistes et communistes et/ou libertaires (et/ou commonists), d’autant plus que ce type de brouillage n’a jusqu’à présent fait qu’accréditer les arguments en faveur de la privatisation logicielle aux yeux de la majorité des acteurs de l’économie numérique34. Ce rapport devrait plutôt s’envisager du point de vue émancipateur ou non par rapport au capitalisme. De ce point de vue, exit les libertariens. Mais alors, comme nous avons vu que pour l’essentiel l’anarchisme libriste est un mode de production efficace dans une économie contributive (qui devrait être néanmoins plus équilibrée), a-t-il quelque chose de plus ?

Nous pouvons partir d’un autre texte célèbre chez les libristes, celui d’Eben Moglen, fondateur du Software Freedom Law Center, qui intitulait puissamment son article : « L’anarchisme triomphant : le logiciel libre et la mort du copyright »35. Selon lui, le logiciel conçu comme une propriété crée un rapport de force dont il est extrêmement difficile de sortir avec les seules bonnes intentions des licences libres. E. Moglen prend l’exemple du très long combat contre la mainmise de Microsoft sur les ordinateurs neufs grâce à la vente liée, et nous n’en sommes pas complètement sortis. Aujourd’hui, nous pourrions prendre bien d’autres exemples qui, tous, sont le fait d’alliances mondialisées et de consortiums sur-financiarisés de fabricants de matériel et de fournisseurs de services. Il faut donc opposer à cette situation une nouvelle manière d’envisager la production et la créativité.

Code source et commentaires désignent le couple entre fonctionnalité et expressivité des programmes. En tant que tels, ils peuvent être considérés comme autant de preuves que le travail intellectuel nécessaire à l’élaboration d’un programme n’est pas uniquement le fait de travailler sur des algorithmes mais aussi en inventer les propriétés. Dès lors, on peut comprendre que le copyright puisse s’appliquer à plein. Dès l’instant que les ordinateurs ont cessé d’être des machines centrales aux coûts extrêmement élevés, et que pour les faire fonctionner les logiciels ont cessé d’être donnés (car le coût marginal de la création logicielle était faible en comparaison du coût de fabrication d’une grosse machine), l’ordinateur personnel a multiplié mécaniquement le besoin de réaliser des plus-values sur le logiciel et enfermé ce dernier dans une logique de copyright. Seulement voilà : lorsqu’une entreprise (par exemple Microsoft) exerce un monopole sur le logiciel, bien qu’elle puisse embaucher des centaines de développeurs, elle ne sera jamais en mesure d’adapter, tester à grande échelle, proposer des variations de son logiciel en quantités suffisantes pour qu’il puisse correspondre aux besoins qui, eux, ont tendance à se multiplier au fur et à mesure que les ordinateurs pénètrent dans les pratiques sociales et que la société devient un maillage en réseau. Si bien que la qualité et la flexibilité des logiciels privateurs n’est jamais au rendez-vous. Si ce défaut de qualité passe souvent inaperçu, c’est aux yeux de l’immense majorité des utilisateurs qui ne sont pas techniciens, et pour lesquels les monopoles créent des cages d’assistanat et les empêche (par la technique du FUD) d’y regarder de plus près. Après tout, chacun peut se contenter du produit et laisser de côté des défauts dont il peut toujours (essayer de) s’accommoder.

En somme, les utilisateurs ont été sciemment écartés du processus de production logicielle. Alors qu’à l’époque plus ancienne des gros ordinateurs, on adaptait les logiciels aux besoins et usages, et on pouvait les échanger et les améliorer en partant de leur utilisation. Or, l’histoire des sciences et des technologies nous apprend que l’avancement des sciences et technologies dépendent d’apprentissages par la pratique, d’appropriations collectives de l’existant, d’innovation par incrémentation et implications communautaires (c’est ce qu’ont montré David Edgerton36 et Clifford Conner37). En ce sens, le modèle économique des monopoles du logiciel marche contre l’histoire.

C’est de ce point de vue que le logiciel libre peut être envisagé non seulement comme la production d’un mouvement de résistance38, mais aussi comme un mode de production conçu avant tout comme une réaction à la logique marchande, devant lutter sans cesse contre la « plasticité du capitalisme » (au sens de F. Braudel39), avec des résultats plus ou moins tangibles. Même si la question de l’écriture collective du code source mériterait d’être mieux analysée pour ses valeurs performatives intrinsèques40.

Comme le dit Eben Moglen racontant le projet GNU de R. M. Stallman : le logiciel libre pouvait « devenir un projet auto-organisé, dans lequel aucune innovation ne serait perdue à travers l’exercice des droits de propriété ». Depuis le milieu des années 1980 jusqu’à la fin des années 1990, non seulement des logiciels ont été produits de manière collective en dehors du copyright, mais en plus de cela, des systèmes d’exploitation comme GNU Linux aux logiciels de serveurs et à la bureautique, leur reconnaissance par l’industrie elle-même (normes et standards) s’est imposée à une échelle si vaste que le logiciel libre a bel et bien gagné la course dans un monde où la concurrence était faussée si l’on jouait avec les mêmes cartes du copyright.

C’est ce qui fait dire à Eben Moglen que « lorsqu’il est question de faire de bons logiciels, l’anarchisme gagne ». Il oppose deux choses à l’industrie copyrightée du logiciel :

  • les faits : le logiciel libre est partout, il n’est pas une utopie,
  • le mode de production : l’anarchisme est selon lui la meilleure « organisation » de la production.

Reste à voir comment il conçoit l’anarchisme. Il faut confronter ici deux pensées qui sont contemporaines, celle d’Eben Moglen et celle de Murray Bookchin. Le second écrit en 1995 que le mot « anarchisme » allait bientôt être employé comme catégorie d’action bourgeoise41 :

«  les objectifs révolutionnaires et sociaux de l’anarchisme souffrent d’une telle dégradation que le mot « anarchie » fera bientôt partie intégrante du vocabulaire chic bourgeois du siècle à venir : une chose quelque peu polissonne, rebelle, insouciante, mais délicieusement inoffensive ».

Bookchin écrivait aussi « Ainsi, chez nombre d’anarchistes autoproclamés, le capitalisme disparaît, remplacé par une « société industrielle » abstraite. »

Mais d’un autre côté, à peine six ans plus tard, il y a cette volonté d’E. Moglen d’utiliser ce mot et d’entrer en confrontation assez directe avec ce que M. Bookchin disait de la tendance new age férue d’individualisme et de primitivisme et qui n’avait plus de rien de socialiste. En fin de compte, si on conçoit avec E. Moglen l’anarchisme comme un mode de production du logiciel libre, alors on fait aussi une jonction entre la lutte contre le modèle du monopole et du copyright et la volonté de produire des biens numériques, à commencer par des logiciels, tout en changeant assez radicalement l’organisation sociale de la production contre une machinerie industrielle. Et cette lutte n’a alors plus rien d’abstrait. La critique de M. Bookchin, était motivée par le fait que l’anarchisme s’est transformé des années 1970 aux années 1990 et a fini par dévoyer complètement les théories classiques de l’anarchisme au profit d’une culture individualiste et d’un accomplissement de soi exclusif. Le logiciel libre, de ce point de vue, pourrait avoir le mérite de resituer l’action anarchiste dans un contexte industriel (la production de logiciels) et social (les équilibres de conception et d’usage entre utilisateurs et concepteurs).

Et l’État dans tout cela ? est-il évacué de l’équation ? Ces dernières décennies sont teintées d’un néolibéralisme qui façonne les institutions et le droit de manière à créer un espace marchand où les êtres humains sont transformés en agents compétitifs. La production communautaire de logiciel libre ne serait-elle qu’un enfermement dans une plasticité capitaliste telle qu’elle intègre elle-même le mode de production anarchiste du libre dans une compétition dont le grand gagnant est toujours celui qui réussit à piller le mieux les communs ainsi produits ? Car si c’est le cas, alors M. Bookchin avait en partie raison : l’anarchisme n’a jamais pu résoudre la tension entre autonomie individuelle et liberté sociale autrement qu’en se contentant de s’opposer à l’autorité et à l’État, ce qu’on retrouve dans la reductio de l’anarchisme des libertariens – et contre cela M. Bookchin propose un tout autre programme, municipaliste et environnementaliste. Or, si on suit E. Moglen, on ne perçoit certes pas d’opposition frontale contre l’État, mais dans un contexte néolibéral, les monopoles industriels ne peuvent-ils pas être considérés comme les nouvelles figures d’opposition d’autorité et de pouvoir ?

Pour ma part, je pense que qu’État et monopoles se contractent dans le capitalisme de surveillance, un Léviathan contre lequel il faut se confronter. Toute la question est de savoir à quelle société libertaire est censé nous mener le logiciel libre. J’ai bien l’impression que sur ce point les libristes old school qui s’autoproclament anarchistes se trompent : ce n’est pas parce que le mouvement du logiciel libre propose une auto-organisation de la production logicielle et culturelle, contre les monopoles mais avec une simple injonction à l’émancipation, que cela peut déboucher sur un ordre social libertaire.

Là où le logiciel libre pourrait se réclamer de l’anarchisme, c’est dans le fait qu’il propose une très forte opposition aux institutions sociales oppressives que sont les monopoles et l’État, mais seulement à partir du moment où on conçoit le mouvement du logiciel libre non comme un mode de production anarchiste, mais comme un moment qui préfigure42 un ordre social parce qu’il s’engage dans une lutte contre l’oppression tout en mettant en œuvre un mode de production alternatif, et qu’il constitue un modèle qui peut s’étendre à d’autres domaines d’activité (prenons l’exemple des semences paysannes). Et par conséquent il devient un modèle anarchiste.

Si on se contente de n’y voir qu’un mode de production, le soi-disant anarchisme du logiciel libre est voué à n’être qu’un modèle bourgeois (pour reprendre l’idée de M. Bookchin), c’est à dire dénué de projet de lutte sociale, et qui se contente d’améliorer le modèle économique capitaliste qui accapare les communs : il devient l’un des rouages de l’oppression, il n’est conçu que comme une utopie « bourgeoisement acceptable ». C’est-à-dire un statut duquel on ne sort pas ou bien les pieds devant, comme un mode de production que le néomanagement a bel et bien intégré. Or, s’il y a une lutte anarchiste à concevoir aujourd’hui, elle ne peut pas se contenter d’opposer un modèle de production à un autre, elle doit se confronter de manière globale au capitalisme, son mode de production mais aussi son mode d’exploitation sociale.

Les limites de l’anarchisme utopique du Libre ont été révélées depuis un moment déjà. L’Electronic Frontier Foundation (où Eben Moglen officie) le reconnaît implicitement dans un article de mai 2023 écrit par Cory Doctorow et publié par l’EFF43 :

« Alors que les régulateurs et les législateurs réfléchissent à l’amélioration de l’internet pour les êtres humains, leur priorité absolue devrait être de redonner du pouvoir aux utilisateurs. La promesse d’Internet était de supprimer les barrières qui se dressaient sur notre chemin : la distance, bien sûr, mais aussi les barrières érigées par les grandes entreprises et les États oppressifs. Mais les entreprises ont pris pied dans cet environnement de barrières abaissées, se sont retournées et ont érigé de nouvelles barrières de leur côté. Des milliards d’entre nous se sont ainsi retrouvés piégés sur des plateformes que beaucoup d’entre nous n’aiment pas, mais qu’ils ne peuvent pas quitter. »

Il faut donc des alternatives parce que les acteurs qui avaient promis de rendre les réseaux plus ouverts (le Don’t be evil de Google) ont non seulement failli mais, en plus, déploient des stratégies juridiques et commerciales perverses pour coincer les utilisateurs sur leurs plateformes. Dès lors, on voit bien que le problème qui se pose n’est pas d’opposer un mode de production à un autre, mais de tenter de gagner les libertés que le capitalisme de surveillance contient et contraint. On voit aussi que depuis 2001, les problématiques se concentrent surtout sur les réseaux et le pouvoir des monopoles. Là, on commence à toucher sérieusement les questions anarchistes. Dès lors l’EFF propose deux principes pour re-créer un Internet « d’intérêt public » :

  • le chiffrement de bout en bout et la neutralité du Net,
  • contourner les grandes plateformes.

Faut-il pour autant, comme le propose Kristin Ross44, pratiquer une sorte d’évacuation générale et se replier, certes de manière constructive, sur des objets de lutte plus fondamentaux, au risque de ne concevoir de lutte pertinente que des luttes exclusives, presque limitées à la paysannerie et l’économie de subsistance ? Je ne suis pas d’accord. Oui, il faut composer avec l’existant mais dans les zones urbaines, les zones rurales comme dans le cyberespace on peut préfigurer des formes d’organisation autonomes et des espaces à défendre. Le repli individualiste ou collectiviste-exclusif n’est pas une posture anarchiste. Premièrement parce qu’elle n’agit pas concrètement pour les travailleurs, deuxièmement parce que cela revient à abandonner ceux qui ne peuvent pas pratiquer ce repli de subsistance au risque de ce qu’on reprochait déjà aux petits-bourgeois communautaires hippies des années 1970, et troisièmement enfin, parce que je ne souhaite pas vivre dans une économie de subsistance, je veux vivre dans l’abondance culturelle, scientifique et même technique et donc lutter pour un nouvel ordre social égalitaire général et pas réservé à ceux qui feraient un choix de retrait, individuel et (il faut le reconnaître) parfois courageux.

Alors, vers quel anarchisme se diriger ?

Le potentiel libertaire de la technologie

En 1971, Sam Dolgoff publie un article sans concession dans la petite revue Newyorkaise Libertarian Analysis. L’article fut ensuite tiré à part à plusieurs reprises si bien que, sous le titre The Relevance of Anarchism to Modern Society45, le texte figure parmi les must read de la fin des années 1970. Dolgoff y décrit l’état de l’anarchisme dans une société prise dans les contradictions de la contre-culture des années 1960, et dont les effets se rapportent à autant de conceptions erronées de l’anarchisme qui se cristallisent dans un « néo-anarchisme » bourgeois discutable. Ce contre quoi S. Dolgoff avance ses arguments est l’idée selon laquelle l’anarchisme « filière historique » serait dépassé étant donné la tendance mondiale vers la centralisation économique, fruit des récents développements des sciences et des techniques, une sorte de fin de l’histoire (avant l’heure de celle de Fukuyama en 1992) contre laquelle on ne pourrait rien. Le sous-entendu met en avant la contradiction entre le positivisme dont s’inspire pourtant l’anarchisme de Proudhon à Bakounine, c’est-à-dire le développement en soi émancipateur des sciences et des techniques (à condition d’une éducation populaire), et le fait que cet élan positiviste a produit une mondialisation capitaliste contre laquelle aucune alternative anarchiste n’a pu s’imposer. Le réflexe social qu’on retrouve dans le mouvement contre-culturel des années 1960 et 1970, associé à ce que S. Dolgoff nomme le néo-anarchisme (bourgeois)46 (et qui sera repris en partie par M. Bookchin plus tard), amène à penser l’anarchisme comme une réaction à cette contradiction et par conséquent un moment de critique de l’anarchisme classique qui n’envisagerait pas correctement la complexité sociale, c’est-à-dire la grande diversité des nuances entre compromission et radicalisme, dans les rapports modernes entre économie, sciences, technologies et société. Ce qui donne finalement un anarchisme réactionnaire en lieu et place d’un anarchisme constructif, c’est-à-dire une auto-organisation fédéraliste qui accepte ces nuances, en particulier lors de l’avènement d’une société des médias, du numérique et de leur mondialisation (en plus des inégalités entre les pays).

Or, S. Dolgoff oppose à cette idée pessimiste le fait que la pensée anarchiste a au contraire toujours pris en compte cette complexité. Cela revient à ne justement pas penser l’anarchisme comme une série d’alternatives simplistes au gouvernementalisme (le contrôle de la majorité par quelques-uns). Il ne suffit pas de s’opposer au gouvernementalisme pour être anarchiste. Et c’est pourtant ce que les libertariens vont finir par faire, de manière absurde. L’anarchisme, au contraire a toujours pris en compte le fait qu’une société anarchiste implique une adaptation des relations toujours changeantes entre une société et son environnement pour créer une dynamique qui recherche équilibre et harmonie indépendamment de tout autoritarisme. Dès lors les sciences et techniques ont toujours été des alliées possibles. Pour preuve, cybernétique et anarchisme ont toujours fait bon ménage, comme le montre T. Swann dans un article au sujet de Stafford Beer, le concepteur du projet Cybersyn au Chili sous la présidence S. Allende47 : un mécanisme de contrôle qui serait extérieur à la société implique l’autoritarisme et un contrôle toujours plus contraignant, alors qu’un mécanisme inclus dans un système auto-organisé implique une adaptation optimale au changement48. L’optimisation sociale implique la décentralisation, c’est ce qu’ont toujours pensé les anarchistes. En ce sens, les outils numériques sont des alliés possibles.

En 1986, quinze ans après son article de 1971, dans le premier numéro de la revue qu’il participe à fonder (la Libertarian Labor Review), S. Dolgoff publie un court article intitulé « Modern Technology and Anarchism »49. Il revient sur la question du lien entre l’anarchisme et les nouvelles technologies de communication et d’information qu’il a vu naître et s’imposer dans le mouvement d’automatisation de l’industrie et plus généralement dans la société. Les réseaux sont pour lui comme un pharmakon (au sens de B. Stiegler), ils organisent une dépossession par certains aspects mais en même temps peuvent être des instruments d’émancipation.

Cet article de 1986 est quelque peu redondant avec celui de 1971. On y retrouve d’ailleurs à certains endroits les mêmes phrases et les mêmes idées. Pour les principales : il y a un déjà-là anarchiste, et la société est un réseau cohérent de travail coopératif. Pour S. Dolgoff, la technologie moderne a résolu le problème de l’accès aux avantages de l’industrie moderne, mais ce faisant elle a aussi accru significativement la décentralisation dans les entreprises avec la multiplication de travailleurs hautement qualifiés capables de prendre des décisions aux bas niveaux des organisations. S. Dolgoff cite plusieurs auteurs qui ont fait ce constat. Ce dernier est certes largement terni par le fait que cette décentralisation fait écho à la mondialisation qui a transformé les anciennes villes industrielles en villes fantômes, mais cette mondialisation est aussi un moment que l’anarchie ne peut pas ne pas saisir. En effet, cette mise en réseau du monde est aussi une mise en réseau des personnes. Si les technologies modernes d’information, les ordinateurs et les réseaux, permettent d’éliminer la bureaucratie et abandonner une fois pour toutes la centralisation des décisions, alors les principes de coopération et du déjà-là anarchiste pourront se déployer. Faire circuler librement l’information est pour S. Dolgoff la condition nécessaire pour déployer tout le « potentiel libertaire de la technologie ». Mais là où il pouvait se montrer naïf quinze ans auparavant, il concède que les obstacles sont de taille et sont formés par :

« Une classe croissante de bureaucraties étatiques, locales, provinciales et nationales, de scientifiques, d’ingénieurs, de techniciens et d’autres professions, qui jouissent tous d’un niveau de vie bien supérieur à celui du travailleur moyen. Une classe dont le statut privilégié dépend de l’acceptation et du soutien du système social réactionnaire, qui renforce considérablement les variétés « démocratiques », « sociales » et « socialistes » du capitalisme. (…) Tous reprennent les slogans de l’autogestion et de la libre association, mais ils n’osent pas lever un doigt accusateur sur l’arc sacré de l’État. Ils ne montrent pas le moindre signe de compréhension du fait évident que l’élimination de l’abîme séparant les donneurs d’ordres des preneurs d’ordres – non seulement dans l’État mais à tous les niveaux – est la condition indispensable à la réalisation de l’autogestion et de la libre association : le cœur et l’âme même de la société libre. »

Peu d’années avant son décès, et après une longue carrière qui lui avait permis de prendre la mesure de l’automatisation de l’industrie et voir l’arrivée des ordinateurs dans les processus de production et de contrôle, Sam Dolgoff a bien saisi la contradiction entre le « potentiel libertaire de la technologie » et l’apparition d’une classe sociale qui, avec l’aide de l’État et forte de subventions, réussit le tour de force d’accaparer justement ce potentiel dans une démarche capitaliste tout en parant des meilleures intentions et des meilleurs slogans ce hold-hup sur le travail collectif et la coopération.

C’est pourquoi il est pertinent de parler d’idéologie concernant la Silicon Valley, et c’est d’ailleurs ce que Fred Turner avait bien vu50 :

« La promesse utopique de la Valley est la suivante : Venez ici, et construisez-y l’avenir avec d’autres individus partageant les mêmes idées. Immergez-vous dans le projet et ressortez-en en ayant sauvé l’avenir. »

Les nouvelles frontières sociales des utopistes de la Silicon Valley ont été une interprétation du potentiel libertaire de la technologie, faite de néo-communautarisme et de cette Nouvelle Gauche que S. Dolgoff critiquait dès 1971. Mais ces nouvelles frontières ont été transformées en mythe parce que la question est de savoir aujourd’hui qui décide de ces nouvelles frontières, qui décide de consommer les technologies de communication censées permettre à tous d’avoir accès à l’innovation. Qui décide qu’un téléphone à plus de 1000€ est la meilleure chose à avoir sur soi pour une meilleure intégration sociale ? Qui décide que la nouvelle frontière repose sur la circulation de berlines sur batteries en employant une main-d’œuvre bon marché ?

Ouvrir le Libre

Il est temps de réhabiliter la pensée de Sam Dolgoff. Le Libre n’est pas qu’un mode de production anarchiste, il peut être considéré comme un instrument de libération du potentiel libertaire de la technologie.

Scander haut et fort que les hackers sont des anarchistes ne veut rien dire, tant que le modèle organisationnel et économique ne sert pas à autre chose que de développer du code. Rester dans le positivisme hérité des anarchistes de la première moitié du XXe siècle a ce double effet : un sentiment de dépassement lorsqu’on considère combien le « progrès » technologique sert à nous oppresser, et un sentiment d’abandon parce que celleux qui sont en mesure de proposer des alternatives techniques d’émancipation ont tendance à le faire en vase clos et reproduisent, souvent inconsciemment, une forme de domination.

Ce double sentiment a des conséquences qui dépassent largement la question des logiciels. Il est toujours associé à la tendance toujours plus grande de l’État à accroître les inégalités sociales, associé aux conséquences climatiques du système économique dominant qui nous conduit au désastre écologique, associé à la répression toujours plus forte par l’autoritarisme des gouvernements qui défendent les intérêts des plus riches contre les travailleurs et contre tout le reste. Il en résulte alors un désarmement technologique des individus là où il faut se défendre. À défaut, les solutions envisagées ont toujours petit goût pathétique : des plaidoyers qui ne sont jamais écoutés et trouvent encore moins d’écho dans la représentation élective, ou des actions pacifiques réprimées dans la violence.

Le potentiel libertaire du logiciel libre a cette capacité de réarmement technologique des collectifs car nous évoluons dans une société de la communication où les outils que nous imposent les classes dominantes sont toujours autant d’outils de contrôle et de surveillance. Il a aussi cette capacité de réarmement conceptuel dans la mesure où notre seule chance de salut consiste à accroître et multiplier les communs, qu’ils soient numériques ou matériels. Or, la gestion collective de ces communs est un savoir-faire que les mouvements libristes possèdent et diffusent. Ils mettent en pratique de vieux concepts comme l’autogestion, mais savent aussi innover dans les pratiques coopératives, collaboratives et contributives.

Occupy Wall Street, Nuit Debout, et bien d’autres évènements du genre, ont été qualifiés de préfiguratifs parce qu’ils opposaient de nouveaux imaginaires et de nouvelles manières de penser le monde tout en mettant en pratique les concepts mêmes qu’ils proposaient. Mais ce spontanéisme a tendance à se montrer évanescent face à des concrétisations préfiguratives comme les ZAD, la Comuna de Oaxaca, le mouvement zapatiste, et des milliers d’autres concrétisations à travers le monde et dont la liste serait fastidieuse. Rien qu’en matière d’autogestion, il suffit de jeter un œil sur les 11 tomes (!) de l’encyclopédie de l’Association Autogestion (2019)51. Or, dans tous ces mouvements, on retrouve du logiciel libre, on retrouve des libristes, on retrouve des pratiques libristes. Et ce n’est que très rarement identifié et formalisé.

Que faire ? Peut-être commencer par s’accorder sur quelques points, surtout entre communautés libristes et communautés libertaires :

  1. Ce n’est pas parce qu’on est libriste qu’on est anarchiste, et l’éthique hacker n’est pas un marqueur d’anarchisme. De manière générale, mieux vaut se méfier de l’autoproclamation dans ce domaine, surtout si, en pratique, il s’agit de légitimer le pillage des communs. Par contre il y a beaucoup d’anarchistes libristes.
  2. Les pratiques anarchistes n’impliquent pas obligatoirement l’utilisation et/ou la création de logiciels libres ou d’autres productions libres des communs numériques. Le Libre n’a pas à s’imposer. Mais dans notre monde de communication, le Libre en tant qu’outil est un puissant moteur libertaire. Il permet aux libertaires de mettre en œuvre des actions de communication, de coopération et de stratégie.
  3. Proposer le logiciel libre ou les licences libres n’est pas un acte altruiste ni solidaire s’il n’est pas accompagné de discours ou d’actes émancipateurs. Il peut même créer l’inverse par excès, submersion de connaissances et finalement exclusion. Il faut travailler de plus en plus les conditions d’adoption de solutions techniques libres dans les collectifs, mieux partager les expériences, favoriser l’inclusion dans la décision d’adoption de telles ou telles techniques. Elles doivent apporter du sens à l’action (et nous revoici dans la réflexion déjà ancienne du rapport entre travailleurs et machines).
  4. Il vaut mieux privilégier l’émancipation non-numérique à la noyade techno-solutionniste qui résulte d’un manque de compétences et de connaissances.
  5. La solidarité doit être le pilier d’une éducation populaire au numérique. Cela ne concerne pas uniquement l’anarchisme. Mais un collectif ne peut pas seul effectuer une démarche critique sur ses usages numériques s’il n’a pas en même temps les moyens de les changer efficacement. Les collectifs doivent donc échanger et s’entraider sur ces points (combien de groupes anarchistes utilisent Facebook / Whatsapp pour s’organiser ? ce n’est pas par plaisir, sûr !).

Notes


  1. La Quadrature du Net, « Affaire du 8 décembre : le chiffrement des communications assimilé à un comportement terroriste », 5 juin 2023, URL. ↩︎

  2. On peut prendre un exemple trivial, celui du microblogage qui transforme la communication en flux d’information. Le fait de ne pouvoir s’exprimer qu’avec un nombre limité de caractère et de considérer l’outil comme le support d’un réseau social (où le dialogue est primordial), fait que les idées et les concepts ne peuvent que rarement être développés et discutés, ce qui transforme l’outil en support de partage d’opinions non développées, raccourcies, caricaturales. Ajoutons à cela le fait que, sur un système de microblogage commercial, les algorithmes visant à générer de la lucrativité attentionnelle, ce sont les contenus les poins pertinents pour la pensée et les plus pertinents pour le trafic qui sont mis en avant. Contrairement à ce qu’annoncent les plateformes commerciales de microblogage, ce dernier ne constitue absolument pas un support d’expression libre, au contraire il réduit la pensée à l’opinion (ou ne sert que de support d’annonces diverses). Un autre exemple concerne la « rédaction web » : avec la multiplication des sites d’information, la manière d’écrire un article pour le web est indissociable de l’optimisation du référencement. Le résultat est que depuis les années 2000 les contenus sont tous plus ou moins calibrés de manière identique et les outils rédactionnels sont configurés pour cela. ↩︎

  3. Lawrence Lessig, « Code is Law – On Liberty in Cyberspace », Harvard Magazine, janvier 2000. Trad. Fr sur Framablog.org, 22 mai 2010. ↩︎

  4. Aliénation de tout le monde en fait. « L’aliénation apparaît au moment où le travailleur n’est plus propriétaire de ses moyens de production, mais elle n’apparaît pas seulement à cause de cette rupture du lien de propriété. Elle apparaît aussi en dehors de tout rapport collectif aux moyens de production, au niveau proprement individuel, physiologique et psychologique (…) Nous voulons dire par là qu’il n’est pas besoin de supposer une dialectique du maître et de l’esclave pour rendre compte de l’existence d’une aliénation dans les classes possédantes ». G. Simondon, Du mode d’existence des objets techniques, Paris, Aubier, 1989, p. 118. ↩︎

  5. Steven Levy, Hackers. Heroes of the Computer Revolution, New York, Dell Publishing, 1994. Steven Lévy, L’éthique des hackers, Paris, Globe, 2013. ↩︎

  6. Ainsi on peut s’interroger sur la tendance du protocole ouvert ActivityPub (qui fait fonctionner Mastodon, par exemple) à couvrir de nombreuses applications du Fediverse sans qu’une discussion n’ait été réellement menée entre les collectifs sur une stratégie commune multiformats dans le Fediverse. Cela crée une brèche récemment exploitée par l’intention de Meta de vouloir intégrer le Fediverse avec Threads, au risque d’une stratégie de contention progressive des utilisateurs qui mettrait en danger l’utilisation même d’ActivityPub et par extension l’ensemble du Fediverse. On peut lire à ce sujet la tribune de La Quadrature du Net : « L’arrivée de Meta sur le Fédivers est-elle une bonne nouvelle ? », 09 août 2023, URL. ↩︎

  7. Sébastien Broca, Utopie du logiciel libre. Lyon, Éditions le Passager clandestin, 2018. ↩︎

  8. Fred Turner, Aux sources de l’utopie numérique : De la contre culture à la cyberculture. Stewart Brand, un homme d’influence, Caen, C&F Editions, 2012. ↩︎

  9. Christophe Masutti, « Lire Fred Turner : de l’usage de l’histoire pour préfigurer demain », dans Retour d’Utopie. De l’influence du livre de Fred Turner, Caen, Les cahiers de C&F éditions 6, juin 2023, p. 70-82. ↩︎

  10. Detlef Hartmann, Die Alternative: Leben als Sabotage – zur Krise der technologischen Gewalt, Tübingen: IVA-Verlag, 1981. Voir aussi Capulcu Kollektiv, DISRUPT ! - Widerstand gegen den technologischen Angriff, sept. 2017 (URL). ↩︎

  11. Alan F. Westin, Privacy and Freedom, New York, Atheneum, 1967. ↩︎

  12. C’est le ralliement des mouvements pour les droits et libertés individuels, le lien entre l’expérience personnelle (par exemple les inégalités de race ou de genre dont des individus pourraient faire l’expérience quotidienne) et les structures politiques et sociales qui sont à la source des problèmes et dont il fallait procéder à la remise en question. ↩︎

  13. Nadia Eghbal, Sur quoi reposent nos infrastructures numériques ? : Le travail invisible des faiseurs du web. Marseille, OpenEdition Press, 2017. https://doi.org/10.4000/books.oep.1797. ↩︎

  14. Dans le cas de communs numériques, qui sont des biens non rivaux, il peut être difficile de comprendre cette notion d’appauvrissement. Comme le montrent Pierre Dardot et Christian Laval dans leur livre Communs, pour un commun, la richesse dépend autant du processus contributif (l’activité collective qui consiste à en faire un commun) que du bien lui-même, même s’il peut être dupliqué à l’infini dans le cas des biens non rivaux. Prenons deux exemples : 1) pour un champ cultivé, si tout le monde se sert et en abuse et personne ne sème ni n’entretient et qu’il n’y a pas d’organisation collective pour coordonner les efforts et décider ensemble que faire du champ, ce dernier reste bien un commun mais il ne donne rien et va disparaître. 2) Pour un logiciel, si personne ne propose de mise à jour, si personne n’enrichit ou corrige régulièrement le code et s’il n’y a pas d’organisation des contributions, ce logiciel aura tendance à disparaître aussi. Voir Pierre Dardot et Christian Laval, Communs. Essai sur la révolution au XXIe siècle, Paris, La Découverte, 2014. ↩︎

  15. Pierre Crétois (dir.), L’accaparement des biens communs, Paris, Presses universitaires de Paris Nanterre, 2022. ↩︎

  16. On peut voir sur ce point le travail que réalise Laurent Marseault : https://cocotier.xyz/?ConfPompier. ↩︎

  17. Au sens où l’entendait Bernard Stiegler, c’est-à-dire la privation d’un sujet de ses savoirs (savoir-faire, savoir-vivre, savoir concevoir et théoriser). Voir Bernard Stiegler, États de choc: bêtise et savoir au XXIe siècle, Paris, France, Mille et une nuits, 2012. ↩︎

  18. On peut voir les statistiques sur l’Open Source Contributor Index : https://opensourceindex.io/. ↩︎

  19. Simon Butler et al., « On Company Contributions to Community Open Source Software Projects », IEEE Transactions on Software Engineering, 47-7, 2021, p. 1381‑1401. ↩︎

  20. Antonio A. Casilli, En attendant les robots: enquête sur le travail du clic, Paris, France, Éditions du Seuil, 2019. ↩︎

  21. Et ils sont souvent les dindons de la farce. En Europe, la situation est équivoque. D’un côté, un espace est ouvert grâce aux dispositifs juridiques censés protéger l’économie européenne et les européens contre les effets des multinationales à l’encontre de la vie privée, au nom de la défense des consommateurs, et en faveur de la souveraineté numérique. Les logiciels libres y trouvent quelques débouchés pertinents auprès du public et des petites structures. Mais d’un autre côté, une grande part de la production libre et open source repose sur des individus et des petites entreprises, alors même que les gouvernements (et c’est particulièrement le cas en France) leur créent des conditions d’accès au marché très défavorables et privilégient les monopoles extra-européens par des jeux de partenariats entre ces derniers et les intégrateurs, largement subventionnés. Voir Jean-Paul Smets, « Confiance numérique ou autonomie, il faut choisir », in Annales des Mines, 23, La souveraineté numérique : dix ans de débat, et après ?, Paris, 2023., p. 30-38. ↩︎

  22. Même si le protocole ActivityPub pourrait être suffisamment détourné ou influencé pour ne plus assurer l’interopérabilité nécessaire. La communauté du Fediverse doit pour cela s’opposer en masse à Thread, la solution que commence à imposer l’entreprise Meta (Facebook), dans l’optique de combler le manque à gagner que représente le Fediverse par rapport aux média sociaux privateurs. ↩︎

  23. Christophe Masutti, « En passant par l’Arkansas. Ordinateurs, politique et marketing au tournant des années 1970 », Zilsel, 9-2, 2021, p. 29‑70. ↩︎

  24. On peut se reporter à cette louable tentative issue de It’s Going Down, et que nous avons publiée sur le Framablog. Il s’agit d’un livret d’auto-défense en communication numérique pour les groupes anarchistes. Bien qu’offrant un panorama complet et efficace des modes de communications et rappelant le principe de base qui consiste en fait à les éviter pour privilégier les rencontres physiques, on voit tout de même qu’elle souffre d’un certain manque de clairvoyance sur les points d’achoppement techniques et complexes qu’il serait justement profitable de partager. Voir « Infrastructures numériques de communication pour les anarchistes (et tous les autres…) », Framablog, 14 avril 2023. ↩︎

  25. Philippe Borrel, La bataille du Libre (documentaire), prod. Temps Noir, 2019, URL. ↩︎

  26. Sam Williams, Richard Stallman et Christophe Masutti, Richard Stallman et la révolution du logiciel libre. Une biographie autorisée, 1re éd., Eyrolles, 2010. ↩︎

  27. Richard Stallman (interview), « Is Free Software Anarchist? », vidéo sur Youtube. ↩︎

  28. Michel Lallement, L’âge du faire: hacking, travail, anarchie, Paris, France, Éditions Points, 2018. ↩︎

  29. Christian Imhorst, Die Anarchie der Hacker, Marburg, Tectum - Der Wissenschaftsverlag, 2011. Christian Imhorst, « Anarchie und Quellcode - Was hat die freie Software-Bewegung mit Anarchismus zu tun? », in Open Source Jahrbuch 2005, Berlin, 2005. ↩︎

  30. Dale A. Bradley, « The Divergent Anarcho-utopian Discourses of the Open Source Software Movement », Canadian Journal of Communication, 30-4, 2006, p. 585‑612. ↩︎

  31. Marie-Christine Granjon, « Les radicaux américains et le «système» », Raison présente, 28-1, 1973, p. 93‑112. ↩︎

  32. David DeLeon, The American as Anarchist: Reflections on Indigenous Radicalism, Baltimore, Johns Hopkins University Press, 2019. ↩︎

  33. Murray Bookchin, Changer sa vie sans changer le monde. L’anarchisme contemporain entre émancipation individuelle et révolution sociale, Marseille, Agone, 2019, pp. 61-63. ↩︎

  34. En 2015, c’est ce qui a permis à Bill Gates de caricaturer, sans les citer, des personnes comme Joseph Stiglitz et d’autres partisans pour une réforme des brevets (pas seulement logiciels) en sortes de néocommunistes qui avanceraient masqués. Voir cet entretien, cet article de Libération, et cette « réponse » de R. M. Stallman. ↩︎

  35. Eben Moglen, « L’anarchisme triomphant. Le logiciel libre et la mort du copyright », Multitudes, 5-2, 2001, p. 146‑183. ↩︎

  36. David Edgerton, « De l’innovation aux usages. Dix thèses éclectiques sur l’histoire des techniques », Annales. Histoire, sciences sociales, 53-4, 1998, p. 815‑837. ↩︎

  37. Clifford D. Conner, Histoire populaire des sciences, Montreuil, France, Éditions L’Échappée, 2011. ↩︎

  38. Amaelle Guiton, Hackers: au cœur de la résistance numérique, Vauvert, France, Au diable Vauvert, 2013. ↩︎

  39. « Le capitalisme est d’essence conjoncturelle. Aujourd’hui encore, une de ses grandes forces est sa facilité d’adaptation et de reconversion », Fernand Braudel, La dynamique du capitalisme, Paris, Flammarion, 2018. ↩︎

  40. Stéphane Couture, « L’écriture collective du code source informatique. Le cas du commit comme acte d’écriture », Revue d’anthropologie des connaissances, 6, 1-1, 2012, p. 21‑42. ↩︎

  41. Murray Bookchin, Changer sa vie sans changer le monde, op. cit., p. 12 et p. 10. ↩︎

  42. Comme je l’ai écrit dans un précédent billet de blog, plusieurs auteurs donnent des définitions du concept de préfiguration. À commencer par David Graeber, pour qui la préfiguration est « l’idée selon laquelle la forme organisationnelle qu’adopte un groupe doit incarner le type de société qu’il veut créer ». Un peu plus de précision selon Darcy Leach pour qui la préfigurativité est « fondée sur la prémisse selon laquelle les fins qu’un mouvement social vise sont fondamentalement constituées par les moyens qu’il emploie, et que les mouvements doivent par conséquent faire de leur mieux pour incarner – ou “préfigurer” – le type de société qu’ils veulent voir advenir. ». David Graeber, Comme si nous étions déjà libres, Montréal, Canada, Lux éditeur, 2014. Darcy K. Leach, « Prefigurative Politics », in The Wiley-Blackwell Encyclopedia of Social and Political Movements, John Wiley & Sons, Ltd, 2013. ↩︎

  43. Cory Doctorow, « As Platforms Decay, Let’s Put Users First », 09 mai 2023, URL. ↩︎

  44. Kristin Ross, La forme-Commune. La lutte comme manière d’habiter, Paris, La Fabrique Editions, 2023. ↩︎

  45. Sam Dolgoff, The relevance of anarchism to modern society, Troisième édition., Tucson, AZ, See Sharp Press, 2001. ↩︎

  46. Sam Dolgoff, « Le Néo-anarchisme américain. Nouvelle gauche et gauche traditionnelle », Le Mouvement social, num. 83, 1973, p. 181‑99. « (…) intellectuels petits-bourgeois, des étudiants et des « hippies » qui constituaient l’essentiel de la nouvelle gauche ». ↩︎

  47. Thomas Swann, « Towards an anarchist cybernetics: Stafford Beer, self-organisation and radical social movements | Ephemeral Journal », Ephemera. Theory and politics in organization, 18-3, 2018, p. 427‑456. ↩︎

  48. En théorie du moins. Si on regarde de plus près l’histoire du projet Cybersyn, c’est par la force des choses que le système a aussi été utilisé comme un outil de contrôle, en particulier lorsque les tensions existaient entre les difficultés d’investissement locales et les rendements attendus au niveau national. En d’autres termes, il fallait aussi surveiller et contrôler les remontées des données, lorsqu’elles n’étaient pas en phase avec la planification. Cet aspect technocratique a vite édulcoré l’idée de la prise de décision collective locale et de la participation socialiste, et a fini par classer Cybersyn au rang des systèmes de surveillance. Hermann Schwember, qui était l’un des acteurs du projet est revenu sur ces questions l’année du coup d’État de Pinochet et peu de temps après. Hermann Schwember, « Convivialité et socialisme », Esprit, juil. 1973, vol. 426, p. 39-66. Hermann Schwember, « Cybernetics in Government: Experience With New Tools for Management in Chile 1971-1973 », In : Hartmut Bossel (dir.), Concepts and Tools of Computer Based Policy Analysis, Basel, Birkhäuser - Springer Basel AG, 1977, vol.1, p. 79-138. Pour une histoire complète, voir Eden Medina, Cybernetic Revolutionaries. Technology and Politics in Allende’s Chile, Boston, MIT Press, 2011. Et une section de mon ouvrage Christophe Masutti, Affaires privées. Aux sources du capitalisme de surveillance, Caen, C&F Éditions, 2020. ↩︎

  49. Sam Dolgoff, « Modern Technology and Anarchism », Libertarian Labor Review, 1, 1986, p. 7‑12. ↩︎

  50. Fred Turner, « Ne soyez pas malveillants. Utopies, frontières et brogrammers », Esprit, 434, mai 2019, URL. ↩︎

  51. Association Autogestion, Autogestion. L’encyclopédie internationale, Paris, Syllepse, 2019, vol. 1-11. ↩︎


Publié le 28.06.2023 à 02:00

Déviances

Concept sociologique par excellence (cf. Outsiders de H. Becker), la déviance interroge les normes sociales et ce qui est acceptable ou non. Dans un moment où nous avons un gouvernement qui fait tout pour se transformer en dépositaire des normes « Républicaines », il est intéressant d’y regarder d’un peu plus près et justement, Jacques Ellul nous a laissé du matériel dans son livre Déviances et déviants dans notre société intolérante (1992).

On retient surtout de cet auteur ses réflexions sur le rapport entre technique et société. Mais ce sujet est indissociable de l’étude de la société elle-même, dans ce qu’elle a de contradictoire par rapport non seulement à la technique mais aussi par rapport à la compréhension des faits sociaux. Système technicien et système social entrent en relations contradictoires mais en eux-mêmes ils recèlent aussi des contradictions. Le rapport à la technique n’est pas qu’un rapport individuel, et dans le monde contemporain, la société technicienne en arrive à prendre en compte que tous ses processus et comportements peuvent et doivent être étudiés. Aux structures techniques, traditionnelles ou non, aux métiers, aux activités économiques, répond la conformisation au système car tout groupe social recèle en lui des discours et des règles qui concernent la conformité et la déviance, l’acceptation et le refus, la tolérance et l’exclusion. L’acceptation de la différence (Ellul prend l’exemple de l’homosexualité, de la religion, ou même la spécialisation d’un métier) est aussi le reflet de ce qu’un comportement était auparavant considéré comme déviant (incohérent, erratique, suspect) : la déviance et les multiples manières dont les comportements déviants accèdent à une forme de normalité ou du moins d’acceptation, forment l’Histoire.

Pour Ellul, le moment où les comportements déviants commencent à être étudiés à part entière correspond au moment où ces comportements deviennent assez nombreux pour être intellectuellement visibles. Cela commence selon lui par le rapport de La Rochefoucauld Liancourt en 1790 sur la misère : en analysant les causes, on s’interroge fatalement sur la marginalité et la déviance sociale. C’est à ce point de son livre — au début, donc — qu’à la manière d’un M. Foucault, il pointe le caractère éminemment politique du concept de déviance :

« (…) il fallait d’une part que la déviance soit devenue un phénomène quantitativement très important, et ensuite qu’un changement s’opère dans la façon de considérer le fait social, la société, le rapport de l’individu à la société : celle-ci ayant un certain nombre de conditions d’existence, et l’individu étant considéré non plus comme une cellule organique du corps social, mais comme ayant sa spécificité propre, et étant capable d’appartenir ou non, de participer à la volonté générale ou non, de procéder à des choix envers les conditions d’existence du corps social. C’est constamment autour de ces questions que se nouent les débats du XIXe siècle, sur la démocratie par exemple. La minorité dans la démocratie n’est pas forcément une déviance, mais elle est exactement à la limite. À partir de quand, de quel point une minorité devient-elle déviante ? La Convention a été amenée à identifier très vite les deux : élimination de la minorité de droite, puis de la minorité d’extrême gauche… qui étaient déviantes par rapport à une ligne politique dorénavant unique et ne tolérant plus l’opposition. »

Commençons par un truisme : tout comportement déviant est relatif à la norme sociale du groupe dans lequel on évolue. Mais la différence entre une norme imposée politiquement et une norme sociale vécue à travers son histoire et donc ses transformations, c’est que le fait d’imposer une norme en fonction d’intérêts politiques revient à arrêter le processus historique d’acceptation de la différenciation. La minorité dans la démocratie est donc à la limite de la déviance parce qu’elle est nécessaire à la démocratie.

La démocratie est un système politique qui comprend les contradictions sociales au point où elle organise elle-même les conditions de ses déviances (comme la présence de partis majoritaires et minoritaires) et de leurs multiples expressions. Contrairement à d’autres sociétés dans l’Histoire, une démocratie contemporaine ne ramène pas systématiquement à l’individu seul le caractère déviant du comportement (les fous, les marginaux, les mendiants du Moyen-âge, les immigrés) mais réussi à identifier les comportements à leur groupe comme l’expression d’une différenciation qu’il faut étudier, entendre, accepter.

À défaut, le comportement déviant est lui-même auto-politisé. Il devient résistance : stratégies de contournements, sabotage, insubordination… La marginalité elle-même peut être vécue politiquement. Du point de vue individuel, et depuis fort longtemps, c’est le message originel et radical de Diogène de Sinope, rejetant les conventions sociales : quoiqu’il en soit (et quoi qu’il en coûte) il y a toujours quelque chose d’ingouvernable en l’homme, quelque chose en vertu duquel on peut se dire absolument libre, même (surtout) dans le dénuement, le rejet de l’artifice. La résistance collective, elle, a ceci de particulier qu’elle devient le miroir de l’intolérance et de la finitude des normes : en tant qu’expression du groupe social, si la résistance devient le message, il exprime un besoin d’Histoire.

Et alors nous y voilà. Ou bien la différenciation, la diversité, devient la norme, ou bien on s’installe dans le rejet Stalinien et la criminalisation. Car l’alternative se pose en ces termes. Accepter le fou, autrefois, c’était accepter l’existence de cadres de conduite dans lesquels les fous pouvaient encore évoluer, marginalisés mais non exclus. Ce n’est que lorsque le tabou est transgressé qu’on exclu et qu’on bannit, fait extrêmement rare mais dont la seule éventualité permettait de construire des normes et les faire évoluer. Les sociétés modernes sont passées à un autre registre depuis longtemps : soit on étudie les phénomènes sociaux pour ce qu’ils sont et ce qu’ils disent de la société, soit on les étudie pour les refuser et les briser. Tolérance ou intolérance. Avancement social dans l’intérêt historique de tous les groupes, ou immobilisme dans l’intérêt d’un seul. Le choix est devenu binaire. L’anthropologie anarchiste nous montre combien la question est ancienne, certaines sociétés ayant fait justement le choix collectif de refuser des structures qui recèlent justement la possibilité de ce choix dangereux.

Dans le contexte moderne, la résistance est le premier mouvement vers un changement plus général. Il crée un rapport de force, contrairement aux apparences : la minorité n’est jamais une faiblesse. Il porte le message de l’existence d’une force contre laquelle le pouvoir chancelle : l’immobilisme doit alors répondre lui-même par une résistance active. L’immobilisme est impossible. Là où le choix devient historique, c’est lorsque ce nouveau rapport de force bascule dans un nouvel équilibre, une nouvelle cohésion sociale. Là où le choix devient an-historique — et donc assez paradoxalement, déviant — c’est lorsqu’il confronte les intérêts au lieu de les comprendre.

Dans cet espace de résistance-confrontation, joue le langage. L’appropriation des mots et la qualification des faits n’est plus seulement l’apanage d’un pouvoir qui réagit à la déviance. Le langage se cristallise dans un nouveau cadre normatif, une grammaire dont il est presque impossible de faire bouger les lignes. La question est d’ordre épistémologique. Ian Hacking, décédé récemment, nous a laissé (parmi beaucoup d’autres réflexions) un élément très important pour l’histoire de la psychiatrie et de la psychologie : les concepts avec lesquels nous classifions et catégorisons ne créent pas seulement un ordre, mais de nouveau comportements. Et Ian Hacking a travaillé notamment sur la question du diagnostic des personnalités multiples dans les années 1980.

En effet, on en reste souvent à une conception étriquée de la compréhension scientifique, comme un nominalisme rigide, une classification qui nous permettrait, une fois pour toutes, de catégoriser et représenter le monde comme un système stable. Certes nous avons besoin de stabilité. La science politique a tendance ainsi à ne pas prendre en compte la dynamique qu’elle crée à chaque fois qu’elle analyse les faits. Les institutions ont une représentation conjecturale des groupes et de leurs déviances. Et c’est là que se crée un schisme, entre une connaissance conjecturale et l’émergence d’un fait social qui, parce qu’il est identifié comme déviant, devient une création nouvelle. C’est là qu’émergent les néologismes : ils ne sont pas seulement un diagnostic. Ils appartiennent à une certaine grammaire qui, lorsqu’elle énonce le mot, crée une réaction comportementale, le plus souvent de résistance (nous ne nous reconnaissons pas comme tels). Cette grammaire a un but, celui des institutions gardiennes de la stabilité du pouvoir : lorsqu’elle nomme, elle affirme en même temps s’il s’agit d’une déviance ou non.

Il en va ainsi, par exemple, de l’écoterrorisme. Le terme est déjà ancien et s’est toujours appliqué aux actions collectives de résistance à des pratiques institutionnelles. En premier, la défense des droits animaux auparavant niés par le Droit puis finalement peu à peu inclus dans le concept de libération animale et, tant bien que mal, plus ou moins pris en compte dans les juridictions (on est d’accord qu’il y a encore du travail). L’écoterrorisme a perduré comme catégorie et adresse désormais toute action de résistance, de la manifestation de rue au sabotage. Il est formé par la juxtaposition contradictoire de deux mots : l’écologie, qui est devenu un concept porteur de valeurs acceptables et le terrorisme, acte déviant par nature puisque non seulement contraire au droit mais aussi à la morale.

Cette grammaire — ou ce nominalisme — montre comment la confrontation entre deux systèmes de pensée contradictoires est en réalité une fabrication. Elle amène la déviance à la limite de l’entendement et tente toujours de rendre les choses incompréhensibles, c’est-à-dire en dehors du système nominaliste stable auquel chacun est habitué. Ce faisant, elle effectue deux mouvements : 1/ elle déplace évidemment le contexte du jugement : on ne juge plus une cause en fonction de sa justesse et des valeurs, mais en fonction de la contradiction qu’elle est censée porter (écologie contre terrorisme) et 2/ elle traduit l’enjeu social, toujours complexe et difficile à intégrer dans le cadre normatif, dans une logique purement formelle : écologie ou terrorisme (ou bien liberté ou surveillance, par exemple). À cet ordre formel, répond un « effet de boucle » pour reprendre les termes de I. Hacking, expliqués par M. Vagelli : « le sujet qui se reconnaît comme classé réagit et modifie son comportement de manière conséquente, de sorte que les scientifiques se trouvent face à un « type » lui-même dévié. »

Donc de quelle déviance de déviance s’agit-il ? La déviance originelle à affaire à une grammaire réactionnaire qui ne la comprend pas. S’agissant d’une construction sociale, cette grammaire est le fait d’intérêts contraires, qu’il s’agisse du pouvoir en soi ou d’intérêts financiers, capitalistes, ou autres. Les actes de résistance doivent donc être non seulement des messages de différenciation, c’est-à-dire démonstratifs d’une alternative aux normes qu’on souhaite changer, mais aussi le reflet d’un autre cadre normatif toujours plus difficile à remettre en cause que le premier, en l’occurrence la démonstration scientifique (donc ultra-normée) du changement climatique et du fait que les pratiques en cours doivent changer de manière plus ou moins urgente.

Et là entre encore un autre paradoxe, c’est que la déviance se réclame finalement d’autres normes. Tragédie de la déviance. Et comme on ne comprend plus de quelle déviance il s’agit, s’instaure un climat de suspicion généralisée où tous les comportements sont susceptibles d’être qualifiés de déviants. C’est parce que le pouvoir conserve sa vision étriquée : il y aurait une déviance en soi. Pour lui, si le groupe est déviant c’est parce que ses comportements sont déviants non pas relativement au cadre normatif du moment (puisqu’il est considéré comme éternel et sans alternative) mais déviant en fonction d’un cadre universel : la morale et le droit. Or, comme le rappelle Ellul dans le même livre, tout regroupement qui manifeste une volonté de marginalisation le fait relativement à une normalisation globale en recherche d’une autre norme, une légitimité différente, une autre condition d’existence qui ne peut se faire qu’en société, et jamais en dehors. Quel que soit le régime (socialiste, capitaliste, Hitlérien ou Stalinien), l’erreur consiste à croire que la déviance est le fait de l’individu seul (ou de sa nature biologique) ou de croire qu’elle n’est que le résultat des conditions sociales : ce qui fait la déviance c’est la relation sociale qu’elle implique. Pour reprendre Ellul, encore une fois : « En tout cas dans l’estimation générale de notre société, le déviant est catalogué soit comme un malade soit comme un délinquant. C’est de cette classification qu’il faut sortir. »

Tant que nous n’en sortons pas, le pouvoir est lui-même porteur de déviance. Le fait de qualifier de déviants les membres individuels du groupe d’activistes est un signe évident. Puisqu’il est impossible de démontrer que tout un groupe est déviant (l’écologie n’est pas déviante et tout le monde peut s’inclure dans cette catégorie des personnes sensibilisées aux enjeux de l’écologie), il faut alors considérer que le groupe écoterroriste est un amas d’individus déviants et dont la déviance s’étend à l’ensemble par un jeu de contamination imaginaire inter-individuelle : certains sont des casseurs, certains sont des radicaux, certains sont des membres de « l’utra-gauche », donc tous les autres cautionnent la violence, ne la condamnent pas et ont des comportements dont on peut affirmer qu’ils sont suspects en soi (comme on aurait pu dire que ne pas s’opposer au régime hitlérien faisait automatiquement de tout allemand un soutien du régime). On essentialise alors certains comportements plus que d’autres, là encore selon une grammaire faite de sophismes et de périphrases. Il importera donc d’individualiser les responsabilités quitte à faire de la somme de comportements apparemment anodins des indices d’une intention déviante, comme ce fut le cas pour l’affaire de Tarnac ou l’affaire en cours dite du 8 décembre où le simple fait de chiffrer ses communications et installer GNU Linux sont assimilés à des comportements terroristes.

La déviance, dans ces cas, consiste à se situer dans la limite du droit et instrumentaliser ce dernier, non pas tant pour porter des affaires judiciaires que pour forcer les policiers comme les magistrats à chercher à justifier leurs comportements devant la norme : qui sont les déviants ? En retour, non exempt de tout reproche, on pourra assister à une essentialisation des policiers et des magistrats accusés devant l’ordre universel de la justice d’être justement des instruments partiaux et violents (Acab).

Résister, c’est faire l’Histoire. « (…) la déviance est non seulement inévitable dans toute forme de société, mais en outre, elle est indispensable, elle est le principal facteur de vie, d’évolution de la société », nous disait encore J. Ellul. Mais cette évolution est-elle encore acceptable lorsqu’elle a lieu dans la violence, c’es-à-dire l’échec de la discussion ? Le langage n’a plus sa place dans un contexte violent. J. Ellul posait déjà la question :

« Des écologistes non violents peuvent, dans certaines circonstances, entrer dans le cycle de la violence.(…) la violence des habitants de Plougastel pour lutter contre la centrale nucléaire ou celle des marins pêcheurs pour la défense de leur profession n’est pas la même que celle des terroristes, assassins conscients à finalité politique. »

Assimiler les faits de violence dans les mouvements déviants à des faits de gangstérisme relevant du droit commun est une profonde erreur. Parce qu’encore une fois la déviance est d’abord le reflet d’une relation sociale et n’est pas le fait d’individus atomisés. Mais d’un autre côté, ce n’est pas non plus parce que la violence se drape idéologiquement qu’elle est pour autant l’expression d’une déviance pouvant donner lieu à discussion. Il y a une pointe extrême dans la déviance qui peut toujours la confondre dans le crime le plus odieux, par exemple l’assassinat en bande organisée pour des motifs plus ou moins révolutionnaires. Mais même le terrorisme a au moins une particularité, car il pose « la question du pourquoi et du sens ». Le terroriste ne peut donc pas relever tout à fait du droit commun (c’est pour cela qu’il existe des dispositifs institutionnels adéquats). Mais c’est aussi la raison pour laquelle il ne s’agit en réalité que d’un crime politisé, alors qu’un acte collectif et médiatique de sabotage ou une confrontation violente d’un groupe avec les représentants de l’ordre ne peuvent justement pas relever du terrorisme parce leur qualité politique est évidente. Les accuser à tort d’actes terroristes est tout aussi paradoxalement donner davantage de crédit politique à ces actions : c’est leur nier le droit à l’expression d’une éthique différente là où le terrorisme ne fait que porter la haine de l’autre.

Ce qui fait peur dans la déviance, c’est d’entrevoir que le contrôle de l’autre est parfois impossible, qu’il peut éventuellement en pas y avoir de limite à la déviance. Pire : que la limite entre la déviance tolérable et la déviance intolérable devienne floue. Là se noue tout l’enjeu du choix entre la réponse arbitraire et la négociation. La déviance peut être mortifère pour le groupe, comme un pharmakon dont on aurait oublié la posologie, ou au contraire une provocation saine pour édifier la société et accomplir un acte historique de progrès. Dans les deux cas, imposer par avance le cadre d’expression revient à confronter d’anciennes normes à ce pharmakon qui vise justment à les soigner. C’est tout l’objet des laudateurs de la non-violence ou les « paciflics » des manifestations (pour reprendre le terme de Peter Gelderloos). La violence qui serait l’expression d’un groupe opprimé ou revendicateur n’est pas la violence des dominants. Preuve : plus les actions déviantes des dominés se répètent plus la violence du groupe dominant s’accentue, se radicalise, blesse, tue.

Sous couvert de précaution non violente, on assiste alors à l’instauration de dispositifs institutionnels visant à empêcher non pas la violence, mais l’expression de la déviance. Le Service National Universel, le Contrat d’Engagement Républicain et le Serment Doctoral sont des exemples d’une forme d’artificialisation de l’adhésion aux normes permettant de rendre encore plus violente la répression aux actes déviants. Par exemple, si des membres d’une association venaient à manifester alors qu’une Préfecture l’a auparavant interdit, l’existence du Contrat d’Engagement Républicain suffit à elle seule à porter la charge plus lourde de l’accusation et donc de la sanction. Un problème qui ne se posait pas auparavant en ces termes. Car en effet le premier pas vers la compréhension et éventuellement la tolérance — à moins de poser d’emblée l’intolérance comme principe d’action — c’est de poser la question de savoir ce qui, dans la déviance, met en critique les institutions et les normes actuelles, et non pas de savoir ce qui dans la déviance permet de la sanctionner toujours davantage.

Pour terminer, comme dit J. Ellul :

« (…) l’important est de reconnaître la sollicitation au changement dans toute déviance, sollicitation plus ou moins anxieuse et tragique, plus ou moins juste et légitime, mais il faut au moins recevoir cette sollicitation. Au moins rechercher quelle issue ferait en même temps évoluer notre corps social de façon à réduire la déviance profonde, et à inventer un nouveau mode d’être ensemble plus satisfaisant. »

Répondre non pas par une société complètement permissive (car il y aura toujours des déviances), mais proposer « une nouvelle morale et un nouveau droit » :

« (…) sans une nouvelle morale, c’est-à-dire l’élaboration d’une visée sociale commune, de comportements communs et d’une acceptation d’un changement de nos idéaux, de nos jugements, de notre échelle de valeurs, aucune mutation institutionnelle ne peut porter de fruits. C’est toujours le même problème : l’institution ne vaut que par la qualité des hommes qui en utilisent les organismes, réciproquement, sur le plan social, le changement moral ou idéologique ne peut suffire, il implique pour prendre corps un changement institutionnel. »


Publié le 08.05.2023 à 02:00

Mouvements préfiguratifs

Lorsque le ministre de l’Intérieur français déclare avec conviction début avril 2023 que « plus aucune ZAD ne s’installera dans notre pays » (version polie de « pas d’ça chez nous »), il est important d’en saisir le sens. Dans une ambiance où la question du maintien de l’ordre en France se trouve questionnée, y compris aux plus hauts niveaux des instances Européennes, détourner le débat sur les ZAD relève d’une stratégie assez tordue. Les ZAD, sont un peu partout en Europe et font partie de ces mouvements sociaux de défense environnementale qui s’opposent assez frontalement aux grands projets capitalistes à travers de multiples actions dont l’occupation de zones géographiques. Or, dans la mentalité bourgeoise-réactionnaire, les modes de mobilisation acceptables sont les manifestations tranquilles et les pétitions, en d’autres termes, les ZAD souffrent (heureusement de moins en moins) du manque de lisibilité de leurs actions : car une ZAD est bien plus que la simple occupation d’une zone, c’est tout un ensemble d’actions coordonnées et de réflexions, de travaux collectifs et de processus internes de décision… en fait une ZAD est un exemple de politique préfigurative. Pour le ministre de l’Intérieur, ce manque de lisibilité est un atout : il est très facile de faire passer les ZAD pour ce qu’elles ne sont pas, c’est-à-dire des repères de gauchos-anarchiss’ qui ne respectent pas la propriété privée. Parler des ZAD, c’est renvoyer la balle aux autres pays Européens qui viendraient à critiquer le maintien de l’ordre à la Française : regardez d’abord chez vous.

Pourquoi cette caricature réactionnaire ? elle ne concerne pas seulement les ZAD, mais aussi toutes les actions d’occupation, y compris les plus petites comme le simple fait qu’un groupe d’étudiants ingénieurs se mette à racheter une ferme pour y vivre sur un mode alternatif. Cette caricature est sciemment maintenue dans les esprits parce que ce que portent en elles les politiques préfiguratives est éminemment dangereux pour le pouvoir en place : la démonstration en acte d’une autre vision du monde possible. Beaucoup d’études, souvent américaines (parce que le concept y est forgé) se sont penchées sur cette question et ont cherché à définir ce qu’est la préfigurativité dans les mouvements sociaux. Ces approches ont désormais une histoire assez longue, depuis la fin des années 1970. On ne peut donc pas dire que le concept soit nouveau et encore moins le mode d’action. Seulement voilà, depuis les années 1990, on en parle de plus en plus (j’essaie d’expliquer pourquoi plus loin). Je propose donc ici d’en discuter, à partir de quelques lectures commentées et ponctuées de mon humble avis.

Table des matières


Quotidien et transformation individuelle

Dans son chapitre « Exemplarité et mouvements sociaux » (Renou 2020), G. Renou fait l’inventaire des types de mouvements sociaux dont l’exemplarité joue un rôle stratégique. Le phénomène de quotidianisation revendiquée recouvre ces mouvements dont le raisonnement repose sur l’articulation entre changement personnel (individuel mais on pourrait rajouter, je pense, aussi celui du collectif comme personne « morale ») et changement sociopolitique. On peut les appeler mouvements « d’exemplarité », « préfiguratifs » ou « de mode de vie », ils proposent tous des alternatives à l’existant mais présentent certaines nuances. On peut ainsi distinguer, en suivant G. Renou :

  • les mouvements d’exemplarité proprement dite : mouvements fondés sur l’imitation de pratiques, plus ou moins rigides et exigeantes,
  • les mouvements préfiguratifs autrement nommés « politiques préfiguratives » : ils incarnent par leurs pratiques et leurs moyens la société souhaitée, ces pratiques et ces moyens évoluent en fonction de la manière dont est conçu ce chevauchement des moyens et de la fin,
  • les mouvements dits de mode de vie (lifestyle movements) : c’est le mode de vie lui-même qui est censé changer la société, comme démonstration de la contestation, le mode de vie est en soi revendicateur.

Il y a trois caractéristiques importantes que l’on retrouve dans tous ces mouvements :

  • la cohérence entre le discours et les pratiques (ce qui conduit parfois à prendre des positions radicalement opposées à l’ordre établi, comme c’est le cas avec des actions de désobéissance civile),
  • l’ancrage sur un territoire (« on est là ») : la transformation structurelle de la société implique une prise de position dans un espace. Ce peut être un pays ou un territoire complet (le Chiapas, le Rojava) ou une place (Nuit Debout, Occupy),
  • la transformation individuelle comme acte politique.

Sur ce troisième point, G. Renou explique :

« Le troisième déplacement opéré par la problématique de l’exemplarité a trait à la subversion des articulations individuel/collectif, privé/public et à la définition même de l’action collective. Si on accepte que la transformation de l’existence personnelle devienne, aux yeux des activistes, un enjeu pleinement politique, au sens où celle-ci n’est plus rabattue sur la vie privée opposée à la vie citoyenne et publique (cadrage juridique), ni même sur le for intérieur ou la conscience (cadrage psychologique), un corollaire s’impose. L’action collective tend à ne plus être assimilable à la défense des intérêts d’un groupe identifié par la médiation d’une action sur l’appareil d’État, traditionnellement considéré comme le lieu d’impulsion de tout changement politique d’ampleur, ainsi que le présupposaient les grandes organisations militantes de masse, depuis la fin de la première guerre mondiale. »

Pour moi, ce point de vue est en partie discutable. Les mouvements préfiguratifs ne cherchent pas à rompre avec une certaine tradition qui ne serait incarnée que par les organisations « de masse » qui œuvraient dans un cadre institutionnel de revendication « depuis la fin de la Première Guerre Mondiale ». Cela situe la définition de la politique préfigurative dans les présupposés où elle a été définie la première fois. Et il semble que l’approche de G. Renou soit en quelque sorte victime d’une vision quelque peu figée. On peut le comprendre, car son article figure dans un dictionnaire (Dictionnaire des mouvements sociaux) et à ce titre l’approche ne saurait être prospective.

Qui le premier a forgé ce concept de prefigurative politics ? Il s’agit de Carl Boggs en 1977 (Boggs 1977a, 1977b). Boggs fait remonter le concept à la tradition anarchiste et syndicaliste du XIXᵉ siècle et sa définition se confronte avec le marxisme classique :

« Par “préfiguration”, j’entends l’incarnation, dans la pratique politique permanente d’un mouvement, des formes de relations sociales, de prise de décision, de culture et d’expérience humaine qui constituent l’objectif ultime. Développée principalement en dehors du marxisme, elle a produit une critique de la domination bureaucratique et une vision de la démocratie révolutionnaire que le marxisme n’avait généralement pas. »1

Cette définition projette de manière évidente les mouvements sociaux qui s’en réclament dans une dynamique de la quotidienneté. Mais cette dynamique est historique. Elle va se chercher dans l’héritage contre-institutionnel des soviets ou, mieux, celui de la Commune de Paris en 1870. Dans le cas de la Commune, il s’agissait des institutions d’enseignement scolaire ou des hôpitaux, d’un Conseil, ou encore des institutions créatives (comme les Clubs), toutes placées sous le contrôle du peuple et cherchant à supplanter celles du pouvoir en place tout en les fondant sur un ensemble de pratiques démocratiques. La préfiguration s’inscrit donc dans l’Histoire mais, de plus, dans une tradition anarchiste, elle consiste à entrer en lutte contre le pouvoir en opposant l’intérêt collectif à l’organisation du pouvoir (l’État, en l’occurrence).

L’approche de C. Boggs est cependant elle-même inscrite dans la pensée des années 1970 et du néo-marxisme ambiant : anti-institutionnel (héritage de A. Gramsci2), antipositiviste, et faisant la jonction entre matérialisme historique et conscience de soi (on pense à J.-P. Sartre ou H. Marcuse, d’où l’importance de la transformation individuelle comme acte politique). Cela entre dans la « New Left » américaine3, cela intègre une partie des études féministes ou encore les cultural studies, et bien sûr l’anarchisme. Dans cette perspective et dans le contexte des années 1970, le préfigurativisme est une forme de socialisme décentralisé (Kann 1983) tout en prônant l’insurrection populaire. Du point de vue d’aujourd’hui, on pourra néanmoins ajouter que ce furent essentiellement des postures qui, comme le rappelle C. Malabou (Malabou 2022) sont surtout philosophiques et diffusées par des philosophes qui jamais ne se reconnaissent anarchistes et encore moins dans les faits (car ils sont détenteurs eux-mêmes de positions de pouvoir, à commencer par leurs statuts d’universitaires et d’intellectuels).

Pour autant, si les moyens structurels et les pratiques jouent un rôle fondamental dans les politiques préfiguratives, c’est parce que leur tradition est d’essence anarchiste sans pour autant se reconnaître et se théoriser comme telle (comme c’est souvent le cas dans les pratiques anarchistes de beaucoup de mouvements). Je pense que les néo-marxistes n’ont pas vraiment saisi les opportunités de la préfiguration comme mode d’action directe et de revendication. Par action directe, on pense bien sûr à ce que Boggs identifiait comme pratiques contre-institutionnelles (ce qui est toujours d’actualité, voir (Murray 2014)), mais comme revendication il s’agissait aussi de faire la démonstration des alternatives à l’ordre établi, tout comme aujourd’hui nous reconnaissons cette dimension aux mouvements dits « altermondialistes ». Il ne s’agit donc pas tant de remplacer la défense et la revendication de l’intérêt collectif par la mise en œuvre de pratiques quotidiennes (aussi démonstratives qu’elles puissent être), mais d’articuler l’intérêt collectif avec des moyens, des valeurs et des routines de manière cohérente, et c’est cette cohérence qui fonde la légitimité de l’alternative proposée. On peut illustrer cela, par exemple :

  • pour échapper à la dissonance cognitive permanente qu’un système capitaliste nous impose en nous obligeant à choisir entre sa justification permanente du progrès matériel et la défense de l’environnement soi-disant rétrograde, on peut proposer des modes de décision collective et mettre en pratique des systèmes de production et d’échanges économiques en dehors des concepts du capitalisme tout en montrant que les institutions classiques ne sont pas en mesure de défendre l’intérêt collectif,
  • à un bas niveau, on peut aussi démontrer que les mouvements sociaux (préfiguratifs ou non) ont tout intérêt à utiliser des logiciels libres en accord avec les valeurs qu’ils défendent (solidarité, partage…) plutôt que de se soumettre à la logique des plateformes proposées par les multinationales du numérique. C’est notamment le credo de Framasoft, une pierre à l’édifice de l’altermondialisation.

Ne pas oublier Marx

Pour revenir au néo-marxistes, je pense que leur point de vue pas-tout-à-fait-anarchiste vient de ce qu’ils sont eux-mêmes victimes de la tension qui s’est déclarée dès la Première Internationale entre les libertaires et les marxistes-collectivistes, et dont les résonances sont identifiées dans le texte de C. Boggs comme les obstacles à la préfiguration (cf. plus bas). Le premier élément qui vient en tête est ce conflit larvé entre Marx et Bakounine, où (pour grossièrement résumer4) le second oppose à l’organisation Internationale cette tendance à la bureaucratisation et à l’acceptation de fait de positions de pouvoirs. C’est-à-dire une opposition de deux types de militance. Celle des libertaires n’a pas pris le dessus, c’était celle de l’autonomie des sections et l’exercice démocratique de la prise de décision en assemblée et non par délégués interposés. En cela, les positions marxistes ont fini par se structurer autour de la revendication et la grève par une forme syndicaliste hiérarchisée et centralisée. Si on considère que c’est là l’un des points de rupture entre libertaires et marxistes, alors la préfiguration n’a effectivement pas pu être saisie toute entière par les néo-marxistes. Un autre point est qu’historiquement les anarchistes n’ont pas toujours cherché à inscrire la préfiguration dans le cadre d’une lutte de classe, mais souvent comme une présentation d’alternatives, au pluriel. Pourquoi au pluriel ? parce que un bonne politique préfigurative avance par essai et erreurs, « elle est expérimentale autant qu’expérientielle » (van de Sande 2015) et doit toujours se réajuster pour être formulée comme alternative aux formes d’injustices, d’inégalité et de répression que porte notamment le capitalisme.

À cela on peut cependant opposer que la pensée pratique de Marx recèle des éléments tout à fait pertinents pour une politique préfigurative. C’est la thèse de Paul Raekstad (Raekstad 2018) qui explore la philosophie de Marx dans ce sens. Selon Marx, pour mener une politique révolutionnaire, il ne faut pas seulement des sujets révolutionnaires, il faut aussi des sujets chez qui il y a un besoin révolutionnaire à satisfaire, c’est-à-dire une conscience révolutionnaire. Ainsi, une politique préfigurative est à même de produire cette conscience révolutionnaire dans la mesure où elle permet à « l’éducateur de s’éduquer ». Du point de vue de la transformation individuelle, si le comportement et les choix de vie peuvent être préfiguratifs, ils participent à une conscience de soi révolutionnaire et pour Marx, c’est ce qui fait la pratique révolutionnaire.

Ainsi, dans les Thèses sur Feuerbach (numéro 3), Marx écrit :

« La doctrine matérialiste du changement des circonstances et de l’éducation oublie que les circonstances sont changées par les hommes et que l’éducateur doit lui-même être éduqué. C’est pourquoi elle doit diviser la société en deux parties — dont l’une est élevée au-dessus d’elle.
La coïncidence du changement des circonstances et de l’activité humaine ou autochangement ne peut être saisie et rationnellement comprise que comme pratique révolutionnaire. »

Cette pratique s’accomplit aussi à travers l’assemblée qui n’est pas seulement une assemblée d’ouvriers, mais une assemblée où s’exerce une sorte de phénoménologie de la conscience collective révolutionnaire et où les moyens deviennent aussi la fin. Se rassembler et discuter est aussi important que le but du rassemblement :

Ainsi dans le Troisième Manuscrit de 1844, Marx écrit :

« Lorsque les ouvriers communistes se réunissent, c’est d’abord la doctrine, la propagande, etc., qui est leur but. Mais en même temps ils s’approprient par là un besoin nouveau, le besoin de la société, et ce qui semble être le moyen est devenu le but. »

Pour autant, il y a d’autres philosophies pratiques, plus modernes et plus à même de fonder une véritable philosophie préfigurativiste. Je crois que non seulement elle à chercher dans les approches anarchistes, mais aussi que Marx n’est pas le plus indiqué. Non pas que la philosophie de Marx ne s’y prêterait absolument pas mais vouloir tirer absolument de Marx des principes d’action qui à l’époque ne se posaient carrément pas en ces termes, me semble assez anachronique. La question est plutôt de savoir comment les actions des politiques préfiguratives sont rendues visibles, quel est leur caractère performatif et quels principes d’action on peut en tirer aujourd’hui.

Rendre visibles les mouvements préfiguratifs

Nous avons vu que chercher à définir les politiques préfiguratives ne les rend pas pour autant évidentes. Tantôt il s’agit de mouvements sociaux « exemplaires », tantôt une dialectique entre moyen et fin, tantôt une approche néo-marxiste anti-institutionnelle, tantôt une résurgence des idées libertaires qui pourtant n’échappent pas à la pensée pratique de Marx… L’erreur consiste peut-être à trop chercher à en saisir le concept plutôt que la portée. N’est-ce pas en fonction du caractère opérationnel de l’action directe que l’on peut en saisir le sens ?

Retournons du coté des définitions. On peut se pencher sur celle que donne Darcy Leach (Leach 2013), courte et élégante. Pour elle, la préfigurativité est…

« fondée sur la prémisse selon laquelle les fins qu’un mouvement social vise sont fondamentalement constituées par les moyens qu’il emploie, et que les mouvements doivent par conséquent faire de leur mieux pour incarner – ou “préfigurer” – le type de société qu’ils veulent voir advenir. »

En se reportant au texte (court) de Darcy Leach, on voit qu’elle ne cherche pas tant à présenter en long et en large ce que sont les « politiques préfiguratives ». En effet, un tel exercice n’aurait pas d’autre choix que de s’adonner à une litanie d’exemples. Exactement comme lorsqu’on présente des idées anarchistes et que, toujours confronté au défi de démontrer que ces idées peuvent « fonctionner », on se met invariablement à citer des exemples dont la démonstration est aussi longue que laborieuse. C’est tout simplement parce que les anarchistes théorisent l’anarchie mais l’anarchie, elle, est toujours en pratique, elle est même parfois indicible. Au lieu de cela D. Leach préfère résumer les trois raisons principales pour lesquelles elles peuvent échouer, celles identifiées déjà par C. Boggs, ce qui revient à définir par la négative :

  • « le jacobinisme, dans lequel les forums populaires sont réprimés ou leur souveraineté usurpée par une autorité révolutionnaire centralisée ;
  • le spontanéisme, une paralysie stratégique causée par des inclinations paroissiales ou antipolitiques qui empêchent la création de structures plus larges de coordination efficace ;
  • et le corporatisme, qui se produit lorsqu’une strate oligarchique d’activistes est cooptée, ce qui les conduit à abandonner les objectifs initialement radicaux du mouvement afin de servir leurs propres intérêts dans le maintien du pouvoir. »

Elle résume aussi pourquoi les mouvements préfiguratifs ont tant de mal à être correctement identifiés : c’est parce que dans les représentations courantes, ont s’attend toujours à voir dans les collectifs une forme hiérarchique stable, avec un leader et des suiveurs, ou avec un bureau (dans le cas d’une association), en somme, une représentation du mouvement selon une division des rôles bien rationnelle :

« Comme les théories des mouvements sociaux ont souvent supposé des acteurs instrumentalement rationnels et une organisation bureaucratique, les mouvements préfiguratifs sont souvent mal interprétés ou apparaissent comme des cas anormaux dans la recherche sur les mouvements sociaux. »

Il n’en demeure pas moins que lorsqu’on s’intéresse aux mouvements sociaux dans différents pays, les études sont loin d’être aussi pusillanimes quant à la lecture de ces mouvements à travers le prisme de la préfigurativité. Il y a même une tendance universaliste de ce point de vue. Ainsi Marina Sitrin (Sitrin 2012), qui s’intéresse à l’Argentine du début des années 2000 , affirme que la politique préfigurative est une manière d’envisager les relations sociales et économiques comme nous voudrions qu’elles soient. Si cette manière d’envisager les choses a des sources historiques profondes, c’est aussi parce qu’elle est loin d’être anecdotique :

« Dans le monde entier, il ne s’agit pas de petites « expériences », mais de communautés comprenant des centaines de milliers, voire des millions de personnes – des personnes et des communautés qui ouvrent des brèches dans l’histoire et créent quelque chose de nouveau et de beau dans cette brèche. »

Et on est bien tenté d’être d’accord avec ceci : pour peu que l’on regarde les mouvements sociaux depuis les années 2000, ceux qui prennent modèle sur les mouvements plus historiques ou les plus récents qu’ils soient internationaux ou plus locaux (comme les Zad en France), il est désormais très difficile de passer à côté de leur caractère préfiguratif tant il est porté systématiquement à la connaissance des observateurs comme une sorte d’identité revendicatrice et à portée universelle… altermondialiste ! Pour M. Sitrin, il faut surtout prendre en compte les mouvements apparemment spontanés mais qui se sont cristallisés sur un mode préfiguratif (justement pour limiter ce spontanéisme, cf. ci-dessus), pour répondre à une situation donnée, sans que pour autant on en voie les conséquences immédiates :

« Ces expériences à court terme vont de la France en mai 1968 à ce que l’on appelle aujourd’hui la Comuna de Oaxaca, en référence aux quatre-vingt-dix jours de 2006 pendant lesquels la population a occupé le zócalo (parc central), mettant en place des formes alternatives de prise de décision et de survie (…) ; ces deux expériences constituent le type de rupture auquel les zapatistes font référence, la création d’une pause dans une situation politiquement insoutenable. Des assemblées et des démocraties de masse similaires ont été observées en 2011 en Égypte, en Grèce et en Espagne. Les résultats de ces rassemblements de masse et de ces formations politiques préfiguratives n’ont pas encore été déterminés, mais ce qui est certain, c’est que de nouvelles relations sont en train de se créer. Les ruptures provoquées par des événements « naturels » – ou du moins par un moment d’étincelle, comme un tremblement de terre ou un attentat terroriste – ont donné lieu à des versions à court terme de ces mêmes événements. C’est ce qui s’est passé à New York pendant et immédiatement après le 11 septembre. »

Dans les années 1990, de nombreux mouvements sociaux se sont dressés de cette manière, sur un mode apparemment spontané et improvisé. En apparence seulement car les racines conceptuelles sont profondes.

L’avenir est contagieux : depuis les années 1990

Prenons par exemple ces deux évènements : la Conférence des Nations Unies sur l’environnement et le Développement, autrement nommée Sommet de la Terre à Rio en 1992, et la même année la publication du livre de F. Fukuyama La fin de l’histoire et le dernier homme. Le Sommet de la Terre proposait pour la première fois un texte fondateur de 27 principes, intitulé « Déclaration de Rio sur l’environnement et le développement », précisait la notion de développement durable, et proposait une série d’action pour le 21ᵉ siècle, l’« Agenda 21 ». Ce faisant, la renommée de ce Sommet aidant, le message qui était alors compris par bon nombre d’ONG et autres mouvements était celui d’une projection générale de l’économie dans un 21ᵉ siècle dont on espérait qu’il soit le moment d’un rééquilibrage des forces entre l’extraction capitaliste de la nature et l’avenir de la Terre. La même année le livre de Fukuyama proposait de voir dans la fin de la Guerre Froide la victoire définitive de la démocratie libérale sur les idéologies, c’est-à-dire que la politique était désormais réduite à n’être que le bras de la nécessité économique instruite par le néolibéralisme (j’extrapole un peu mais c’est l’idée reçue). Fukuyama n’était pas célèbre, ce qui le rendit célèbre durant les deux ou trois années suivantes, c’est la réception qu’a eu son livre dans les milieux néolibéraux et la caisse de résonance de certains médias, alors même que la plupart des philosophes regardaient cela d’un air plutôt goguenard (je m’en souviens un peu, j’étais en fac de philo ces années-là). Donc deux discours sur le futur s’affrontaient : le premier donnait de l’espoir dans les politiques publiques, le second privait complètement les populations de la construction de futurs alternatifs, et c’est ce qui fut finalement rabâché à partir du slogan (certes un peu plus ancien) thatchérien « There is no alternative », y compris jusqu’à aujourd’hui.

La conséquence de cette dissonance touche tous les individus parce que l’avenir est plus qu’incertain, il devient une menace pour chacun lorsque la politique n’est plus en mesure de proposer de « plan B », ni même de négociation, lorsque la « nécessité économique » sert de justification systématique au recul des conquêtes sociales, là, toute proposition progressiste d’un parti ou d’une idéologie n’est même plus crédible (la longue chute du socialisme français en est l’illustration éclatante).

Comme le philosophe italien Franco Berardi (Bifo) l’affirme dans Dopo il futuro (Berardi 2011), cette lente « annulation de l’avenir » c’est désormais bien plus que le vieux slogan punk, cela fait plus que toucher les gens, cela touche la chair et le mental :

« L’avenir devient une menace lorsque l’imagination collective devient incapable d’envisager des alternatives aux tendances qui conduisent à la dévastation, à l’augmentation de la pauvreté et de la violence. C’est précisément notre situation actuelle, car le capitalisme est devenu un système d’automatismes technico-économiques auxquels la politique ne peut se soustraire. La paralysie de la volonté (l’impossibilité de la politique) est le contexte historique de l’épidémie de dépression actuelle. »

Et c’est justement ce contre quoi les oppositions altermondialistes se battent, à commencer par se réapproprier le futur, répondre à un message négatif en proposant positivement un avenir en commun. Et c’est dans ce cadre que les politiques préfiguratives évoluent.

Cette jonction entre la préfigurativité et l’aspiration à un autre avenir est aux mouvements sociaux le fer de leur conscience révolutionnaire et d’une liberté retrouvée. C’est pourquoi David Graeber n’hésite pas à déclarer que la préfigurativité est une arme politique des plus efficaces, si ce n’est la plus efficace. Elle se retrouve de Occupy à la Zad de N-D des Landes, au Rojavas et au Chiapas, dans les mouvements en Grèce, en Espagne, en Égypte (les Printemps..), dans les mouvement indigènes comme au Brésil, etc. D. Graeber écrit dans la préface à Éloge des mauvaises herbes: ce que nous devons à la Zad (Lindgaard et al. 2018) :

« La ZAD a gagné contre un très grand projet d’infrastructure. Elle a gagné en utilisant l’une des armes politiques les plus puissantes, celle de la préfiguration (…). La préfiguration est l’exact contraire de l’idée que la fin justifie les moyens. Plutôt que de calculer comment renverser le régime actuel, en formulant l’hypothèse que d’une manière ou d’une autre quelque chose de neuf en surgira spontanément, vous essayez de faire de la forme de votre résistance un modèle de ce à quoi la société à laquelle vous aspirez pourrait ressembler. Cela signifie aussi que vous ne pouvez pas reporter, disons, la question des droits des femmes, ou celle de la démocratie interne à “après la révolution” : ces questions doivent être traitées dès maintenant. À l’évidence, ce que vous obtiendrez ne sera jamais le modèle exact d’une future société libre – mais il s’agira au moins d’un ordre social qui pourrait exister en dehors de structures de coercition et d’oppression. Cela signifie que les gens peuvent avoir une expérience immédiate de la liberté, ici et maintenant. Si l’action directe consiste pour les activistes à relever avec constance le défi qui consiste à agir comme si l’on était déjà libre, la politique préfigurative consiste à relever avec constance le défi de se comporter les uns vis-à-vis des autres comme nous le ferions dans une société véritablement libre.(…) Bien évidemment, la ZAD est une expérience à beaucoup plus petite échelle, mais ce qu’elle nous a appris, c’est que même au cœur de l’Europe nous pouvons réussir à créer des espaces d’autonomie – et même si ce n’est que pour un temps limité. Être conscient que de tels lieux existent nous permet de voir tout ce que nous faisons sous un jour nouveau : nous sommes déjà des communistes lorsque nous travaillons sur un projet commun, nous sommes déjà des anarchistes lorsque nous trouvons des solutions aux problèmes sans le recours aux avocats ou à la police, nous sommes tous des révolutionnaires lorsque nous créons quelque chose de véritablement nouveau. »

Et comme il n’y a pas de meilleur argument que l’exemple, dans Comme si nous étions déjà libres, D. Graeber envisage le mouvement Occupy Wall Street comme une politique préfigurative, en ces termes :

« Occupy Wall Street s’est d’abord inspiré des traditions de la démocratie directe et de l’action directe. Du point de vue anarchiste, la démocratie directe et l’action directe sont (ou devraient être) deux aspects d’une même idée : la forme de nos actions doit servir de modèle ou offrir un aperçu de la façon dont des gens libres peuvent s’organiser et de ce à quoi pourrait ressembler une société libre. Au début du XXᵉ siècle, c’est ce qu’on appelait “construire la nouvelle société dans la coquille de l’ancienne”, et dans les années 1980 et 1990, on l’a appelé “politique préfigurative”. Or, quand les anarchistes grecs déclarent : “nous sommes l’avenir”, ou que les Américains affirment créer une civilisation d’insurgés, ils parlent en fait d’une même chose. Nous parlons de cette sphère où l’action devient elle-même prophétie. »

L’avenir est important : il est contagieux. Les mouvements altermondialistes se sont construits en première intention sur l’idée d’un « contagionnisme », c’est-à-dire l’idée que mettre en place des dispositifs solidaires ne suffit pas et que les organisations fondées sur la démocratie directe et des formats non-hiérarchisés peuvent être des modèles contagieux. En d’autres termes, altermondialiste signifie surtout que la vision du monde alternative qui est proposée est avant tout celle où la démocratie s’exerce, ce qui sous-entend que la mondialisation économique et politique contrevient à la démocratie. La place laissée à la parole, à l’exercice de l’écoute, à la possibilité d’obtenir des décisions collectives éclairées et consensuelles font partie intégrante de l’organisation politique et changent la perception de ce qu’il est possible de faire et donc d’opposer au système mondialiste ou capitaliste. Ces formats non hiérarchisés marquent la fin d’une époque révolue où les mouvements protestataires obéissaient à des jeux internes de prise de parole, d’affichage et pour finir des jeux de pouvoir et des têtes d’affiche. On le voit au niveau local où les autorités et autres administrations ont tendance à rechercher dans une association un président, un bureau, une forme hiérarchique pour identifier non pas le mouvement mais les personnes sous prétexte de responsabilisation de l’action. Une politique de préfiguration ne cherche pas tant à dé-responsabiliser les individus mais à exercer la démocratie directe dans les processus de prise de décision et d’action.

Pour citer encore D. Graeber :

« Depuis le mouvement altermondialiste, l’époque des comités de direction est tout à fait révolue. La plupart des militants de la communauté en sont arrivés à l’idée de la politique “préfigurative”, idée selon laquelle la forme organisationnelle qu’adopte un groupe doit incarner le type de société qu’il veut créer. »

Tout le reste consiste à créer des opportunités pour que ceux qui sont ou ne sont pas (pas encore) dans une dynamique militante puissent s’insérer dans ce type de démarche au lieu d’en rester à une attitude de retrait ou dans de vieux concepts de la militance.

Répondre à la question : comment faire ?

Pour le sociologue Luke Yates (Yates 2015), parler de politiques préfiguratives consiste à porter l’attention sur le fait que les militants expriment les objectifs politiques par les moyens des actions qu’ils entreprennent. C’est une inversion de l’adage « la fin justifie les moyens ». Alors que cet adage privilégie l’objectif au détriment d’autres considérations tout en cherchant à remplacer un état du monde par un autre, une politique préfigurative ajuste l’action à l’opposition à un état du monde pour non pas remplacer mais proposer une alternative dont l’expression et l’avènement est en quelque sorte déjà-là puisqu’il est expérimenté par le groupe militant, ici et maintenant, dans un espace géographique et au présent. On retrouve une part du « on est là » des Gilets Jaunes en France par exemple, ou les Zad, etc.

L. Yates prend l’exemple des centres sociaux autonomes de Barcelone. Selon lui, une politique préfigurative n’a de sens qu’en définissant correctement la logique des constructions d’alternatives qui doivent elles-mêmes être évaluée au sein du mouvement pour s’assurer de leur solidité et de leur opérationnalité dans l’avenir. Ainsi L. Yates identifie cinq composantes de la préfiguration (il les nomme : « expérimentation », « perspectives », « conduite », « consolidation » et « diffusion ») :

  1. L’expérimentation collective : concernant les pratiques quotidiennes (prise de parole, processus de décision, discussions, partage de connaissances, etc.), l’expérimentation consiste aussi à envisager collectivement des moyens plus performants pour l’avenir et donc émettre une critique des processus en place, ce qui suppose une attention permanente et une forme de conscience de soi.
  2. Perspectives et imagination : des cadres de création (réunions, séminaires, avec principes de fonctionnement, slogan, éducation populaire, etc.) et des concepts politiques qui cherchent à définir le mouvement mais aussi à communiquer ces idées en interne comme vers l’extérieur.
  3. Conduite : des normes qui émanent des expérimentations et des perspectives politiques qui s’ouvrent. Alors qu’on retient souvent des mouvements sociaux leurs expérimentations et leurs cadres de gouvernance collective, il ne faut pas oublier qu’en réalité les résultats de ces expérimentations créent des nouvelles routines et de nouveaux cadres de gouvernance qui ne sont pas seulement des choix tactiques de militance mais peuvent définir une réorientation du mouvement (par exemple à Framasoft, notre orientation vers l’éducation populaire).
  4. Consolidation : le mouvement doit aussi consolider ces normes, idées et cadres dans l’infrastructure elle-même (division de l’espace, cuisine commune, partage de biens, systèmes de communication, etc.) et cette infrastructure est aussi le reflet des valeurs partagées autant qu’elles les illustrent.
  5. Diffusion : se projeter au-delà du présent et du lieu pour diffuser (manifestations publiques, médias, protestations, actions directes militantes, happenings etc.) et expliquer ces idées vers d’autres réseaux, groupes, collectifs, publics.

Pour ma part, je rejoins L. Yates sur ces composantes, mais je pense plutôt la politique préfigurative comme une dialectique entre, d’un côté les moyens et actions préfiguratifs eux-mêmes, et de l’autre côté, la déconstruction systématique de la vision du monde contre laquelle on oppose une alternative. En d’autres termes une politique préfigurative n’a de sens aujourd’hui que si elle participe à la déconstruction autant conceptuelle qu’opérationnelle du capitalisme. D’un point de vue conceptuel, l’action directe démontre opérationnellement les travers du capitalisme (ou du néolibéralisme) mais il faut encore conceptualiser pour transformer l’action en discours qui entre alors en dialectique et justifie l’action (tout comme le capitalisme crée des discours qui l’auto-justifient, par exemple la notion de progrès). Du point de vue opérationnel, en retour, l’opposition se fait frontalement et entre en collision avec les forces capitalistes. Cela peut donner lieu à des tensions et affrontements selon le degré que ressentent les autorités et le pouvoir dans l’atteinte à l’ordre social qui se définit par rapport au capitalisme (et non par rapport à des valeurs : si l’action ne remettait en cause que des valeurs, alors la discussion serait toujours possible).

Questions en vrac pour finir

Et le vote ? Dans beaucoup de mouvements préfiguratifs, le vote est un des instruments privilégiés de la démocratie directe, même s’il n’en est qu’un des nombreux instruments. Ma crainte, toujours lorsqu’il s’agit de vote, est d’y voir une tendance quelque peu paresseuse à accepter qu’un pouvoir soit délégué à quelques-uns, ce qui est toujours une brèche ouverte à des jeux de domination. Selon moi, le vote est à considérer par défaut comme l’échec du consensus. Certes, un consensus est parfois difficile à obtenir : peut-être que dans ce cas, il faut se poser la bonne question, ou bien la poser autrement, c’est-à-dire se demander pourquoi le consensus est absent ? Certains n’hésiteront pas à rétorquer que si l’on veut préfigurer le monde futur, le vote est un instrument efficace face à la difficulté d’obtenir consensus de la multitude des individus et sur un temps raccourci. Je pense qu’il faut prendre le temps lorsqu’il le faut parce qu’en réalité, une fois que la dynamique consensuelle est installée seule les plus grandes décisions prennent du temps. Par ailleurs, un vote est la réponse à une question qui est en soi une réduction des enjeux qui ne peuvent alors plus être discutés.

La lente « annulation de l’avenir » que mentionne Franco Berardi, n’est-elle pas aussi une conséquence de la dépossession systématique dont procède le capitalisme ? Cela rejoint mes réflexions en cours sur les justifications du capitalisme. Il faut entendre la dépossession de deux manières : dépossession du travail et de l’expertise par la dynamique techno-capitaliste, mais aussi la dépossession de nos savoir-être et savoir-faire (ce que B. Stiegler appelait notre prolétarisation). La préfiguration pourrait-elle être un remède ou est-elle un pharmakon ?

Ce que nous vivons dans les mouvements préfiguratifs est à la fois riche et intimidant. Dans les dynamiques internes des mouvements, se pose souvent la question de la légitimité des personnes. Légitimité à prendre la parole, à proposer son expertise et son savoir-faire, etc. Autant on peut toujours se prévaloir d’une écoute partagée et bienveillante autant il est difficile de garantir à chacun un espace où l’on peut s’exprimer et se sentir légitime à le faire, au risque de l’exclusion du groupe. Comment y remédier ? Quelles sont les conséquences : est-ce que la portée préfigurative revendiquée n’est pas elle-même la source du ressenti personnel d’un manque de légitimité chez certains participant-es ?

Préfiguration et syndicalisme… Lors du mouvement contre la réforme des retraites en France en 2023, le rythme des manifestations obéissait essentiellement à l’Inter-syndicale. Au mois de mai, certains syndicats (notamment la CFDT) ont finalement accepté le rendez-vous avec la Première Ministre. Pire : ils ont accepté la règle imposée des rendez-vous séparés, c’est-à-dire la fin de l’Inter-syndicale. Alors même que la plupart des manifestants voyaient dans le fait de décliner les rendez-vous successifs comme une preuve de résistance dans le rapport de force entre gouvernement et syndicats. On comprend alors beaucoup mieux pourquoi les étudiants, dans la plupart des manifestations, cherchaient non seulement à défiler séparément, mais aussi à ne pas obéir au coup de sifflet syndicaliste à la fin des manifestations et poursuivre de manière apparemment désordonnée la démonstration de leur mobilisation. Sur beaucoup de campus, c’est bien la préfigurativité qui prévaut, ne serait-ce que dans les assemblées générales. Le syndicalisme me semble malheureusement hors jeu de ce point de vue : grèves et manifestations ne suffisent plus face à la « nécessité » de l’ordre économique asséné par le pouvoir et ses institutions. Après la grève, l’ordre du monde et des institutions est rétabli, or ce qui est en jeu aujourd’hui (et l’urgence climatique n’en est qu’un levier) c’est justement la recherche d’un nouvel ordre économique, culturel et philosophique. Si les politiques préfiguratives sont invisibilisées, il est à craindre que le nouvel ordre soit en fait une radicalisation du pouvoir. L’adage n’est plus « faire et faire tout de même », il est devenu : « faire, faire sans eux, faire contre eux ».

Bibliographie

Angaut, Jean-Christophe. 2007. “Le conflit Marx-Bakounine dans l’internationale : une confrontation des pratiques politiques.” Actuel Marx 41 (1): 112–29. https://doi.org/10.3917/amx.041.0112.

Berardi, Franco. 2011. After the future. Edited by Gary Genosko and Nicholas Thoburn. Edinburgh, Royaume-Uni de Grande-Bretagne et d’Irlande du Nord.

Boggs, Carl. 1977a. “Marxism, Prefigurative Communism, and the Problem of Workers’ Control.” Radical America 11 (6): 99–122. https://theanarchistlibrary.org/library/carl-boggs-marxism-prefigurative-communism-and-the-problem-of-workers-control.

———. 1977b. “Revolutionary Process, Political Strategy, and the Dilemma of Power.” Theory and Society 4 (3): 359–93. https://www.jstor.org/stable/656724.

Breines, Wini. 1989. Community and Organization in the New Left, 1962-1968: The Great Refusal. New edition. New Brunswick N.J.: Rutgers University Press.

Eckhardt, Wolfgang. 2016. First Socialist Schism: Bakunin vs. Marx in the International Working Men’s Association. Oakland: PM Press. https://theanarchistlibrary.org/library/wolfgang-eckhardt-the-first-socialist-schism.

Kann, Mark E. 1983. “The New Populism and the New Marxism: A Response to Carl Boggs.” Theory and Society 12 (3): 365–73. https://www.jstor.org/stable/657443.

Leach, Darcy K. 2013. “Prefigurative Politics.” In The Wiley-Blackwell Encyclopedia of Social and Political Movements. John Wiley & Sons, Ltd. https://doi.org/10.1002/9780470674871.wbespm167.

Lindgaard, Jade, Olivier Abel, Christophe Bonneuil, Patrick Bouchain, and David Graeber. 2018. Éloge Des Mauvaises Herbes: Ce Que Nous Devons à La ZAD. Paris, France: Éditions les Liens qui libèrent.

Malabou, Catherine. 2022. Au Voleur !: Anarchisme Et Philosophie. Paris, France: PUF.

Murray, Daniel. 2014. “Prefiguration or Actualization? Radical Democracy and Counter-Institution in the Occupy Movement.” Berkeley Journal of Sociology, en ligne, November. https://berkeleyjournal.org/2014/11/03/prefiguration-or-actualization-radical-democracy-and-counter-institution-in-the-occupy-movement/.

Raekstad, Paul. 2018. “Revolutionary Practice and Prefigurative Politics: A Clarification and Defense.” Constellations 25 (3): 359–72. https://doi.org/10.1111/1467-8675.12319.

Renou, Gildas. 2020. “Exemplarité et mouvements sociaux.” In Dictionnaire des mouvements sociaux, 2e éd.:244–51. Références. Paris: Presses de Sciences Po. https://doi.org/10.3917/scpo.filli.2020.01.0244.

Sande, Mathijs van de. 2015. “Fighting with Tools: Prefiguration and Radical Politics in the Twenty-First Century.” Rethinking Marxism 27 (2): 177–94. https://doi.org/10.1080/08935696.2015.1007791.

Sitrin, Marina A. 2012. Everyday Revolutions: Horizontalism and Autonomy in Argentina. 1st edition. Zed Books.

Yates, Luke. 2015. “Rethinking Prefiguration: Alternatives, Micropolitics and Goals in Social Movements.” Social Movement Studies 14 (1): 1–21. https://doi.org/10.1080/14742837.2013.870883.

Notes


  1. « By “prefigurative”, I mean the embodiment, within the ongoing political practice of a movement, of those forms of social relations, decision-making, culture, and human experience that are the ultimate goal. Developing mainly outside Marxism, it produced a critique of bureaucratic domination and a vision of revolutionary democracy that Marxism generally lacked. » ↩︎

  2. Pour résumer, il s’agit de dire que la domination, ou l’hégémonie, du capitalisme n’est pas un fait qui est indépendant des organes de l’État, mais au contraire ce sont les institutions qui l’organisent et perpétuent les rapports de force, quels que soient les partis et leurs bonnes intentions idéologiques. On retrouve cela aussi chez L. Althusser. En d’autres termes, si Marx a pensée la société de manière totale, il a aussi montré que les rapports de force sont structurés de manière complexe et dans cette complexité, on reconnaît des dominantes (par exemple certaines organisations locales peuvent avoir du pouvoir tandis que l’institution centrale a tendance à l’écraser). Il y a aussi ce concept d’ « autonomie relative » des institutions : certaines peuvent pour un temps se saisir légitimement des questions sociales, notamment en raison du jeu de pouvoirs entre partis politiques, mais en définitive l’État impose la domination capitaliste. ↩︎

  3. La plupart des auteurs s’accordent sur le fait que les nombreux mouvements qu’on regroupe sous le terme « Nouvelle gauche » des années 1960-1970 peuvent être analysés comme des politiques préfiguratives. Cela est surtout dû à l’analyse qu’en donne la sociologue Wini Breines dans l’étude de cas qu’elle a consacré sur le Free Speech Movement, et le Students for a Democratic Society (SDS) (Breines 1989). On peut cependant noter que si cet ouvrage porte essentiellement sur les États-Unis des années 1960, il a fait école. Ainsi Marina Sitrin reprend l’approche dans son étude sur les mouvements argentins (Sitrin 2012). ↩︎

  4. On peut se reporter à cet excellent article de Jean-Christophe Angaut: « Le conflit Marx-Bakounine dans l’internationale : une confrontation des pratiques politiques » (Angaut 2007), et pour vraiment approfondir, le livre de Wolfgang Eckhardt, sur le conflit Marx vs Bakounine dans l’Association Internationale des Travailleurs (Eckhardt 2016). ↩︎


Publié le 19.03.2023 à 01:00

Sur l’anarchie aujourd’hui

Dans ce petit texte, G. Agamben nous rappelle cet interstice où le pouvoir s’exerce, entre l’État et l’administration dans ce qu’il est convenu d’appeller la gouvernance. En tant que système, elle organise le repli des pouvoirs séparés de la justice, de l’exécutif et du législatif dans un grand flou : de la norme ou de la standardisation, des agences au lieu des institutions traditionnelles, le calcul du marché (libéral) comme grand principe de gestion, etc. Pour G. Agamben, la lutte anarchiste consiste justement à se situer entre l’État et l’administration, contre cette gouvernance qui, comme le disait D. Graeber (dans Bullshit Jobs), structure l’extraction capitaliste. On pourra aussi penser aux travaux d’Alain Supiot (La Gouvernance par les nombres) et ceux aussi d’Eve Chiapello sur la sociologie des outils de gestion.


Sur l’anarchie aujourd’hui

Par Giorgio Agamben (février 2023).

Traduction reprise d'Entêtement avec de très légères corrections.

Texte original sur Quodlibet.

Si pour ceux qui entendent penser la politique, dont elle constitue en quelque sorte le foyer extrême ou le point de fuite, l’anarchie n’a jamais cessé d’être d’actualité, elle l’est aujourd’hui aussi en raison de la persécution injuste et féroce à laquelle un anarchiste est soumis dans les prisons italiennes. Mais parler de l’anarchie, comme on a dû le faire, sur le plan du droit, implique nécessairement un paradoxe, car il est pour le moins contradictoire d’exiger que l’État reconnaisse le droit de nier l’État, tout comme, si l’on entend mener le droit de résistance jusqu’à ses ultimes conséquences, on ne peut raisonnablement exiger que la possibilité de la guerre civile soit légalement protégée.

Pour penser l’anarchisme aujourd’hui, il convient donc de se placer dans une tout autre perspective et de s’interroger plutôt sur la manière dont Engels le concevait, lorsqu’il reprochait aux anarchistes de vouloir substituer l’administration à l’État. Dans cette accusation réside en fait un problème politique décisif, que ni les marxistes ni peut-être les anarchistes eux-mêmes n’ont correctement posé. Un problème d’autant plus urgent que nous assistons aujourd’hui à une tentative de réaliser de manière quelque peu parodique ce qui était pour Engels le but déclaré de l’anarchie – à savoir, non pas tant la simple substitution de l’administration à l’État, mais plutôt l’identification de l’État et de l’administration dans une sorte de Léviathan, qui prend le masque bienveillant de l’administrateur. C’est ce que théorisent Sunstein et Vermeule dans un ouvrage (Law and Leviathan, Redeeming the Administrative State) dans lequel la gouvernance, l’exercice du gouvernement, dépasse et contamine les pouvoirs traditionnels (législatif, exécutif, judiciaire), exerçant au nom de l’administration et de manière discrétionnaire les fonctions et les pouvoirs qui étaient les leurs.

Qu’est-ce que l’administration ? Minister, dont le terme est dérivé, est le serviteur ou l’assistant par opposition à magister, le maître, le détenteur du pouvoir. Le mot est dérivé de la racine *men, qui signifie diminution et petitesse. Le minister s’oppose au magister comme minus s’oppose à magis, le moins au plus, le petit au grand, ce qui diminue à ce qui augmente. L’idée d’anarchie consisterait, du moins selon Engels, à essayer de penser un ministre sans magister, un serviteur sans maître. Tentative certainement intéressante, puisqu’il peut être tactiquement avantageux de jouer le serviteur contre le maître, le petit contre le grand, et de penser une société dans laquelle tous sont ministres et aucun magister ou chef. C’est en quelque sorte ce qu’a fait Hegel, en montrant dans sa fameuse dialectique que le serviteur finit par dominer le maître. Il est néanmoins indéniable que les deux figures clés de la politique occidentale restent ainsi liées l’une à l’autre dans une relation inlassable, qu’il est impossible de solutionner une fois pour toutes.

Une idée radicale de l’anarchie ne peut alors que se dissoudre dans l’incessante dialectique du serviteur et de l’esclave, du minister et du magister, pour se situer résolument dans l’écart qui les sépare. Le tertium qui apparaît dans cet écart ne sera plus ni administration ni État, ni minus ni magis : il sera plutôt entre les deux comme un reste, exprimant leur impossibilité de coïncider. En d’autres termes, l’anarchie est d’abord et avant tout le désaveu radical non pas tant de l’État ni simplement de l’administration, mais plutôt de la prétention du pouvoir à faire coïncider État et administration dans le gouvernement des hommes. C’est contre cette prétention que l’anarchiste se bat, au nom finalement de l’ingouvernable, qui est le point de fuite de toute communauté entre les êtres humains.

26 février 2023

Giorgio Agamben


Publié le 07.03.2023 à 01:00

Pour un web désencombré

Et si nous nous mettions en quête d’une low-technicisation du web ? Cela implique de faire le tri entre le superflu et le nécessaire… donc d’ouvrir un espace de discussion avant que d’autres s’en emparent et nous façonnent un web à leur image où se concentreraient les pouvoirs. Nous voulons un web en commun qui respecte les communs. Ce billet est une modeste tentative pour amorcer un débat.


– Ton blog est tout moche, c’est normal ?

– Il n’est pas moche, son contenu est structuré à peu près correctement selon les préconisations standards HTML et avec une feuille de style minimaliste.

– oui, mais pourquoi ? il n’était déjà pas bien joli, joli auparavant…

– Parce que le web est encombré, cela a un coût environnemental non négligeable et la présentation tend à prévaloir sur les contenus en sacrifiant le sens et la pertinence de ceux-ci. À ma mesure, j’essaie de participer à un web plus léger.

– Et tu penses qu’il y a tant de monde pour lire ta prose que cela fera une différence ?

– non, d’ailleurs tu peux aller voir ailleurs, si cela ne te plaît pas.


Oui, je sais : low-tech, low-num, ces mouvements sont au goût du jour et il est de bon ton d’y participer au moins de loin, à titre individuel ou collectif. Ce que vous lisez n’est qu’un blog personnel mais il me semble intéressant d’y émettre tout de même une réflexion à ce propos.

Avant de devenir un argument, l’urgence climatique et environnementale est d’abord le constat d’une crise factuelle qui concerne tous les secteurs d’activités de productions et d’usages. Nos pratiques numériques, et tout particulièrement l’inaction face au capitalisme des plateformes, contribue pour une part significative au gaspillage énergétique de l’humanité (et cette partie de l’humanité la plus nantie) et cela a des répercutions extrêmement néfastes sur l’environnement et le changement climatique. Il est crucial et urgent aujourd’hui de prendre non seulement du recul mais agir de manière assez stricte pour limiter ce gaspillage. Si toutefois nous voulons maintenir un semblant d’activité numérique à l’avenir, il va falloir créer des espaces communs de réflexion et d’action avant de se voir imposer des règles qui finiront, comme d’habitude, par concentrer les pouvoirs en concentrant les technologies au bénéfice de ceux qui en auront les moyens.

S’il doit y avoir un nouvel ordre numérique, il doit être issu d’une logique d’action collective qui procède de deux mouvements complémentaires : la réappropriation collective des technologies de communication (la lutte contre les plateformes monopolistes et le capitalisme de surveillance) et l’élaboration d’espaces communs d’échanges et d’expérimentation pour élaborer collectivement nos choix, ce que nous voulons et ne voulons pas, le nécessaire et le superflu. Ces espaces sont supportés par le logiciel libre et le mouvement des communs numériques, par l’éducation populaire et les capacités des groupes à exercer des échanges et des relations démocratiques. Cela suppose deux engagements : préfigurer le monde numérique que nous voulons pour demain et lutter plus ou moins durement contre l’accaparement des moyens de production et des conditions d’échanges communicationnels.

Une fois cela dit… ce ne sont que des mots. Ils ont un intérêt, toutefois : ils placent la critique des technologies dans un débat politique qui transcende la seule action individuelle. Alors, oui, réfléchir à l’encombrement du web aujourd’hui, ce n’est pas une tendance luddite ou rétrograde pour nous « faire revenir » au web des années 1990, c’est une réflexion qui engage notre rapport aux communications et aux contenus web pour que l’innovation soit aussi un choix de vie responsable.

Pour ce qui suit, je ne pourrai ici parler que de mon expérience personnelle, celle d’un utilisateur, d’abord, et celle d’un tout petit créateur de contenus. J’ai quelques sites web amateurs à mon actif et je m’amuse avec les réseaux en général. Et si je suis aussi un grand nostalgique des vieux gros ordinateurs des années 1960, c’est surtout à cause de mon travail d’historien, mais cette partie de l’histoire des machines et des réseaux est aussi un socle sur lequel on peut construire des représentations intéressantes des activités numériques.

État des lieux

Le web, c’est quoi ? Wikipédia nous le dit très bien : « un système hypertexte public fonctionnant sur Internet ». On y accède avec un client HTTP, le plus souvent un navigateur qui permet d’afficher des « pages web ». On peut évaluer le web d’aujourd’hui avec au moins deux points de comparaison : avant HTTP & HTML, et après.

Le point de rupture se situe donc entre 1991 et 1992. En 1991, la définition originale de HTTP version 0.9 par T. Berners-Lee était surtout une présentation succincte et à visée technique tandis qu’en 1992, le mémo HTTP 2 est une présentation beaucoup plus aboutie et concrète. Pour en comprendre la portée, T. Berners-Lee explique pourquoi les systèmes d’information doivent évoluer vers HTTP :

« Les systèmes d’information utiles exigent plus de fonctionnalités que la simple collecte, notamment la recherche, la mise à jour frontale et le traitement des annotations. Ce protocole permet d’utiliser un ensemble ouvert de méthodes (…). »

En 1996, T. Berners-Lee n’est cette fois pas seul pour rédiger la RFC 1945 et dans l’introduction la même phrase est reprise. C’est la même chose en 1999, etc.

Pourquoi est-ce si important ? Il ne faudrait surtout pas croire qu’avant 1991, les réseaux n’avaient pas de quoi structurer des contenus et les diffuser avec des applicatifs tout à fait sérieux. Qu’il s’agisse du vénérable Telex ou du plus moderne Teletex des années 1980, l’accès aux contenus sur les réseaux était tout à fait praticable, surtout après l’arrivée des premiers terminaux à écran. Pour ce qui concerne la création de contenus textuels, il y avait déjà l’ancêtre du HTML : le SGML (Standard Generalized Markup Language), un langage de balisage créé en 1969 et standardisé (ISO) qui vise à produire des textes structurés avec des styles, et donc accessible parfaitement via n’importe quel protocole pourvu qu’on s’entende sur la nature du document (la définition de la nature du document ou DTD). Donc de ce point de vue, SGML, HTML, XML sont des balisages similaires et dont les principes remontent à l’âge d’or des réseaux.

Qu’apporte le HTTP, dans ce cas ? d’abord le support des en-têtes des documents dans un format lui-même standardisé (MIME), ensuite, au fil des améliorations, ce sont surtout les notions de requêtes multiples et de négociation entre client et serveur qui sont importantes : savoir quels types de contenus sont « requêtés » et envoyés et depuis quel serveur (l’adresse de l’hôte). Viennent enfin plus récemment les spécifications pour le transfert sécurisé (HTTPS).

En d’autres termes, même si vous n’avez pas bien compris les paragraphes précédents, ce n’est pas grave. Voici l’essentiel : HTTP est un protocole de communication ouvert qui permet de trimballer plusieurs types de contenus et, au fur et à mesure de l’évolution de HTTP dans l’histoire, on ne s’est pas limité à la seule transmission de documents « texte » en HTML mais on a favorisé l’interactivité tels l’édition de pages web ou quelques applicatifs (Webdav, Cardav, Caldav), et surtout les scripts qui permettent de trimballer toujours plus de contenus multimédias.

Toute cette évolution est basée sur un principe : s’entendre sur des protocoles communs et ouverts de manière à échanger toujours plus de contenus différents quel que soit l’ordinateur et le langage de l’utilisateur. Le World Wide Web devait et doit toujours être un espace en commun (même si ce principe est fortement remis en question par certains gouvernements). Par définition, aucune limite pratique n’a été décrétée et c’est heureux : la multiplication des échanges est fondamentalement quelque chose de positif.

Par contre, deux critiques doivent absolument être entendues. La première est classique : le web est en grande partie devenu dépendant de quelques grandes entreprises qui en concentrent l’essentiel et exercent par conséquent un pouvoir exorbitant (avec la connivence des gouvernements) sur le bon usage de ce commun et par conséquent sur l’accès égalitaire à l’information et la liberté d’expression. Tim Berners Lee a lui-même publiquement dénoncé ce fait qui a détourné le web de sa vocation initiale.

L’autre critique est complémentaire à la première : l’abus de contenus, de présentation de contenus et de pompage de données a rendu le web carrément encombré. Entre la publicité, l’économie de l’attention, le streaming, les images : il est devenu de plus en plus difficile de se livrer à la première vocation du web : chercher, trouver et lire des contenus pertinents. L’évolution du poids des pages web est un indicateur fondamental pour se rendre compte à quel point, malgré l’augmentation de la rapidité de nos connexions, notre manière de créer des contenus est devenue délétère pour l’environnement comme pour la pertinence de ces contenus. La publicité joue évidemment un rôle prépondérant dans cet effet (voir Pärsinnen et al, 2018). Mais le plus alarmant à mes yeux, c’est le rapport entre le contenu HTML d’une page et son poids : en 2020, le contenu HTML d’une page web en 2020 pèse environ 1,3% du poids de la page. Cela signifie que la structure et le contenu informatif sont littéralement noyés dans une masse de données secondaires. Et parmi ces données secondaires, je soutiens que la grande majorité est parfaitement inutile.

Critique des contenus

Si de nombreuses voix s’élèvent depuis des années au sujet du capitalisme de surveillance, la question de la sobriété du web est plus délicate. Que sommes-nous prêts à sacrifier au nom d’une plus grande sobriété du web tout en cherchant à optimiser les contenus et leurs diffusion égalitaire et libre ? Après avoir été pendant des années biberonnés aux médias sociaux et au streaming vidéo sans prendre en compte leurs enjeux environnementaux et socio-psychologiques, que sommes-nous prêt à abandonner au profit d’un web plus efficace et sobre ?

J’avais déjà montré dans un article précédent à quel point les médias sociaux sont loin d’être des espaces démocratiques, en particulier parce qu’ils mettent sur le même niveau des contenus n’ayant aucun rapport entre eux pour générer de l’économie de l’attention. Ainsi un documentaire fouillé et sérieux est situé au même niveau qu’un néo-fasciste qui débagoule dans sa cuisine, un billet de blog équivaut à un article journalistique, et tous les articles journalistiques finissent par se ressembler… tout cela parce que la présentation de ces contenus est très souvent la même, en fin de compte. Les multinationales du web et en particulier le moteur de recherche Google, ont créé un écosystème calibré, optimisé pour le référencement concurrentiel, qui promeut la forme au détriment du fond. Les jugements de valeurs, les contenus caricaturaux et courts, les punchlines, les images-choc, seront toujours plus valorisés que les longs commentaires, articles ou vidéos qui analysent les faits, font un travail conceptuel ou vulgarisent des connaissances complexes.

Première remarque. Il ne faut pas individualiser la responsabilité. Ça, c’est qui a tendance à nous transformer en ayatollahs du tri de déchets ménagers au prix de tensions et d’engueulades familiales mémorables tandis que l’usine d’à-côté achète du droit à polluer. Je ne dis pas qu’il ne faut pas trier ses déchets (il le faut !), mais cela n’a pas de sens si on ne l’inclut pas dans le cadre plus général de notre rapport collectif à la consommation et aux communs naturels. L’analogie avec le web, c’est qu’en plus de chercher à trier le nécessaire du superflu, réfléchir à la manière dont nous communiquons et échangeons des informations conditionne aussi la réflexion collective sur ce nécessaire et ce superflu, dans la mesure où nos échanges passent en très grande partie par le web lui-même. Donc un web plus sobre ne signifie pas un web moins efficace : au contraire, comme on le verra plus loin avec la question de la structuration des contenus, gagner en efficacité c’est aussi chercher à gagner des espaces de débats et d’échanges. Le désencombrement du web est une optimisation.

Seconde remarque. Il faut comprendre tout ce que peuvent ressentir les utilisateurs pour qui les conditions d’accessibilité sont mises en jeu aujourd’hui. Le web est de plus en plus exclusif alors qu’il est censé être inclusif. La pression du « tout numérique » poussé par les politiques publiques, rend de nombreux services désormais inaccessibles. Ce n’est pas que de l’illectronisme, c’est aussi une question d’exclusion sociale (cf. Granjon, 2004, Alberola et al., 2016, Defenseur de droits, 2022). Mais dans beaucoup de cas, ce sont les usages et les « codes » qui sont en jeu : la manière de présenter des contenus, de la symbolique des icônes à la notion de menus et autres variations esthétiques, tout cela fait qu’il est souvent décourageant pour un néophyte de tenter d’y trouver de l’information pertinente. Par exemple, cliquer sur un lien sans voir exactement où il renvoie, parfois sur la même page, parfois dans un autre onglet du navigateur, parfois pour télécharger un document (qui aurait très bien pu être affiché en HTML), parfois pour écrire un courriel (mailto:), tout cela a quelque chose de déroutant pour une personne qui n’est pas habituée aux usages. Cette accessibilité est en outre un sujet de premier plan pour les malvoyants : les pages web brillent de mille feux mais la persistance à vouloir absolument présenter des contenus avec forces effets stylistiques rend extrêmement difficile la recherche d’information. Si je veux naviguer en mode texte (ou avoir une lecture audio) sur une page web aujourd’hui, je dois sacrifier l’accès à certaines informations et me contenter d’un web de second choix. Cela ne devrait pas être le cas.

Troisième remarque. Beaucoup de déclarations sur le web se réclament du mouvement low-tech et dénoncent les usages énergivores pour mieux démontrer comment des technologies sobres permettent de lutter contre le gaspillage. Oui, on peut toujours héberger son serveur web chez soi sur un petit Raspberry pour quelque Kwh. Si ce serveur sert à héberger des contenus intéressants avec un public significatif, oui il peut être considéré comme une bonne pratique, quoique toujours dépendante des infrastructures du web, du fournisseur de service aux câbles sous-marins intercontinentaux et les fermes de serveurs des moteurs de recherche. Oui, nous avons besoin d’un web low-tech, sans aucun doute. Mais ces dispositifs doivent absolument s’accompagner d’une critique des contenus eux-mêmes : est-il pertinent de continuer à publier sur des dispositifs low-tech tout ce qu’on publiait auparavant sur Youtube, Snapchat et Instagram ? Avouez qu’il a pas mal de déchets à envisager, non ? est-il pertinent, même sur un serveur low-tech, de continuer à publier des sites web et des blogs bourrés de traceurs, de pub, de mise en formes, de polices de caractères, d’images à vocation purement communicative (c’est-à-dire sans valeur ajoutée quant au fond du propos), et des appels de fichiers vidéos sur des plateformes externes ?

Critique des techniques

Un web low-tech s’accompagne d’une réflexion sur les usages et n’est rien sans cela. Comme le montre Low Tech Magazine, la réflexion doit être back-end et front-end. Il ont d’ailleurs décrit un très bon exemple de démarche dans cet article :

« Internet n’est pas une entité autonome. Sa consommation grandissante d’énergie est la résultante de décisions prises par des développeurs logiciels, des concepteurs de site internet, des départements marketing, des annonceurs et des utilisateurs d’internet. Avec un site internet poids plume alimenté par l’énergie solaire et déconnecté du réseau, nous voulons démontrer que d’autres décisions peuvent être prises. »

Est-ce que la légèreté d’un site web pourrait pallier la lourdeur de son hébergement ? En d’autres termes vaut-il la peine de construire des sites web épurés (comme cette page de blog que vous êtes en train consulter) si, par derrière, l’hébergement est assuré dans un silo de serveur (comme ce blog). À bien y réfléchir, je ne sais pas vraiment. Je pense que tout dépend des pratiques. Mon blog utilise Hugo via une instance Gitlab : il s’agit de générer des pages web statiques aussi légères que possibles, ce qui permet de diminuer drastiquement la charge serveur, le temps de connexion et le téléchargement. Si je devais me servir encore d’un RaspebbryPi derrière ma box internet, il me faudrait acheter ce petit dispositif dont l’essentiel de la technologie mobilise des ressources à la production et à l’achat. Compte-tenu de la fréquence de mes visiteurs (peu nombreux), je doute sincèrement du gain environnemental de l’opération (en fait je vais expérimenter la chose en recyclant un RaspebbryPi mais cela fera toujours un dispositif supplémentaire dont le coût énergétique est largement supérieur au coût énergétique de quelques pages sobres chez un hébergeur existant).

Donc oui, même si des sites web dépendent d’infrastructures physiques coûteuses pour l’environnement, le fait de construire des pages web légères participe d’un mouvement permettant – sans pour autant pallier les contraintes physique – de désencombrer le web et le rendre :

  • plus durable : diminuer cet encombrement implique plus de légèreté dans les transactions,
  • plus résilient : la construction de pages web désencombrées suppose une structuration de contenus qui fait la part belle à la pertinence et à la recherche d’information, c’est-à-dire les premières fonctionnalités du web, au lieu de surcharger avec des contenus non nécessaires, soumis aux effets de mode et aux aléas des technologies disponibles,
  • plus lisible : certaines techniques peu coûteuses permettent de faire le lien entre structure et contenu (par exemple les microformats, comme nous le verrons plus loin).

Nous ne pouvons pas aller chercher des solutions pérennes en nous précipitant dans une course en avant technologique, pas plus que la croissance technologique n’est censée être le remède contre le changement climatique (produire de lourdes berlines high-tech avec un moteur électrique ne fait que déplacer le problème des ressources disponibles et de leur exploitation). Le solutionnisme n’est pas avare de recettes. Pour rendre des sites web plus économes, nous pourrions envisager encore d’autres dispositifs de l’informatique personnelle, par exemple sur le modèle des liseuses électroniques pour les livres, une sorte de tablette low tech qui donne accès au strict minimum en mode texte essentiellement… un dispositif de plus. Ou bien « encore une appli », sur un autre dispositif encore… et sous prétexte d’alléger le web on alourdi alors les dispositifs physiques mobilisés. Nous pourrions aussi imaginer un surplus de monitoring que par exemple les fournisseurs d’accès pourraient assumer en nous fournissant un web plus léger en modifiant les contenus que nous recevons. Seulement rajouter une couche entre client et fournisseur a ses limites : d’une part cela reviendrait à créer un web inégalitaire et non neutre1 (un retraitement des données qui pose des questions de censure, de sécurité et va à l’encontre de la libre circulation des informations), et d’autre part cela créerait une surcouche technologique dont l’impact économique et énergétique ne serait pas un gain. Enfin, nous pourrions aussi imaginer des logiciels qui permettent d’alléger la lecture elle-même en adaptant le contenu téléchargé, tel le navigateur Browsh, mais est-ce à l’utilisateur de mobiliser de la puissance de calcul pour corriger ce qui ne devrait pas l’être ? Cela me fait penser à tous ces sur-emballages carton des produits alimentaires que nous devons consciencieusement plier et trier au bon soin des services publics qui nous en débarrassent moyennant des hausses d’impôts locaux : nous devrions au contraire les faire bouffer aux distributeurs.

Vers la fin des années 1950, les dispositifs informatiques, ordinateurs et réseaux, ont été fabriqués industriellement, exploités et vendus dans le but initial de rationaliser les processus de production. En tant que systèmes d’information, ce fut leur seconde révolution informatique, celle qui fit sortir les ordinateurs du laboratoire, de la haute ingénierie et du bricolage savant vers les entreprises et ensuite l’informatique domestique. Les réseaux à portée de tous dans les années 1980 puis le web à partir des années 1990 répondent à une vision new age du village global révisé à la sauce de la société de consommation, mais aussi à la généralisation des moyens de communication, de création et de partage de l’information et des connaissances (le rêve d’un système d’information global de Ted Nelson). Peu à peu la convivialité a laissé place à l’automonomie de ces dispositifs techniques en accroissant la complexité des usages, en déportant les fonctionnalités des services existants sur la responsabilité individuelle (on peut parler des nombreuses tâches administratives qui désormais nous échoient dans la numérisation forcée des services publics).

Délaissant la probité et la convivialité, tout en nous submergeant, la croissance des services numériques est désormais incompatible avec notre avenir climatique commun. Dès lors, plutôt que de poursuivre cette croissance, on peut se diriger vers une reconfiguration de la logique d’ingénierie. C’est ce que propose Stéphane Crozat dans une réflexion sur l'« informatique modeste » :

« L’idée d’une démarche de low-technicisation consiste donc à minimiser le domaine d’application de la technique d’une part et de minimiser sa complexité d’autre part. On cherche d’abord ce qui peut ne pas être construit et ce qui peut être mobilisé de plus simple sinon. C’est en cela une inversion de la fonction de l’ingénieur moderne dont le métier est d’abord de construire des machines toujours plus performantes. »

Une informatique modeste n’est pas un repli technophobe. Il s’agit de proposer une alternative low-tech en redéfinissant les objectifs, à commencer par la limitation du surplus matériel et logiciel qu’engendre la course à la croissance au détriment de la convivialité et des fonctionnalités. Dans une logique de croissance, l’intérêt des fonctionnalités est in fine envisagé du point de vue du profit2 alors qu’il devrait être envisagé du double point de vue par rapport à l’existant et par rapport à l’intérêt collectif (dans lequel on intègre la disponibilité des ressources naturelles et matérielles).

Suivant cette idée, vouloir un web désencombré invite à repenser non seulement le transport des informations (les protocoles) mais aussi la nature des contenus. La réflexion sur le besoin et la nécessité implique une révision des contenus et de leur présentation.

Principes du web désencombré

Tout le monde ne peut/veut pas monter un serveur basse consommation chez soi et ce n’est pas forcément pertinent si la nécessité oblige à faire face à une charge serveur importante et une haute disponibilité. L’essentiel, avec des dispositifs du genre (par exemple, on peut citer la FreedomBox), c’est de comprendre que non seulement il passent par la case logiciels libres, mais aussi que les dispositifs doivent être adaptés aux objectifs (éviter la course en avant technologique, cf. plus haut). La sobriété numérique passe par la discussion et le consensus.

Outre les aspects techniques d’un serveur low-tech, il est donc crucial aujourd’hui de s’interroger sur la manière dont nous voulons présenter des contenus de manière à désencombrer le web et clarifier nos usages. Rappel : HTTP et HTML sont les bases autour desquelles se greffent les contenus, par conséquent il s’agit de les structurer convenablement, c’est-à-dire faire passer le fond avant la forme. J’émets donc ici quelques idées, avec beaucoup de redondance. Exprès !. Ce sont des directions potentielles dont le but est surtout de chercher à ouvrir une discussion sur la manière dont nous devrions structurer le web. En gros : mettons-nous à la recherche d’une politique éditoriale du web désencombré.

Liberté

Il n’y a aucune obligation à suivre les préceptes d’un web désencombré3. Il faudrait néanmoins que chacun en comprenne le sens et qu’on puisse ouvrir la possibilité d’un « réseau » désencombré où l’on reconnaîtrait chaque page par son caractère numériquement sobre. On pourrait proposer un manifeste de la communauté du web désencombré.

  • Recommandation : un web désencombré est d’abord une réflexion critique sur les technologies web et sur la manière de structurer les contenus.

Inspiration : Fuckcss et Gemini

En mettant de côté leur aspect volontairement provocateur, on peut s’inspirer des pages suivantes désormais bien connues : This is a motherfucking website. et This is still a motherfucking website. Même si elles contiennent des scripts Google analytics (!).

Elles ont le mérite de démontrer qu’un site web n’a vraiment pas besoin de surcharge CSS. La seconde version propose une négociation relative au confort de lecture : elle démontre qu’un strict minimum de style doit être d’abord pensé pour rendre plus accessible l’information sans pour autant imposer une typographie. La relative austérité de ces pages n’est en réalité due qu’à la feuille de style par défaut du navigateur (allez voir par ici sur Firefox : resource://gre-resources/).

C’est pourquoi une amélioration notable des navigateurs pourrait s’inspirer à son tour de la créativité des créateurs des différents navigateurs utilisés pour le protocole Gemini, comme Lagrange et les autres.

En effet que montre Gemini ? Qu’en s’inspirant d’un protocole comme Gopher (aussi ancien que HTTP) qui permet de présenter des documents dans une grande sobriété (esthétique et énergétique), il est possible de déporter correctement leur présentation sur les fonctionnalités du navigateur et par conséquent rendre leur consultation esthétique, agréable et fonctionnelle en travaillant la chose en local.

Pour moi, Gemini est d’abord une preuve de concept, tant dans le processus de création de contenus4 que dans la consultation. Même si le Geminispace reste confidentiel et réservé à quelques connaisseurs, l’utilisation est néanmoins très simple, même si elle implique forcément un changement d’habitudes. Je pense que, sur ce modèle, un web désencombré devrait s’inspirer d’un protocole et d’un langage déjà forts anciens (HTTP et HTML) mais en les utilisant dans leurs « versions » originelles. Il m’est d’avis que si les navigateurs créés pour Gemini acceptaient à la fois du Gopher/Gemini et du HTML « scrict » (je le met entre guillemets car il n’a plus cours), nous pourrions surfer de manière très intéressante avec des fonctionnalités très créatives. Un piste pourrait être le navigateur HTML Lynx, qui utilise une coloration syntaxique intéressante.

Les contenus textuels : structuration

La sobriété numérique ne doit pas être comprise comme un « retour aux sources ». D’une part ces « sources » sont toujours présentes : le HTML est une évolution de l’ancien SGML. D’autre part s’adosser à l’existant implique ici en réalité un usage correct des langages de structuration de contenus. Par exemple, utiliser correctement les éléments HTML revient à optimiser la recherche et la visibilité de l’information. Il faut donc éviter que des éléments HTML soient utilisés pour ce qu’il ne sont pas. Par exemple, faire systématiquement des liens dans des <button> et/ou dans des <form>.

Écrire pour le web est devenu une activité à part entière, entièrement dédiée à l’optimisation des résultats des moteurs de recherche, si bien que les contenus ainsi rédigés sont ni plus ni moins que des bons contenus googlisés ! Si d’autres moteurs de recherche plus axés sur des types de structures de pages voyaient le jour, il serait beaucoup plus intéressant de publier des contenus (voir ci-dessous la question des microformats). Écrire pour le web devrait donc en premier lieu avoir pour seul souci la bonne structuration du contenu indépendamment de la manière dont les robots d’une multinationale pourraient le lire. Les mots-clé, les descriptions, les titres doivent être honnêtes et en accord avec le contenu, il ne doivent pas créer de faux indices de pertinence pour être mieux référencés dans des bases de données.

Par défaut, la conception de contenus web doit se concentrer sur toutes possibilités de structuration de contenu du HTML dans la version en cours, et les exploiter au mieux. En d’autres termes, les styles ne doivent pas chercher à pallier les soi-disant manques du HTML ou orienter la compréhension des contenus.

  • Recommandation : Bien que HTML 5 n’ai pas de variante stricte, il faudrait s’inspirer des anciennes variantes HTML strict pour réaliser des pages web. Ceci est l’orientation, pas le but. Cette épuration permet de construire des documents clairs et bien structurés qui pourront être lisibles pour ce qu’ils sont et non ce qu’ils paraissent, avec tout type de navigateur.
  • Recommandation : les feuilles de styles devraient être réduites au minimum nécessaire en fonction du contenu, elles doivent être ad hoc. Si le contenu évolue pour intégrer de nouveaux types de contenus, la feuille de style évolue avec. La feuille de style ne doit pas encombrer5.
  • Recommandation : utiliser à bon escient les en-têtes HTML. Les balises meta doivent être les plus exhaustives possibles tout en restant honnêtes. Le web désencombré est un web de confiance. Les mots-clés, les descriptions, etc. doivent refléter exactement le document et non être rédigés à des fins de SEO « concurrentielle » et marketing.

Une piste : améliorer les navigateurs

Une piste de réflexion pourrait consister à améliorer les fonctionnalités des navigateurs pour leur permettre d’afficher de bons styles (modifiables par l’utilisateur) en fonction du type de page consulté. Cette fonction existe en partie, par exemple sur Firefox qui propose un « mode lecture » ou bien, dans les paramètres de Firefox la section apparence, ou encore certains plugins qui proposent de remplacer des styles. Cette fonction pourrait être étendue selon le type de page (correctement déclarée dans les balises d’en-tête, par exemple dans la balise <meta name="description" ) et qui respecterait les préceptes d’un web désencombré.

En effet, si on considère un instant les template/CSS proposés pour les CMS les plus courants (par les communautés d’utilisateurs ou par les sites officiels), quelle typologie trouve-t-on ? Un blog, un journal (ou autre site de news), un site de commerce de détail, un site web d’entreprise, un CV, un portfolio. Le reste, ce sont les web designer qui s’en occupent pour construire des présentations sur mesure. Si nous partons de cette typologie, voici 6 feuilles de styles qui pourraient être choisies par défaut par le navigateur. En poussant le curseur un peu plus loin, il n’y aurait même plus besoin de feuille de style à télécharger avec le document, c’est le navigateur qui se chargerait de proposer une présentation du contenu (et l’utilisateur pourrait choisir). L’idée, ici, consiste à déporter la présentation sur le navigateur, c’est-à-dire travailler en local pour décharger les serveurs d’informations qui seraient superflues.

Plus besoin de télécharger des polices de caractère, plus besoin d’imposer ses goûts et ses couleurs. Bien sûr, il ne devrait pas y avoir d’obligation : c’est l’utilisateur qui devrait pouvoir choisir s’il accepte ou non de consulter le site avec la proposition de style du créateur.

Recommandation : les feuilles de style ne devraient être que des propositions qui permettent de jouer sur la présentation de contenus HTML bien structurés. L’utilisateur devrait pouvoir choisir ou non le style proposé, consulter uniquement en mode texte, ou consulter selon le style qu’il pourra appliquer automatiquement ou non par son navigateur. En l’absence d’un tel choix, par défaut, les styles doivent être réduits à presque rien.

Tout n’est pas mauvais dans les styles

Les feuilles de styles sont des amies : elles permettent de rendre plus agréable la lecture, elle embellissent le web, permettent la créativité, et si la typographie est maîtrisée elles apportent du confort.

Mais elles ont un côté obscur  :

  • la tendance à l’uniformisation : paradoxalement, la créativité est persona non grata sur bien des sites web. Les sites d’actualités, de commerce de détail, et même les sites d’entreprises se ressemblent beaucoup, seules les couleurs et les logos changent. Qui parle encore de visibilité sur le web ? Cela tient pour beaucoup aux CMS (systèmes de gestion de contenus) : même s’il permettent à leurs utilisateurs de créer des CSS sur mesure, l’organisation des pages qu’ils proposent par défaut impliquent souvent une uniformisation des contenus et donc des styles qui se ressemblent.
  • la volonté d’imposer un affichage, une présentation des contenus, sans réelle valeur ajoutée. Pourquoi vouloir absolument proposer des couleurs ou des images qui n’apportent rien de plus au contenu ? Un site qui ne joue que sur les feuilles de style pour afficher un menu, ou mettre en exergue des contenus sera très difficilement lisible sur un navigateur en mode texte, ou en utilisant le mode lecture du navigateur, et surtout c’est la plupart du temps une cause d’inaccessibilité pour les personnes malvoyantes. Les styles doivent n’être que des propositions qui visent à faciliter la lecture par rapport aux feuilles de style par défaut des navigateurs (on l’a déjà dit plus haut, d’accord).
  • la multiplication des requêtes : par exemple, imposer à l’utilisateur de télécharger des polices de caractères (qui en plus sont souvent hébergées par des multinationales qui en profitent pour surveiller), ou imposer une image de fond, des animations,… Les styles ont tendance à alourdir les pages web, souvent inutilement du point de vue du fonds comme du point de vue de la forme.

Pour autant, les styles ne sont pas tous bons à jeter par la fenêtre. On peut penser par exemple à utiliser les microformats. Ces derniers cherchent à combler le fossé entre la structure et la signification grâce à des classes qui sont comprises directement par le navigateur. Par exemple, un microformat qui est prometteur, c’est citation. Avec les bons effets de styles, celui-ci pourrait permettre d’identifier et de travailler les bibliographies sur le web un peut à la manière d’un bibtex géant ! Cela aurait un certain panache et compléterait aisément l’élément HTML <cite> souvent peu ou mal employé.

  • Recommandation : on devrait pouvoir écrire ce qu’on veut, comme on veut, sans être conditionné par des styles.
  • Recommandation : utiliser et promouvoir les microformats permettrait d’optimiser la recherche, la lecture et la compréhension des informations.

Les contenus multimédias

Par défaut, aucune image, aucun son, aucune vidéo ne devrait être téléchargé si l’utilisateur n’en a pas fait explicitement la demande.

Pour les mêmes raisons d’accessibilité mentionnées plus haut, on bannira les icônes et autres images ayant vocation à remplacer de l’information par une iconographie dont les clés de compréhension ne sont de toute façon pas connues de tous.

Il y a un statut particulier du contenu multimédia lorsqu’il vise à illustrer un propos : dans un article, une vignette ne dépassant pas une dizaine de kilo-octets pourrait être proposée dans l’élément HTML figure avec un lien vers l’illustration en plus haute définition soit dans l’élément caption soit directement sur la vignette (à la manière du web des années 1990).

Pour les contenus textuels, une image devrait uniquement avoir pour objectif d’illustrer un propos (mais dans une démarche artistique, une image est en soi le propos).

Un site ayant la vocation de diffuser exclusivement des contenus multimédia doit en assumer le coût énergétique et d’accessibilité tout en structurant correctement ces contenus pour les décrire avec soin. Par exemple, pour les vidéos, on pourra utiliser Peertube (monter une instance ou partager une instance avec d’autres personnes) et proposer par défaut une visualisation en basse définition tout en soignant le sommaire des vidéos.

  • Recommandation : il ne devrait pas y avoir de recommandation particulière pour la présentation des contenus multimédias étant donné que le coût énergétique de leur distribution est connu pour être particulièrement dispendieux. Il appartient à chacun de proposer de tels contenus en connaissance de cause et, le cas échéant, utiliser des formats libres, des logiciels libres et des services de distribution libres comme Peertube pour le son et la vidéo, par exemple).
  • Recommandation : en revanche, un web désencombré commence par se débarrasser du superflu : par défaut, aucune image, aucun son, aucune vidéo ne devrait être téléchargé si l’utilisateur n’en a pas fait explicitement la demande.

Sécurité et confidentialité : pas de javascript, pas de cookies

Le web désencombré est par nature un web sécuritaire. Il noue une chaîne de confiance entre le créateur de contenu et l’utilisateur.

Par conséquent, il n’y a aucune place pour la captation de données utilisateur à des fins de mesure d’audience ou publicitaire. Cela se concrétise notamment par l’interdiction par défaut de code javascript dans les pages HTML et par le refus par défaut de n’importe quel cookie. Cependant…

La manque de confiance dans la navigation web a aujourd’hui atteint un tel stade que certains utilisateurs désactivent complètement le javascript dans leur navigateur, surtout pour des raisons de sécurité. C’est dommage, car l’intention première d’imaginer un web interactif s’en trouve contrecarrée.

Cela dit, un utilisateur est forcément par défaut un utilisateur sans javascript : il faut toujours télécharger le script avant de l’exécuter. Or, tous les navigateurs (surtout en mode texte) ne permettent pas d’exécuter ces scripts. Par conséquent, pour un web désencombré, l’utilisation de javascript devrait être exceptionnelle et réservée à des sites interactifs spécialisés (par exemple un site qui permet une application javascript en ligne). A priori, lire un blog, une vitrine d’entreprise, un article de news ou consulter une base documentaire ne devrait pas nécessiter de scripts.

Concernant les cookies et autres traceurs, le web d’aujourd’hui est dans un tel état que les utilisateurs doivent s’en prémunir (même avec les obligations du RGPD), en installant des plugins tels Ublock Origin ou Privacy Badger. Là encore, un web désencombré ne peut admettre l’utilisation de cookies qui ne soient pas a minima strictement conforme au RGPD et dont la fiabilité est vérifiable.

En d’autres termes, l’utilisation de cookies tiers devrait être interdite pour un web de confiance et désencombré. La CNIL a publié à cet effet quelques moyens de lutter contre ce fléau… mais certains ne manquent pas d’imagination pour contourner tous ces dispositifs.

  • Recommandation : structurer correctement des pages web et les proposer au téléchargement ne devrait nécessiter par défaut aucun cookie ni script. Le web désencombré ne peut donc concerner directement les sites spécialisés qui, pour des raisons d’identification ou de fonctionnement ont besoin de ces dispositifs. Dans ce cas, c’est à eux de trouver des solutions pour une éco-conception web plus efficace. L’essentiel est de veiller à ce que les sites soient les plus légers possibles, les plus sécurisés possible, les plus respectueux possible. Des outils de lutte sont à disposition.
  • Recommandation : dans de très nombreux cas, les cookies (first party) sont nécessaires (par exemple pour un sondage via un formulaire), ce qui lève la convention par défaut citée ci-dessus. Un web désencombré ne peut donc être un web avec des cookies tiers, c’est une limitation volontaire et non négociable. Même remarque avec les scripts.

Pour aller plus loin

C. Bonamy et al, Je code : les bonnes pratiques en éco-conception de service numérique à destination des développeurs de logiciels, URL].

S. Crozat, Low-technicisation du numérique, Conférence, URL.

—, « Vers une ataraxie numérique : low-technicisation et convivialité » in Prendre soin de l’informatique et des générations, hommage à Bernard Stiegler, FYP Éditions, 2021. Texte lisible sur le blog de l’auteur, URL.

Collectif GreenIT, Conception numérique responsable URL ; les fiches Bonnes Pratiques

Fondation Mozilla, HTML (HyperText Markup Language), URL.

Pikselkraft, Bibliographie sur l’éco-conception web et les sites Low Tech, URL.

Mission interministérielle numérique responsable, Référentiel général d’écoconception de services numériques (RGESN), URL.

J. Keith, Resilient Web Design, URL.

Wiki des microformats, URL.


  1. Il y a eu et il y aura encore beaucoup de projets dans ce style, visant à promouvoir l’accès à Internet pour tous et dans des conditions difficiles tout en réduisant le web à quelques services aux mains des grandes entreprises. Une illustration est le projet Internet.org promu par Facebook au nom de la connectivité pour tous. ↩︎

  2. Avoir des smartphones dont la fonction de photographie est toujours plus performante n’a pour autre objectif que de créer un discours marketing pour gagner des parts de marché car l’intérêt réel pour les utilisateurs est marginal. L’interêt collectif est alors laissé de côté : prendre des photos ou des vidéos très haute définition engendre le besoin d’une connectivité toujours plus performante pour les partager, or ne serait-il pas plus pertinent de se poser d’abord la question de la pertinence des contenus multimédia haute définition si leur utilisation se fait pour l’essentiel sur des petits écrans ? Si par défaut le partage de contenus multimédia se faisait en basse définition ou de manière systématiquement plus économe en ressources matérielles et en bande passante, le marché des smartphones disposant de capteurs vidéos et photos s’en trouverait radicalement changé. ↩︎

  3. Vous noterez par la même occasion que la page que vous êtes en train de lire ne correspond pas vraiment à ces recommandations. Cela va s’améliorer au fur et à mesure de l’avancement de mes connaissances à ce sujet. ↩︎

  4. Après tout, on crée des pages Gemini dans un pseudo-markdown et le markdown est déjà largement utilisé pour créer des pages HTML. Le processus de création est très similaire de ce point de vue. ↩︎

  5. Pour être plus explicite, si votre contenu ne propose aucun tableau, il n’est pas utile d’imposer le téléchargement de styles pour des tableaux ; si vos titres sont suffisamment clairs et explicites, il n’est pas utile de les mettre en couleur et imposer vos goûts ; si les navigateurs ont tous désormais un mode lecture nuit/sombre/clair, il est alors inutile de s’occuper de cela dans une feuille de style ; etc. ↩︎


Publié le 04.02.2023 à 01:00

Toute la France se tient sage... toute ?

Il y a des torchons qu’on ne devrait pas signer et d’autres qui méritent franchement d’être brûlés. La « France qui se tient sage » est un concept qui a fait du chemin et il est vrai que bien peu l’ont vu venir. Il se décline aujourd’hui dans le monde associatif mais aussi – on en parle moins – dans le monde académique.

Des associations qui se tiennent sages

En 2020, dans le cadre de la lutte contre le « séparatisme », l’argumentaire était judicieusement choisi. Surfant sur la vague des attentats (notamment celui de Samuel Paty) se revendiquant d’un certain islam, et sur celle de l’angoisse d’un monde en guerre et de l’écho trop large laissé aux discours de haine dans les médias, la lutte contre le séparatisme visait à prémunir la société française contre les tentatives anti-démocratiques de groupes identifiés souhaitant imposer leur propre ordre social. Ordres religieux, s’il en est, ou bien ordres néofascistes, bref, la Loi confortant le respect des principes de la République (dite « Loi séparatisme ») nous a été vendue comme un bouclier républicain. En particulier des dispositions ont été prises pour que toute association profitant des bienfaits institutionnels (versement de subventions ou commodités municipales) tout en livrant discours et actes à l’encontre de l’ordre républicain se verrait dissoute ou au moins largement contrecarrée dans ses projets.

On peut s’interroger néanmoins. L’arsenal juridique n’était-il pas suffisant ? Et dans la surenchère d’amendements appelant à la censure de tous côtés, on pouvait déjà se douter que le gouvernement était désormais tombé dans le piège anti-démocratique grossièrement tendu : ordonner le lissage des discours, l’obligation au silence (des fonctionnaires, par exemple), contraindre la censure à tout bout de champ dans les médias… le front des atteintes aux libertés (surtout d’expression) marquait une avancée majeure, ajoutées au déjà très nombreuses mesures liberticides prises depuis le début des années 2000.

Le 31 décembre 2021, un décret mettait alors en place le Contrat d’engagement républicain (CER) à destination des associations qui bénéficient d’un agrément officiel ou de subventions publiques (au sens large : il s’agit aussi de commodités en nature qu’une collectivité locale pourrait mettre à disposition). Ce CER n’a pas fait couler beaucoup d’encre à sa sortie, et pour cause : les conséquences n’était pas évidentes à concevoir pour le grand public. Tout au plus pouvait-on se demander pourquoi il était pertinent de le signer pour toutes les associations qui sont déjà placées sous la loi de 1901 (ou sous le code civil local d’Alsace-Moselle). Après tout, celles accusées de séparatisme tombaient déjà sous le coup de la loi. Par exemple, pourquoi l’association des Joyeux Randonneurs de Chimoux-sur-la-Fluette, dont les liens avec le fascisme ou l’intégrisme religieux sont a priori inexistants, devait se voir contrainte de signer ce CER pour avoir le droit de demander à la municipalité quelques menus subsides pour l’organisation de la marche populaire annuelle ?

Réponse : parce que l’égalité est républicaine. Soit ce CER est signé par tout le monde soit personne. D’accord. Et le silence fut brisé par quelques acteurs de qui, eux, l’avaient lu attentivement, ce contrat. Il y eut Le Mouvement Associatif qui dès le 3 janvier 2022 publie un communiqué de presse et pointe les dangers de ce CER. On note par exemple pour une association l’obligation de surveillance des actions de ses membres, ou encore le fait que les « dirigeants » d’une association engagent la responsabilité de l’ensemble de l’association. Comprendre : si l’un d’entre vous fait le mariole, c’est toute l’asso qui en subit les conséquences (privé de subvention, na!).

Puis s’enclenche un mouvement général, comme le 02 févier 2022 cet appel de la Ligue des Droits de l’Homme. Enfin L.A. Coalition fut au premier plan contre le CER dès les premiers débats sur la loi séparatisme. Créé dès 2019 afin de « proposer des stratégies de riposte contre les répressions subies par le secteur associatif », L.A. Coalition montre combien sont nombreuses les entraves judiciaires ou administratives dressées dans le seul but de nuire aux libertés associatives, surtout lorsqu’elles sont teintés de militantisme… alors même qu’elles sont la matière première de la démocratie en France. L.A. Coalition illustre la contradiction notoire entre le discours gouvernemental prétendant défendre la République et la voix du peuple profondément attaché aux valeurs démocratiques. Elle se fait ainsi le thermomètre de l'illibéralisme en France.

Lorsque les associations s’emparent de sujets de société tels l’écologie, les questions de genre, l’économie, les migration, la pauvreté, ou oeuvrent plus généralement pour une société plus juste et solidaire, elles sont désormais amenées à engager une lutte à l’encontre des institutions qui, jusqu’à présent, leur garantissait un cadre d’action démocratique et juridique.

Mais cette lutte dépasse assez largement le cadre des actions associatives. En effet, le CER n’a pas pour seul objet de contraindre les citoyens à la censure. Il sert aussi à court-circuiter les cadres de l’action publique locale, surtout si les collectivités locales sont dirigées par des élus qui ne sont pas du même bord politique que la majorité présidentielle. C’est que qu’illustre notamment l’affaire d’Alternatiba Poitiers qui s’est vue (ainsi que d’autres associations) mettre en cause par le préfet de la Vienne en raison d’un atelier de formation à la désobéissance civile lors d’un évènement « Village des alternatives ». Invoquant le CER contre le concept même de désobéissance civile, le préfet Jean-Marie Girier (macroniste notoire) a obligé la mairie de Poitiers (dont le maire est EELV) à ne pas subventionner l’évènement. Il reçu aussitôt l’appui du Ministre de l’Intérieur (l’affaire est devant la justice). La France des droits et libertés contre la France de l’ordre au pouvoir, tel est l’essence même du CER.

Des scientifiques qui se tiennent sages

On ne peut pas s’empêcher de rapprocher le CER du dernier avatar du genre : le serment doctoral.

Qu’est-ce que c’est ? Il s’agit d’un serment d’intégrité scientifique rendu obligatoire pour tout nouveau docteur et stipulé dans L’arrêté du 26 août 2022 modifiant l’arrêté du 25 mai 2016 fixant le cadre national de la formation et les modalités conduisant à la délivrance du diplôme national de doctorat. L’office français de l’intégrité scientifique (OFIS) en a fait une fiche pratique.

Voici le texte (Art. 19b de l’arrêté) :

« En présence de mes pairs.

Parvenu(e) à l’issue de mon doctorat en [xxx], et ayant ainsi pratiqué, dans ma quête du savoir, l’exercice d’une recherche scientifique exigeante, en cultivant la rigueur intellectuelle, la réflexivité éthique et dans le respect des principes de l’intégrité scientifique, je m’engage, pour ce qui dépendra de moi, dans la suite de ma carrière professionnelle quel qu’en soit le secteur ou le domaine d’activité, à maintenir une conduite intègre dans mon rapport au savoir, mes méthodes et mes résultats. »

On notera que sous son apparente simplicité, le texte se divise en deux : ce que le doctorant a fait jusqu’à présent et ce que le nouveau docteur fera à l’avenir (même s’il quitte le monde académique car le grade de docteur valide compétences et savoirs d’un individu et non d’une fonction). Autrement dit, le serment est censé garantir « l’intégrité » du docteur, alors même que l’obtention du diplôme validé par des (désormais) pairs était déjà censé sanctionner cette intégrité.

Là encore, tout comme avec le CER, il y a une volonté de court-circuiter des acteurs institutionnels (ici les professeurs et l’Université qui valident le doctorat) qui sont désormais réputés ne plus être en mesure de détecter la fraude ou même de garantir les sciences contre les manipulations d’informations, de données et les arguments fallacieux (on pense évidemment aux informations douteuses qui ont circulé lors de l’épisode COVID). On peut aussi s’interroger sur la représentation de la Science que cela implique : une Science figée, obéissant à un ordre moral qui l’empêcherait d’évoluer à ses frontières, là où justement les sciences ont toujours évolué, souvent à l’encontre du pouvoir qu’il soit politique, religieux ou moral.

Plusieurs sections CNU (Conseil National des Universités) sont actuellement en train de réfléchir à l’adoption de motions à l’encontre de ce serment. Ainsi la section 22 (Histoire) a récemment publié sa motion: « Elle appelle les Écoles doctorales et la communauté universitaire dans son ensemble à résister collectivement, par tous les moyens possibles, à l’introduction de ce serment ». L’argument principal est que ce serment introduit un contrôle moral de la recherche. Ce en quoi la communauté universitaire a tout à fait raison de s’y opposer.

On peut aussi comparer ce serment avec un autre bien connu, le serment d’Hippocrate. Après tout, les médecins prêtent déjà un serment, pourquoi n’en serait-il pas de même pour tous les docteurs ?

Hé bien pour deux raisons :

  • Parce que le serment d’Hippocrate n’est pas défini par un arrêté et encore moins dicté par le législateur. Il s’agit d’un serment traditionnel dont la valeur symbolique n’est pas feinte : il est hautement moral et à ce titre n’a pas de rapport juridique avec le pouvoir.
  • Il engage le médecin dans une voie de responsabilité vis-à-vis de ses pairs et surtout des patients qu’il est amené à soigner. Il appartient au Conseil de l’Ordre des médecins : c’est une affaire entre médecins et patients d’abord et entre médecins et médecins ensuite.

Reprenons les termes du serment doctoral imposé par le gouvernement : « je m’engage, pour ce qui dépendra de moi, dans la suite de ma carrière professionnelle quel qu’en soit le secteur ou le domaine d’activité, à maintenir une conduite intègre dans mon rapport au savoir, mes méthodes et mes résultats. »

Question : qui est censé juger de l’intégrité de la conduite ? Les pairs ? Ce n’est pas stipulé, alors que c’est clair dans le serment d’Hippocrate de l’Ordre des Médecins, dernier paragraphe :

« Que les hommes et mes confrères m’accordent leur estime si je suis fidèle à mes promesses ; que je sois déshonoré(e) et méprisé(e) si j’y manque. »

Le « serment doctoral » stipule seulement qu’il est prêté « en présence de mes pairs », la belle affaire. Il est évident selon moi que l’intégrité scientifique d’un chercheur sera à l’avenir évaluée moralement par les institutions et non par les pairs. Cette tendance à la fongibilité entre morale et droit dans nos institutions républicaines est tout à fait malsaine.

Parlons des scandales pharmaceutiques. Parlons des scandales environnementaux. Si demain un chercheur ayant signé ce serment utilise son savoir et ses méthodes pour démontrer les conséquences néfastes (tant environnementales que sociales) d’un engagement gouvernemental dans l’ouverture d’une mine de charbon comme celle de Hambach en Allemagne, à votre avis : pourra-t-il toujours dans son laboratoire essayer de prétendre à quelques subventions pour des recherches (même n’ayant aucun rapport avec son engagement personnel contre la mine) ? En fait, sur le sujet climatique, la question de l’engagement des chercheurs est brûlante : ce qu’on veut surtout éviter c’est le profil du chercheur militant, car on ne sait jamais, il pourrait avoir raison…

Là encore le militantisme et la démocratie sont mises en cause de manière frontale par le gouvernement.

Après avoir bien transformé la dynamique de la recherche française en la noyant sous l’évaluation et la logique de projet, il est normal de faire en sorte que les chercheurs, tout comme les associations, puissent enfin rentrer dans le rang : c’est une France qui se tient sage. Le concept a fait du chemin.


Publié le 03.09.2022 à 02:00

Bifurquer avant l’impact : l’impasse du capitalisme de surveillance

La chaleur de l’été ne nous fait pas oublier que nous traversons une crise dont les racines sont bien profondes. Pendant que nos forêts crament, que des oligarques jouent aux petits soldats à nos portes, et vu que je n’avais que cela à faire, je lisais quelques auteurs, ceux dont on ne parle que rarement mais qui sont Ô combien indispensables. Tout cela raisonnait si bien que, le temps de digérer un peu à l’ombre, j’ai tissé quelques liens avec mon sujet de prédilection, la surveillance et les ordinateurs. Et puis voilà, paf, le déclic. Dans mes archives, ces mots de Sébastien Broca en 2019 : « inscrire le capitalisme de surveillance dans une histoire plus large ». Mais oui, c’est là dessus qu’il faut insister, bien sûr. On s’y remet.

Je vous livre donc ici quelques réflexions qui, si elles sont encore loin d’être pleinement abouties, permettront peut-être à certains lecteurs d’appréhender les luttes sociales qui nous attendent ces prochains mois. Alimentons, alimentons, on n’est plus à une étincelle près.

(Article paru dans le Framablog le 29/08/2022)

Table des matières


Le capitalisme de surveillance est un mode d’être du capitalisme aujourd’hui dominant l’ensemble des institutions économiques et politiques. Il mobilise toutes les technologies de monitoring social et d’analyse de données dans le but de consolider les intérêts capitalistes à l’encontre des individus qui se voient spoliés de leur vie privée, de leurs droits et du sens de leur travail. L’exemple des entreprises-plateformes comme Uber est une illustration de cette triple spoliation des travailleurs comme des consommateurs. L’hégémonie d’Uber dans ce secteur d’activité s’est imposée, comme tout capitalisme hégémonique, avec la complicité des décideurs politiques. Cette complicité s’explique par la dénégation des contradictions du capitalisme et la contraction des politiques sur des catégories anciennes largement dépassées. Que les décideurs y adhèrent ou non, le discours public reste campé sur une idée de la production de valeur qui n’a plus grand-chose de commun avec la réalité de l’économie sur-financiarisée.

Il est donc important d’analyser le capitalisme de surveillance à travers les critiques du capitalisme et des technologies afin de comprendre, d’une part pourquoi les stratégies hégémoniques des multinationales de l’économie numérique ne sont pas une perversion du capitalisme mais une conséquence logique de la jonction historique entre technologie et finance, et d’autre part que toute régulation cherchant à maintenir le statu quo d’un soi-disant « bon » capitalisme est vouée à l’échec. Reste à explorer comment nous pouvons produire de nouveaux imaginaires économiques et retrouver un rapport aux technologies qui soit émancipateur et générateur de libertés.

Situer le capitalisme de surveillance dans une histoire critique du capitalisme

Dans la Monthly Review en 2014, ceux qui forgèrent l’expression capitalisme de surveillance inscrivaient cette dernière dans une critique du capitalisme monopoliste américain depuis la fin de la Seconde Guerre Mondiale. En effet, lorsqu’on le ramène à l’histoire longue, qui ne se réduit pas aux vingt dernières années de développement des plus grandes plateformes numériques mondiales, on constate que le capitalisme de surveillance est issu des trois grands axes de la dynamique capitaliste de la seconde moitié du XXᵉ siècle. Pour John B. Foster et Robert W. McChesney, la surveillance cristallise les intérêts de marché de l’économie qui soutient le complexe militaro-industriel sur le plan géopolitique, la finance, et le marketing de consommation, c’est-à-dire un impérialisme sur le marché extérieur (guerre et actionnariat), ce qui favorise en retour la dynamique du marché intérieur reposant sur le crédit et la consommation. Ce système impérialiste fonctionne sur une logique de connivence avec les entreprises depuis plus de soixante ans et a instauré la surveillance (de l’espionnage de la Guerre Froide à l’apparition de l’activité de courtage de données) comme le nouveau gros bâton du capitalisme.

Plus récemment, dans une interview pour LVSL, E. Morozov ne dit pas autre chose lorsqu’il affirme qu’aujourd’hui l’enjeu des Big Tech aux États-Unis se résume à la concurrence entre les secteurs d’activités technologiques sur le marché intérieur et « la volonté de maintenir le statut hégémonique des États-Unis dans le système financier international ».

Avancées technologiques et choix sociaux

Une autre manière encore de situer le capitalisme de surveillance sur une histoire longue consiste à partir du rôle de l’émergence de la microélectronique (ou ce que j’appelle l’informatisation des organisations) à travers une critique radicale du capitalisme. C’est sur les écrits de Robert Kurz (et les autres membres du groupe Krisis) qu’il faut cette fois se pencher, notamment son travail sur les catégories du capitalisme.

Ici on s’intéresse à la microélectronique en tant que troisième révolution industrielle. Sur ce point, comme je le fais dans mon livre, je préfère maintenir mon approche en parlant de l’informatisation des organisations, car il s’agit surtout de la transformation des processus de production et pas tellement des innovations techniques en tant que telles. Si en effet on se concentre sur ce dernier aspect de la microélectronique, on risque d’induire un rapport mécanique entre l’avancement technique et la transformation capitaliste, alors que ce rapport est d’abord le résultat de choix sociaux plus ou moins imposés par des jeux de pouvoirs (politique, financier, managérial, etc.). Nous y reviendrons : il est important de garder cela en tête car l’objet de la lutte sociale consiste à prendre la main sur ces choix pour toutes les meilleures raisons du monde, à commencer par notre rapport à l’environnement et aux techniques.

Pour expliquer, je vais devoir simplifier à l’extrême la pensée de R. Kurz et faire des raccourcis. Je m’en excuse par avance. R. Kurz s’oppose à l’idée de la cyclicité des crises du capitalisme. Au contraire ce dernier relève d’une dynamique historique, qui va toujours de l’avant, jusqu’à son effondrement. On peut alors considérer que la succession des crises ont été surmontées par le capitalisme en changeant le rapport structurel de la production. Il en va ainsi pour l’industrialisation du XIXᵉ siècle, le fordisme (industrialisation moderne), la sur-industrialisation des années 1930, le marché de consommation des années 1950, ou de la financiarisation de l’économie à partir des années 1970. Pour R. Kurz, ces transformations successives sont en réalité une course en avant vers la contradiction interne du capitalisme, son impossibilité à renouveler indéfiniment ses processus d’accumulation sans compter sur les compensations des pertes de capital, qu’elles soient assurées par les banques centrales qui produisent des liquidités (keynésianisme) ou par le marché financier lui-même remplaçant les banques centrales (le néolibéralisme qui crée toujours plus de dettes). Cette course en avant connaît une limite indépassable, une « borne interne » qui a fini par être franchie, celle du travail abstrait (le travail socialement nécessaire à la production, créant de la valeur d’échange) qui perd peu à peu son sens de critère de valeur marchande.

Cette critique de la valeur peut être vue de deux manières qui se rejoignent. La première est amenée par Roswitha Scholz et repose sur l’idée que la valeur comme rapport social déterminant la logique marchande n’a jamais été critiquée à l’aune tout à fait pratique de la reproduction de la force de travail, à savoir les activités qu’on détermine comme exclusivement féminines (faire le ménage, faire à manger, élever les enfants, etc.) et sont dissociées de la valeur. Or, cette tendance phallocrate du capitalisme (comme de la critique marxiste/socialiste qui n’a jamais voulu l’intégrer) rend cette conception autonome de la valeur complètement illusoire. La seconde approche situe dans l’histoire la fragilité du travail abstrait qui dépend finalement des processus de production. Or, au tournant des années 1970 et 1980, la révolution informatique (la microélectronique) est à l’origine d’une rationalisation pour ainsi dire fulgurante de l’ensemble des processus de production en très peu de temps et de manière mondialisée. Il devient alors plus rentable de rationaliser le travail que de conquérir de nouveaux espaces pour l’accumulation de capital. Le régime d’accumulation atteint sa limite et tout se rabat sur les marchés financiers et le capital fictif. Comme le dit R. Kurz dans Vies et mort du capitalisme1 :

C’est le plus souvent, et non sans raison, la troisième révolution industrielle (la microélectronique) qui est désignée comme la cause profonde de la nouvelle crise mondiale. Pour la première fois dans l’histoire du capitalisme, en effet, les potentiels de rationalisation dépassent les possibilités d’une expansion des marchés.

Non seulement il y a la perte de sens du travail (la rationalisation à des échelles inédites) mais aussi une rupture radicale avec les catégories du capitalisme qui jusque-là reposaient surtout sur la valeur marchande substantiellement liée au travail abstrait (qui lui-même n’intégrait pas de toute façon ses propres conditions de reproduction).

Très voisins, les travaux d’Ernst Lohoff et de Norbert Trenkle questionnent la surfinanciarisation de l’économie dans La grande dévalorisation2. Pour eux, c’est la forme même de la richesse capitaliste qui est en question. Ils en viennent aux mêmes considérations concernant l’informatisation de la société. La troisième révolution industrielle a créé un rétrécissement de la production de valeur. La microélectronique (entendue cette fois en tant que description de dispositifs techniques) a permis l’avancée de beaucoup de produits innovants mais l’innovation dans les processus de production qu’elle a induits a été beaucoup plus forte et attractive, c’est-à-dire beaucoup plus rentable : on a préféré produire avec toujours moins de temps de travail, et ce temps de travail a fini par devenir une variable de rentabilité au lieu d’être une production de valeur.

Si bien qu’on est arrivé à ce qui, selon Marx, est une incompatibilité avec le capitalisme : l’homme finit par se situer en dehors du processus de production. Du moins, il tend à l’être dans nos économies occidentales. Et ce fut pourtant une sorte d’utopie formulée par les capitalistes eux-mêmes dans les années 1960. Alors que les industries commençaient à s’informatiser, le rêve cybernéticien d’une production sans travailleurs était en plein essor. Chez les plus techno-optimistes on s’interrogeait davantage à propos des répercussions de la transformation des processus de production sur l’homme qu’à propos de leur impact sur la dynamique capitaliste. La transformation « cybernétique » des processus de production ne faisait pas vraiment l’objet de discussion tant la technologie était à l’évidence une marche continue vers une nouvelle société. Par exemple, pour un sociologue comme George Simpson3, au « stade 3 » de l’automatisation (lorsque les machines n’ont plus besoin d’intervention humaine directe pour fonctionner et produire), l’homme perd le sens de son travail, bien que libéré de la charge physique, et « le système industriel devient un système à boutons-poussoirs ». Que l’automatisation des processus de production (et aussi des systèmes décisionnels) fasse l’objet d’une critique ou non, ce qui a toujours été questionné, ce sont les répercussions sur l’organisation sociale et le constat que le travail n’a jamais été aussi peu émancipateur alors qu’on en attendait l’inverse4.

La surveillance comme catégorie du capitalisme

Revenons maintenant au capitalisme de surveillance. D’une part, son appellation de capitalisme devient quelque peu discutable puisqu’en effet il n’est pas possible de le désincarner de la dynamique capitaliste elle-même. C’est pour cela qu’il faut préciser qu’il s’agit surtout d’une expression initialement forgée pour les besoins méthodiques de son approche. Par contre, ce que j’ai essayé de souligner sans jamais le dire de cette manière, c’est que la surveillance est devenue une catégorie du capitalisme en tant qu’elle est une tentative de pallier la perte de substance du travail abstrait pour chercher de la valeur marchande dans deux directions :

  • la rationalisation à l’extrême des processus productifs qu’on voit émerger dans l’économie de plateformes, de l’esclavagisme moderne des travailleurs du clic à l’ubérisation de beaucoup de secteurs productifs de services, voire aussi industriels (on pense à Tesla). Une involution du travail qui en retour se paie sur l’actionnariat tout aussi extrême de ces mêmes plateformes dont les capacités d’investissement réel sont quasi-nulles.
  • L’autre direction est née du processus même de l’informatisation des organisations dès le début, comme je l’ai montré à propos de l’histoire d’Axciom, à savoir l’extraction et le courtage de données qui pillent littéralement nos vies privées et dissocient cette fois la force de travail elle-même du rapport social qu’elle implique puisque c’est dans nos intimités que la plus-value est recherchée. La financiarisation de ces entreprises est d’autant plus évidente que leurs besoins d’investissement sont quasiment nuls. Quant à leurs innovations (le travail des bases de données) elles sont depuis longtemps éprouvées et reposent aussi sur le modèle de plateforme mentionné ci-dessus.

Mais alors, dans cette configuration, on a plutôt l’impression qu’on ne fait que placer l’homme au centre de la production et non en dehors ou presque en dehors. Il en va ainsi des livreurs d’Uber, du travail à la tâche, des contrats de chantiers adaptés à la Recherche et à l’Enseignement, et surtout, surtout, nous sommes nous-mêmes producteurs des données dont se nourrit abondamment l’industrie numérique.

On comprend que, par exemple, certains ont cru intelligent de tenter de remettre l’homme dans le circuit de production en basant leur raisonnement sur l’idée de la propriété des données personnelles et de la « liberté d’entreprendre ». En réalité la configuration du travail à l’ère des plateformes est le degré zéro de la production de valeur : les données n’ont de valeur qu’une fois travaillées, concaténées, inférées, calculées, recoupées, stockées (dans une base), etc. En soi, même si elles sont échangeables sur un marché, il faut encore les rendre rentables et pour cela il y a de l’Intelligence Artificielle et des travailleurs du clic. Les seconds ne sont que du temps de travail volatile (il produit de la valeur en tant que travail salarié, mais si peu qu’il en devient négligeable au profit de la rationalisation structurelle), tandis que l’IA a pour objectif de démontrer la rentabilité de l’achat d’un jeu de données sur le marché (une sorte de travail mort-vivant5 qu’on incorporerait directement à la marchandisation). Et la boucle est bouclée : cette rentabilité se mesure à l’aune de la rationalisation des processus de production, ce qui génère de l’actionnariat et une tendance au renforcement des monopoles. Pour le reste, afin d’assurer les conditions de permanence du capitalisme (il faut bien des travailleurs pour assurer un minimum de salubrité de la structure, c’est-à-dire maintenir un minimum de production de valeur), deux choses :

  • on maintient en place quelques industries dont tout le jeu mondialisé consiste à être de plus en plus rationalisées pour coûter moins cher et rapporter plus, ce qui accroît les inégalités et la pauvreté (et plus on est pauvre, plus on est exploité),
  • on vend du rêve en faisant croire que le marché de produits innovants (concrets) est en soi producteur de valeur (alors que s’accroît la pauvreté) : des voitures Tesla, des services par abonnement, de l’école à distance, un métavers… du vent.

Réguler le capitalisme ne suffit pas

Pour l’individu comme pour les entreprises sous perfusion technologique, l’attrait matériel du capitalisme est tel qu’il est extrêmement difficile de s’en détacher. G. Orwell avait (comme on peut s’y attendre de la part d’un esprit si brillant) déjà remarqué cette indécrottable attraction dans Le Quai de Wigan : l’adoration de la technique et le conformisme polluent toute critique entendable du capitalisme. Tant que le capitalisme maintiendra la double illusion d’une production concrète et d’un travail émancipateur, sans remettre en cause le fait que ce sont bien les produits financiers qui représentent l’essentiel du PIB mondial6, les catégories trop anciennes avec lesquelles nous pensons le capitalisme ne nous permettront pas de franchir le pas d’une critique radicale de ses effets écocides et destructeurs de libertés.

Faudrait-il donc s’en accommoder ? La plus importante mise en perspective critique des mécanismes du capitalisme de surveillance, celle qui a placé son auteure Shoshana Zuboff au-devant de la scène ces trois dernières années, n’a jamais convaincu personne par les solutions qu’elle propose.

Premièrement parce qu’elle circonscrit le capitalisme de surveillance à la mise en œuvre par les GAFAM de solutions de rentabilité actionnariale en allant extraire le minerai de données personnelles afin d’en tirer de la valeur marchande. Le fait est qu’en réalité ce modèle économique de valorisation des données n’est absolument pas nouveau, il est né avec les ordinateurs dont c’est la principale raison d’être (vendables). Par conséquent ces firmes n’ont créé de valeur qu’à la marge de leurs activités principales (le courtage de données), par exemple en fournissant des services dont le Web aurait très bien pu se passer. Sauf peut-être la fonction de moteur de recherche, nonobstant la situation de monopole qu’elle a engendrée au détriment de la concurrence, ce qui n’est que le reflet de l’effet pervers du monopole et de la financiarisation de ces firmes, à savoir tuer la concurrence, s’approprier (financièrement) des entreprises innovantes, et tuer toute dynamique diversifiée d’innovation.

Deuxièmement, les solutions proposées reposent exclusivement sur la régulation des ces monstres capitalistes. On renoue alors avec d’anciennes visions, celles d’un libéralisme garant des équilibres capitalistes, mais cette fois presque exclusivement du côté du droit : c’est mal de priver les individus de leur vie privée, donc il faut plus de régulation dans les pratiques. On n’est pas loin de renouer avec la vieille idée de l’ethos protestant à l’origine du capitalisme moderne selon Max Weber : la recherche de profit est un bien, il s’accomplit par le travail et le don de soi à l’entreprise. La paix de nos âmes ne peut donc avoir lieu sans le capitalisme. C’est ce que cristallise Milton Friedman dans une de ses célèbres affirmations : « la responsabilité sociale des entreprises est de maximiser leurs profits »7. Si le capitalisme est un dispositif géant générateur de profit, il n’est ni moral ni immoral, c’est son usage, sa destination qui l’est. Par conséquent, ce serait à l’État d’agir en assumant les conséquences d’un mauvais usage qu’en feraient les capitalistes.

Contradiction : le capitalisme n’est pas un simple dispositif, il est à la fois marché, organisation, choix collectifs, et choix individuels. Son extension dans nos vies privées est le résultat du choix de la rationalisation toujours plus drastique des conditions de rentabilité. Dans les années 1980, les économistes néoclassiques croyaient fortement au triptyque gagnant investissement – accroissement de main d’œuvre – progrès technique. Sauf que même l’un des plus connus des économistes américains, Robert Solow, a dû se rendre à une évidence, un « paradoxe » qu’il soulevait après avoir admis que « la révolution technologique [de l’informatique] s’est accompagnée partout d’un ralentissement de la croissance de la productivité, et non d’une augmentation ». Il conclut : « Vous pouvez voir l’ère informatique partout, sauf dans les statistiques de la productivité »8. Pour Solow, croyant encore au vieux monde de la croissance « productrice », ce n’était qu’une question de temps, mais pour l’économie capitaliste, c’était surtout l’urgence de se tourner vers des solutions beaucoup plus rapides : l’actionnariat (et la rationalisation rentable des process) et la valorisation quasi-immédiate de tout ce qui pouvait être valorisable sur le marché le plus facile possible, celui des services, celui qui nécessite le moins d’investissements.

La volonté d’aller dans le mur

Le capitalisme à l’ère numérique n’a pas créé de stagnation, il est structurellement destructeur. Il n’a pas créé de défaut d’investissement, il est avant tout un choix réfléchi, la volonté d’aller droit dans le mur en espérant faire partie des élus qui pourront changer de voiture avant l’impact. Dans cette hyper-concurrence qui est devenue essentiellement financière, la seule manière d’envisager la victoire est de fabriquer des monopoles. C’est là que la fatuité de la régulation se remarque le plus. Un récent article de Michael Kwet9 résume très bien la situation. On peut le citer longuement :

Les défenseurs de la législation antitrust affirment que les monopoles faussent un système capitaliste idéal et que ce qu’il faut, c’est un terrain de jeu égal pour que tout le monde puisse se faire concurrence. Pourtant, la concurrence n’est bonne que pour ceux qui ont des ressources à mettre en concurrence. Plus de la moitié de la population mondiale vit avec moins de 7,40 dollars [7,16 euros] par jour, et personne ne s’arrête pour demander comment ils seront “compétitifs” sur le “marché concurrentiel” envisagé par les défenseurs occidentaux de l’antitrust. C’est d’autant plus décourageant pour les pays à revenu faible ou intermédiaire que l’internet est largement sans frontières.

À un niveau plus large […] les défenseurs de l’antitrust ignorent la division globalement inégale du travail et de l’échange de biens et de services qui a été approfondie par la numérisation de l’économie mondiale. Des entreprises comme Google, Amazon, Meta, Apple, Microsoft, Netflix, Nvidia, Intel, AMD et bien d’autres sont parvenues à leur taille hégémonique parce qu’elles possèdent la propriété intellectuelle et les moyens de calcul utilisés dans le monde entier. Les penseurs antitrust, en particulier ceux des États-Unis, finissent par occulter systématiquement la réalité de l’impérialisme américain dans le secteur des technologies numériques, et donc leur impact non seulement aux États-Unis, mais aussi en Europe et dans les pays du Sud.

Les initiatives antitrust européennes ne sont pas meilleures. Là-bas, les décideurs politiques qui s’insurgent contre les maux des grandes entreprises technologiques tentent discrètement de créer leurs propres géants technologiques.

Dans la critique mainstream du capitalisme de surveillance, une autre erreur s’est révélée, en plus de celle qui consiste à persister dans la défense d’un imaginaire capitaliste. C’est celle de voir dans l’État et son pouvoir de régulation un défenseur de la démocratie. C’est d’abord une erreur de principe : dans un régime capitaliste monopoliste, l’État assure l’hégémonie des entreprises de son cru et fait passer sous l’expression démocratie libérale (ou libertés) ce qui favorise l’émergence de situations de domination. Pour lutter contre, il y a une urgence dans notre actualité économique : la logique des start-up tout autant que celle de la « propriété intellectuelle » doivent laisser place à l’expérimentation collective de gouvernance de biens communs de la connaissance et des techniques (nous en parlerons plus loin). Ensuite, c’est une erreur pratique comme l’illustrent les affaires de lobbying et de pantouflage dans le petit monde des décideurs politiques. Une illustration parmi des centaines : les récents Uber Files démontrant, entre autres, les accords passés entre le président Emmanuel Macron et les dirigeants d’Uber (voir sur le site Le Monde).

Situer ces enjeux dans un contexte historique aussi général suppose de longs développements, rarement simples à exposer. Oui, il s’agit d’une critique du capitalisme, et oui cette critique peut être plus ou moins radicale selon que l’on se place dans un héritage marxiste, marxien ou de la critique de la valeur, ou que l’on demeure persuadé qu’un capitalisme plus respectueux, moins « féodal » pourrait advenir. Sans doute qu’un mirage subsiste, celui de croire qu’autant de bienfaits issus du capitalisme suffisent à le dédouaner de l’usage dévoyé des technologies. « Sans le capitalisme nous en serions encore à nous éclairer à la bougie…» En d’autres termes, il y aurait un progrès indiscutable à l’aune duquel les technologies de surveillance pourraient être jugées. Vraiment ?

Situer le capitalisme de surveillance dans notre rapport à la technique

C’est un poncif : les technologies de surveillance ont été développées dans une logique de profit. Il s’agit des technologies dont l’objectif est de créer des données exploitables à partir de nos vies privées, à des fins de contrôle ou purement mercantiles (ce qui revient au même puisque les technologies de contrôle sont possédées par des firmes qui achètent des données).

Or, il est temps de mettre fin à l’erreur répandue qui consiste à considérer que les technologies de surveillance sont un mal qui pervertit le capitalisme censé être le moteur de la démocratie libérale. Ceci conduit à penser que seule une régulation bien menée par l’État dans le but de restaurer les vertus du « bon » capitalisme serait salutaire tant nos vies privées sont sur-exploitées et nos libertés érodées. Tel est le credo de Shoshana Zuboff et avec elle bon nombre de décideurs politiques.

Croire qu’il y a de bons et de mauvais usages

L’erreur est exactement celle que dénonçait en son temps Jacques Ellul. C’est celle qui consiste à vouloir absolument attribuer une valeur à l’usage de la technique. Le bon usage serait celui qui pousse à respecter la vie privée, et le mauvais usage celui qui tend à l’inverse. Or, il n’y a d’usage technique que technique. Il n’y a qu’un usage de la bombe atomique, celui de faire boum (ou pas si elle est mal utilisée). Le choix de développer la bombe est, lui, par contre, un choix qui fait intervenir des enjeux de pouvoir et de valeurs.

Au tout début des années 1970, à l’époque où se développaient les techniques d’exploitation des bases de données et le courtage de données, c’est ce qu’ont montré James Martin et Adrian Norman pour ce qui concerne les systèmes informatiques10 : à partir du moment où un système est informatisé, la quantification est la seule manière de décrire le monde. Ceci est valable y compris pour les systèmes décisionnels. Le paradoxe que pointaient ces auteurs montrait que le traitement de l’information dans un système décisionnel – par exemple dans n’importe quelle organisation économique, comme une entreprise – devait avoir pour objectif de rationaliser les procédures et les décisions en utilisant une quantité finie de données pour en produire une quantité réduite aux éléments les plus stratégiques, or, l’informatisation suppose un choix optimum parmi une grande variété d’arbres décisionnels et donc un besoin croissant de données, une quantité tendant vers l’infini.

Martin et Norman illustraient ce qu’avait affirmé Jacques Ellul vingt ans auparavant : la technique et sa logique de développement seraient autonomes. Bien que discutable, cette hypothèse montre au moins une chose : dans un monde capitaliste, tout l’enjeu consisterait comme au rugby à transformer l’essai, c’est-à-dire voir dans le développement des techniques autant d’opportunités de profit et non pas d’investissements productifs. Les choix se posent alors en termes d’anti-productivité concrète. Dans le monde des bases de données et leur exploitation la double question qui s’est posée de 1970 à aujourd’hui est de savoir si nous sommes capables d’engranger plus ou moins de données et comment leur attribuer une valeur marchande.

Le reste n’est que sophismes : l’usine entièrement automatisée des rêves cybernéticiens les plus fous, les boules de cristal des statistiques électorales, les données de recouvrement bancaires et le crédit à la consommation, les analyses marketing et la consommation de masse, jusqu’à la smart city de la Silicon Valley et ses voitures autonomes (et ses aspirateurs espions)… la justification de la surveillance et de l’extraction de données repose sur l’idée d’un progrès social, d’un bon usage des technologies, et d’une neutralité des choix technologiques. Et il y a un paralogisme. Si l’on ne pense l’économie qu’en termes capitalistes et libéraux, cette neutralité est un postulat qui ne peut être remis en cause qu’à l’aune d’un jugement de valeur : il y aurait des bons et des mauvais usages des technologies, et c’est à l’État d’assurer le rôle minimal de les arbitrer au regard de la loi. Nul ne remet alors en question les choix eux-mêmes, nul ne remet en question l’hégémonie des entreprises qui nous couvrent de leurs « bienfaits » au prix de quelques « négligeables » écarts de conduite, nul ne remet en question l’exploitation de nos vies privées (un mal devenu nécessaire) et l’on préfère nous demander notre consentement plus ou moins éclairé, plus ou moins obligé.

La technologie n’est pas autonome

Cependant, comme nous le verrons vers la fin de ce texte, les études en sociologie des sciences montrent en fait qu’il n’y a pas d’autonomie de la technique. Sciences, technologies et société s’abreuvent mutuellement entre les usages, les expérimentations et tous ces interstices épistémiques d’appropriation des techniques, de désapprentissage, de renouvellement, de détournements, et d’expression des besoins pour de nouvelles innovations qui seront à leur tour appropriées, modifiées, transformées, etc. En réalité l’hypothèse de l’autonomie de la technique a surtout servi au capitalisme pour suivre une course à l’innovation qui ne saurait être remise en question, comme une loi naturelle qui justifie en soi la mise sur le marché de nouvelles technologies et au besoin faire croire en leur utilité. Tel est le fond de commerce du transhumanisme et son « économie des promesses ».

L’erreur consiste à prêter le flanc au solutionnisme technologique (le même qui nous fait croire que des caméras de surveillance sont un remède à la délinquance, ou qu’il faut construire des grosses berlines sur batteries pour ne plus polluer) et à se laisser abreuver des discours néolibéraux qui, parce qu’il faut bien rentabiliser ces promesses par de la marchandisation des données – qui est elle-même une promesse pour l’actionnariat –, nous habituent petit à petit à être surveillés. Pour se dépêtrer de cela, la critique du capitalisme de surveillance doit être une critique radicale du capitalisme et du néolibéralisme car la lutte contre la surveillance ne peut être décorrélée de la prise en compte des injustices sociales et économiques dont ils sont les causes pratiques et idéologiques.

Je vois venir les lecteurs inquiets. Oui, j’ai placé ce terme de néolibéralisme sans prévenir. C’est mettre la charrue avant les bœufs mais c’est parfois nécessaire. Pour mieux comprendre, il suffit de définir ce qu’est le néolibéralisme. C’est l’idéologie appelée en Allemagne ordolibéralisme, si l’on veut, c’est-à-dire l’idée que le laissez-faire a démontré son erreur historique (les crises successives de 1929, 1972, 2008, ou la crise permanente), et que par conséquent l’État a fait son grand retour dans le marché au service du capital, comme le principal organisateur de l’espace de compétition capitaliste et le dépositaire du droit qui érige la propriété et le profit au titre de seules valeurs acceptables. Que des contrats, plus de discussion, there is no alternative, comme disait la Margaret. Donc partant de cette définition, à tous les niveaux organisationnels, celui des institutions de l’État comme celui des organisations du capital, la surveillance est à la fois outil de contrôle et de génération de profit (dans les limites démontrées par R. Kurz, à savoir : pas sans compter presque exclusivement sur l’actionnariat et les produits financiers, cf. plus haut).

Le choix du « monitoring »

La course en avant des technologies de surveillance est donc le résultat d’un choix. Il n’y a pas de bon ou de mauvais usage de la surveillance électronique : elle est faite pour récolter des données. Le choix en question c’est celui de n’avoir vu dans ces données qu’un objet marchand. Peu importe les bienfaits que cela a pu produire pour l’individu, ils ne sont visibles que sur un court terme. Par exemple les nombreuses applications de suivi social que nous utilisons nous divertissent et rendent parfois quelque service, mais comme le dit David Lyon dans The Culture of Surveillance, elle ne font que nous faire accepter passivement les règles du monitoring et du tri social que les États comme les multinationales mettent en œuvre.

Il n’y a pas de différence de nature entre la surveillance des multinationales et la surveillance par l’État : ce sont les multinationales qui déterminent les règles du jeu de la surveillance et l’État entérine ces règles et absorbe les conditions de l’exercice de la surveillance au détriment de sa souveraineté. C’est une constante bien comprise, qu’il s’agisse des aspects techniques de la surveillance sur lesquels les Big Tech exercent une hégémonie qui en retour sert les intérêts d’un ou plusieurs États (surtout les États-Unis aujourd’hui), ou qu’il s’agisse du droit que les Big Tech tendent à modifier en leur faveur soit par le jeu des lobbies soit par le jeu des accords internationaux (tout comme récemment le nouvel accord entre l’Europe et les États-Unis sur les transferts transatlantiques de données, qui vient contrecarrer les effets d’annonce de la Commission Européenne).

Quels espaces de liberté dans ce monde technologique ?

Avec l’apparition des ordinateurs et des réseaux, de nombreuses propositions ont vu le jour. Depuis les années 1970, si l’on suit le développement des différents mouvements de contestation sociale à travers le monde, l’informatique et les réseaux ont souvent été plébiscités comme des solutions techniques aux défauts des démocraties. De nombreux exemples d’initiatives structurantes pour les réseaux informatiques et les usages des ordinateurs se sont alors vus détournés de leurs fonctions premières. On peut citer le World Wide Web tel que conçu par Tim Berners Lee, lui même suivant les traces du monde hypertextuel de Ted Nelson et son projet Xanadu. Pourquoi ce design de l’internet des services s’est-il trouvé à ce point sclérosé par la surveillance ? Pour deux raisons : 1/ on n’échappe pas (jamais) au développement technique de la surveillance (les ordinateurs ont été faits et vendus pour cela et le sont toujours11) et 2/ parce qu’il y a des intérêts de pouvoir en jeu, policiers et économiques, celui de contrôler les communications. Un autre exemple : le partage des programmes informatiques. Comme chacun le sait, il fut un temps où la création d’un programme et sa distribution n’étaient pas assujettis aux contraintes de la marchandisation et de la propriété intellectuelle. Cela permettait aux utilisateurs de machines de partager non seulement des programmes mais des connaissances et des nouveaux usages, faisant du code un bien commun. Sous l’impulsion de personnages comme Bill Gates, tout cela a changé au milieu des années 1970 et l’industrie du logiciel est née. Cela eut deux conséquences, négative et positive. Négative parce que les utilisateurs perdaient absolument toute maîtrise de la machine informatique, et toute possibilité d’innovation solidaire, au profit des intérêts d’entreprises qui devinrent très vite des multinationales. Positive néanmoins, car, grâce à l’initiative de quelques hackers, dont Richard Stallman, une alternative fut trouvée grâce au logiciel libre et la licence publique générale et ses variantes copyleft qui sanctuarisent le partage du code. Ce partage relève d’un paradigme qui ne concerne plus seulement le code, mais toute activité intellectuelle dont le produit peut être partagé, assurant leur liberté de partage aux utilisateurs finaux et la possibilité de créer des communs de la connaissance.

Alors que nous vivons dans un monde submergé de technologies, nous aurions en quelque sorte gagné quelques espaces de liberté d’usage technique. Mais il y a alors comme un paradoxe.

À l’instar de Jacques Ellul, pour qui l’autonomie de la technique implique une aliénation de l’homme à celle-ci, beaucoup d’auteurs se sont inquiétés du fait que les artefacts techniques configurent par eux-mêmes les actions humaines. Qu’on postule ou pas une autonomie de la technique, son caractère aliénant reste un fait. Mais il ne s’agit pas de n’importe quels artefacts. Nous ne parlons pas d’un tournevis ou d’un marteau, ou encore d’un silex taillé. Il s’agit des systèmes techniques, c’est-à-dire des dispositifs qu’on peut qualifier de socio-techniques qui font intervenir l’homme comme opérateur d’un ensemble d’actions techniques par la technique. En quelque sorte, nous perdons l’initiative et les actions envisagées tendent à la conformité avec le dispositif technique et non plus uniquement à notre volonté. Typiquement, les ordinateurs dans les entreprises à la fin des années 1960 ont été utilisés pour créer des systèmes d’information, et c’est à travers ces systèmes techniques que l’action de l’homme se voit configurée, modelée, déterminée, entre ce qui est possible et ce qui ne l’est pas. Dans son article « Do artefacts have politics ? », Langdon Winner s’en inquiétait à juste titre : nos objectifs et le sens de nos actions sont conditionnés par la technique. Cette dernière n’est jamais neutre, elle peut même provoquer une perte de sens de l’action, par exemple chez le travailleur à la chaîne ou le cadre qui non seulement peuvent être noyés dans une organisation du travail trop grande, mais aussi parce que l’automatisation de la production et de la décision les prive de toute initiative (et de responsabilité).

La tentation du luddisme

Pour lutter contre cette perte de sens, des choix sont envisageables. Le premier consiste à lutter contre la technique. En évacuant la complexité qu’il y a à penser qu’un mouvement réfractaire au développement technique puisse aboutir à une société plus libre, on peut certes imaginer des fronts luddites en certains secteurs choisis. Par exemple, tel fut le choix du CLODO dans la France des années 1980, prétendant lutter contre l’envahissement informatique dans la société. Concernant la surveillance, on peut dire qu’au terme d’un processus de plus de 50 ans, elle a gagné toutes les sphères socio-économiques grâce au développement technologique. Un front (néo-)luddite peut sembler justifié tant cette surveillance remet en cause très largement nos libertés et toutes les valeurs positives que l’on oppose généralement au capitalisme : solidarité et partage, notamment.

Pour autant, est-ce que la lutte contre le capitalisme de surveillance doit passer par la négation de la technique ? Il est assez évident que toute forme d’action directe qui s’oppose en bloc à la technique perd sa crédibilité en ce qu’elle ne fait que proposer un fantasme passéiste ou provoquer des réactions de retrait qui n’ont souvent rien de constructif. C’est une critique souvent faite à l’anarcho-primitivisme qui, lorsqu’il ne se contente pas d’opposer une critique éclairée de la technique (et des processus qui ont conduit à la création de l’État) en vient parfois à verser dans la technophobie. C’est une réaction aussi compréhensible que contrainte tant l’envahissement technologique et ses discours ont quelque chose de suffoquant. En oubliant cette question de l’autonomie de la technique, je suis personnellement tout à fait convaincu par l’analyse de J. Ellul selon laquelle nous sommes à la fois accolés et dépendants d’un système technique. En tant que système il est devenu structurellement nécessaire aux organisations (qu’elles soient anarchistes ou non) au moins pour communiquer, alors que le système capitaliste, lui, ne nous est pas nécessaire mais imposé par des jeux de pouvoirs. Une réaction plus constructive consiste donc à orienter les choix technologiques, là où l’action directe peut prendre un sens tout à fait pertinent.

Prenons un exemple qui pourrait paraître trivial mais qui s’est révélé particulièrement crucial lors des périodes de confinement que nous avons subies en raison de l’épidémie Covid. Qu’il s’agisse des entreprises ou des institutions publiques, toutes ont entamé dans l’urgence une course en avant vers les solutions de visio-conférence dans l’optique de tâcher de reproduire une forme présentielle du travail de bureau. La visio-conférence suscite un flux de données bien plus important que la voix seule, et par ailleurs la transmission vocale est un ensemble de techniques déjà fort éprouvées depuis plus d’un siècle. Que s’est-il produit ? Les multinationales se sont empressées de vendre leurs produits et pomper toujours plus de données personnelles, tandis que les limites pratiques de la visio-conférence se sont révélées : dans la plupart des cas, réaliser une réunion « filmée » n’apporte strictement rien de plus à l’efficacité d’une conférence vocale. Dans la plupart des cas, d’ailleurs, afin d’économiser de la bande passante (croit-on), la pratique courante consiste à éteindre sa caméra pendant la réunion. Où sont les gains de productivité tant annoncés par les GAFAM ? Au lieu de cela, il y a en réalité un détournement des usages, et même des actes de résistance du quotidien (surtout lorsqu’il s’agit de surveiller les salariés à distance).

Les choix technologiques doivent être collectifs

Une critique des techniques pourrait donc consister à d’abord faire le point sur nos besoins et en prenant en compte l’urgence climatique et environnementale dans laquelle nous sommes (depuis des décennies). Elle pourrait aussi consister à prendre le contrepoint des discours solutionnistes qui tendent à justifier le développement de techniques le plus souvent inutiles en pratique mais toujours plus contraignantes quant au limites éthiques vers lesquelles elles nous poussent. Les choix technologiques doivent donc d’abord être des choix collectifs, dont l’assentiment se mesure en fonction de l’économie énergétique et de l’acceptabilité éthique de la trajectoire choisie. On peut revenir à une technologie ancienne et éprouvée et s’en contenter parce qu’elle est efficace et on peut refuser une technologie parce qu’elle n’est pas un bon choix dans l’intérêt collectif. Et par collectif, j’entends l’ensemble des relations inter-humaines et des relations environnementales dont dépendent les premières.

Les attitudes de retraits par rapports aux technologies, le refus systématique des usages, sont rarement bénéfiques et ne constituent que rarement une démarche critique. Ils sont une réaction tout à fait compréhensible du fait que la politique a petit à petit déserté les lieux de production (pour ce qu’il en reste). On le constate dans le désistement progressif du syndicalisme ces 30 ou 40 dernières années et par le fait que la critique socialiste (ou « de gauche ») a été incapable d’intégrer la crise du capitalisme de la fin du XXᵉ siècle. Pire, en se transformant en un centre réactionnaire, cette gauche a créé une technocratie de la gestion aux ordres du néolibéralisme : autoritarisme et pansements sociaux pour calmer la révolte qui gronde. Dès lors, de désillusions en désillusions, dans la grande cage concurrentielle de la rareté du travail rémunéré (rentable) quelle place peut-il y avoir pour une critique des techniques et de la surveillance ? Peut-on demander sérieusement de réfléchir à son usage de Whatsapp à une infirmière qui a déjà toutes les difficultés du monde à concilier la garde de ses enfants, les heures supplémentaires (parfois non payées) à l’hôpital, le rythme harassant du cycle des gardes, les heures de transports en commun et par dessus le marché, le travail domestique censé assurer les conditions de reproduction du travail abstrait ? Alors oui, dans ces conditions où le management du travail n’est devenu qu’une affaire de rationalisation rentable, les dispositifs techniques ne font pas l’objet d’usages réfléchis ou raisonnés, il font toujours l’objet d’un usage opportuniste : je n’utilise pas Whatsapp parce que j’aime Facebook ou que je me fiche de savoir ce que deviennent mes données personnelles, j’utilise Whatsapp parce que c’est le moyen que j’ai trouvé pour converser avec mes enfants et m’assurer qu’ils sont bien rentrés à la maison après l’école.

Low tech et action directe

En revanche, un retrait que je pourrais qualifier de technophobe et donc un minimum réfléchi, laisse entier le problème pour les autres. La solidarité nous oblige à créer des espaces politiques où justement technologie et capitalisme peuvent faire l’objet d’une critique et surtout d’une mise en pratique. Le mouvement Low Tech me semble être l’un des meilleurs choix. C’est en substance la thèse que défend Uri Gordon (« L’anarchisme et les politiques techniques ») en voyant dans les possibilités de coopérations solidaires et de choix collectivement réfléchis, une forme d’éthique de l’action directe.

Je le suivrai sur ce point et en étendant davantage le spectre de l’action directe. Premièrement parce que si le techno-capitalisme aujourd’hui procède par privation de libertés et de politique, il n’implique pas forcément l’idée que nous ne soyons que des sujets soumis à ce jeu de manière inconditionnelle. C’est une tendance qu’on peut constater dans la plupart des critiques du pouvoir : ne voir l’individu que comme une entité dont la substance n’est pas discutée, simplement soumis ou non soumis, contraint ou non contraint, privé de liberté ou disposant de liberté, etc. Or il y a tout un ensemble d’espaces de résistance conscients ou non conscients chez tout individu, ce que Michel de Certeau appelait des tactiques du quotidien12. Il ne s’agit pas de stratégies où volonté et pouvoir se conjuguent, mais des mouvements « sur le fait », des alternatives multiples mises en œuvre sans chercher à organiser cet espace de résistance. Ce sont des espaces féconds, faits d’expérimentations et d’innovations, et parfois même configurent les techniques elles-mêmes dans la différence entre la conception initiale et l’usage final à grande échelle. Par exemple, les ordinateurs et leurs systèmes d’exploitations peuvent ainsi être tantôt les instruments de la surveillance et tantôt des instruments de résistance, en particulier lorsqu’ils utilisent des logiciels libres. Des apprentissages ont lieu et cette fois ils dépassent l’individu, ils sont collectifs et ils intègrent des connaissances en commun.

En d’autres termes, chaque artefact et chaque système technique est socialement digéré, ce qui en retour produit des interactions et détermine des motivations et des objectifs qui peuvent s’avérer très différents de ceux en fonction desquels les dispositifs ont été créés. Ce processus est ce que Sheila Jasanoff appelle un processus de coproduction épistémique et normatif13 : sciences et techniques influencent la société en offrant un cadre tantôt limitatif, tantôt créatif, ce qui en retour favorise des usages et des besoins qui conditionnent les trajectoires scientifiques et technologiques. Il est par conséquent primordial de situer l’action directe sur ce créneau de la coproduction en favorisant les expériences tactiques individuelles et collectives qui permettent de déterminer des choix stratégiques dans l’orientation technologique de la société. Dit en des mots plus simples : si la décision politique n’est plus suffisante pour garantir un cadre normatif qui reflète les choix collectifs, alors ce sont les collectifs qui doivent pouvoir créer des stratégies et au besoin les imposer par un rapport de force.

Créer des espaces d’expérimentations utopiques

Les hackers ne produisent pas des logiciels libres par pur amour d’autrui et par pure solidarité : même si ces intentions peuvent être présentes (et je ne connais pas de libristes qui ne soient pas animés de tels sentiments), la production de logiciel libre (ou open source) est d’abord faite pour créer de la valeur. On crée du logiciel libre parce que collectivement on est capable d’administrer et valoriser le bien commun qu’est le code libre, à commencer par tout un appareillage juridique comme les licences libres. Il en va de même pour toutes les productions libres qui emportent avec elles un idéal technologique : l’émancipation, l’activité libre que représente le travail du code libre (qui n’est la propriété de personne). Même si cela n’exempte pas de se placer dans un rapport entre patron (propriétaire des moyens de production) et salarié, car il y a des entreprises spécialisées dans le Libre, il reste que le Libre crée des espaces d’équilibres économiques qui se situent en dehors de l’impasse capitaliste. La rentabilité et l’utilité se situent presque exclusivement sur un plan social, ce qui explique l’aspect très bigarré des modèles d’organisations économiques du Libre, entre associations, fondations, coopératives…

L’effet collatéral du Libre est aussi de créer toujours davantage d’espaces de libertés numériques, cette fois en dehors du capitalisme de surveillance et ses pratiques d’extraction. Cela va des pratiques de chiffrement des correspondances à l’utilisation de logiciels dédiés explicitement aux luttes démocratiques à travers le monde. Cela a le mérite de créer des communautés plus ou moins fédérées ou archipélisées, qui mettent en pratique ou du moins sous expérimentation l’alliance entre les technologies de communication et l’action directe, au service de l’émancipation sociale.

Il ne s’agit pas de promettre un grand soir et ce n’est certes pas avec des expériences qui se complaisent dans la marginalité que l’on peut bouleverser le capitalisme. Il ne s’agit plus de proposer des alternatives (qui fait un détour lorsqu’on peut se contenter du droit chemin?) mais des raisons d’agir. Le capitalisme est désuet. Dans ses soubresauts (qui pourraient bien nous mener à la guerre et la ruine), on ressort l’argument du bon sens, on cherche le consentement de tous malgré l’expérience que chacun fait de l’exploitation et de la domination. Au besoin, les capitalistes se montrent autoritaires et frappent. Mais que montrent les expériences d’émancipation sociales ? Que nous pouvons créer un ordre fait de partage et d’altruisme, de participation et de coopération, et que cela est parfaitement viable, sans eux, sur d’autres modèles plus cohérents14. En d’autres termes, lutter contre la domination capitaliste, c’est d’abord démontrer par les actes que d’autres solutions existent et sans chercher à les inclure au forceps dans ce système dominant. Au contraire, il y a une forme d’héroïsme à ne pas chercher à tordre le droit si ce dernier ne permet pas une émancipation franche et durable du capitalisme. Si le droit ne convient pas, il faut prendre le gauche.

La lutte pour les libertés numériques et l’application des principes du Libre permettent de proposer une sortie positive du capitalisme destructeur. Néanmoins on n’échappera pas à la dure réalité des faits. Par exemple que l’essentiel des « tuyaux » des transmissions numériques (comme les câbles sous-marins) appartiennent aux multinationales du numérique et assurent ainsi l’un des plus écrasants rapports de domination de l’histoire. Pourtant, on peut imaginer des expériences utopiques, comme celle du Chaos Computer Club, en 2012, consistant à créer un Internet hors censure via un réseau de satellite amateur.

L’important est de créer des espaces d’expérimentation utopiques, parce qu’ils démontrent tôt ou tard la possibilité d’une solution, il sont préfiguratifs15. Devant la décision politique au service du capital, la lutte pour un réseau d’échanges libres ne pourra certes pas se passer d’un rapport de force mais encore moins de nouveaux imaginaires. Car, finalement, ce que crée la crise du capitalisme, c’est la conscience de son écocide, de son injustice, de son esclavagisme technologique. Reste l’espoir, première motivation de l’action.



  1. R. Kurz, Vies et mort du capitalisme, Nouvelles Éditions Ligne, 2011, p. 37. ↩︎

  2. Ernst Lohoff et Norbert Trenkle, La grande dévalorisation. Pourquoi la spéculation et la dette de l’État ne sont pas les causes de la crise, Paris, Post-éditions, 2014. ↩︎

  3. Georges Simpson, « Western Man under Automation », International Journal of Comparative Sociology, num. 5, 1964, pp. 199-207. ↩︎

  4. Comme le dit Moishe Postone dans son article « Repenser Le Capital à la lumière des Grundrisse » : « La transformation radicale du processus de production mentionnée plus haut n’est pas le résultat quasi-automatique du développement rapide des savoirs techniques et scientifique et de leurs applications. C’est plutôt une possibilité qui naît d’une contradiction sociale intrinsèque croissante. Bien que la course du développement capitaliste génère la possibilité d’une structure nouvelle et émancipatrice du travail social, sa réalisation générale est impossible dans le capitalisme. » ↩︎

  5. Là je reprends une catégorie marxiste. Marx appelle le (résultat du -) travail mort ce qui a besoin de travail productif. Par exemple, une matière comme le blé récolté est le résultat d’un travail déjà passé, il lui faut un travail vivant (celui du meunier) pour devenir matière productive. Pour ce qui concerne l’extraction de données, il faut comprendre que l’automatisation de cette extraction, le stockage, le travail de la donnée et la marchandisation sont un seul et même mouvement (on ne marchande pas des jeux de données « en l’air », ils correspondent à des commandes sur une marché tendu). Les données ne sont pas vraiment une matière première, elles ne sont pas non plus un investissement, mais une forme insaisissable du travail à la fois matière première et système technique. ↩︎

  6. On peut distinguer entre économie réelle et économie financière. Voir cette étude de François Morin, juste avant le crack de 2008. François Morin, « Le nouveau mur de l’argent », Nouvelles Fondations, num. 3-4, 2007, p. 30-35. ↩︎

  7. The New York Times Magazine, 13 septembre 1970. ↩︎

  8. Robert Solow, « We’d better watch out », New York Times Book Review, 12 juillet 1987, page 36. ↩︎

  9. Mike Kwet, « Digital Ecosocialism Breaking the power of Big Tech » (ROAR Magazine), trad. Fr. Louis Derrac, sous le titre « Écosocialisme numérique – Briser le pouvoir des Big Tech », parue sur Framablog.org. ↩︎

  10. James Martin et Adrian R. D. Norman, The Computerized Society. An Appraisal of the Impact of Computers on Society over the next 15 Years, Englewood Cliffs, Prentice-Hall, 1970, p. 522. ↩︎

  11. c’est ce que je tâche de montrer dans une partie de mon livre Affaires privées. Aux sources du capitalisme de surveillance : pourquoi fabriquer et acheter des ordinateurs ? Si les entreprises sont passées à l’informatique c’est pour améliorer la production et c’est aussi pourquoi le courtage de données s’est développé. ↩︎

  12. Sur les « tactiques numériques », on pourra lire avec profit l’article de Beatrice Latini et Jules Rostand, « La libre navigation. Michel de Certeau à l’épreuve du numérique », Esprit, 2022/1-2 (Janvier-Février), p. 109-117. ↩︎

  13. Sheila Jasanoff, « Ordering Knowledge, Ordering Society », dans S. Jasanoff (éd.), States of knowledge. The co-production of science and social order, Londres, Routledge, 2004, pp. 13-45. ↩︎

  14. Sur ce point on peut lire avec intérêt ce texte de Ralph Miliband, « Comment lutter contre l’hégémonie capitaliste ? », paru initialement en 1990 et traduit sur le site Contretemps. ↩︎

  15. Voir David Graeber, et Alexie Doucet, Comme si nous étions déjà libres, Montréal, Lux éditeur, 2014. La préfiguration est l’« idée selon laquelle la forme organisationnelle qu’adopte un groupe doit incarner le type de société qu’il veut créer ». Voir aussi Marianne Maeckelbergh, « Doing is Believing: Prefiguration as Strategic Practice in the Alterglobalization Movement », Social Movement Studies, vol. 10, num. 1, 2011, pp. 1‑20. ↩︎


Publié le 11.06.2022 à 02:00

Qu'est-ce que le radicalisme ?

« Le pouvoir n’admet jamais son propre extrémisme, sa propre violence, son propre chaos, sa propre destruction, son propre désordre. Le désordre de l’inégalité, le chaos de la dépossession, la destruction des communautés et des relations traditionnelles ou indigènes – l’extermination de la vie, de la planète elle-même. Ce sont de véritables comportements extrémistes. » (Jeff Shantz)

Avant propos

Je propose dans ce billet une traduction d’un texte de 2013 écrit par Jeff Shantz. Les travaux de ce dernier appartiennent au courant de la criminologie anarchiste (voir ici ou ). Pour faire (très) court, il s’agit de s’interroger sur les causes de la criminalité et de la violence à partir d’une critique des actions de l’État et leurs effets néfastes (y compris la violence d’État).

Pour être tout à fait clair ici, je ne partage pas d’un bloc l’approche de la criminologie anarchiste, à cause des achoppements logiques auxquels elle doit se confronter. En particulier le fait qu’un mouvement de violence peut certes aller chercher ses causes dans un enchaînement d’effets du pouvoir institutionnel, il n’en demeure pas moins que, en tant qu’historien, il m’est difficile de ne jamais fouiller qu’à un seul endroit. Je crois qu’il y a toujours un faisceaux de causalités, toutes plus ou moins explicables, avec des déséquilibres qui peuvent faire attribuer l’essentiel à une partie plutôt qu’une autre. La criminologie anarchiste remet assez abruptement en cause la théorie du contrat social (surtout dans son rapport droit/crime/pouvoir), ce qui est plutôt sain. Mais si le pouvoir institutionnel est bien entendu en charge de lourdes responsabilités dans la révolte légitime (en particulier dans un contexte néolibéral autoritaire où la violence est la seule réponse faite au peuple), tous les mouvements de résistance font toujours face, à un moment ou un autre, à leurs propres contradictions, c’est humain. C’est ce qui justement les fait grandir et leur donne leur force et d’autant plus de légitimité, ou au contraire contribue à leur extinction (qu’on peut certes attribuer à l’une ou l’autre stratégie de pouvoir, bref…).

D’ailleurs, c’est justement l’un des objets de ce texte à propos du radicalisme. C’est un avertissement aux mouvements de résistance qui ne comprennent pas, d’une part, que le radicalisme est une méthode et, d’autre part, que son emploi galvaudé est une stratégie de défense (et d’offensive) du capital, en particulier via la communication et l’exercice du pouvoir médiatique. En cela il vise assez juste. En tout cas, c’est à garder en tête lorsque, sur un plateau TV, on interroge toujours : « Mais… vous condamnez ces violences de la part des ces jeunes radicalisés ? »

Plaidoyer pour le radicalisme

Par Jeff Shantz

— Article paru dans la revue Radical Criminology, num. 2, 2013, Éditorial (source), Licence CC By-Nc-Nd. Traduit avec l’aimable autorisation de l’auteur.


Aujourd’hui, peu de termes ou d’idées sont autant galvaudés, déformés, diminués ou dénaturés que « radical » ou « radicalisme ». Cela n’est sans doute pas très surprenant, étant donné que nous vivons une période d’expansion des luttes contre l’État et le capital, l’oppression et l’exploitation, dans de nombreux contextes mondiaux. Dans de tels contextes, la question du radicalisme, des moyens efficaces pour vaincre le pouvoir (ou étouffer la résistance) devient urgente. Les enjeux sont élevés, les possibilités d’alternatives réelles sont avancées et combattues. Dans de tels contextes, les militants et les universitaires doivent non seulement comprendre le radicalisme de manière appropriée, mais aussi défendre (et faire progresser) les approches radicales du changement social et de la justice sociale.

La première utilisation connue du terme radical remonte au XIVe siècle, 1350-1400 ; le moyen anglais venant du latin tardif rādīcālis, avoir des racines1. Il est également défini comme étant très différent de ce qui est habituel ou traditionnel. Le terme radical signifie simplement de ou allant vers les racines ou l’origine. Rigoureux. En clair, cela signifie aller à la racine d’un problème.

Le radicalisme est une perspective, une orientation dans le monde. Ce n’est pas, comme on le prétend souvent à tort, une stratégie. Être radical, c’est creuser sous la surface des certitudes, des explications trop faciles, des réponses insatisfaisantes et des panacées qui se présentent comme des solutions aux problèmes. Le radicalisme conteste et s’oppose aux définitions du statu quo - il refuse les justifications intéressées que fournissent l’autorité et le pouvoir.

Plutôt qu’un ensemble d’idées ou d’actions, il s’agit d’une approche cruciale de la vie. Comme l’a suggéré l’analyste existentialiste marxiste Erich Fromm dans un contexte de lutte antérieure :

En premier lieu, cette approche peut être caractérisée par la devise : de omnibus dubitandum ; tout doit être mis en doute, en particulier les concepts idéologiques qui sont quasiment partagés par tous et qui sont devenus par conséquent des axiomes incontournables du sens commun… Le doute radical est un processus ; un processus de libération de la pensée idolâtre ; un élargissement de la conscience, de la vision imaginative et créative de nos opportunités et possibilités. L’approche radicale ne se déploie pas dans le vide. Elle ne part pas de rien, elle part des racines. (1971, vii)

Comme c’est le cas pour la plupart des opinions et des pratiques dans la société capitaliste de classes, il y a deux approches distinctes du radicalisme, deux significations. Selon la première, celle qui consiste à aller aux racines – à la source des problèmes –, la nature du capital doit être comprise, abordée, affrontée – vaincue. Mettre fin à la violence du capital ne peut se faire qu’en mettant fin aux processus essentiels à son existence : l’exploitation, l’expropriation, la dépossession, le profit, l’extraction, l’appropriation des biens communs, de la nature. Et comment y parvenir ? Le capital et les États savent – ils comprennent. Voilà qui explique la reconnaissance des actes décrits plus haut – reconnus, précisément, comme radicaux.

Le radicalisme, vu d’en bas, est sociologique (et devrait être criminologique, bien que la criminologie soit parfois à la traîne). Il exprime cette ouverture sur le monde que C. Wright Mills appelle l’imagination sociologique (1959). Le radicalisme dans son sens premier relie l’histoire, l’économie, la politique, la géographie, la culture, en cherchant à aller au-delà des réponses faciles, rigidifiées de façon irréfléchie en tant que « sens commun » (qui n’est souvent ni commun ni sensé). Il creuse sous les conventions et le statu quo. Pour Fromm :

« Douter », dans ce sens, ne traduit pas l’incapacité psychologique de parvenir à des décisions ou à des convictions, comme c’est le cas dans le doute obsessionnel, mais la propension et la capacité à remettre en question de manière critique toutes les hypothèses et institutions qui sont devenues des idoles au nom du bon sens, de la logique et de ce qui est supposé être « naturel ». (1971, viii)

Plus encore, le radicalisme ne cherche ni se conforte dans le moralisme artificiel véhiculé par le pouvoir – par l’État et le capital. Une approche radicale n’accepte pas le faux moralisme qui définit la légitimité des actions en fonction de leur admissibilité pour les détenteurs du pouvoir ou les élites (la loi et l’ordre, les droits de l’État, les droits de propriété, et ainsi de suite). Comme l’a dit Fromm :

Cette remise en question radicale n’est possible que si l’on ne considère pas comme acquis les concepts de la société dans laquelle on vit ou même de toute une période historique – comme la culture occidentale depuis la Renaissance – et si, en outre, on élargit le périmètre de sa conscience et on pénètre dans les aspects inconscients de sa pensée. Le doute radical est un acte de dévoilement et de découverte ; c’est la prise de conscience que l’empereur est nu, et que ses splendides vêtements ne sont que le produit de son fantasme. (1971, viii)

Enfreindre la loi (des États, de la propriété) peut être tout à fait juste et raisonnable. De même que faire respecter la loi peut être (est, par définition) un acte de reconnaissance des systèmes d’injustice et de violence. Les affamés n’ont pas besoin de justifier leurs efforts pour se nourrir. Les démunis n’ont pas besoin d’expliquer leurs efforts pour se loger. Les personnes brutalisées n’ont pas besoin de demander la permission de mettre fin à la brutalité. Si leurs efforts sont radicaux – car ils savent que cela signifie de vraies solutions à de vrais problèmes – alors, qu’il en soit ainsi.

D’autre part, il y a la définition hégémonique revendiquée par le capital (et ses serviteurs étatiques). Dans cette vision, déformée par le prisme du pouvoir, le radicalisme est un mot pour dire extrémisme (chaos, désordre, violence, irrationalité). La résistance de la classe ouvrière, les mouvements sociaux, les luttes indigènes, les soulèvements paysans, les actions directes et les insurrections dans les centres urbains – toute opposition qui conteste (ou même remet en question) les relations de propriété, les systèmes de commandement et de contrôle, l’exploitation du travail, le vol des ressources communes par des intérêts privés – sont définis par l’État et le capital comme du radicalisme, par lequel ils entendent l’extrémisme, et de plus en plus, le terrorisme.

Tous les moyens de contrôle de l’autorité de l’État sont déployés pour juguler ou éradiquer ce radicalisme – c’est en grande partie la raison pour laquelle la police moderne, les systèmes de justice pénale et les prisons, ainsi que l’armée moderne, ont été créés, perfectionnés et renforcés. En outre, les pratiques « douces » de l’État et du capital, telles que les industries de la psy, qui ont longtemps inclus la rébellion parmi les maladies nécessitant un diagnostic et un traitement2, sont moins remarquées Comme le suggère Ivan Illich, théoricien de la pédagogie radicale : « Le véritable témoignage d’une profonde non-conformité suscite la plus féroce violence à son encontre » (1971, 16). C’est le cas dans le contexte actuel des luttes sociales, et de la répression déployée par l’État et le capital pour étouffer toute résistance significative (et effrayer les soutiens mous).

Pourtant, les opinions et les pratiques visées par cette construction du radicalisme sont tout bonnement celles qui défient et contestent les États et le capital et proposent des relations sociales alternatives. Même lorsque ces mouvements ne font pas ou peu de mal à qui que ce soit, même lorsqu’ils sont explicitement non-violents (comme dans les occupations des lieux de travail, les grèves, les revendications territoriales des indigènes), le pouvoir présente ces activités comme radicales et extrêmes (et, par association, violentes). C’est en réalité parce que de telles activités font planer le spectre de la première compréhension du radicalisme – celui qui vient d’en bas – celui qui parle des perspectives des opprimés et des exploités. Cette définition est, en fait, fidèle aux racines du mot et cohérente avec sa signification.

L’accusation de radicalisme par les détenteurs du pouvoir, la question du radicalisme elle-même, devient toujours plus importante dans les périodes de lutte accrue. C’est à ces moments que le capital étatique a quelque chose à craindre. Les efforts visant à s’attaquer aux racines ne sont plus relégués aux marges du discours social, mais ce que le pouvoir cherche à faire, c’est le ramener dans un lieu de contrôle et de réglementation. Dans les périodes de calme, la question du radicalisme est moins souvent posée. Cela en dit long sur la nature des débats au sujet du radicalisme.

Le radicalisme au sens premier n’est pas une réaction spontanée aux conditions sociales. Pour Illich, il faut apprendre à distinguer « entre la fureur destructrice et la revendication de formes radicalement nouvelles » (1971, 122). Là où il démolit, il démolit pour construire. Il faut « distinguer entre la foule aliénée et la protestation profonde » (1971, 122-123). Dans la perspective de Fromm :

Le doute radical signifie questionner, il ne signifie pas nécessairement nier. Il est facile de nier en posant simplement le contraire de ce qui existe ; le doute radical est dialectique dans la mesure où il appréhende le déroulement des oppositions et vise une nouvelle synthèse qui nie et affirme. (1971, viii)

Comme l’a suggéré l’anarchiste Mikhaïl Bakounine, la passion de détruire est aussi une passion créatrice.

Les problèmes d’extrémisme, introduits par les détenteurs du pouvoir pour servir leur pouvoir, sont une diversion, un faux-fuyant pour ainsi dire. Les actes supposés extrêmes ou scandaleux ne sont pas nécessairement radicaux, comme le suggèrent les médias de masse qui les traitent souvent comme des synonymes. Les actes extrêmes (et il faudrait en dire plus sur ce terme trompeur) qui ne parviennent pas à s’attaquer aux racines des relations entre l’État et le capital, comme les actes de violence malavisés contre des civils, ne sont pas radicaux. Ils ne s’attaquent pas aux racines de l’exploitation capitaliste (même si la frustration liée à l’exploitation les engendre). Les actes qui servent uniquement à renforcer les relations de répression ou à légitimer les initiatives de l’État ne sont pas radicaux.

En même temps, certains actes extrêmes sont radicaux. Ces actes doivent être jugés au regard de leur impact réel sur le pouvoir capitaliste d’État, sur les institutions d’exploitation et d’oppression.

Dans le cadre du capitalisme d’État, l’extrémisme est vidé de son sens. Dans un système fondé et subsistant sur le meurtre de masse, le génocide et l’écocide comme réalités quotidiennes de son existence, les concepts de l’extrémisme deviennent non pertinents, insensés. En particulier lorsqu’ils sont utilisés de manière triviale, désinvolte, pour décrire des actes mineurs d’opposition ou de résistance, voire de désespoir. Dans ce cadre également, la question de la violence (dans une société fondée et étayée par des actes quotidiens d’extrême violence) ou de la non-violence est une construction factice (favorable au pouvoir qui légitime sa propre violence ou fait passer pour non-violents des actes violents comme l’exploitation), un jeu truqué.

Le pouvoir n’admet jamais son propre extrémisme, sa propre violence, son propre chaos, sa propre destruction, son propre désordre. Le désordre de l’inégalité, le chaos de la dépossession, la destruction des communautés et des relations traditionnelles ou indigènes – l’extermination de la vie, de la planète elle-même. Ce sont de véritables comportements extrémistes. Ils sont, en fait, endémiques à l’exercice du pouvoir dans les sociétés capitalistes étatiques.

La destruction d’écosystèmes entiers pour le profit de quelques-uns est un acte férocement « rationnel » (contre l’irrationalité des approches radicales visant à mettre fin à ces ravages). L’extinction de communautés entières – le génocide des peuples – pour obtenir des terres et des ressources est une action indiciblement extrême, en termes écologiques et humains. Pourtant, le pouvoir n’identifie jamais ces actes comme étant radicaux – il s’agit toujours d’une simple réalité de la vie, du coût des affaires, d’un effet secondaire du progrès inévitable, d’un résultat malheureux de l’histoire (dont personne n’est responsable).

Et il ne s’agit même pas des extrêmes, ni de rares dérives du capitalisme – ce sont les actes fondateurs de l’être du capital –, ils sont la nature du capital. La conquête coloniale, par exemple, n’est pas un effet secondaire regrettable ou un excès du capitalisme – c’est sa possibilité même, son essence.

Les militants qui ne parviennent pas à aller à la racine des problèmes sociaux ou écologiques – qui ne comprennent pas ce que signifie le radicalisme d’en bas pour la résistance – peuvent être, et sont généralement, trop facilement enrôlés par le capital étatique dans le chœur dominant qui assaille et condamne, qui calomnie et dénigre le radicalisme. Nous le voyons dans le cas des mouvements de mondialisation alternative où certains activistes, revendiquant la désobéissance civile non-violente (DCNV) de manière anhistorique, sans contexte, comme s’il s’agissait d’une sorte d’objet fétiche, se joignent ensuite à la police, aux politiciens, aux firmes et aux médias de masse pour condamner l’action directe, les blocages, les occupations de rue, les barricades ou, bien sûr, les dommages infligés à la propriété, comme étant trop radicaux – en tant qu’actes de violence. Les voix des activistes anti-radicaux deviennent une composante de la délégitimation de la résistance elle-même, un aspect clé du maintien du pouvoir et de l’inégalité.

De tels désaveux publics à l’endroit de la résistance servent à justifier, excuser et maintenir la violence très réelle qui est le capital. Les approches, y compris celles des activistes, qui condamnent la résistance, y compris par exemple la résistance armée, ne font que donner les moyens d’excuser et de justifier la violence continuelle et extensible (elle s’étend toujours en l’absence d’une réelle opposition) du capital étatique.

La survie n’est pas un crime. La survie n’est jamais radicale. L’exploitation est toujours un crime (ou devrait l’être). L’exploitation n’est jamais que la norme des relations sociales capitalistes.

Les détenteurs du pouvoir chercheront toujours à discréditer ou à délégitimer la résistance à leurs privilèges. Le recours à des termes chargés (mal compris et mal interprétés par les détenteurs du pouvoir) comme le radicalisme sera une tactique à cet égard. On peut suivre la reconstruction du terme « terreur » pour voir un exemple de ces processus. Le terme « terreur » était initialement utilisé pour désigner la violence d’État déployée contre toute personne considérée comme une menace pour l’autorité instituée, pour l’État (Badiou 2011, 17). Ce n’est que plus tard – comme résultat de la lutte hégémonique – que la terreur en est venue (pour les détenteurs du pouvoir étatique) à désigner les actions des civils – même les actions contre l’État.

Et cela fonctionne souvent. Il est certain que cela a joué un rôle dans l’atténuation ou l’adoucissement des potentiels des mouvements alternatifs à la mondialisation, comme cela a été le cas dans les périodes de lutte précédentes. En cela, ces activistes anti-radicaux soutiennent inévitablement le pouvoir et l’autorité de l’État capitaliste et renforcent l’injustice.

Toutefois, nous devons également être optimistes. L’accusation de radicalisme venant d’en haut (affirmée de manière superficielle) est aussi un appel à l’aide de la part du pouvoir. C’est un appel du pouvoir aux secteurs non engagés, le milieu mou, pour qu’ils se démarquent des secteurs résistants et se rangent du côté du pouvoir (États et capital) pour réaffirmer le statu quo (ou étendre les relations et les pratiques qu’ils trouvent bénéfiques, un nouveau statu quo de privilèges) – les conditions de la conquête et de l’exploitation.

Le radicalisme (ou l’extrémisme, ou le terrorisme) est la méthode utilisée par le pouvoir pour réprimer l’agitation en attirant le public vers les intérêts dominants. En ce sens, il reflète un certain désespoir de la part des puissants – un désespoir dont il faut profiter, et non pas en faire le jeu ou le minimiser.

Dans les périodes de recrudescence des luttes de masse, la question du radicalisme se pose inévitablement. C’est dans ces moments qu’une orientation radicale brise les limites de la légitimation hégémonique – en proposant de nouvelles interrogations, de meilleures réponses et de réelles alternatives. S’opposer au radicalisme, c’est s’opposer à la pensée elle-même. S’opposer au radicalisme, c’est accepter les conditions fixées par le pouvoir, c’est se limiter à ce que le pouvoir permet.

L’anti-radicalisme est intrinsèquement élitiste et anti-démocratique. Il part du principe que tout le monde, quel que soit son statut, a accès aux canaux de prise de décision politique et économique, et peut participer de manière significative à la satisfaction des besoins personnels ou collectifs. Il ne tient pas compte des vastes segments de la population qui sont exclus des décisions qui ont le plus d’impact sur leur vie, ni de l’accès inégal aux ressources collectives qui nécessitent, qui exigent, des changements radicaux.

Les activistes, ainsi que les sociologues et les criminologues, doivent défendre le radicalisme d’en bas comme une orientation nécessaire pour lutter contre l’injustice, l’exploitation et l’oppression et pour des relations sociales alternatives. Les actions doivent être évaluées non pas en fonction d’un cadre moral légal établi et renforcé par le capital étatique (pour son propre bénéfice). Elles doivent être évaluées en fonction de leur impact réel sur la fin (ou l’accélération de la fin) de l’injustice, de l’exploitation et de l’oppression, et sur l’affaiblissement du capital étatique. Comme Martin Luther King l’a suggéré, une émeute est simplement le langage de ceux qui ne sont pas entendus.

La morale bien-pensante et la référence à l’autorité légale, en reprenant les voix du capital étatique, est pour les activistes une abdication de la responsabilité sociale. Pour les sociologues et les criminologues, c’est un renoncement à l’imagination sociologique qui, en mettant l’accent sur la recherche des racines des problèmes, a toujours été radicale (au sens non hégémonique du terme). Les penseurs et les acteurs critiques de tous bords doivent défendre ce radicalisme. Ils doivent devenir eux-mêmes radicaux.

Les débats devraient se concentrer sur l’efficacité des approches et des pratiques pour s’attaquer aux racines des problèmes sociaux, pour déraciner le pouvoir. Ils ne devraient pas être centrés sur la conformité à la loi ou à la moralité bourgeoise. Ils ne devraient pas être limités par le manque d’imagination des participants ou par le sentiment que le meilleur des mondes est celui que le pouvoir a proposé.

Encore une fois, le radicalisme n’est pas une tactique, un acte, ou un événement. Ce n’est pas une question d’extrêmes, dans un monde qui considère comme indiscutable que les extrêmes sont effroyables. C’est une orientation du monde. Les caractéristiques du radicalisme sont déterminées par, et dans, des contextes spécifiques. C’est le cas aujourd’hui pour les mobilisations de masse, voire des soulèvements populaires contre les offensives d’austérité étatiques au service du capitalisme néolibéral. Le radicalisme menace toujours de déborder les tentatives de le contenir. C’est parce qu’il fait progresser la compréhension – il met en évidence l’injustice sociale – qu’il est par nature re-productif. Il est, en termes actuels, viral.

Jeff Shantz, Salt Spring Island, été 2013

Bibliographie

Badiou, Alain. 2011. Polemics. London: Verso

Fromm, Erich. 1971. « Introduction ». Celebration of Awareness: A Call for Institutional Revolution. New York: Doubleday Anchor

Illich, Ivan. 1971. Celebration of Awareness: A Call for Institutional Revolution. New York: Doubleday Anchor

Mills, C. Wright. 1959. The Sociological Imagination. London: Oxford University Press.

Rimke, Heidi. 2011. « The Pathological Approach to Crime: Individually Based Theories ». In Criminology: Critical Canadian Perspectives, ed. Kirsten Kramar. Toronto: Pearson Education Canada, 78–92.

—. 2003 « Constituting Transgressive Interiorities: C19th Psychiatric Readings of Morally Mad Bodies ». In Violence and the Body: Race, Gender and the State, ed. A. Arturo. Indiana: Indiana University Press, 403–28.

Notes


  1. NdT : le terme vient effectivement du latin tardif, comme mentionné par A. Blaise dans son dictionnaire du latin chrétien, dont voici la définition complète : « qui tient à la racine, premier, fondamental » dérivé de radix, -icis « racine, origine première ». ↩︎

  2. Pour une analyse plus approfondie de cette question, voir le travail en cours de Heidi Rimke (2011, 2003). ↩︎


Publié le 07.06.2022 à 02:00

Scott Scale 950 : premières impressions

Application directe de mon billet précédent sur les VTT dans les Hautes Vosges, je vous propose le court retour d’expérience d’une première prise en main d’un VTT Scott Scale 950 édition 2022.

Le choix

Ce VTT fut commandé en fin 2021 (oui, oui!). Le temps de livraison des cycles s’est trouvé excessivement allongé en général ces deux dernières années. Les raisons sont connues. La mondialisation des échanges a rendu les flux largement dépendants de quelques grands pays producteurs de matières premières. La pénurie de celles-ci associée à la désorganisation de la production en raison du Covid ont crée des effets dominos dans beaucoup de filières. Dans le secteur Mountain Bike, si votre choix est spécifique et que ne pouvez pas vous contenter de ce qui se trouve déjà en stock magasin, il faut vous armer de patience.

Or donc, j’avais commandé un Scott Scale 950. Pourquoi ce choix ? D’abord parce que je suis habitué à cette fameuse marque Suisse, mais aussi parce que, depuis 2005, la gamme Scale n’a cessé de s’améliorer et a fini par devenir une référence. Peu de marques ont cette capacité de pouvoir allier la contrainte de qualité imposée en compétition et décliner toute une gamme sur une si longue période (16 ans !). D’autres marques ont certes su mobiliser leurs capacités industrielles pour décliner des modèles très célèbres et de bonne qualité. La différence avec les vélos Scale, c’est le large choix de matériaux et d’équipements à travers toute la gamme. Au regard des attentes du cycliste, c’est là que le bât peut blesser : trop bas de gamme, le vélo perd tout son intérêt, trop haut, il devient cher et c’est vers d’autres marques qu’on doit se tourner pour un modèle équivalent et plus abordable.

Le Scott Scale 950 édition 2022 présentait pour moi plusieurs avantages :

  • semi-rigide. Après plusieurs années en tout-suspendu pour le cross-country, il me fallait néanmoins un semi-rigide à la hauteur de mes attentes et de mes chemins (très variés, du plus technique en montée comme en descente, jusqu’aux chemins forestiers larges pour travailler l’endurance).
  • la géométrie. Cadre, angles, haubans et direction, tout est fait pour allier la maniabilité, l’agilité et la nervosité. Sur les premiers modèles d’entrée de gamme, selon la morphologie du cycliste, on sent déjà bien la différence par rapport à des géométries moins travaillées pour le rendement (je pense à Lapierre, mais bon… il ne faut pas nourrir le troll). Pour moi, cette géométrie est juste ce qu’il me fallait mais à condition…
  • … d’avoir un choix d’équipements à la hauteur (Shimano et Syncros pour l’essentiel). Et là c’est tout un équilibre qu’il faut choisir, entre des coûts raisonnables pour l’entretien (changement de pièces, surtout la transmission), l’évolution de l’équipement, la fiabilité.

Aujourd’hui, le Scale 950 a pour ainsi dire renoué avec la géométrie sportive de départ, tout en utilisant des matériaux de grande qualité. En comparant le 950 (cadre aluminium ultra-léger) avec le 930 et le 940 (cadre carbone), la différence de poids est respectivement de +400 grammes et de -200 grammes (!!). Si on considère un instant la rigidité et la relative fragilité du carbone (surtout du carbone entrée de gamme) par rapport à la souplesse de l’aluminium, on peut désormais se poser franchement la question de l’intérêt de vouloir absolument du carbone. Mon choix a donc porté sur l’aluminium, d’autant plus que l’équipement (transmission, freins) du 950 est excellent. Pour le prix, il y avait 100 et 200 euros de différence : la comparaison ne se résume donc pas à une question de portefeuille.

Scott Scale 950, 2022

Première impression

Le débutant VTT peut très bien acheter ce modèle d’emblée, mais il faut savoir que la première impression est celle d’une assez grande exigence. Autant l’ensemble est extrêmement maniable, même avec peu d’expérience de pilotage, autant le rendement en terme de rapport énergie / vitesse est assez exceptionnel. Les plus sportifs trouvent vraiment leur compte avec ce VTT que l’on peut pousser assez loin dans ses capacités. S’il s’agit d’un premier VTT, c’est un peu dommage de ne pas pouvoir en profiter pleinement grâce à un bon pilotage, autant acheter un Scale plus bas de gamme, ou un Aspect (pour rester chez Scott) et moins cher quitte à changer plus tard.

Pour illustrer : sur un tronçon de parcours chronométré de 10 km / 400 Md+, habituellement emprunté avec d’autres VTT (en particulier mon – désormais – ancien Scott Spark), j’ai gratté 5 minutes sur mon temps habituel (même condition climatique et de terrain). Cela tient à deux choses : la légèreté et le rendement. On peut certes y associer l’excitation de la nouveauté, mais… 5 minutes, tout de même ! Tout le rendement qu’on a en moins dans un tout suspendu (même en rigidifiant les amortisseurs) est récupéré. Et non, bien évidemment, je ne parle pas des tout-suspendus à 10.000 euros, hein ?

Et la descente ? Et bien, j’ai largement confirmé mon expérience selon laquelle, pour la plupart des sentiers des montagnes vosgiennes, équiper un bon semi-rigide de roues 29 pouces est largement suffisant. La différence s’est fait à peine sentir, y compris grâce à la souplesse de l’aluminium. Certains obstacles, peu nombreux, ne sont évidemment pas pris de la même manière qu’avec un tout-suspendu1. Autrement dit : si on veut garder la même vitesse en présence d’obstacles, le Scott Scale fait parfaitement le job à condition de savoir bien piloter. C’est là qu’un débutant aura sans doute plus de difficulté, en montée comme en descente, surtout en présence de racines ou de gros dévers.

En revanche, un petit bémol pour Scott qui équipe les roues d’emblée avec des pneus Rekon Race : très valables sur terrains secs, ils sont très peu fiables dès qu’il y a de l’humidité. Or, m’étant concocté un parcours avec des terrains très variés pour ce premier test, je sais déjà qu’à la première occasion, je changerai les pneus.

Matériel

Il n’y a pas grand chose à dire sur l’équipement de ce VTT. Comme Scott sait le faire, le blocage triple position de la fourche est un atout non négligeable car il permet d’adapter la fourche au type de terrain. Mais là rien de nouveau.

Rien d’exceptionnel non plus concernant la transmission : mono-plateau (32), cassette arrière 12 vitesses (10-51), dérailleur Shimano Deore XT… Cette transmission fait vraiment le job, à voir sur la durée. Avantage de ces composants : ils sont connus, fiables, et les changer ne coûte pas un bras. On pourra monter en gamme à l’usage mais a priori je n’en vois pas la nécessité.

Les autres équipement Syncros, célèbres chez Scott, sont tout à fait classiques aussi. Petit plus pour la selle Belcarra que j’ai trouvée vraiment confortable. Mais là aussi, il faut l’envisager sur la durée : il y a mieux en matière de selle.

Quant aux freins, je réserve une mention spéciale : ils sont vraiment bons. Pourtant il s’agit des Shimano MT501 qui sont certes typés sportifs, mais ne figurent pas en haut de podium. Je pense que tout simplement l’innovation en la matière a rendu ces systèmes de freins de plus en plus performants : qu’il s’agisse du mordant ou de la souplesse des leviers, après quelques essais, on trouve très vite le point d’accroche qui permet de doser efficacement le freinage.

Un point important : les pédales. Bien sûr elles ne sont pas fournies mais sur un tel VTT les pédales automatiques ou semi-automatiques me semblent indispensables. Pour l’heure, j’ai reporté les pédales plates de mon ancien VTT, j’attends avec impatience de pouvoir tester des semi-automatiques magnétiques (marque Magped).

Esthétique

Et pour finir, je ne peux pas m’abstenir de mentionner l’aspect esthétique général de mon nouveau bijou… couleur émeraude chatoyant à l’aspect mat, associée à un beige que l’on trouve sur la selle et le choix des pneus. L’élégance de la géométrie associée à ces choix de couleurs (un peu kitsch peut-être) donne un ensemble très « smart ».

Pour autant Scott n’a pas oublié quelques points essentiels : les bases arrières sont enfin complètement protégées, en particulier du côté transmission avec une protection caoutchouc de bonne facture. Idem à l’avant du tube diagonal, un revêtement anti-adhérence présentant le nom de la marque, est censé protéger cette partie du cadre. Là, par contre, il faut voir sur la durée : cela semble protéger contre les salissures, mais pas forcément contre les pierres, donc je crois qu’un bon coup de film polyuréthane devra s’imposer tout de même.

Conclusion

Le Scott Scale 950 est un excellent compromis entre la randonnée sportive et la recherche de performance. Dédié au Cross-country, il est dédié aux sorties rythmées. La relance en haut de côte n’est plus vraiment un problème. Le pilotage est assez nerveux, ce qui fait que je le déconseille aux débutants : on se laisse vite griser par la vitesse indépendamment du terrain (le 29 pouce fait son effet) mais gare au freinage tardif ! Le choix des pneus est donc crucial selon votre géographie et les Rekon Race fournis par défaut ne feront certainement pas l’unanimité.

Notes


  1. Ce que j’ai surtout remarqué, c’est que le tout-suspendu permet de jouer avec les obstacles, quitte à corriger des erreurs de pilotage, alors qu’en semi-rigide l’erreur se pardonne moins. Autrement dit, les sensations de pilotage sont beaucoup plus authentiques. Il y a toujours un côté snob à mentionner ce genre de choses, mais je comprends les pratiquants qui souhaitent parfois revenir à des « fondamentaux ». ↩︎


Publié le 22.04.2022 à 02:00

Guide de survie du vététiste débutant en moyenne montagne

Voici un long billet dont j’ai remis la rédaction depuis bien trop longtemps. Il s’adresse aux grands débutants en VTT qui souhaitent s’y mettre. S’agissant de réflexions tirées de mon expérience personnelle dans les Vosges, il faut considérer que je m’adresse essentiellement aux débutants vététistes en moyenne montagne. Quatre grands thèmes sont abordés : la pratique du VTT, le choix d’un premier VTT, l’équipement et l’entretien.

Table des matières

Il faut parfois s’accrocher pour ne pas se perdre parmi les différentes appellations qui désignent les pratiques du VTT. Ce n’est pas qu’elles soient nombreuses, c’est surtout qu’elles sont parfois utilisées de manière indifférenciée. Ainsi, certains sites ou vendeurs vous conseilleront exclusivement un VTT tout-suspendu pour la pratique du All Mountain, tandis que d’autres vous diront que le semi-rigide comme le tout suspendu conviennent, car il ne s’agit que de randonnée sportive, soit du Cross country…

Les pratiques du VTT

Nommer la pratique que l’on souhaite avoir, c’est aussi conditionner le choix du matériel et donc son achat. Mon avis personnel, c’est que certains sites internet ont tendance à pousser le choix d’un VTT tout suspendu alors que le client débutant en est encore à se questionner sur les équipements de freins et transmission. En contraste, je n’ai encore jamais vu un bon vendeur dans un magasin de cycles soutenir mordicus que le client devrait obligatoirement choisir un type de VTT plutôt qu’un autre : le conseil doit être technique et comparatif dans une même gamme, mais la pratique appartient au pratiquant.

C’est pour cela qu’il faut d’abord réfléchir à la pratique que l’on souhaite. Il faut pouvoir faire confiance au vendeur et à ses conseils, mais auparavant il faut aussi savoir lui communiquer vos attentes. Il ne peut pas les deviner si vous ne savez pas répondre à ses questions ou si vous répondez sans réellement savoir ce que vous voulez.

Nous reviendrons plus loin sur l’éternelle question du choix entre un tout-suspendu et un semi-rigide.

Mais c’est quoi « le VTT » ?

Comme son nom l’indique en français, il s’agit de « vélo tout terrain ». En anglais, il s’agit de vélo de montagne (Mountain Bike). Bien que la version anglophone ai longtemps eu cours, je trouve que la version francophone est bien mieux adaptée : on peut utiliser un VTT sur chemin de campagne dans les collines sous-vosgiennes comme sur les pires aiguilles des Alpes. L’essentiel est que cela puisse rouler sur tous les terrains (il paraît que certains en font en Bretagne, c’est tout dire).

La seule chose que vous tâchez d’éviter, c’est la route, le bitume. Premièrement parce que vous risquez de vous y ennuyer en ayant l’impression de ne pas avancer. Deuxièmement parce que vos pneus et la géométrie d’un VTT ne sont pas faits pour cela.

Il y a plusieurs manières d’aborder le VTT. La première, c’est la petite promenade du dimanche sur des chemins de terre. C’est plus tranquille que sur la route, pas de voiture. Si tel est votre souhait, je ne pense pas qu’il soit utile de lire plus loin. Vous achetez un VTT assez bas prix (en dessous 500 euros, c’est tout à fait envisageable). Si vous en prenez soin, il saura vous durer. Mais un VTT ne sera peut-être pas votre choix le plus éclairé : il existe des vélos « tout chemin » (VTC) qui seront sans doute plus appropriés et, à l’occasion, vous permettront de faire des randonnées plus longues et plus confortables en alternant voies communales et pistes cyclables1.

La seconde et principale manière d’envisager le VTT, c’est le sport. De part sa géométrie, un VTT est d’abord un vélo sportif. Tout comme l’est celle du vélo de route (de course). Et comme toute discipline sportive, cela nécessite un entraînement régulier.

Le VTT n’a certes pas le monopole de la difficulté en sport, mais il faut reconnaître que ce n’est pas une discipline très simple. D’abord, il y a un aspect matériel à prendre en compte. Et surtout, il faut acquérir de l’endurance et de l’aisance de pilotage. Débuter le VTT comme sport vous engage à envisager quelques séances un peu décourageantes et ingrates devant les terrains accidentés et les montées interminables. Mais dès le début vous y trouverez beaucoup de plaisir et de satisfaction pour les distances et le dénivelé accomplis.

Simplement, essayez de choisir des circuits avec des points de vue, donnez-vous des objectifs, et ne présumez pas de vos forces. Soyez conscient·e de votre niveau. Si vous êtes blême en haut des marches et des racines, ou si vous avez le cœur en dehors de sa boîte au milieu d’une côte trop raide, il n’y aucune honte à descendre du vélo et faire quelques pas. Ne vous inquiétez pas, de toute façon, vous descendrez de vélo plus souvent que vous ne le croyez :)

Puisque nous parlons de sport, c’est l’occasion de rappeler quelques principes :

  • la régularité : la météo ne doit pas être une excuse pour ne pas rouler. C’est désagréable, certes, mais un petit coup de froid ne fait pas de mal. Par contre, n’oubliez pas les descentes, n’allez pas vous transformer en glaçon. J’ai coutume de ne pas sortir le VTT en dessous 5 degrés à moins d’un grand soleil. Mais vous trouverez toujours quelques givré·es pour le faire quand même. La grosse pluie, en revanche, il vaut mieux l’éviter : le vélo est tout terrain, mais la transmission et les suspensions prennent cher lorsqu’il y a trop d’humidité (et gare au nettoyage).
  • la mixité : le VTT est un sport, mais il ne doit pas vous empêcher d’en faire d’autres. La course à pied est un excellent complément pour travailler l’endurance. La natation vous aidera à obtenir plus de gainage (et aussi de l’endurance) tout en préservant vos articulations. Et chaque matin, un peu de musculation (sangle abdominale et pompes) pour améliorer votre pilotage, votre équilibre et résister aux longues sorties.
  • mon conseil : si une sortie VTT est votre seule pratique sportive de la semaine, vous risquez de ne pas beaucoup progresser. Essayez, lorsque viennent les beaux jours, de faire au moins deux sorties par semaine, une courte une longue, et alternez avec de l’endurance et du gainage. En hiver, si vous ne sortez pas le VTT du week-end à cause de la météo, faites une séance de trail à la place, au moins deux heures, pour garder le « coffre ».
  • en fonction de votre pratique (voir les sections suivantes), votre entraînement ne sera pas le même. Si vous vous lancez dans l’Enduro, je vous conseille de faire pas mal de musculation. Pour le Cross country, privilégiez le cardio.

Ces considérations étant exposées, intéressons-nous désormais aux différentes pratiques du VTT.

All mountain

C’est l’expression-valise pour dire « randonnée sportive sur chemins mixtes ». Par chemins mixtes, j’entends aussi bien des sentiers qui nécessitent un peu de pilotage technique (en descente comme en montée) et des grands chemins forestiers, le tout avec une certaine technicité des sentiers.

Et vous allez demander : n’est-ce pas justement la définition du VTT ? Et bien si, justement. Cette expression est selon moi purement issue du marketing, en particulier sur les sites de vente en ligne de matériel sportif. Si on multiplie les appellations de pratiques, on multiplie par conséquent les choix possibles.

Si je vous disais par exemple qu’un VTT tout-suspendu est essentiellement fait pour la descente, vous hésiteriez à juste titre car pour la plupart des gens, descendre des sentiers en vélo est forcément dangereux. Or, il a bien fallu multiplier les ventes de VTT tout-suspendus en les adaptant à ces personnes qui veulent un tel VTT sans pour autant se lancer dans la discipline Enduro. J’exagère à peine : le tout-suspendu a largement gagné le créneau du Cross country, mais comme je vais l’expliquer plus loin, c’est à certaines conditions seulement que ce choix doit être fait, et il est nullement obligatoire.

En fait, il n’y a que deux grandes pratiques de VTT, elles sont citées dans les sections suivantes. Et le choix d’un VTT tout suspendu ou semi-rigide est surtout un choix relatif à la manière de pratiquer et à l’investissement financier.

En moyenne montagne, pour un débutant, il n’y aura pas de grande différence entre un VTT semi-rigide 29 pouces et un tout-suspendu. Pour tout dire, on peut aimer le tout-suspendu parce que dans les grands chemins forestiers, on ressent moins de vibrations, et dans certains sentiers en descente on peut parfois engager un peu mieux des dénivelés… inattendus (parfois l’erreur de pilotage peu être plus facilement corrigée). Mais on aime aussi le semi-rigide car il est beaucoup plus nerveux en montée, il est plus léger, il est plus précis en pilotage dans beaucoup de situation, et les sensations sont plus authentiques. Bref, c’est en pratiquant que l’on se forge une opinion.

Pour résumer à propos du All Mountain :

  • ce n’est pas une pratique précise,
  • souvent employé comme un argument de vente,
  • c’est plutôt du Cross country.
Sans commentaire.

Enduro et DH (DownHill):

Là, c’est du sérieux. Ces pratiques concernent essentiellement la descente. Je les mets dans le même sac car ce n’est pas vraiment l’objet de ce billet. DH et Enduro sont des courses chronométrées. Les épreuves d’Enduro (comprendre au sens de endurance) durent parfois une dizaine de minutes et s’étalent sur plusieurs jours. Le VTT Enduro peut être utilisé en montée comme en descente (même si, forcément, ce ne sera pas une bête de course en montée, hein?), il est aussi réputé très solide car il faut tenir le choc, justement, sur la durée. La pratique DH est encore plus spécialisée, avec du matériel hyper modifié. Bref, si vous voulez faire comme dans les superbes vidéos Redbull et quitter le sol pour le meilleur (ou pour le pire), cette pratique est faite pour vous. Achetez-vous aussi une caméra, histoire de garder des souvenirs.

Dans les Vosges, plusieurs groupes de vététistes ont aménagé des circuits dédiés, plus ou moins réglementaires. On peut citer celui du côté de Barr, qui est en fait un ancien spot de championnat, me suis-je laissé entendre. Ce sont eux qu’on accuse souvent de dégrader les sols, mais ce n’est pas toujours vrai. Je connais certains spots où la roche côtoie le chemin bien solide et il n’y a pas vraiment de problème. Mais il existe aussi des Bike Park (par exemple celui du Lac Blanc). Si vous voulez tester, je préconise de vous y rendre.

Autre point important : ne vous prenez pas pour un·e champion·ne. L’Enduro ne s’improvise pas, et ce n’est pas parce que vous avez un VTT tout-suspendu que vous pouvez, du jour au lendemain, prendre un élan inconsidéré. Le pilotage, cela s’apprend ! Avec un groupe d’ami·es on peut facilement chercher à impressionner les copain·es. Croyez-moi, après 30 ans de pratique2 : le seul résultat vraiment impressionnant quand on se plante, c’est celui de l’hélitreuillage :)

VTT Enduro -- Nissan DH Cup in Bouillon - 53, by Nathan. F, CC BY-NC-SA 2.0.

Cross country

On nomme cette pratique aussi X-Country ou, plus court, XC. C’est la pratique la plus répandue et présente aux jeux olympiques : une course de rapidité, en somme, sur des terrains variés, quelle que soit la météo.

Au niveau du grand public, ce qui distingue les pratiquants, ce sera la vitesse, l’allure, le rythme. On oscille entre la randonnée, la randonnée sportive et l’entraînement marathon. En moyenne montagne, la grande variété des terrains offre la possibilité d’élaborer des circuits adaptés à toutes les phases de l’entraînement, y compris de longues distances.

À la différence de l’Enduro, le Cross country ne cherche pas à jouer avec le terrain mais optimiser le pilotage pour une trace fluide et rapide. L’endurance du cycliste est ainsi mise à l’épreuve, mais cela n’empêche nullement de considérer le Cross country comme un excellent moyen de se déplacer sportivement dans la montagne et en profiter pour admirer le paysage et les sites d’intérêt. C’est d’ailleurs l’essentiel pour la plupart des pratiquants.

Évidemment, si vous voulez progresser, c’est l’entraînement qui fera la différence (comme pour l’Enduro).

Cette variété au niveau de la pratique comme au niveau du pilotage conditionne le choix de votre monture. Et ce sont sans doute les seuls critères qui devraient présider ce choix, en plus de votre condition physique et l’analyse de votre niveau.

VTT Cross country (course) - 2012 Absa Cape Epic Prologue at Meerendal by mikkelz, CC BY-NC-SA 2.0.

Choisir votre type de VTT

J’ai bien conscience qu’en abordant ce chapitre, je risque de m’attirer les foudres des plus spécialistes d’entre nous. Je précise donc une nouvelle fois que je m’adresse au débutant vététiste dans les Vosges (et plus généralement en moyenne montagne) d’après mon expérience personnelle. C’est tout.

Quand j’étais jeune…

Au risque de passer pour un vieux briscard, voici quelques éléments de contexte.

Je vous invite tout d’abord à regarder quelques vidéos qui traînent sur les zinternets à propos de Gary Fischer. Ce dernier, pionnier du Mountain Bike californien était aussi concepteur et chef d’entreprise (la marque Gary Fischer, disparue vers 2010, rachetée par Trek). Il faut voir dans cette vidéo ce qu’on peut faire avec un vieux biclou 29 pouces sans suspension, en descendant des chemins en jeans, chemise et gants de chantier… tout cela pour vous dire (vous rappeler ?) que ce qui fait le bon vététiste, c’est avant tout les cuissots et le pilotage. Indépendamment de sa qualité et sa robustesse, le matériel, lui, sera toujours secondaire.

Cette première leçon venue du fond des âges du VTT (les années 1970) vaut bien un fromage. Pour ce qui me concerne, j’ai commencé exactement en 1989 avec un Gary Fischer Advance. Caractéristiques : freins V-brake, roues 29 pouces, tout rigide, selle rembourrée… Et avec ce VTT, j’ai roulé 5 ans dans tous les chemins autour de la Vallée des Lacs (Hautes Vosges), sur le granit mouillé comme sur l’herbe sèche des crêtes vosgiennes. Une excellente école pour le pilotage. Ma conclusion est que les VTT d’aujourd’hui, équipés de freins à disques, de jeux de transmission high-tech, de cadres à géométrie confortable, sont certes beaucoup plus sûrs qu’à l’époque, mais présentent aussi un très large choix en termes d’équipement, ce qui rend assez difficile le choix d’un premier achat.

Par conséquent la pression est très forte, pour un débutant : comment bien investir son argent dans un VTT s’il ignore encore sa pratique réelle, la fréquence de ses entraînements, les conditions de ses sorties, les chemins qu’il empruntera ?

VTT Gary Fisher ProCaliber 1991.

Louer un VTT puis investir (ou pas)

Si vous n’avez jamais fait de VTT, bien évidemment : n’achetez rien pour l’instant. Trouvez un loueur de VTT3 et partez faire un tour quelques heures avec une personne déjà pratiquante (et qui essaiera de ne pas vous dégoûter en étant pédagogique et patiente). Faites cela plusieurs fois de suite. Les quelques euros que vous aurez alors dépensé dans la location d’un VTT seront vite amortis parce que vous aurez une idée beaucoup plus précise de la discipline.

Une fois que vous le sentez, commencez à vous intéresser à l’achat de votre premier VTT. J’ai bien dit : le « premier » VTT. Parce qu’il y en aura d’autres.

Bien sûr votre capacité d’investissement dépend de la largeur de votre portefeuille. Mais s’il s’agit de votre premier VTT, c’est aussi le VTT :

  • avec lequel vous allez commettre des erreurs,
  • avec lequel vous allez affiner votre pratique, celle qui vous conduira à acheter votre second VTT,
  • avec lequel vous aller apprendre comment s’entretient un VTT au quotidien et même changer des équipements complets.

Et comme c’est votre premier choix, et il y a des chances qu’il ne vous corresponde pas à l’usage (quelle que soit la qualité du conseil du vendeur).

Il y a plusieurs stratégies possibles.

La première consiste à investir pour un VTT de milieu de gamme que vous roulerez un à deux ans. Si la pratique vous plaît et que vous pensez pouvoir investir plus sérieusement, vous pourrez alors revendre ce premier VTT et racheter un VTT plus haut de gamme et cette fois avec de la pratique et une meilleure connaissance du matériel. Pour revendre ce VTT, l’important est de bien en prendre soin. C’est autant d’argent que vous pourrez sauvegarder le moment venu.

La seconde, consiste à acheter un VTT entrée de gamme pour le revendre une bouchée de pain par la suite ou le convertir pour un autre usage en le « transformant » en vélo de ville ou tout chemin. À condition de planifier cela à l’avance. Vous achetez ensuite un VTT plus haut de gamme.

La troisième consiste à acheter d’emblée un VTT haut de gamme chez un constructeur disposant de beaucoup de choix dans une même gamme. Explications : au sein d’une même gamme vous trouvez les mêmes cadres mais un équipement de transmission, freins et suspension plus ou moins haut de gamme. Plutôt que de taper directement dans le must de l’équipement, vous pouvez choisir un équipement moins bon, et le faire évoluer dans le temps, par exemple au fur et à mesure des changements de pièces. Cela vous coûtera in fine plus cher, mais la dépense restera progressive.

La quatrième, enfin, la plus simple : vous êtes absolument sûr·e de votre choix. Vous avez assez d’argent et vous investissez pour un VTT censé vous durer longtemps, donc vous mettez le paquet. Attention toutefois, on ne compte plus le nombre de VTT de ce genre qui croupissent au fond des garages dans l’espoir d’une hypothétique remontada de la motivation…

Mon conseil serait le suivant. Il est très difficile, lorsqu’on débute, de bien différencier les constructeurs entre eux. Pour prendre quatre exemples : Giant, Scott, Lapierre, Trek. Chacun a breveté des géométries de cadre très différentes et qui changent selon les gammes. Rendez-vous dans les magasins et les démonstrations. Prenez votre temps et chaque fois que vous le pouvez, essayez les vélos à votre taille.

Pour un premier VTT, je pense qu’il faut éviter d’acheter en ligne sans avoir d’abord essayé, au moins être monté sur le vélo en compagnie d’un vendeur avisé qui saura vous dire si votre position est correcte. Il m’arrive parfois de voir des géants sur des vélos trop petits pour eux bien qu’ils indiquent la bonne taille dans la grille des correspondances du constructeur. La longueur de vos bras et votre port de tête sont tout sauf standardisés. De même il peut s’avérer parfois nécessaire de changer la potence ou le guidon… un essai de 5 minutes peut vous donner une bonne impression alors qu’une sortie de 3 heures vous en donnera une toute différente.

Pour conclure, pour un grand débutant, je préconise un achat d’abord entrée de gamme à revendre ou à recycler ensuite. La raison est que, à ce stade, vous n’êtes tout simplement pas sûr·e de pratiquer assez régulièrement le VTT sur plusieurs années.

Mais attention, lorsque j’écris « entrée » de gamme, je n’écris pas « bas » de gamme au sens péjoratif du terme ! Aux tarifs actuels, il faut compter entre 800 et 1.000 euros pour un VTT entrée de gamme qui puisse être assez qualifié pour une pratique sportive. On est loin du VTT Décat' à 400 euros. Pourquoi ? parce que, quelle que soit votre premier choix, il y a un niveau d’équipement en dessous duquel il ne faudra pas descendre. Mes préconisations minimales seraient :

  • fourche à suspension air,
  • roues / jantes 29 pouces compatible tubeless,
  • transmission Shimano Deore (ou équivalent Sram, cf plus loin),
  • de bon pneus type Maxxis Forekaster ou Rekon Race (ou équivalent, mais vous pouvez les changer facilement si besoin).

Si vous avez cela sur le vélo, c’est un VTT qui devrait vous durer assez longtemps pour un coût d’entretien modique (changement de pièces) ou plus onéreux si vous upgradez le tout.

Cadre aluminium ou carbone ?

On peut dire beaucoup sur l’avantage du carbone. Le point le plus évident est la légèreté (mais c’est aussi plus fragile).

Mais attention : les cadres aluminium pour un VTT aux alentours de 1.000 euros s’avèrent de très bonne qualité et assez légers surtout si on n’alourdit pas en tout-suspendu. Dans le haut du panier en aluminium, parfois mieux vaut acheter un bon cadre aluminium qu’un cadre carbone bas de gamme qui percera à la première pierre projetée par votre roue avant.

La question du poids, pour un premier VTT, me semble une question hors de propos. En effet, si vous achetez un VTT suivant les préconisations minimales ci-dessus, la différence avec d’autres VTT plus chers se mesure à 2 kg près (davantage si vous prenez un tout-suspendu). Or, ce qui fait la différence à votre niveau de pratique, ce sont surtout vos jambes : contentez-vous déjà de pédaler, vous optimiserez en perdant déjà du poids vous-même et en prenant de la masse musculaire.

L’autre point à l’avantage du carbone est sa rigidité. Cela implique une meilleure transmission de l’énergie… mais franchement quand vous en serez à comparer l’alu et le carbone selon ces critères là, vous n’aurez pas vraiment besoin de conseils.

Tout suspendu ou semi-rigide (hardtrail) ?

C’est l’éternelle question qui hante tous les magazines et autres sites marchands.

En toute objectivité, les VTT tout-suspendus d’aujourd’hui offrent des performances très intéressantes et ont réussi à perdre une grande partie du poids qui leur était reproché il y a quelques années (ils ne sont pas poids plume pour autant).

Il ne faut cependant pas s’accrocher aux catégories avancées par certains sites. D’aucun soutiennent que pour le All Mountain (je rappelle que cela ne correspond à aucune pratique précise) il vous faut du tout-suspendu sinon rien.

Il faut se poser la question : selon ma pratique, qu’est-ce qui va guider mon choix ?

Pour l’Enduro (ou le DH), je pense que la réponse va de soi : suspensions avant et arrière à grands débattements. Notons tout de même qu’il existe des fans d’Enduro en hardtrail. Là, je pense qu’il faut essayer avant d’en parler.

Pour le Cross country, cela se discute. Les suspensions des VTT tout-suspendus destinés au Cross country ont des débattements bien plus faibles que pour l’Enduro et sont vraiment destinés à cette pratique. De plus lorsqu’on regarde les championnats de cross-country depuis ces 5 dernières années, on y voit en majorité des VTT tout-suspendus… mais en carbone, avec le dernier cri de la technologie, bref… chers, très chers.

Dans cette pratique, et pour la moyenne montagne, le tout-suspendu offre une meilleure adhérence/propulsion en « collant » la roue arrière au sol, et un meilleur confort en descente avec, peut-être, un sentiment de sécurité. D’un autre côté, les chemins de moyenne montagne praticables en Cross country n’offrent que très rarement l’occasion d’éprouver significativement tout le jeu de suspension. La raison est qu’en choisissant des roues 29 pouces, l’essentiel est déjà « amorti ».

N’achetez pas un tout-suspendu si votre seule raison est de vous assurer de passer sur tous les sentiers en moyenne montagne (dans les Alpes, c’est différent). En fait, en moyenne montagne, les sentiers trop techniques sont peu nombreux, représentent très peu de kilomètres comparé au reste et de toute façon vous ne les emprunterez pas. D’après mon expérience vosgienne, si cela passe en tout-suspendu, cela passe aussi en semi-rigide. Le tout-suspendu n’est pas « plus tout-terrain » que le semi-rigide. Ce n’est pas le bon critère.

La combinaison 29 pouces + tout-suspendu pour du Cross country dans les Vosges me semble revenir à surjouer l’équipement par rapport au besoin réel.

Donc le besoin se fera vraiment sentir en fonction de votre pratique du Cross country : si vous voulez vraiment aller à fond en descendant les sentiers vosgiens, peut-être qu’un tout-suspendu vous conviendra. Et s’il est assez léger pour une randonnée de 4 ou 5 heures, vous gagnerez sans doute en confort. Par contre, cela représente un investissement conséquent. Un tout-suspendu pour du Cross country, cela veut dire que vous allez rechercher la légèreté et comme les suspensions ne sont jamais légères (sauf dans le très haut de gamme), vous allez devoir vous intéresser de près aux cadres en carbone.

Personnellement, mon VTT date de 2017, c’est un tout-suspendu, cadre aluminium. Il est lourd, même si l’aluminium utilisé est allégé. Par contre, sa solidité a fait que je n’en ai jamais eu à me plaindre. Ce que j’ai constaté néanmoins : il n’est pas très utile par rapport aux chemins que j’emprunte (et j’emprunte vraiment beaucoup de chemins différents). J’ai donc commandé un VTT semi-rigide pour le remplacer (à la date de rédaction de ce billet, j’attends la livraison).

Si vous choisissez un tout-suspendu pour pratiquer le Cross country, soyez aussi conscient·e de plusieurs choses :

  1. l’entretien se fait tous les ans ou tous les deux ans pour changer tous les roulements des articulations du VTT (renseignez-vous sur les prix ou apprenez à le faire vous-mêmes),
  2. la suspension arrière nécessite une attention particulière et il est conseillé de faire réviser l’ensemble tous les ans (idem, renseignez-vous sur les prix),
  3. il vaut mieux acheter un cadre carbone si vous voulez un tout-suspendu sans quoi, c’est un char d’assaut que vous allez devoir trimballer en montée. ce qui fait qu’en prenant un carbone de bonne qualité, votre VTT sera assez cher. Pour un premier achat, je le déconseille donc. Par contre à vous de voir si vous en avez le portefeuille et l’envie :)

Un dernier point à propos desVTT tout-suspendus : la tige de selle télescopique. Effectivement, c’est un outil qui peut s’avérer pratique car, en descente très engagée, baisser la selle en un coup de pouce depuis le guidon peut vous permettre de vous donner des airs d’Enduro. Mais n’oubliez pas, là encore : cela alourdi le vélo (et les selles sur tige télescopique on toujours du jeu, source d’inconfort à la longue).

Exemple de VTT semi-rigide - Mountain Bike, by Stephen Ransom Photography, CC BY-NC-SA 2.0.

VTT à assistance électrique ?

Le débat ressemble à troll. Il y a quelques années, à l’apparition des VTT-AE, il y eu une impression d’affrontement entre les pro et les anti-, soit entre ceux pour qui faire du VTT est synonyme d’effort sportif et ceux pour qui le VTT-AE reviendrait à faire du vélomoteur en forêt.

Sauf que le débat ne se pose pas en ces termes (outre le prix d’un VAE de bonne facture) :

  1. Le VTT-AE peut être pratiqué sportivement : au lieu de partir pour une randonnée de 40 km et 1200 m de dénivelé, vous en faites le double et voilà tout. L’assistance vous permet de monter des « coups de cul » que de toute façon vous auriez fini par monter à pied ou alors très fatigué. On comprend surtout que le VTT-AE est plus que bienvenu en haute montagne.
  2. Mais pour beaucoup de personnes le VTT-AE revient effectivement à jouer les touristes en pensant que le pilotage est à la portée de n’importe qui. Or, avec un VTT-AE de 25 kg, plus d’un amateur inexpérimenté fini par se viander dans un dévers.
  3. En revanche, pour les personnes qui autrement ne feraient pas de VTT parce qu’elles ne sont pas sportives, ou encore à cause de la vieillesse ou du surpoids, et si elles restent prudentes sur des chemins sans difficulté, le VAE offre l’opportunité de rouler au grand air sans le stress des voitures sur la route. Et c’est plutôt une bonne chose.
  4. Reste un problème tout de même, valable pour tout vélo électrique : les batteries et les filières de recyclage, la pollution que cela suppose, y compris dans les composants électroniques. Pour du vélo urbain (vélotaff) le compromis peut être atteint par l’effet de substitution à l’automobile (c’est un grand débat). Mais pour du loisir, c’est en raison de cet aspect du VTT AE que je conseillerais plutôt, lorsqu’on est en pleine possession de ses moyens physiques, de pédaler sur des VTT « musculaires ».

L’équipement

En tant que débutant·e, vous risquez d’être dérouté par les contraintes d’équipement qui s’imposent à vous. Que ce soit l’équipement du pratiquant ou celui du VTT, il est important de faire un point.

Pour le vététiste

Le·a vététiste doit toujours s’interroger sur ce qui le relie au vélo et son rapport à l’environnement et le climat. Essayons de faire le tour.

Les vêtements

Ne soyez pas radin·e sur ce point. Revêtir un bon cycliste (long et chaud en hiver, court en été) est votre première préoccupation : de bonne qualité il vous évitera les effets désagréables des frottements après une sortie longue. Une grande enseigne bleue fort connue en vend de très bons, il ne faut pas hésiter à aller y faire un tour. C’est de même valable pour les vestes chaudes d’hiver.

Cuissard ou short ? En été, c’est une question que je qualifierais surtout d’esthétique. Bien sûr dans les deux cas, vous vous aviserez d’avoir un chamois en fond de culotte, c’est primordial. Ensuite, le confort d’un cuissard est relatif à la quantité de tissu, là où le short pourrait être la cause de frottements désagréables. En revanche, pour des sorties longues je conseille le cuissard, sans hésitation, en particulier pour ses qualités compressives.

Votre garde-robe embarquée devra toujours prévoir un coupe-vent pluie : il vous évitera de prendre froid dans les descentes et vous protégera des intempéries.

Pour ce qui concerne les gants : les gants longs sont préconisés en VTT (ne pas mettre de mitaines), avec coussinets sur la paume. Il en existe pour l’hiver et pour l’été. Prenez du solide : il arrive souvent de poser les mains au sol, sur de la pierre, sur des troncs d’arbre, dégager des ronces… c’est tout-terrain, l’on vous dit…

Le casque

Pas de débat : il est obligatoire. Prenez du haut de gamme systématiquement, avec visière, système de répartition d’onde de choc, spécialisé VTT (les casques pour vélo de route ne conviennent pas). Essayez votre casque en magasin et voyez s’il vous est confortable : on ne peut pas tout acheter en ligne…

Casque VTT - Mountain Bike Helmet, by Noah J Katz, CC BY-NC-SA 2.0.

Autres protections corporelles

Lunettes : c’est nécessaire. Pour plusieurs raisons :

  • protection de vos yeux (ronces, branches, projections diverses),
  • teinte jaune (pas trop foncée à cause des sous-bois) : tous les opticiens vous diront que cette teinte permet d’accentuer les contrastes, donc mieux voir les reliefs,
  • verres interchangeables : une paire jaune, une paire blanc (pour la pluie, et lorsqu’il n’y a pas assez de soleil)
  • si vous avez besoin de correction de vue, allez voir votre opticien pour acheter une paire de lunettes pour le VTT (il y a deux ou trois grandes marques fort connues pour le sport : Demetz, Julbo, Bollé…
  • les lunettes doivent être profilées : même si ce n’est pas à la mode :)

Protection armure : laissez cela aux descendeurs en Enduro/DH. Ell·eux en ont vraiment besoin. Pour le cross country, il faut voyager léger.

Pour votre dos, si vous avez un sac à dos avec poche à eau, vous n’en n’avez pas vraiment besoin, mais certains sacs disposent une plaque de protection, si cela peut vous rassurer.

En accidentologie VTT, les études (comme celle-ci) portent le plus souvent sur la pratique Enduro/DH, on comprend pourquoi : c’est celle qui présente le plus de prise de risques. Là, ce sont les blessures sur le haut du corps qui sont les plus courantes, particulièrement les épaules (fracture clavicule, typiquement). Mais aussi : fractures poignets, coudes et épaules… Le port du casque a largement amoindri la fréquence des dommages à la tête, ce n’est même plus un sujet de débat.

On peut raisonnablement penser que la pratique du Cross country présente beaucoup moins d’accidents graves, mais statistiquement, comme il s’agit de la pratique la plus répandue, la fréquence des visites aux urgences est tout sauf négligeable. Les fractures sur le haut du corps et membres supérieurs sont là aussi les plus courantes.

Pour simplifier, les accidents en Cross country sont moins dépendantes du terrain qu’en Enduro. Cette pratique n’est pas moins dangereuse que le roller, le vélo de route ou le skate-board. Par contre ces éléments font la différence : l’erreur de pilotage, le matériel peu soigné et mal vérifié, le degré de prise de risque. Notons aussi qu’en Cross country on trouvera plus de blessures musculaires et tendineuses, inhérentes aux pratiques sportives d’endurance lorsqu’on pousse le corps un peu trop loin.

Sac a dos ou grosse banane ?

Le choix se discute.

Dans un sac à dos vous trimballez votre poche à eau, votre coupe vent, éventuellement un surplus de vêtement, quelques outils, votre téléphone portable, vos papiers, une ou deux barres céréale.

Ce sac à dos doit bouger le moins possible. Regardez la marque Evoc, qui présente d’excellentes performances (mais ce n’est pas la seule).

Mais on peut opter pour la grosse banane selon cet adage : c’est le vélo qui doit porter, pas le dos. C’est un bon argument. Dès lors votre eau se trouvera sur votre cadre dans deux gourdes, vous aurez un petit sac à outils sous la selle, et tâchez de répartir le reste dans la banane (chez Evoc aussi, il y en a des très bien).

Les outils et trousse d’urgence

Pour être autonome, en solo ou en groupe, il vous faut :

  • chambre à air de rechange (sauf si vous êtes en tubeless)
  • une petite pompe
  • une bombe « anti-crevaison » : oui, je sais… mais il m’est arrivé de crever deux fois de suite, alors bon…
  • deux démonte-pneu (attention avec ça si vous êtes en chambre à air : entraînez-vous à changer une chambre à air)
  • kit de réparation tubeless avec mèches (si vous êtes en tubeless, donc),
  • un multi-outils avec dérive-chaîne (utile si vous cassez la chaîne)
  • deux colliers de serrage : pratique si vous devez attacher quelque chose (par exemple : vous cassez un rayon, vous l’attachez au rayon voisin pour les kilomètres qui vous restent)
  • 50 cm de fil de fer (utile pour plein de choses)
  • une trousse de premiers soins : une couverture de survie, pansements et compresses (dont au moins deux larges), antiseptique en fioles, bande adhésive, etc.
Un couple de multi-outils très pratiques - Multitool and Hex Toolset, by dvanzuijlekom, CC BY-SA 2.0.

La gestion de l’eau, la bouffe

L’hydratation, c’est obligatoire. Tout comme pour la course à pied, vous ne pouvez pas faire de sortie de plus d’une heure sans emporter avec vous suffisamment d’eau… et la boire ! Combien de litres par heure ? c’est variable : en fonction de votre poids, de la météo et de l’effort, vous devrez boire plus ou moins. Par contre, une chose est valable pour tout le monde : buvez avant d’avoir soif, anticipez la déshydratation. Boire trop peu est synonyme de moins d’apport au système musculaire (notamment de sodium) et par conséquent une baisse de performance, des risques de crampes, en plus de risques de problèmes rénaux ou de vessie si vous perdrez trop d’eau.

Comment savoir si on s’hydrate assez ? buvez tout le temps, beaucoup avant la sortie, beaucoup après et beaucoup pendant. Mon repère à moi, c’est avoir envie de pisser au moins une fois durant une sortie de trois heures, mais ce n’est pas une règle absolue.

Cela dit, faut-il pour autant se surcharger en flotte ? non. Surtout si vous portez votre eau dans une poche dans le sac à dos. Il est inutile d’emporter trois litres : si besoin, vous pouvez toujours remplir vos contenants en chemin (prévoir une étape avec point d’eau). Emporter 1,5 litres me semble un bon compromis en Cross country moyenne montagne et s’il fait très chaud, monter à 2 litres, ce sera suffisant.

Poche style Camelback avec tuyau ou bidon sur le cadre ?

Personnellement, je n’ai jamais été un grand fan des porte-bidons : on a tendance à se déséquilibrer pour aller chercher le bidon, le porter en bouche et le remettre, alors qu’un tuyau bien ajusté sur la bretelle du sac à dos permet un accès direct. Ceci sans compter le risque de perdre le bidon, justement, à cause des obstacles du terrain.

Le contre-argument, c’est qu’en utilisant un porte-bidon, c’est le vélo qui porte, pas le cycliste. C’est-à-dire autant de poids en moins sur le dos.

Concernant les apports nutritionnels, là non plus je n’ai pas vraiment de conseil à donner. Mon sentiment est que si vous mangez correctement et équilibré (même avec quelques excès de temps en temps), votre besoin nutritionnel durant l’effort d’une longue sortie ne devrait pas être conséquent. Il faut toujours emporter avec soi une ou deux barres céréales ou de la pâte de fruit, ou bien quelques fruits secs, selon ses goûts.

Rien ne vous oblige à les manger. En tout cas, ne vous précipitez pas sur les produits miracles vendus en pharmacie ou dans les magasins de sport, et encore moins sur les barres céréales des rayons confiserie du supermarché : ces produits contiennent généralement trop de sodium, des huiles saturées, trop de sucres transformés, et pour certains des nutriments parfaitement inutiles si vous avez déjà une alimentation saine au quotidien.

Si vous aimez les barres céréales, achetez des barres dont la composition est la plus simple possible ou bien faites-les vous-mêmes avec des produits sains que vous aurez sélectionné au préalable. Les recettes ne manquent pas sur les z’internetz. Après quelques essais, vous obtiendrez d’excellents résultats.

Les pédales

Devez-vous choisir les pédales automatiques, semi-automatiques, les pédales plates ?

Quelque soit votre achat, votre VTT sera livré avec une paire de pédales bas de gamme : tout le monde change les pédales de toute façon. Mais vous pouvez rouler avec dans un premier temps. C’est pourquoi cette section concernant les pédales est située dans l’équipement du vététiste : prolongements des pieds, elles conditionnent le contact avec le vélo, tout comme la selle.

Pour le débutant, je préconise les pédales plates (avec les picots). Attention aux tibias avec les retours de pédales involontaires. Comptez une cinquantaine d’euros pour une paire solide de marque connue. Protèges-tibias ? c’est lourd et inconfortable, donc non : faites attention, c’est tout.

Pédales automatiques : il faut un peu d’entraînement sans quoi votre appréhension causera votre chute. Cependant, si vous voulez faire du Cross country et gagner en rendement tout en maîtrisant votre vélo, c’est le modèle de pédales à utiliser.

Sur le marché il existe des pédales dites semi-automatiques. Elles se présentent soit sous la forme d’une pédale recto attache automatique et verso pédale plate, soit avec un recto aimant recto et verso pédale plate. Ces modèles permettent de laisser les pieds libres dans les descentes ou les passages difficiles. En théorie, du moins. Par contre j’ai été séduit par les pédales automatiques à aimant : elles ont moins de pouvoir de traction que les pédales automatiques classiques (si on tire trop, le pied se décroche), mais c’est ce qui fait leur intérêt : permettre un décrochage très rapide et donc plus sécurisant. J’aurais du mal à m’en passer aujourd’hui.

En matière de pédale, il n’y a pas d’obligation. Là encore, c’est votre pratique qui en décidera. J’ai un faible pour les pédales plates, même si j’ai moins de rendement. En revanche, en compétition Cross country, les pédales automatiques sont la règle.

Pédale plate et pédale automatique - bike pedal, by postbear and by torisan3500, CC BY-NC-SA 2.0.

Les chaussures

Elles dépendent de vos pédales ! Mais sachez aussi choisir une paire qui vous permette de marcher. Pour le Cross country, les chaussures typiques sont assez rigides, proches de celles utilisée en vélo de route, mais pour plus de confort, choisissez des chaussures plus appropriées à la randonnée VTT, un peu moins rigides et plus polyvalentes.

Gardez à l’esprit qu’une paire de chaussures trop étroites ou trop justes :

  • empêchent la circulation sanguine dans vos pieds : on a tendance à se crisper un peu en descente et à l’appui,
  • empêchent de mettre des chaussettes chaudes en hiver.

La selle

La selle est le contact quasi permanent entre votre postérieur et le VTT. À ce titre, elle ne doit pas être négligée. Si, dans un premier temps, la selle fournie avec votre vélo saura vous contenter, c’est à la longue que vous constaterez que, même si vous avez correctement réglé sa hauteur, quelques désagréments peuvent subsister, notamment les irritations.

En gros, il existe des selles arrondies et des selles plus plates. Les arrondies limiteront les irritation en cas de sorties longues distance. Certaines selles disposent aussi d’un canal central plus ou moins prononcé, voire parfois complètement évidé : c’est pour limiter la pression sur le périnée.

Quant à la largeur de la selle, elle doit être relative à votre morphologie. Que vous soyez homme ou femme, large ou étroit, c’est à vous de voir.

Mon conseil : préférez les selles arrondies et veillez à ce qu’elles ne soient pas trop larges, sans quoi une gêne au pédalage va s’installer.

Pour le VTT

La transmission

Le groupe de transmission regroupe tous les éléments qui transmettent l’énergie musculaire (ou électrique) au vélo. Un groupe de transmission est composé de dérailleurs, cassette, pédalier (boîtier, plateaux, manivelles, pédales), chaîne. On peut compter aussi les manettes (ou commandes) de vitesses et les câbles.

Pour choisir un groupe de transmission plutôt qu’un autre, il faut avoir de l’expérience. En effet, selon votre niveau, un groupe 1x11 (mono-plateau et 11 pignons) demandera plus ou moins d’efforts pour entraîner la machine par rapport à un 1x12.

Aujourd’hui le mono-plateau a le vent en poupe. Et il présente un double avantage : moins d’entretien et plus de légèreté. Là-dessus vous pourrez à la longue opter pour des cassettes différentes.

Image promotionnelle Shimano Deore XT - 1x11.

Et non, ce n’est pas parce que vous avez un mono-plateau que vous avez moins de vitesses : en double plateau vous avez la plupart du temps une cassette 10 pignons arrangés de 11 à 36 dents (on dit 10 x 11-36) mais en mono-plateau vous avez par exemple une cassette à 11 x 10-42 ou une cassette à 12 x 10-51. En clair : à l’arrière, le dernier pignon de votre cassette est juste énorme. Donc la plage de « choix » de vitesse n’est guère moins grande mais l’avantage est que vous n’avez plus à veiller à ne pas croiser la chaîne (il ne faut jamais mettre un couple grand plateau - petit pignon si on a plusieurs plateaux).

Pour un premier achat, je préconise pas moins que le couple mono-plateau et 12 vitesses. Sinon, les doubles plateaux à l’avant peuvent encore séduire.

En termes de marques, vous avez grosso-modo l’essentiel du choix entre Shimano et Sram qui se partagent l’essentiel du marché VTT. Là encore, si vous débutez, choisir entre les deux ne consiste pas à trouver le meilleur point de performance, mais comprendre ce qui distingue les groupes entre eux, chez Shimano comme chez Sram. Pour faire simple, dans les deux marques, il y a une hiérarchie. À une ou deux exceptions près les marques sont incompatibles entre elles. Et entre les groupes au sein d’une même marque, il y a des tableaux de correspondances et c’est normal : vous ne pouvez pas tout mélanger, plateaux, pignons chaîne et manettes de vitesses.

Alors comment vous y retrouver ? Lorsqu’on achète un VTT, celui-ci est fourni avec un groupe de transmission donné. Pour juger du prix de votre vélo, au sein d’une même gamme, il faut aussi se demander avec quel niveau d’équipement il est fourni. Notez aussi que plus vous montez en gamme, plus les changements de pièces seront chers, pensez-y avant d’opter systématiquement pour le plus cher.

Le tableau suivant sera peut-être démodé au moment où vous le lirez, cependant, je pense que pour l’essentiel on s’y retrouve. Notez que en mets pas les shifteur électroniques ni les groupes spécialisés descente. Je me concentre sur le Cross country.

Niveau Shimano Sram
1 XTR XX1
2 XT (Deore XT) X01, X1
3 SLX GX, X9
4 Deore X7, NX
5 Alivio X5
6 Acera X4
7 Altus X3
8 Tourney

Les freins

En matière de freinage, le choix ne doit pas être pris à la légère. Évidemment, les systèmes de freins dédiés à l’Enduro seront extrêmement puissants, la notion de dosage passant plutôt au second plan (même si elle est très utile), tandis que pour le Cross country c’est la fiabilité sur la durée du freinage qui sera recherchée. Mais la pratique n’est pas l’essentiel : votre poids et le terrain sont des données tout aussi essentielles et c’est fonction de cela que vous allez juger si vos freins vous conviennent ou pas.

Lorsque vous allez acheter votre nouveau VTT, si c’est le premier, il va falloir faire confiance au vendeur. Un système de freinage va du levier aux plaquettes en passant par l’étrier, les durites et les disques. Tous ces composants ont leur importance dans l’efficacité et le ressenti.

Par exemple, s’il y a de fortes chances que votre premier VTT soit équipé de plaquettes de frein organiques, sachez qu’il en existe plusieurs variétés sur le marché, avec des caractéristiques différentes, de celles qui glacent dès le premier usage à celles qui entament méchamment votre disque.

Si vous vous reportez au tableau des groupes de transmission ci-dessus, les noms des groupes de frein sont les mêmes et obéissent plus ou moins à la même hiérarchie. Cela dit, en fonction des années et des séries, on peut trouver par exemple chez Shimano des freins Deore qui valent très largement la gamme supérieure. Encore une fois c’est fonction de l’expérience que vous pourrez vous faire une idée précise. Bien sûr, le bas de gamme… reste le bas de gamme.

Attention : si vous vous renseignez sur des sites internet spécialisés (c’est une bonne chose) veillez à noter la date de rédaction des comparatifs. Shimano et Sram sortent très régulièrement des nouvelles séries et vous risquez de vous y perdre. Mon conseil serait de voir d’abord, sur le VTT que vous voulez acheter quels types de freins sont proposés, puis vous renseigner sur leurs caractéristiques par la suite. Enfin, n’oubliez pas : des freins, cela se change si vraiment ils ne vous conviennent pas.

Les pneus

Alors là… pas moyen de s’entendre sur une loi précise dans le choix des pneus, que vous soyez en chambre à air ou en tubeless : c’est le terrain et la météo qui font la différence. Mes conseils sont les suivants :

  • analysez les terrains que vous avez l’habitude de fréquenter (si vous êtes dans les Hautes Vosges avec du granit mouillé, votre choix en sera pas le même que dans les Vosges du Nord avec du gré sableux, et bonne chance à ceux qui sont entre les deux)
  • ne soyez pas chiche (même si le prix d’un pneu n’est pas un gage) : de bons pneus (et un gonflage correct) conditionnent absolument votre tenue de route. C’est comme en voiture.
  • il n’y a aucune obligation à avoir les mêmes pneus à l’avant et à l’arrière : contacts, grip, adhérence, dureté de la gomme, tout cela joue.

Lors de votre premier achat, le VTT sera livré avec un jeu de pneus semblables avant et arrière. Usez-les… mais analysez votre besoin. Ensuite rendez-vous sur les sites de vente en ligne et regardez les descriptifs, ou allez chez votre vendeur et posez-lui la question.

Personnellement, je suis resté depuis les 6 dernières années avec la même référence de pneus qu’à l’achat de mon VTT, des Maxxis Forekaster. Le fabriquant écrit : « adapté à une pratique Cross country agressive et pour le All Mountain »… comme cela ne veut pas dire grand chose, je prétends simplement que ce type de pneus typé Cross country est plutôt adapté aux terrains vosgiens côté Alsace. Je vois souvent cette marque d’ailleurs chez les autres vététistes. Si vous êtes plutôt côté granit, ce ne sera pas forcément votre premier choix car je trouve qu’ils peinent un peu en traction sur du pierreux humide. C’est du ressenti personnel, pas une loi universelle.

Les suspensions

À quoi servent les suspensions, à l’avant comme à l’arrière ? Non, elles ne sont pas faites pour sauver votre popotin des dégâts d’une réception un peu rude. Leur premier rôle consiste à optimiser le contact de votre roue avec le sol, donc favoriser le contrôle de votre VTT. Pour ce qui concerne les fourches (avant), le second rôle consiste à absorber les chocs pour vos bras (et aussi votre dos) et faciliter le pilotage.

Le réglage des suspensions, notamment en fonction de votre poids, est très important. Il s’agit de régler correctement la détente (le retour de la suspension à sa position initiale). Trop molle vous n’absorbez rien et vous risquez de l’abîmer, trop raide, autant rouler en tout rigide. Par ailleurs, si vous enfoncez trop, vous perdez en rendement de pédalage.

C’est pourquoi la plupart des VTT disposent d’un système de blocage de suspension, à l’avant comme à l’arrière. Je vous conseille vivement de choisir un système de blocage situé sur le guidon, beaucoup plus pratique, surtout si vous oubliez de débloquer votre suspension après avoir entamé votre descente.

Pour la pratique du Cross country, comme je l’ai affirmé plus haut, choisir un semi-rigide est sans doute le meilleur choix pour un premier VTT (et cela reste pertinent même si ce n’est pas votre premier VTT). Les suspensions pour cette pratique sont généralement faites pour un débattement beaucoup plus faible que pour l’Enduro. Généralement on parle de 90 à 120 mm de débattement. Avoir plus de débattement ne me semble pas très utile (en Eduro, on peut monter à 200 mm de débattement).

De même, on recherchera la légèreté. Donc il vaut mieux rechercher une fourche avec un système à air (ressort pneumatique) bien que certaines fourches avec ressort hélicoïdal peuvent s’avérer tout à fait pertinentes, bien que plus lourdes (on ne parle pas non plus d’une différence de 20 kg, hein?).

Suspension VTT = amortisseur (hydraulique) + ressort (hélicoïdal ou à air).

Donc si nous résumons :

  • Ressort pneumatique (air) : légèreté, ajustement progressif au poids du pilote, moins sensible aux petits chocs,
  • ressort hélicoïdal : il faut changer le ressort s’il est trop raide, plus lourd, sensation de raideur sur petits chocs

Dans les deux cas, ces fourches font très bien leur travail à moins de choisir du trop bas de gamme, évidemment. Et n’oubliez pas : tout comme le reste, une fourche peut se changer, et il en existe des centaines de modèles… à tous les prix. Débuter avec une marque ? allez, je vous conseille Rockshox et Fox, vous trouverez dans ces marques des gammes assez étendues pour ajuster votre besoin à votre portefeuille (j’aime beaucoup les Fox racing 32, très classique, mais comme elle n’est pas trop chère, la changer pose moins de problème).

Ha oui, pour les suspensions arrières si vous tenez au tout-suspendu, c’est le même combat.

La petite sonnette

Hé oui, on l’oublie parfois, mais elle est très utile surtout lorsqu’on fréquente des sentiers de randonnée où il est difficile de contourner les marcheurs. Dans tous les cas : patientez le temps que les marcheurs réalisent votre présence, soyez très courtois et remerciez.

Il peut cependant être utile de signaler votre présence par un petit coup de sonnette. Le choix du son est important : trop bruyant, il sera perçu comme une agression (nous ne sommes pas sur une piste cyclable en centre urbain). Il existe des petites sonnettes légères en forme d’anneau à placer à peu près n’importe où sur le guidon pour plus de facilité (regardez la marque Knog Oi). Elles produisent un tintement cristallin et assez aigu pour passer au-dessus du vent et de la voix, sans être désagréable.

Garde-boue, protections de cadre

Est-ce absolument nécessaire ? non. La première chose à éviter, dans le choix d’un garde-boue avant ou arrière, c’est essayer de composer entre l’encombrement et l’intérêt réel de cet équipement. Vous avez un VTT pour faire du sport, et oui c’est une activité salissante. Ne cherchez pas à éviter la boue, vous n’y arriverez pas.

Néanmoins, on peut essayer de limiter les projections dans le visage (et il peut s’agir parfois de cocottes de pins et de petites pierres) ainsi que dans le bas du dos. Pour cela, je préconise les garde-boue souples à fixer avec des colliers de serrage, sous la selle pour l’arrière et sur la fourche pour l’avant. ils n’alourdiront pas le VTT et limiteront les projections autant que faire se peut. C’est surtout le garde boue avant qui est important : si vous roulez assez vite sur un terrain très humide, vous pourrez comprendre plus facilement.

Enfin, ce type de garde-boue ne coûte pas cher, on le remplace facilement, on peut aussi le découper si les dimensions ne conviennent pas.

Une autre protection concerne le cadre, si on veut le protéger des projections de pierres, notamment sur le bas du tube diagonal. Il existe des façades à fixer sur le tube, mais c’est une protection encombrante plutôt destinée aux pratiques de descentes, là où le risque de taper fortement le cadre est évident. Pour les petites projections qui pourtant à la longue abîment la peinture, il existe des films transparents qui jouent parfaitement ce rôle.

De la même manière, si votre VTT ne dispose pas déjà d’une protection, il peut être utile d’en mettre sur la base arrière côté transmission, là où la chaîne est parfois amenée à taper la peinture.

Toutefois certains VTT disposent maintenant de protection déjà en place, là où parfois, à la place de la peinture, un revêtement rugueux est posé dès l’usine. Cela n’empêche pas de rajouter un peu de film protecteur à certains endroits stratégiques si besoin, par exemple sur les côtés de la fourche avant.

Je préconise d’éviter les adhésifs, à cause de la colle. Cette dernière peut ne pas tenir et faire des traces inesthétiques. À la place (mais assez cher) il existe des films transparents en polyuréthane. La pose est extrêmement facile :

  • bien nettoyer et dégraisser le cadre avec de l’eau savonneuse,
  • découper soigneusement la bande aux dimensions voulues et appliquer avec un peu d’eau tout en prenant soin de ne pas faire de bulles.

Ce type de film ne garanti pas les gros chocs : il s’agit de protéger la peinture en ajoutant une sur-couche solide très discrète. Ce matériau résiste très bien à l’humidité. La marque Clearprotect est connue.

Garde-boue souple sur fourche - image by vikapproved, CC BY-NC 2.0.

Commencez à pédaler

Je pourrais ici commencer une longue section sur l’art et la manière de débuter le VTT en pratique. Pour simplifier, je dirais : pédalez d’abord. Si vous avez pris la décision d’acheter un VTT, il y a de fortes chances que vous ayez essayé au moins une fois que vous avez été séduit·e.

Néanmoins voici quelques conseils pour ne pas se mettre en difficulté dès le début et pouvoir progresser.

Réglez votre posture

Beaucoup de vidéos proposent des tutoriels pour régler correctement votre position sur le VTT. Celle-ci donne d’assez bons conseils, simples à mettre en œuvre.

  1. La hauteur de selle peut se régler facilement : une fois en selle, placez la plante du pied sur la pédale position basse, votre jambe doit être légèrement pliée. Trop pliée, votre selle est trop basse et vous allez vous faire mal aux genoux, trop haute, bobo le poum. Si vous y tenez, la solution mathématique est la suivante : soit EJ la hauteur de votre entrejambe du talon au périnée (pensez à vos chaussures !), et soit HS la hauteur de selle (du milieu de l’axe du pédalier jusqu’au creux de la selle) : HS = EJ x 0,885 (ou 0,875, cela varie).
  2. À moins d’avoir une tige de selle télescopique (gadget dont l’utilité se discute en Cross country), si vous ne vous sentez pas à l’aise en cas de descente un peu raide, sachez vous arrêter pour abaisser votre selle et la re-régler ensuite. Si votre tige de selle n’a pas de traits de graduation, faites une marque au feutre (quitte à la refaire régulièrement), mais ne l’abîmez pas.
  3. L’avancée de la selle : cela se règle au centimètre près et sur les longues distances, on sent bien la différence. Votre VTT a une certaine géométrie, mais l’avancée horizontale de la selle va favoriser ou défavoriser votre puissance de pédalage. Très peu, bien sûr, mais l’amplitude, une fois changée, va aussi conditionner votre confort. Donc, il faut essayer… Une méthode consiste à utiliser un fil à plomb : votre pied en position de pédalage (cf. ci-dessous), placez le fil à plomb sur pointe de votre genou, le fil doit passer par l’axe central de la pédale.
  4. Placer son pied sur la pédale : l’avant du pied est sur la pédale, et non pas la plante du pied. Plus exactement la bosse à la base du gros orteil (l’articulation métatarso-phalangienne) doit se situer au niveau de l’axe de la pédale (ceci est valable pour tous les types de vélo, pédales automatiques ou pas).
  5. D’autres éléments peuvent se régler et dépendent beaucoup de votre morphologie : la longueur de la potence, la largeur du cintre. Mais dans un premier temps, contentez-vous du matériel tel quel : vous en jugerez à l’usage.
  6. Votre posture ne se détermine pas seulement matériellement : c’est aussi à vous d’adopter une bonne posture : épaules relâchées, ne vous crispez pas en serrant trop fort votre guidon (même en haut d’une descente), en forte montée sachez descendre vos coudes (ne les écartez pas), si vous n’avez pas de pédales automatiques (à régler correctement elles aussi !) sachez conserver vos pieds dans l’axe du vélo (et n’écartez pas les genoux), votre pédalage doit laisser l’axe de vos genoux parfaitement droit et parallèle au vélo. Bref, au début vous devrez penser très activement à votre posture.
  7. Vos poignées doivent toujours avoir un grip correct (surveillez l’état de vos poignées : trop sales, le grip est moins bon). Surtout en descente, vous saisissez vos poignées en laissant deux doigts (index et majeur) sur les leviers de freins, de chaque côté. Donc pensez aussi à relever ou abaisser ces leviers en fonction de votre morphologie. Le pouce doit servir à passer les vitesses sur les shifteurs. Ne roulez pas avec des gants de ski, même en hiver…

Les parcours et la performance

S’il peut sembler plus commode de toujours sortir dans un coin de montagne que l’on connaît bien, essayez de varier le plus possible. Vous ne progresserez pas si vous arpentez toujours les mêmes chemins, c’est-à-dire ceux qui vous semblent faciles aujourd’hui. Pour progresser, la nature de vos parcours doit être pensée.

Surtout en Cross country il n’est pas utile de toujours faire des sorties très longues. Certes, on en revient fort satisfait, et on en prend plein la vue, mais même si vous essayez de les faire toujours un peu plus vite, vous vous retrouverez assez vite au taquet. C’est comme la course à pied : parfois il faut savoir passer par des phases plus spécialisées, chronomètre en main, faire du fractionné, etc. En VTT, le fractionné existe aussi, de même la technicité du pilotage (en descente comme en montée), l’endurance sur des parcours pénibles avec des montées bien longues et régulières pour travailler le « foncier », etc.

Mon conseil : si vous débutez, avec deux sorties par semaine, essayer d’alterner une longue, une courte. Pour la sortie longue, faites-vous plaisir : points de vue, vieux châteaux, endroits insolites, faites du tourisme et recherchez le fun. Pour les sorties courtes, trouvez-vous deux ou trois terrains de jeu, même si vous passez deux fois au même endroit, et lancez-vous des défis. L’idéal est de trouver un parcours où vous aurez deux ou trois types de difficultés à affronter : à vous de voir sur quels points vous devez progresser.

Qu’est-ce qu’une sortie longue, qu’est-ce qu’une sortie courte ? il s’agit surtout du temps passé à VTT. On mesure une sortie à la fois en kilomètres et en dénivelé (d’où l’intérêt d’utiliser un GPS, ou au moins un appli sur smartphone). Faire 23 km avec 1000 m de dénivelé cumulé (d+), c’est déjà de la bonne grosse sortie pour un débutant. Cela me semble même déjà trop. Dans les Vosges il faut partir d’en bas côté Alsace, mais c’est assez faisable tout de même.

Donc n’ayez pas les yeux plus gros que le ventre. Essayez au début de faire des sorties de 20 à 25 km avec un max de 600 à 700 m d+. Ensuite sur le même dénivelé, rallongez le kilométrage, puis ensuite augmentez le dénivelé. Ce n’est pas forcément utile de le rappeler, mais cela va mieux en le disant : allez-y progressivement.

Avec les copain·es : les sorties à plusieurs, c’est super. Être seul dans la forêt, cela a un côté peu rassurant, surtout dans les descentes un peu techniques. Par contre, si vous roulez avec des personnes d’un niveau plus avancé, c’est bien pour progresser à la seule condition de ne pas le faire tout le temps et de rappeler à vos collègues de savoir respecter votre rythme : en effet, si vous êtes toujours en sur-régime (au seuil anaérobie), avec le cœur en dehors de sa boîte à chaque montée, ou si la sortie est trop longue pour vous, d’une part vous allez finir la sortie avec des jambes en coton et au bout de votre vie en jurant que jamais plus…, et d’autre part, le plus important, vous risquez de vous blesser (tendinite ou autre blessure musculaire) voire de solliciter trop votre système cardiaque et subir un malaise voire plus grave encore.

Enfin, trop de fatigue nuit au pilotage et vous savez quoi ? quand on roule en montagne, le parcours se termine le plus souvent par une descente. Le faire en état de trop grande fatigue réduit votre attention et vos réflexes, et augmente drastiquement le risque de chute.

Inutile d’ajouter que la fatigue gagne aussi si on ne dort pas assez. Alors, profitez de vos nuits, et cessez de vous coucher tard : un bon entraînement sportif s’accomplit aussi par le repos. Concernant les repas : mangez équilibré, ne vous empiffrez pas de pâtes (c’est une légende : les sucres lents se trouvent aussi dans d’autres aliments), respectez aussi votre rythme digestif. Plutôt que de chercher des régimes plus ou moins fiables, faites surtout preuve de bon sens.

Et, pour palier les éventuels risques cardiaques, si vous avez passé vos 40 bougies, je conseille vivement de faire un bilan cardiaque avec test d’effort (demandez-en un à votre médecin traitant), il permettra de déceler un éventuel souci et prendre des mesures adéquates.

Ha oui, dernier point : ne recherchez pas la performance. Laissez-cela aux sportifs de profession. D’abord, faites-vous plaisir. Votre performance, ce sera celle que vous constaterez à votre mesure : vous n’avez de compte à rendre à personne et encore une fois, il n’y a aucune honte à descendre du vélo lorsque la montée est trop dure ou si vous ne sentez pas ce petit passage de descente.

Les randos VTT organisées

Elsass Bike, Trace vosgienne, randonnées diverses organisées par des comités cyclistes locaux : tous ces événements sont des occasions de découvrir des circuits dans une ambiance sympathique et détendue. Généralement, ces randonnées sont organisées en plusieurs parcours de niveau, proposent des points de ravitaillement et se terminent avec une bonne bière au bar de l’amicale.

N’hésitez pas à vous inscrire à de tels évènements, il y en a sans doute près de chez vous. Vous y rencontrez d’autres cyclistes et vous pouvez y aller en famille. Il ne s’agit pas de courses proprement dites, pas besoin de faire partie d’un club ou d’être inscrit à la FFC. Les circuits sont balisés, les départs sont échelonnés (il y a quand même une heure limite et comme c’est en été, il est mieux de partir tôt) et vous faites le parcours à votre rythme. Gros avantage : vous n’avez qu’à suivre le balisage.

Pour des évènements comme la Trace Vosgienne VTT, par exemple, c’est un mixte. Il y a une partie course (un départ collectif et des gagnant·es) et une partie randonnée sans chrono. À vous de choisir : vous pouvez très bien faire le marathon tout en vous fichant du chrono, mais il va falloir tout de même dépoter un peu.

Vous pouvez vous fixer ces rendez-vous annuels comme des objectifs. Choisissez la rando qui vous paraît difficile (mais pas impossible) et préparez-vous pour la réaliser sans temps chrono, mais dans de bonnes conditions. Vous pourrez-vous dire que l’année prochaine, vous ferez la rando du niveau supérieur.

Une autre opportunité consiste à rejoindre une association de vététistes, ou un club cycliste qui possède une section VTT. Même certaines antennes du Club Vosgien possèdent une section VTT. Là aussi renseignez-vous près de chez vous. C’est la garantie de sortir à plusieurs et émuler une dynamique de motivation qu’on n’a pas forcément en solo. Et puis, à fréquenter des plus expérimentés que soit, on apprend toujours des choses…

L’entretien général

Si vous voulez faire durer votre VTT, son entretien après chaque sortie est une étape obligatoire. L’entretien concerne le nettoyage, le changement de certaines pièces et la révision générale.

Ne pas faire

Pour nettoyer votre VTT après une sortie boueuse, n’utilisez jamais – entendez-vous ? – jamais ! de nettoyeur haute pression. Si vraiment vous tenez à projeter de l’eau avec un tuyau, utilisez votre tuyau de jardin avec jet diffus.

Autre chose à ne pas faire : huiler la transmission sans l’avoir nettoyée auparavant. C’est le meilleur moyen pour tout encrasser et user prématurément les toutes les pièces.

Et n’utilisez pas non plus de combinés lubrifiant / nettoyant tout-en-un pour votre transmission. Cette dernière se soigne, se bichonne : elle ne mérite pas de traitement à la va-vite (cf. plus loin).

Et vous aurez compris : l’entretien d’un VTT, ce n’est pas seulement le garder à peu près propre, c’est vérifier les pièces et leur usure, prévenir la casse, et donc rouler dans des conditions de sécurité acceptables.

Nettoyage

Si vous revenez d’une sortie très humide, passez un coup de chiffon sec sur la chaîne, épongez ce que vous pouvez sur la transmission, passez un coup de jet d’eau ou un coup de brosse sur le cadre pour ôter le plus « épais » et laissez sécher pour revenir terminer ensuite.

Une fois sec, prenez une brosse et un pinceau plat rigide : la brosse pour ôter la terre collée, le pinceau pour aller dans les recoins (du genre : le dérailleur arrière).

Le cadre d’un VTT se nettoie à l’eau. On peut éventuellement ajouter un petit peu de liquide vaisselle dans la bassine, mais c’est tout. Cela dit, comme vous aurez débarrassé votre VTT de la terre avec une bonne vieille brosse, une microfibre humide fait très bien l’affaire pour la majorité des composants : vous n’aurez pas à attendre le séchage avant de passer à la transmission.

La transmission et les lubrifiants

La durabilité et le besoin de nettoyage de votre transmission dépend énormément du lubrifiant que vous utilisez.

Sur le marché vous trouverez beaucoup de lubrifiants huile adaptés aux conditions météo, mais qui attirent plus ou moins de saletés, avec du téflon ou sans téflon, etc. Il y a même de fortes chance que le premier conseil qu’on puisse vous donner est d’utiliser ce genre de produit.

Lubrifier à l’huile a pour caractéristique de coller la poussière et le sable, et d’user prématurément les dents de vos plateaux, pignons et galets. De plus il faut savoir utiliser la bonne huile en fonction des conditions météo (conditions sèches, conditions humides). Pour le vélo de route, par définition moins sujet à la boue et au sable, l’huile sera sans doute le lubrifiant le plus simple à l’usage.

Pour le VTT, rien ne vaut le lubrifiant à la cire. La cire a pour avantage d’enrober les pièces et empêche vraiment la poussière et le sable d’y adhérer. Les frottements des pièces entre elles est largement atténué ce qui prolonge indéniablement la durée de vie de votre transmission.

Si on a longtemps considéré que les lubrifiants cire étaient sensibles aux conditions humides, les nouvelles formules n’ont plus vraiment ce défaut. En revanche, si un lubrifiant huile peut être appliqué juste avant de pédaler, il vous faudra attendre deux ou trois heures de séchage après avoir appliqué un lubrifiant cire. Ce lubrifiant est composé d’eau et de particules de céramique (il est souvent de couleur blanche), et il pénètre vraiment les moindre espaces entre les composants de la chaîne.

L’autre avantage de la cire, c’est le nettoyage. Même au retour d’une sortie bien boueuse, vous pourrez simplement passer un coup de chiffon sur la chaîne (prenez la chaîne à pleine main avec un chiffon et frottez) et entre les pignons. Alors qu’une huile vous obligerait à dégraisser la transmission.

À propos de dégraissage : la première fois que vous appliquez un lubrifiant cire, et si le lubrifiant précédent était à l’huile, un dégraissage en détail est nécessaire, suivit de trois applications du lubrifiant cire espacées de deux à trois heures.

Enfin, il n’est pas toujours utile de re-lubrifier à chaque fois : l’avantage de la cire, c’est que si les conditions sont bien sèches, et si vous n’avez pas trop sali votre transmission, on peut enchaîner deux sorties sans appliquer le lubrifiant, ou alors un tout petit coup pour la forme (mais toujours après vous être assuré qu’il ne subsiste pas de terre sur la chaîne, donc coup de chiffon, toujours). Vous pouvez aussi réserver un pinceau pour votre chaîne et les pignons, histoire de frotter doucement, y compris entre les maillons.

Changer les pièces de votre transmission

C’est le sujet épineux : quand sait-on qu’il faut changer les pièces ? et si c’est le cas, que doit-on changer ?

Si votre chaîne se met à sauter, c’est soit un défaut de réglage soit une usure qu’il faut d’urgence corriger :

  • la chaîne qui devient trop lâche,
  • des dents des pignons ou des plateaux qui deviennent pointues et ne retiennent plus la chaîne correctement.

Si c’est le cas, je déconseille de changer la chaîne seule, ou les plateaux ou les pignons seuls : c’est un ensemble. Tout au plus on peut changer les galets d’entraînement du dérailleur, mais généralement on les change en même temps que le reste. Pourquoi ? parce que votre chaîne s’est adaptée aux autres éléments d’entraînement et inversement.

Donc : les dents pointues, c’est le signe d’usure à reconnaître. Ne cherchez pas à utiliser les indicateurs d’usure de chaîne. Je lis parfois qu’il est conseillé de changer la chaîne régulièrement… bof : une chaîne de VTT est solide, et à moins de vraiment la maltraiter (changer de vitesses, cela s’apprend) mieux vaut user l’ensemble et changer le tout lorsqu’il le faut. Bien sûr si vous cassez la chaîne, il faut la changer : si elle est neuve et qu’elle saute, c’est qu’il faut aussi changer le reste car l’usure était déjà là.

Concernant les autres pièces de votre transmission, l’élément qu’il peut vous arriver de changer, c’est le boîtier de pédalier. La cause est soit l’usure, soit des chocs dans le pédalier (par exemple, la pierre qu’on n’a pas vue et qui tape une manivelle verticalement) qui font prendre du jeu au boîtier.

Le faire soi-même ? en théorie, si vous êtes bricoleur·se, vous pouvez changer tout un groupe. Mais si vous débutez, contentez-vous dans un premier temps de diagnostiquer, puis faites un tour chez votre revendeur·se : iel a les bons outils, les bonnes pièces et le savoir-faire.

Système de frein

Oui, il faut s’assurer que vos plaquettes ne sont pas encrassées par la boue. Par contre faites bien attention à ne pas projeter de lubrifiant ou n’importe quel corps gras sur vos plaquettes ou le disque de frein.

Pour prévenir les accidents, vérifiez :

  • l’état d’usure des plaquettes : n’attendez pas de freiner sur l’armature pour faire des étincelles et amuser la galerie. Tout ce que vous risquez c’est abîmer votre disque et surtout vous casser le nez parce que vos freins ne sont plus efficaces. Les plaquettes se changent régulièrement : après chaque sortie, vérifiez-les.
  • votre disque de frein : est-il trop usé ? des rails se sont formés ? il faut le changer. Si vous venez de changer les plaquettes et que vous vous apercevez qu’elles rayent profondément votre disque, c’est qu’elles ne conviennent pas.

Quand purger les freins hydrauliques ? Ce n’est pas une opération à faire régulièrement mais lorsque qu’on constate que des bulles d’air sont présentes dans le système :

  • à l’arrêt votre levier de frein est très lâche,
  • lors d’une descente, le frein chauffe et pourtant vous devez pomper pour retrouver de la prise.

Remplacement des plaquettes et des disques : ces opérations peuvent être faites par vous même. En revanche, pour une bonne purge, je conseille plutôt d’aller voir un·e spécialiste.

Les suspensions

L’entretien complet de ces pièces se fait par un·e professionnel·le. D’ailleurs, certains revendeur·ses les envoient dans un centre spécialisé où l’on peut démonter les suspensions, procèder à une vidange, changer les joints et vérifier les pièces. Certains grand·es bricoleur·ses parviennent à le faire iels-mêmes mais honnêtement, je trouve que ce genre d’opération est très pénible.

Si l’on lit attentivement les modes d’emploi des suspensions, certains préconisent un entretien complet annuel voire tous les six mois. Un tel entretien coûte entre 100 et 150 euros par suspension et très franchement, à moins de vouloir y passer le prix d’une fourche neuve, il n’y a pas grand intérêt à faire une entretien complet tous les ans. Si vous prenez soin de votre matériel, une fourche rempli parfaitement son rôle des années durant, cependant, pour en garantir l’efficacité, pensez régulièrement à sa révision selon le rythme de vos sorties à l’année. Donc tous les ans ou tous les deux ans : au-delà, c’est que vous sortez peu.

On distingue :

  • la révision : tous les ans ou deux ans : vidange, vérification, nettoyage (à faire soi-même ou chez un professionnel),
  • l’entretien complet : idem + changement des joints, tous les ans ou deux ans (plutôt chez un professionnel).

Conseil : alternez :) et si vous loupez une séquence, ça ira quand même si vous prenez soin de votre matériel, rassurez-vous.

Enfin, n’oubliez pas : les suspension avec ressort à air… cela se regonfle. Si vous perdez de l’air (cherchez la raison si vous en perdez trop), non seulement votre suspension ne sera plus réglée correctement (surtout en fonction de votre poids) mais aussi elle va s’user davantage vu que vous mettez à l’épreuve les matériaux. Si vous n’avez pas de pompe haute pression manuelle (cela vaut entre 20 et 40 euros), passez chez votre revendeur·se : il faut 30 secondes pour rajouter un peu d’air.

Autres dispositifs

La caisse à outils

Même si vous ne bricolez pas jusqu’à être capable de démonter et remonter chaque pièce de votre VTT, votre caisse à outil devra néanmoins comporter quelques éléments essentiels. La liste suivante n’est pas exhaustive mais elle vous permettra de survivre :

  • les outils que vous embarquez lors de vos sorties,
  • outils classiques : tous les outils que vous avez déjà à la maison, dont un jeu de clé allen (en T si possible) et au moins une petite pince coupante,
  • une clé à pédales (pour changer les pédales),
  • pompe à haute pression (pour suspension),
  • pompe à pied avec manomètre,
  • un pied d’atelier (ou si c’est trop encombrant pour vous, un simple pied béquille à crochets qui puisse vous permettre de soulever la roue arrière lorsque vous bricolez),
  • un dérive chaîne,
  • une pince attache rapide.

Pour le reste, si vous voulez changer votre groupe de transmission, votre système de frein, ou vos suspensions, il y a des outils spécifiques à se procurer avant de faire quoi que ce soit. Et n’oubliez pas : il y a un début à tout, mais quand on n’a jamais fait… on n’a jamais fait. Donc faites vous accompagner, c’est mieux.

Préparer ses sorties et se repérer

À moins de connaître parfaitement les moindres sentiers sur des centaines de kilomètres carrés, vous devriez embarquer au moins une carte IGN lorsque vous sortez rouler.

Il y a deux manières d’envisager une sortie. La première, surtout s’il s’agit de vos premières sorties, c’est de partir comme vous le feriez en randonnée pédestre, avec une bonne carte, puis improviser votre parcours en vous fixant des objectifs et en suivant le balisage. C’est une bonne manière de découvrir le pays. En revanche, à moins d’avoir déjà pas mal de pratique, méfiez-vous de l’improvisation qui risque de vous amener à emprunter des chemins trop difficiles par rapport à votre niveau.

C’est votre niveau que, justement, vous allez pouvoir améliorer si vous surveillez vos distances et vos dénivelés. De même, si vous préparez correctement un parcours, vous pouvez plus facilement veiller à ne pas présumer de vos forces.

Donc la seconde manière d’envisager vos sorties, c’est de manipuler un peu de matériel numérique.

Première solution. Préparez votre parcours en vous rendant par exemple sur Geoportail, ou encore VTTRack. La cartographie IGN est la plus appropriée pour préparer correctement une sortie pleine nature. Mais si vous pensez pouvoir vous satisfaire des cartes issues du projet OpenStreetMap (dont les couches OpenTopoMap, présentant les courbes de dénivelé), vous pouvez vous rendre sur le projet Umap ou utiliser un logiciel comme Viking ou QMapShack sous GNU/Linux (voyez ci-dessous pour une utilisation de QMapShack avec les cartes IGN).

Tracez le parcours grosso-modo avec l’outil de calcul de distance, mémorisez les principaux points de passage et prenez une carte « papier » qui vous servira à vous repérer sur place (astuce : au lieu de prendre toute une carte, faites des photocopie couleurs des lieux que vous fréquentez, et utilisez une pochette plastique : sortir la carte directement depuis la poche arrière est moins contraignant que sortir une grande carte du sac à dos, la déplier, la replier…),

Seconde solution. Préparez votre parcours avec un logiciel qui permet de réaliser un tracé que vous pourrez ensuite importer sur un dispositif GPS que vous embarquez sur votre VTT (ou votre smartphone dans une poche facile d’accès). C’est de loin la solution la plus courante mais elle nécessite encore un achat, celui du GPS (c’est tellement pratique, aussi…). Notez qu’on ne compte plus le nombre d’écrans de smartphone cassés à force de le sortir et le ranger pour se repérer. Vous pouvez aussi avoir un support pour smartphone au guidon : c’est très bien sur route, mais en VTT quand ça secoue trop fort ou si vous tombez, votre smartphone risque de prendre cher (alors que les dispositifs GPS sont petits et peu encombrants au guidon).

Dans les deux cas, regardez-bien les distances, les dénivelés et identifiez les points difficiles.

Ma pratique personnelle est la suivante :

  1. Un dispositif GPS embarqué sur le vélo (Garmin de la gamme Edge et son support guidon),
  2. n’ayant jamais trouvé mieux que la cartographie IGN pour nos contrées, il est difficile de trouver un logiciel libre qui utilise efficacement cette cartographie pour tracer des parcours de manière fiable et en exporter des traces utilisables sur une dispositifs GPS. J’ai donc opté pour Iphigénie qui permet, outre l’application du téléphone portable, d’avoir un logiciel pour PC (y compris sous GNU/Linux) avec lequel on peut créer des traces et les exporter en différents formats (j’utilise le GPX). Le logiciel est payant une fois, puis un abonnement à la cartographie pour quelques euros par an.
  3. Une fois le GPX créé, j’uploade sur le site de Garmin (qui se gave de mes données personnelles, aaargh!) et je balance le tout sur mon appli smartphone qui, couplée à mon dispositif GPS me permettra d’y uploader la trace afin d’être utilisable sur le vélo lors de la sortie.

QMapShack et cartes IGN

Si vous ne voulez pas investir dans un abonnement de carte et si vous pouvez vous contenter de tracer des parcours à main levée, voici une prise en main rapide de QMapShack pour l’utiliser avec les cartes IGN.

  • installez QMapShack (dans les dépôts des principales distributions GNU/Linux), et lancez le logiciel,
  • Allez dans Fichier > Configurer les répertoires des cartes, cliquez sur « Au secours, je veux des cartes… »
  • choisir (et/ou créer) un répertoire où vos cartes seront enregistrés : en fait il s’agira d’y mettre les scripts ci-dessous, mais par défaut le logiciel y fera apparaître les scripts pour les fonds de cartes OSM (déjà pas si mal),
  • fermez QMapShack,
  • pour utiliser IGN TOPO : ouvrez un fichier texte et copier-coller le contenu ci-dessous et enregistrez-le en lui donnant l’extension .tms.
<TMS>
<Layer idx="0">
<Title>IGN TOPO</Title>
<MinZoomLevel>1</MinZoomLevel>
<MaxZoomLevel>18</MaxZoomLevel>
<ServerUrl>https://wxs.ign.fr/pratique/
geoportail/tms/1.0.0/GEOGRAPHICALGRIDSYSTEMS.PLANIGNV2
/%1/%2/%3.png</ServerUrl>
</Layer>
<Copyright> Map data: Plan IGN V2, licence ouverte
Etalab v2.0</Copyright>
</TMS>
  • Pour utiliser IGN Scan 25 (avec le copyright du Club Vosgien), c’est le script ci-dessous qu’il faut utiliser, puis enregistrer au format .tms
<TMS>
<Layer idx="0">
<Title>IGN SCAN 25</Title>
<MinZoomLevel>1</MinZoomLevel>
<MaxZoomLevel>18</MaxZoomLevel>
<ServerUrl>https://wxs.ign.fr/Votreclef/
geoportail/tms/1.0.0/GEOGRAPHICALGRIDSYSTEMS.MAPS
/%1/%2/%3.jpeg</ServerUrl>
</Layer>
<Copyright> © IGN – 2022 – Copie et reproduction
interdite</Copyright>
</TMS>

  • Notez qu’il n’y a pas de clé (il faudra remplacer Votreclef) par la clé que vous obtiendrez en vous inscrivant sur le site Geoservices, vous y choisirez toute l’offre du site pour un usage privé. Une fois inscrit, allez dans Mon espace > Mes clés de services web. Créez une clé, copiez-la, et collez-la à la place de VotreClef dans le script ci-dessus.
  • Vous pouvez rouvrir QMapShack et activer vos cartes.

Nettoyer sur place

Et pour finir, je reviens de nouveau sur la question du nettoyage. Si vous vous déplacez en voiture avec votre VTT ou si vous habitez en appartement, un petit matériel pourra vous être utile : un nettoyeur mobile. Il s’agit d’une petite station sur batteries, avec une contenance de 5 à 10 litres. Le jet d’eau n’est pas haute pression. La marque Kärcher en produit à prix raisonnable.

Utilité : si vous revenez d’une sortie très boueuse, avant de charger le VTT sur votre porte-vélo ou dans la voiture, passez-lui un coup de flotte avec cet outil. Idem si vous habitez en appartement, descendez sur le parking : vous pourrez nettoyer votre vélo sans encrasser votre balcon. Prenez aussi toujours une ou deux brosses avec vous pour enlever le plus gros avant de fignoler à la maison.

Notes

  1. L’autre option est d’acheter un vélo dit « Gravel », assez à la mode en ce moment : pour dire vite il s’agit d’un vélo de course (donc sportif) avec un cadre et des roues adaptés aux chemins forestiers peu accidentés. ↩︎

  2. À vrai dire, entre les études, la vie familiale et la pratique du trail, je n’ai pas fait que du VTT durant toutes ces années. ↩︎

  3. Non, je n’incite personne à emprunter le VTT d’un·e ami·e. Parce qu’il n’est pas conseillé de prêter son VTT chéri à un·e débutant·e, alors que la location, hein, on sait ce qu’on fait avec ce matériel… ↩︎


Publié le 27.03.2022 à 01:00

Néolibéralisme et élections : le pari pascalien ?

Guerre en Ukraine… À l’heure où les gouvernements européens sont gentiment pressés de choisir l’impérialisme qu’ils préfèrent (disons le moins pire), le président des États-Unis Joe Biden est venu nous rendre une petite visite. Que de beaux discours. Ils firent passer le nouvel accord de principe américano-européen sur le transfert des données personnelles pour une simple discussion entre gens de bonne compagnie autour de la machine à café. Même si cet accord de principe a reçu un accueil mitigé.

Le gouvernement américain aurait en effet bien tort de s’en passer. Maintenant que l’Europe est en proie à la menace avérée d’une guerre nucléaire et risque d’être en déficit énergétique, Joe Biden ne fait qu’appliquer ce qui a toujours réussi aux entreprises multinationales américaines, c’est-à-dire la bonne vieille recette de l’hégémonie sur les marchés extérieurs appuyée par l’effort de guerre (voir cet article).

Après l’invalidation du Privacy Shield, les GAFAM (et autres sociétés assimilées, comme les courtiers de données tels Acxiom) n’auront plus cette épée de Damoclès au-dessus de leurs têtes pour contrecarrer les pratiques d’extraction des données qu’elles opèrent depuis de longues années ou pour coopérer avec les agences de renseignement, de manière active, dans la surveillance de masse.

Il est intéressant, par ailleurs, de comparer le communiqué de presse de la Maison Blanche et le Discours de Ursula von der Leyen.

Du point de vue Américain, c’est surtout une affaire de pognon et de concurrence :

(…) l’accord permettra la fluidité du trafic de données qui représente plus de 1 000 milliards de dollars de commerce transfrontalier chaque année, et permettra aux entreprises de toutes tailles de se concurrencer sur leurs marchés respectifs.

et l’enjeu consiste à laisser les commandes aux agences de renseignement américaines :

Ces nouvelles politiques seront mises en œuvre par la communauté du Renseignement des États-Unis de manière à protéger efficacement ses citoyens, ainsi que ceux de ses alliés et partenaires, conformément aux protections de haut niveau offertes par ce Cadre.

Du point de vue Européen, on mélange tout, la guerre, l’énergie et le numérique. Et pour cause, la peur domine :

Et nous continuons à renforcer notre coopération dans de nombreux domaines stratégiques: en apportant de l’aide à l’Ukraine en matière humanitaire et sécuritaire; dans le domaine de l’énergie; en luttant contre tout ce qui menace nos démocraties; en résolvant les points en suspens dans la coopération entre les États-Unis et l’Union européenne, y compris en ce qui concerne la protection des données et de la vie privée.

D’aucuns diraient que conclure des accords de principes en telle situation d’infériorité est à la fois prématuré et imprudent. Et c’est là que tout argument stratégique et rationnel se confronte au fait que c’est toute une doctrine néolibérale qui est à l’œuvre et affaibli toujours plus les plus faibles. Cette doctrine est révélée dans cette simple phrase d’U. von der Leyen :

Et nous devons également continuer à adapter nos démocraties à un monde en constante évolution. Ce constat vaut en particulier pour la numérisation (…)

Encore une fois on constate combien nos démocraties sont en effet face à un double danger.

Le premier, frontal et brutal, c’est celui de la guerre et la menace du totalitarisme et du fascisme. Brandie jusqu’à la nausée, qu’elle soit avérée (comme aujourd’hui) ou simplement supposée pour justifier des lois scélérates, elle est toujours employée pour dérouler la logique de consentement censée valider les modifications substantielles du Droit qui définissent le cadre toujours plus réduit de nos libertés.

Le second n’est pas plus subtil. Ce sont les versions plus ou moins édulcorées du TINA de Margareth Thatcher (vous vous souvenez, la copine à Pinochet). There is no alternative (TINA). Il n’y a pas d’alternative. Le monde change, il faut adapter la démocratie au monde et non pas adapter le monde à la démocratie. Les idéaux, les rêves, les mouvements collectifs, les revendications sociales, la soif de justice… tout cela n’est acceptable que dans la mesure où ils se conforment au monde qui change.

Mais qu’est-ce qui fait changer le monde ? c’est simplement que la seconde moitié du XXe siècle a fait entrer le capitalisme dans une phase où, considérant que le laissez-faire est une vaste fumisterie qui a conduit à la crise de 1929 et la Seconde Guerre, il faut que l’État puisse jouer le jeu du capitalisme en lui donnant son cadre d’épanouissement, c’est-à-dire partout où le capitalisme peut extraire du profit, de la force de travail humaine à nos intimités numériques, de nos santés à notre climat, c’est à l’État de transformer le Droit, de casser les acquis sociaux et nos libertés, pour assurer ce profit dans un vaste jeu mondialisé de la concurrence organisée entre les peuples. Quitte à faire en sorte que les peuples entrent en guerre, on organise la course des plus dociles au marché.

Le néolibéralisme est une doctrine qui imprègne jusqu’au moindre vêtement les dirigeants qui s’y conforment. Macron n’est pas en reste. On a beaucoup commenté son mépris de classe. L’erreur d’interprétation consiste à penser que son mépris est fondé sur la rationalité supposée du peuple. Dès lors, comment avoir du respect pour un peuple à ce point assujetti au capitalisme, plus avide du dernier smartphone à mode que des enjeux climatiques ? Mais que nenni. Premièrement parce que ce peuple a une soif évidente de justice sociale, mais surtout parce le mépris macroniste relève d’une logique bien plus rude : pour mettre en application la logique néolibérale face à un peuple rétif, il faut le considérer comme radicalement autre, détaché de sa représentation de soi, en dehors de toute considération morale.

Si nous partons du principe que dans la logique communicationnelle de Macron toute affirmation signifie son exact contraire1 on peut remonter au tout début dans sa campagne de 2017 où il se réclamait plus ou moins du philosophe Paul Ricoeur. C’est faire offense à la mémoire de cet éminent philosophe. Pour dire vite, selon Ricoeur, on construit le sens de notre être à partir de l’altérité : l’éthique, la sollicitude, la justice. Bref, tout l’exact opposé de Macron, ou plutôt de son discours (je me réserve le jugement sur sa personne, mais croyez bien que le vocabulaire que je mobilise dans cette optique n’aurait pas sa place ici).

Il n’y a donc aucune surprise à voir que pour le capitalisme, tout est bon dans le Macron. Lui-même, dans Forbes, répétait à deux reprises : « There’s no other choice », prenant modèle sur Thatcher. Il n’y a pas de politique, il n’y a pas d’idéologie, le parti sans partisan, la nation start-up en dehors du peuple. Il y a une doctrine et son application. Un appareillage économique et technocratique sans âme, tout entier voué à la logique extractiviste pour le profit capitaliste. Bien sûr on sauve les apparences. On se drape d’irréprochabilité lorsque le scandale est trop évident, comme de le cas du scandale des maisons de retraite Orpea. Mais au fond, on ne fait qu’appliquer la doctrine, on adapte la démocratie (ou ce qu’il en reste) au monde qui change… c’est-à-dire qu’on applique en bon élève les canons néolibéraux, jusqu’à demander à des cabinets d’audit comment faire exactement, de la coupe programmée du système éducatif à nos retraites, en passant par les aides sociales.

Comment comprendre, dans ces conditions pourtant claires, que Macron soit à ce point si bien positionné dans les sondages en vue des prochaines élections présidentielles ? C’est tout le paradoxe du vote dans lequel s’engouffre justement le néolibéralisme. Ce paradoxe est simple à comprendre mais ses implications sont très complexes. Si je vais voter, ce n’est pas parce que mon seul vote va changer quelque chose… mais si je n’en attends rien individuellement en retour, pourquoi vais-je voter ? Les idéalistes partent alors du principe de la rationalité du votant : si Untel va voter, c’est parce qu’il souhaite défendre un intérêt collectif auquel il adhère. Mais on peut alors retourner le problème : cela supposerait une complétude de l’information, un contexte informationnel suffisant pour que le vote au nom de cet intérêt collectif ne soit pas biaisé. Or, le principe d’un vote électoral est justement de diffuser de l’information imparfaite (la campagne de communication politique). En gros : bien malin celui qui est capable de dénicher toutes les failles d’un discours politique. De surcroît les techniques de communications modernes se passent bien de toute morale lorsqu’elles réussissent à faire infléchir le cours des votes grâce au profilage et à l’analyse psychographique (le scandale Cambridge Analytica a soulevé légèrement le voile de ces techniques largement répandues). Donc la raison du vote est presque toujours irrationnelle : on vote par conformité sociale, par pression familiale, par affinité émotionnelle, par influence inconsciente des médias, et cela même si une part rationnelle entre toujours en jeu.

Par exemple, comment comprendre que l’abstention soit toujours à ce point considérée comme un problème de réputation sociale et non comme un choix assumé ? Ne pas voter serait un acte qui nuit à la représentation de l’intérêt collectif que se font les votants. Rien n’est moins évident : on peut s’abstenir au nom de l’intérêt collectif, justement : ne pas entrer dans un jeu électoral qui nuit à la démocratie, donc à l’intérêt collectif. Il y a plein d’autres raisons pour lesquelles s’abstenir est une démarche très rationnelle (voir F. Dupuis-Déri, Nous n’irons plus aux urnes).

L’autre raison de l’abstention, beaucoup évidente, c’est la démonstration que le choix est biaisé. Une course électorale à la française qui se termine par un second tour opposant deux partisans de la même doctrine néolibérale. On a déjà vu cela plus d’une fois. Le scénario consiste à opposer le couple thatchérisme et mépris de classe au couple Pinochisme et racisme. Les deux contribuent à créer un contexte qui est de toute façon néo-fasciste. Soit un durcissement de la logique néolibérale au détriment des libertés et de la justice sociale (car il faudra bien satisfaire les électeurs du Front National), soit un durcissement de la logique néolibérale au détriment des libertés et de la justice sociale (parce qu’il faudra bien satisfaire les électeurs de Macron). Vous voyez la différence ? sans blague ? Bon, je veux bien admettre que dans un cas, on pourra plus clairement identifier les connards de fachos complotistes.

Bon, alors que faire ? Aller voter ou pas ?

Je me suis fait un peu bousculer dernièrement parce que j’affichais mon intention de m’abstenir. Il faut reconnaître qu’il y a au moins un argument qui fait un peu pencher la balance : la présence de la France Insoumise comme le seul mouvement politique qui propose une alternative au moment où l’effet TINA est le plus fort.

Il y aurait donc une utilité rationnelle au vote : en l’absence d’un contexte informationnel correct, au moins un élément rationnel et objectif entre en jeu : préserver le débat démocratique là où il a tendance à disparaître (au profit du racisme ou de l’anesthésie générale du néolibéralisme).

Comment un anarchiste peut-il aller tout de même voter ? ne rigolez pas, j’en connais qui ont voté Macron au second tour il y a 5 ans pour tenter le barrage aux fachos. C’est un vrai cas de conscience. En plus, il y a rapport avec Dieu ! si ! C’est le fameux pari de Pascal : je ne crois pas en Dieu, mais qu’il existe ou non, j’ai tout à gagner à y croire : s’il n’existe pas, je suis conforté dans mon choix, et s’il existe, c’est qu’il y a un paradis réservé au croyants et un enfer pour les non-croyants et dans lequel je risque d’être envoyé. Donc voter Mélenchon serait un acte rationnel fondé sur l’espérance d’un gain individuel… Zut alors.

On s’en sort quand même. L’acte rationnel repose sur une conviction et non une croyance : voter Mélenchon au premier tour consiste à un vote utile contribuant à l’émergence d’un débat démocratique qui opposerait deux visions du monde clairement opposées. Que Mélenchon soit finalement élu ou pas au second tour permettrait d’apporter un peu de clarté.

L’autorité et le pouvoir ne sont décidément pas ma tasse de thé. Je me méfie de beaucoup de promesses électorales de Mélenchon, à commencer par sa conception d’une VIe République qui n’entre pas vraiment dans mes critères d’une démocratie directe, ou encore sa tendance à l’autoritarisme (et j’ai du mal à voir comment il peut concilier l’un avec l’autre).

Que ferai-je au premier tour ? Joker !

notes


  1. On peut prendre un exemple très récent dans sa campagne électorale : conditionner le RSA à un travail qui n’en n’est pas un, plutôt un accompagnement ou du travail d’intérêt général, bref tout ce qui peut produire sans être qualifié par un contrat de travail. ↩︎


Publié le 29.12.2021 à 01:00

En finir avec Gérard d'Alsace

Il y a quelques années, je m’étais penché sur l’histoire du nom de la ville de Gérardmer. Mon approche consistait à utiliser l’historiographie et confonter les interprétations pour conclure que si l’appellation en relevait des différentes transformations linguistiques locales, le patronyme Gérard ne pouvait provenir avec certitude du Duc Gérard d’Alsace comme le veut pourtant le folklore local. À la coutume j’opposais le manque de fouilles archéologiques et surtout l’absence de précautions méthodologiques de la part des auteurs ; pour preuve je mentionnais la source de la confusion, à savoir le récit de Dom Ruinart, moine bénédictin rémois, décrivant sa journée du 2 octobre 1696… Dans cet article, je commenterai le récit de Dom Ruinart pour mieux mesurer sa place dans l’historiographie gérômoise. Pour cela, il me faudra auparavant exhumer les controverses à propos de Gérard d’Alsace et sa place dans l’histoire de Gérardmer.

Màj. 30/08/2022 : ce billet a fait l’objet d’un remaniement sous forme d’article publié en ligne désormais sur le site de la Société Philomatique Vosgienne.

L’hypothèse d’une tour

La solution m’a été soufflée par un gérômois fort connu, M. Pascal Claude, alors que je travaillais sur la réédition du livre de Louis Géhin Gérardmer à travers les âges. M. Claude1 avait trouvé un extrait des oeuvres de Dom Ruinart qui, si on le lit trop précipitamment, mentionne à un château là où la Jamagne (Ruisseau venant de Gérardmer) se jette dans la Vologne (nous verrons plus loin qu’il n’en est rien). M. Claude suggérait alors que la « Tour Gérard d’Alsace » dont fait mention la tradition ne pouvait justement pas être située à Gérardmer mais du côté d’Arches.

Cette hypothèse de travail est la bonne car elle pose directement les conditions de l’existence ou non d’une « Tour Gérard d’Alsace » à Gérardmer. Cette tour supposée est depuis longtemps dans la culture populaire une partie fondamentale de l’explication du patronyme Gérard dans le nom de la ville.

Une partie seulement, puisque dans un mouvement quelque peu circulaire du raisonnement, la signification du suffixe en serait une seconde clé : le ou mansus en latin. Cette question est importante. Alors que mer doit son étymologie à mare désignant l’étendue d’eau que l’on retrouve dans le nom de Longemer ou Retournemer (qui se prononcent mère même si le patois les prononce indifférement ou ), le peut avoir une signification romane qui renvoie à la propriété, la tenure : mansus en latin tardif, mas en langue d’oc, meix en langue d’oil, et moué, ou en patois du pays vosgien. Or, si l’inteprétation est attribuée au sens latin, c’est-à-dire en référence à une propriété, la démarche consiste à rechercher les traces d’un édifice qui puisse l’attester physiquement à défaut d’une trace écrite.

En somme, s’il y a une « tour Gérard d’Alsace » ce serait parce qu’il y a une « propriété » d’un certain Gérard. Et comme on s’y attend, le duc Gérard d’Alsace (1030-1070) qui, comme son nom ne l’indique pas, était Duc de Lorraine2 devrait donc être ce fameux Gérard, heureux détenteur d’un mansus à Gérardmer. De qui d’autre pouvait-il s’agir ? Par cette attribution qui se justifie elle-même, la tradition locale affirmait ainsi avec force le rattachement Lorrain de la ville depuis une époque fort ancienne.

Et cela, même si le premier écrit connu qui atteste officiellement l’appartenance de Gérardmer au Duché de Lorraine date de 1285, bien longtemps après l’époque de Gérard d’Alsace. Comme l’écrit Louis Géhin, il s’agit d'« un acte de Mai 1285, par lequel le duc Ferry III concéda à Conrad Wernher, sire de Hadstatt, à son fils et à leurs héritiers, en fief et augmentation de fiefs, que le dit Hadstatt tenait déjà de lui, la moitié de la ville de La Bresse, qu’il les a associés dans les lieux appelés Gérameret Longemer en telle manière que lui et eux doivent faire une ville neuve dans ces lieux, où ils auront chacun moitié. »3

Il reste que l’existence d’une « Tour Gérard d’Alsace » à Gérardmer a toujours été imputée par les différents auteurs à une tradition, une légende issue de la culture populaire… sauf dans l’étude exhaustive la plus récente, celle de Marc Georgel, parue en 1958. Comparons-les.

Henri Lepage en 1877, dans sa « Notice Historique et Descriptive de Gérardmer »4 écrit ceci :

La tradition veut également que Gérard d’Alsace, […] ait […] fait de Gérardmer un rendez-vous pour la chasse et la pêche ; elle ajoute qu’il aurait fait édifier une tour (3), près du ruisseau de la Jamagne, pour perpétuer le souvenir de son séjour dans ces lieux déserts ; le lac d’où sort cette rivière ce serait dès lors appelé Gerardi mare, mer de Gérard, et par inversion Gérard-mer.

(En note de bas de page – 3 : Cette tour s’élevait, dit-on, sur une petite éminence, au milieu de la prairie du Champ, à l’endroit où se voit aujourd’hui l’église du Calvaire, et on en aurait retrouvé les fondations.

On notera les précautions qu’emploie H. Lepage : « la tradition veut », « dit-on », et l’usage du conditionnel.

Dans la même veine, un peu plus tard en 1893, Louis Géhin mentionne la construction de la première église de Gérardmer en 1540, et la situe sur l’emplacement « prétendu » de cette Tour :

Dès l’année 1540, les habitants de Gérardmer élevèrent, sur le bord de la Jamagne, non loin de l’emplacement prétendu de la Tour de Gérard d’Alsace, une chapelle dédiée à saint Gérard et saint Barthélemy5.

Et pourtant, en 1958, Marc Georgel ne prend plus aucune précaution ! Dans une somme impressionnante sur la La vie rurale et le folklore dans le canton de Gérardmer il écrit de manière péremptoire :

Chacun sait maintenant (depuis les nombreux ouvrages qui traitent de Gérardmer) que le duc Gérard se fit construire une tour près du « Champ », lieu-dit actuellement « Le Calvaire », sur la rive droite de la Jamagne, à quelques centaines de mètres du lac qui s’appelait encore au XVIe siècle « le lac Major » (une preuve de plus que le nom de la ville de Gérardmer doit son origine à la « tour » de Gérard et non pas au lac6). Quelle était la destination de cette construction de Gérard ? Tour de guet pour assurer plus facilement la garde de la petite agglomération de Champ ? Villa saisonnière ? La plupart des auteurs émettent l’hypothèse d’une sorte de pavillon de chasse.

Renouant ainsi avec la culture populaire, M. Georgel sacrifie la rigueur méthodologique à l’imagination des contes et légendes des Vosges. L’appellation du Lac en « lac Major » (dont il ne cite pas la source) ne prouve rien en soi. Quant aux hypothèses qu’il soulève à propos de la destination d’une telle construction sont quelque peu sujettes à caution :

  • une tour de garde suppose… des gardes, donc des salaires et une économie locale suffisante, ce qui, au XIe siècle, est fortement improbable en ces vallées,
  • un pavillon de chasse est plausible si l’on part du principe qu’effectivement depuis Charlemagne la noblesse allait chasser dans ces vallées… sauf que dans ce cas, il s’agirait d’un campement établi à la hâte, peut-être pour y revenir d’une saison à l’autre, soumis au gré du climat, sans fondations… sans traces tangibles, donc.
  • quant à une villégiature… Marc Georgel a sans doute tendance à calquer la dynamique touristique de Gérardmer florissante depuis le XIXe siècle en la rendant parfaitement anachronique.

Pour conclure cette première partie, la cause doit être entendue : nous devons comprendre les origines de cette histoire de « Tour Gérard d’Alsace ». Entendons-nous bien : ce que nous allons démontrer n’est pas l’origine du folklore local à ce propos, qui peut remonter à une époque très lointaine, mais l’origine de la controverse qui permet de comprendre pour quelle raison il y a effectivement un débat à ce propos. Répondant à cette question, nous pourront montrer « d’où vient l’erreur ».

Histoires croisées de Gérardmer et Longemer : un patronyme indécidable

Durant de nombreux siècles, la vallée des lacs de Gérardmer et Xonrupt-Longemer était habitée de manière sporadique, avec des populations provenant tantôt des frontières germaniques et tantôt des autorités administratives lorraines, qu’il s’agisse de l’autorité ducale ou de l’autorité des abbesses de Remiremont. Ce double patronat est attesté en 970 pour ces « bans de la montagne » dont la zone de Gérardmer faisait partie. L’essentiel de l’économie locale étant composée de foresterie, d’élevage et de produit d’élevage marcaire (sur les chaumes), et un peu de pisciculture.

Les routes qui relient Gérardmer aux centres économiques lorrains sont praticables assez tôt. Les voies principales sont connues : Gérardmer-Bruyères en suivant le cours de la Vologne, Gérardmer-Remiremont en passant par le Col de Sapois, Gérardmer-Saint-Dié via le Col de Martimpré. Evidemment, pour rejoindre l’Alsace, Gérardmer ne figurait pas parmi les étapes des voyageurs lorrains, ceux-ci préférant passer par le col de Bussang, la vallée de Senones / territoire de Salm (col du Hantz) ou plus loin le col de Saverne. En somme, la vallée de Gérardmer était plus une destination qu’une étape.

Comme nous l’avons vu dans la première partie, si nous nous interrogeons sur l’origine du nom de Gérardmer, il faut pour en comprendre l’importance situer cette question dans le folklore local.

Les autorités lorraines étant lointaines, il reste que la culture locale attribue certains lieux-dits aux grands personnages qui ont fréquenté les contreforts vosgiens : Charlemagne et ses parties de chasse ou plus tard les ducs de Lorraine constructeurs de châteaux. Ces coutumes sont importantes à la fois parce qu’elles attestent de l’appartenance culturelle et juridique des lieux mais aussi pour des raisons spirituelles. Ainsi le moine Richer de Senones, au XIIIe siècle dans sa chronique mentionne la fondation d’une chapelle à Longemer en 1056 par Bilon, un serviteur de l’illustre Gérard d’Alsace7 :

Anno Domini mo lvio quidam Bilonus, Gerardi ducis servus, in saltu Vosagi qui Longum mare dicitur, locuns et capellam in honore beati Bartholomei privus edificavit.

L’an du Seigneur 1056, un certain personnage du nom de Bilon, serviteur du duc Gérard, construisit une chapelle en l’honneur de saint Barthélémy, dans une forêt de la Vosges, qu’on appelle Longe-mer (trad. L. Géhin).

Extrait de la Chronique de Richer

Si l’édification de la chapelle en question était surtout un ermitage (comme il y en aura plus d’un dans la vallée) la confusion entre les lieux (Longemer et Gérardmer8) a très certainement joué en faveur du double patronage de Saint Barthélémy et Saint Gérard, qui fut longtemps l’attribut de la nouvelle église du hameau de Gérardmer au XVIe siècle.

Cette question du patronage de l’église a toute son importance. Elle croise les histoires communes de Longemer et de Gérardmer. Cette approche doit être privilégiée pour comprendre les liens entre Gérardmer et son patronyme, car elle est l’objet d’une controverse célèbre.

En 1878, M. Arthur Benoît, correspondant de la Société d’émulation des Vosges, reprend les écrits du P. Hugo d’Étival et ceux du Père Benoît Picart, Capucin de Toul (ou Benoît de Toul). Au tout début du XVIIIe siècle, ces deux personnages hauts en couleurs étaient entrés dans une course politique dont le Duc Léopold de Lorraine devait en être l’arbitre. Le duel s’était cristallisé autour de l’histoire de la Maison de Lorraine que le P. Benoît Picart avait étudié et et dont il avait tiré un ouvrage (L’origine de la très illustre Maison de Lorraine) qui déplu finalement au Duc Leopold. Pour plaire à ce dernier le Père Hugo d’Etival eu la prétention d’écrire, sous un pseudonyme et une fausse maison d’édition, un traité sur la généalogie de la Maison de Lorraine. Répondant à cette supercherie, le Père Benoît Picard publia aussitôt deux tomes critiques du livre du P. Hugo, sous le titre de Supplément à l’histoire de la maison de Lorraine9.

Dans cette dispute, la question de l’attribution du patronyme au nom de Gérardmer ne fut pas épargnée et c’est justement à partir de l’histoire de Bilon à Longemer que l’on pose les prémisses du raisonnement.

En 1711, le père Hugo abbé d’Etival, mentionnant Bilon à l’image de Richer de Senones, suggère que c’est en l’honneur du Duc Gérard d’Alsace que Gérardmer porterait ce nom10 :

C’est apparemment du Duc Gérard que le village de Gerardmer à présent Geromé en Vosges, a emprunté son nom. Herculanus11 dit que, dans ce lieu se retira vers l’an 1065, Bilon officier de la cour de Gerard Duc de Lorraine et qu’il dressa une chapelle en l’honneur de S. Barthelemy, sur les bords du lac, appelé alors Longue-mer et qui est la source de la rivière de Vologne. Ce courtisant pénitent, ou les peuples d’alentour, auraient-ils changé le nom de ce lac, pour éterniser la mémoire du Duc ?

Extrait du Traité de Charles-Louis Hugo d'Étival

Et en 1712, le P. Benoît de Toul corrige le P. Hugo et écrit12 :

J’ai cru autrefois que le village de Gérardmer empruntait son nom au Duc Gérard, mais après plusieurs recherches que j’ai fait, pour l’éclaircissement de l’histoire de Toul et de Metz à laquelle je m’applique actuellement, je dis à présent que le Duc Gérard, suivi de Bilon, l’un de ses officiers, assista à la translation de l’évêque Saint Gérard faite à Toul le 22 octobre 1051. Cet officier touché de la sainteté de nos cérémonies et des miracles que le Bon Dieu fit paraître sur le tombeau de ce saint, et qui ont été écrits par un auteur contemporain, se retira dans les Vosges et fit bâtir une chapelle en l’honneur de Saint Gérard et de Saint Barthélémy, laquelle, à cause des biens qu’il y annexa, fut érigée en bénéfice dans l’église paroissiale ; dont ces deux saints devinrent les patrons et donnèrent lieu d’appeler les habitations proches du lac : Gerardme, sancti gerardi mare.

On saluera la tentative du P. Benoît de fournir à l’appui de son propos deux « preuves », à l’image de la rigueur habituelle qui le caractérisait (d’après ses commentateurs) mais aussi sans doute motivé par le fait de pouvoir à peu de frais contredire le P. Hugo. Néanmoins, si ces documents sont deux titres attestés des chanoinesses de Remiremont datant de 1449 et 1455, leur portée est très faible. Pour reprendre le commentaire qu’en fait M. Arthur Benoît (qui reproduit les textes en question dans son article), le premier prouve seulement qu’une chapelle existait à Longemer et dédié au deux saints Gérard et Barthélémy, et pour le second la chapelle ne porte plus que le patronage de Barthélémy.

À l’image de cette controverse, la recherche de l’attribution du patronyme a eu une postérité plutôt riche. L’essentiel des études s’accordent au moins sur un point : il ne s’agit que d’avis et d’opinions qui n’ont jamais été solidement étayés par des écrits tangibles. Les historiens du XVIIIe siècle avaient donc cette lourde charge de rechercher les titres, chartes et patentes qui auraient pu, une fois pour toute, résoudre cette question… en vain.

Les cartographes eux mêmes s’y perdaient depuis longtemps. Par exemple, Thierry Alix, président de la Chambre des Comptes du Duché de Lorraine, fait élaborer la carte des Hautes Chaumes entre 1575 et 1578. On y trace parfaitement les trois lacs de Gérardmer, Longemer et Retournemer, mais on attribue au village au bord du premier le nom de Saint Barthélémy (c’est le patronage attesté administrativement et non le nom vernaculaire qui l’a emporté)13.

Cartes des Hautes Chaumes, par T. Alix

Pourquoi une tour Gérard d’Alsace à Gérardmer ?

Les archives des Vosges furent fouillées à maintes reprises à la recherche de tout indice permettant d’attribuer à Gérardmer le patronyme de Gérard d’Alsace. Les auteurs régionaux avaient à leur disposition tout l’héritage des abbayes, à commencer par la chronique de Richer de (l’abbaye de) Senones (mort en 1266), l’histoire de Jean Herquel (Herculanus) chanoine de Saint-Dié (mort en 1572), les écrits de Jean Ruyr chanoine de Saint-Dié (1560-1645), les nombreux textes de Augustin (Dom) Calmet moine de Senones (1672-1757), les histoires de P. Benoît Picart de Toul (1663-1720), les écrits de Charles-Louis Hugo d’Étival (1667-1739), et la liste est longue.

En fin de compte, autant l’histoire de Bilon à Longemer trouve ses origines dans des textes du clergé forts anciens et fait l’objet de débats au détour desquels on s’interroge effectivement sur le patronyme de Gérardmer14, autant nous ne trouvons aucune mention claire du prétendu château de Gérard d’Alsace à Gérardmer.

Pour comprendre comment on en vint à supposer l’existence d’un tel édifice, il faut attendre le XIXe siècle et l’étude d’un médecin amateur d’histoire, pionner du genre qui occupera longuement la bourgeoisie locale férue d’histoire régionale. Il s’agit du docteur Jean-Baptiste Jacquot qui publia à Strasbourg sa thèse de médecine en 1826, assortie d’une notice historique sur Gérardmer15. C’est dans cette notice que l’on trouve pour la première fois dans la littérature régionale la mention d’un château ducal à Gérardmer.

Jean-Baptiste Jacquot avait déniché aux archives un texte du moine bénédictin champenois Dom (Thierry) Ruinart, au titre d’un récit de voyage à la toute fin du XVIIe siècle, durant lequel il était de passage dans les Vosges : le Voyage d’Alsace et de Lorraine effectué en 1696 et publié à titre posthume en 172416.

Notons toutefois : cette chronique de Dom Ruinart est fort connue depuis longue date des alsaciens, et sa première traduction en français fut publiée en 1829 à Strasbourg aussi17. C’est sans doute la raison pour laquelle J.-B. Jacquot s’est attardé sur ce document, facilement identifiable.

En lisant le texte en latin, J.-B. Jacquot, trouve un passage édifiant et selon lui de nature à éclairer la question du nom de Gérardmer. Dom Ruinart aurait mentionné le « vieux château (castellum) des ducs de Lorraine » rencontré au moment de franchir la Vologne « qui, réunie au ruisseau qui coule du lac de Gérardmer… Au sommet de la montagne qui domine cette rivière… ».

La traduction est incomplète mais pour J.-B. Jacquot, cela ne fait aucun doute : il s’agit de cette propriété du duc Gérard d’Alsace que Dom Ruinart, de passage à Gérardmer, aurait aperçu et mentionnée dans son compte-rendu. Un tel château serait situé dans les environs où le ruisseau de Gérardmer rencontre la Vologne, c’est-à-dire… à Gérardmer même. Le temps en aurait simplement effacé les traces.

Trop rapide, trop hâtif ? les lecteurs qui le suivront sur ce point ne reviendront finalement jamais au texte source de Dom Ruinart. Si bien qu’on a longtemps tenue pour acquise l’affirmation de J.-B. Jacquot (sauf dans les publications des différentes sociétés intellectuelles Lorraines et Vosgiennes qui mentionnent toujours la tradition). Il nous faut donc aller voir le texte de Dom Ruinart en entier.

Dom Ruinart, aventurier mal compris

On possède de Dom Ruinart plusieurs écrits consultables sur le site Gallica de la BNF. Le plus célèbre d’entre eux pour les études régionales reste le Voyage en Alsace traduit du latin par Jaques Matter en 1829 mais qui ne contient qu’une partie seulement du récit car il arrête la traduction au moment du retour en Lorraine au col de Bussang. LeVoyage d’Alsace et de Lorraine complet, lui, est paru en 1724 dans le recueil des Oeuvres posthumes de Dom Jean Mabillon et Dom Thierry Ruinart, Tome 3. Louis Jouve en a proposé une traduction exhaustive et plus moderne en 188118.

Dans la pure tradition du voyage d’étude qui fit le rayonnement des intellectuels européens à travers toute l’époque médiévale et bien au-delà, Dom Ruinart se lance lui aussi en 1696 dans un périple qui le mène de Paris jusqu’en Lorraine en passant par sa région champenoise natale, avec une itinérance importante en Alsace. Il fait halte d’un monastère à l’autre et lors de ses séjours, il parcours les environs visitant divers établissements, églises, chapelles et autres édifices d’intérêt. À défaut, il les cite et tâche d’en établir l’historique. Pour une compréhension contemporaine nous pouvons mentionner les grandes étapes : Paris - Lagny - Meaux - Reuil - Orbais l’Abbaye - Sainte-Menehould - Verdun - Toul - Nancy - Lunéville - Baccarat - Moyenmoutier - Senones - (Nieder-)Haslach - Molsheim - Marmoutier - Marlenheim - Wangen - Saverne - Strasbourg - Illkirch - Sélestat - Colmar - Munster - Soultzbach - Murbach - Guebwiller - Bussang - Remiremont - Champ-le-Duc - Bruyères - Moyenmoutier - Baccarat - Nancy - Pont-à-Mousson - Metz - Toul - Commercy - Verdun - Châlons - Reims - Lagny - Paris.

La lecture de ce récit est passionnante tant il recèle de nombreuses informations sur l’art, les usages monastiques et les connaissances en cette fin du XVIIe siècle. Il recèle aussi de haut faits. On notera en particulier le passage dangereux des crêtes vosgiennes entre Moyenmoutier et Haslach. Sur le retour en Lorraine, la journée du 2 octobre 1696 qui nous intéresse ici n’est pas aussi spectaculaire même si nous pouvons saluer l’endurance certaine des voyageurs qui entreprennent ce jour-là un périple d’environ 62 kilomètres à cheval.

Venant d’Alsace, via Guebwiller, après avoir franchi le Col de Bussang et séjourné quelques jours chez les chanoinesses de Remiremont, Dom Ruinart entreprend un trajet jusque Moyenmoutier. C’est dans l’extrait qui va suivre que J.-B. Jacquot a cru voir mentionné l’existence d’un château du Duc de Lorraine à Gérardmer. Or, il n’en est rien. Pour comprendre son erreur, il nous faut lire le texte et compléter par quelques informations géographiques et historiques. Toute l’interprétation réside dans la possibilité de retracer exactement le parcours sur la base du récit19 :

Extrait du récit de Dom Ruinart en 1696

Le 2 octobre, nous traversâmes la Vologne, qui, réunie au ruisseau sorti du lac de Gérardmer, nourrit de petites huîtres renfermant des perles. Sur le sommet de la montagne qui domine la rivière, se dresse le vieux château qu’habitaient les ducs de Lorraine, quand ils faisaient pêcher des perles. De là nous allâmes à Champ, remarquable par son ancienne Église, dont on attribue la construction à Charlemagne, et après avoir traversé Bruyères, nous entrâmes dans les forêts. Nous franchîmes la montagne au bas de laquelle Renaud, évêque de Toul, fut assassiné avec une cruauté inouïe par Maherus, prévôt de Saint-Dié, qui avait été chassé du siège épiscopal de Toul. Le soleil venait de se coucher quand nous arrivâmes à Moyenmoutier, laissant à droite la ville de Saint-Dié et à gauche l’abbaye de l’ordre des prémontrés, que nous visitâmes le landemain20.

À l’énoncé des lieux par Dom Ruinart, et sans avoir une idée précise de la géographie vosgienne, le fait de mentionner un ruisseau affluent de la Vologne et venant de Gérardmer peut induire en erreur et situer l’action (là où Dom Ruinart fanchi la Vologne) au Nord-ouest de Gérardmer, dans la vallée de Kichompré, à l’endroit où la Jamagne venant du lac de Gérardmer se jette dans la Vologne provenant, elle, du lac de Longemer.

Cependant, si nous nous en tenions à ce seul énoncé (et le texte renferme bien d’autres informations), il serait bien étonnant depuis ce lieu d’y voir une montagne dominante plus que les autres où serait situé un château ou même des ruines. L’encaissement des lieux ne permet pas d’identifier un sommet plus qu’un autre et, on en conviendra, le lieu lui-même est déjà fort éloigné du bourg de Gérardmer, qui plus est du centre où la chapelle Saint-Barthélémy est censée recouvrir les ruines de la soit-disant tour de Gérard d’Alsace… qui ne serait donc pas située sur une montagne, contrairement à ce que dit le texte, donc… on en perd son latin21.

Par ailleurs, en supposant que le trajet de Remiremont à Champ(-Le-Duc) et Bruyères passe par Gérardmer, il faut comprendre que Dom Ruinart préfère de loin les chemins les plus rapides, autrement dit, aménagés ou les plus empruntés (la leçon subie du côté de la vallée de la Bruche en Alsace lui aura appris cela). Donc le trajet depuis Remiremont devrait nécessairement passer par le Col de Sapois, qui est la route principale (on ne remonte pas à l’époque la Vallée de Cleurie même s’il devait bien y avoir quelques sentiers jusqu’au Tholy pour rejoindre le chemin de Gérardmer provenant d’Arches).

Décidément, Dom Ruinart n’était pas homme à franchir les montagnes sur des chemins difficiles alors que l’objectif du voyage est de rejoindre Moyenmoutier en se contentant, la majeure partie du trajet, de suivre les fonds de vallées. Quant à visiter Gérardmer… nous sommes en 1696 et l’attrait touristique des lieux n’était pas aussi irrésistible qu’aujourd’hui.

L’hypothèse du trajet via Gérardmer doit définitivement être abandonnée à l’énoncé des autres indices.

Le premier : les huîtres perlières de la Vologne. Si Dom Ruinart mentionne Gérardmer c’est par érudition afin de préciser que la Vologne est une rivière de montagne bien particulière : ses affluents lui apportent divers éléments enrichissants qui permettent la culture de molusques, de grandes moules perlières22. Cette particularité zoologique se retrouve dans d’autres vallées mais les bords de la Vologne avaient généré une activité économique suffisante pour que les Ducs de Lorraine y trouvent l’intérêt d’y établir un château servant de comptoir dédié à cette activité23. On s’accorde pour délimiter la zone où l’on rencontre le plus souvent ces molusques entre la zone d’affluence du Neuné près de Laveline-devant-Bruyères et le village de Jarménil, là où la Vologne se jette dans la Moselle.

Quant au château, il s’agit de Château-Sur-Perles situé entre Docelles et Cheniménil. La fondation du château par le duché de Lorraine est attestée. En effet, l’activité perlière dans cette région était clairement sous la responsabilité (et le profit) du duché de Lorraine ainsi qu’en témoignent les livres de comptes jusqu’à une époque tardive. Les Archives de Meurthe-et-Moselle tiennent le registre des lettres patentes de René II, duc de Lorraine (1473-1508). Elles recensent à Cheniménil l’autorisation d’y construire un château en 147424.

Ceci nous permet d’affirmer que Dom Ruinart et ses compagnons franchissent la Vologne juste avant Arches en venant de Remiremont, à l’emplacement de l’actuel village de Jarménil, avant de remonter la rivière où ils aperçoivent très peu de temps après à Cheniménil le Château des ducs de Lorraine fondé par René II.

Le second indice concerne le village de Champ, aujourd’hui nommé Champ-Le-Duc25 et le passage par Bruyères. Cette dernière ville figure à l’époque parmi les places de marché les plus actives. C’est par Bruyères que convergent de nombreux chemins, à cheval entre différentes prévôtés (Arches et Saint-Dié surtout). Toujours est-il qu’après avoir aperçu le château de Cheniménil, le chemin est tout tracé vers Bruyères et, de là par le massif forestier, un passage via le Col du Haut-Jacques pour redescendre ensuite au pied du massif de la Madeleine, là où Matthieu de Lorraine, alias Maherus, tendit une ambuscade funeste à Renaud de Senlis en 1217 (le château de Maherus, ou château de Clermont, se situait au lieu-dit la Chaise du Roi).

C’est une étape difficile pour Dom Ruinart et ses accompagnants : pas moins de 62 kilomètres séparent Remiremont de Moyenmoutier par les chemins les plus directs passant (pour reprendre des noms indentifiables aujourd’hui) par Jarménil, Cheniménil, Lépange, Champ-le-Duc, Bruyères, le Col du Haut-Jacques, Saint-dié, Étival (abbaye des chanoines de l’ordre de Prémontré), Moyenmoutier. On peut estimer un départ de grand matin pour arriver après la tombée de la nuit, tout en faisant une halte restauratrice à Champ-Le-Duc, soit à mi-chemin.

On peut voir sur cette carte le trajet tel que je l’ai estimé au regard des éléments du récit.

Pour se faire une idée de la représentation cartographique de l’époque, on peut aussi se reporter à cette carte du diocèse de Toul, par Guillaume De l’Isle, 1707, composée à l’occasion de la publication de l'Histoire ecclésiastique du diocèse par P. Benoît de Toul.

Conclusion

Il n’y a jamais eu de château ou de tour construite à l’initiative du duc Gérard d’Alsace à Gérardmer. De manière générale, aucune mention ultérieure à son règne dans les livres de patentes n’autorise la construction d’un château à Gérardmer sous l’autorité du duché de Lorraine. Encore moins sous l’autorité des chanoinesses de Remiremont. Les preuves archéologiques et archivistiques d’une telle construction sont inexistantes (jusqu’à aujourd’hui).

À rebours de la coutume locale, on peut même affirmer qu’aucun auteur n’a pouvé l’existence une telle construction. Les précautions d’usage n’ont cependant pas toujours été prises… tout en confrontant sans cesse la tradition du souvenir commémoratif de Gérard d’Alsace à la réalité des faits.

Nous avons montré qu’une erreur d’interprétation du texte de Dom Ruinart était à la source d’une méprise qui fit long feu. C’est la raison pour laquelle les plus rigoureux à l’instar d’Henri Lepage ou Louis Géhin se sont toujours référé à la tradition locale : il était important en effet de préciser cette particularité culturelle sans jamais l’affirmer comme une réalité. En revanche la répétition de cette tradition relatée dans les publications a provoqué certainement un effet d’amplification auquel a fini par succomber Marc Georgel qui affirma que « chacun sait maintenant (depuis les nombreux ouvrages qui traitent de Gérardmer) que le duc Gérard se fit construire une tour »…

Mais cette fameuse tradition locale est-elle pour autant dépréciée ? C’est une question que nous ne parviendrons pas à résoudre car elle est sans objet. Après tout, la légende demeure parfaitement logique. Les ducs de Lorraine ont contribué plus que significativement à la dynamique économique des Hautes Vosges et toutes les affaires juridiques de Gérardmer furent longtemps réglées par leur représentants ou directement à la cour du Duché. Si l’un ou l’autre Gérard, illustre ou parfaitement inconnu, a fini par donner son nom à Gérardmer, la tradition a construit une histoire autour de ce nom, une histoire qui a rassemblé la communauté villageoise autour d’une identité commune, celle de l’appartenance à la Lorraine. Cette construction permettait aussi une certaine indépendance des montagnards, loin des centres de pouvoir et des institutions, surtout avant le XVIIe siècle. Sans marque physique clairement identifiée sur le sol gérômois, les habitants pouvaient toujours se réclamer de l’autorité ducale… ou pas, selon l’intérêt du moment. Et cela est sans doute bien plus important qu’une vieille tour en ruine.

Carte du diocèse de Toul, 1707

Notes


  1. Voir Pascal Claude, « Le mystère de la tour Gérard d’Alsace », dans Daniel Voinson, La chapelle du Calvaire, Gérardmer, 2013, p. 11-13. ↩︎

  2. De la maison d’Alsace, alors que la Haute Lorraine est inféodée au Saint Empire Germanique. ↩︎

  3. Le nom de Gérardmer est attesté par écrit pour la première fois en 1285 dans cet acte d’attribution de fief par le Duc de Lorraine Ferry III, soit 245 ans après que Gérard d’Alsace ai reçu le titre de Duc de Lorraine. Si l’on se réfère à l’acte de Ferry III, retranscrit in extenso par Louis Géhin, c’est bien une Ville Neuve que Ferry III fonde : non que que le hameau n’existât point encore à cette époque mais la réalité administrative est alors officielle et en aucun cas l’acte mentionne l’existence d’un édifice ducal préexistant. Par ailleurs, dans cet acte de Ferry III, c’est la forme Geramer qui est employée, sans le r : l’interprétation de ce fait peut varier, la première consiste à accuser la faute du copiste, la seconde consiste à se demander si le patronyme Gérard n’était pas une information négligeable à cette époque au point que même dans un acte officiel de l’autorité ducale on puisse en oublier cette référence en écrivant indistinctement Geramer à la place de Gerarmer. Le hameau n’est pas nouvellement habité, il est déjà ancien, parfaitement identifié par les parties, et se distingue bien de Longemer. Ceci aura son importance dans la suite de notre propos. Voir Louis Géhin, Gérardmer à travers les âges, 1877. ↩︎

  4. Henri Lepage « Notice Historique et Descriptive de Gérardmer », dans Annales de la société d’émulation du département des Vosges, 1877, pp.130-232. ↩︎

  5. Louis Géhin, Gérardmer à travers les âges. Histoire complète de Gérardmer depuis ses origines jusqu’au commencement du XIX^e siècle, Extrait du Bulletin de la société philomatique vosgienne, Saint Dié, Impr. Hubert. 1893. ↩︎

  6. Nous préciserons plus loin : le suffixe en peut aussi bien provenir du latin mansus que de mare. La pronconciation du suffixe, à la différence de Longemère ou Retournemère force à retenir la première solution… sauf que le patois prononce indifféremment mer : meix, moix, , mère. D’autres exemples sont troublants : selon P. Marichal, on trouve à partir de 1285 plusieurs orthographes pour Gérardmer tels Geramer, Gerameix, ou Geroltsee, Giraulmoix… Alors : lac ou maison ? la question n’est pas tranchée. Voir Paul Marichal, Dictionnaire topographique du département des Vosges, comprenant les noms de lieux anciens et modernes, Paris : Imprimerie nationale, 1941. ↩︎

  7. Voir la Chronique de Senones, par Richer – BNF Gallica ↩︎

  8. En 1707, dans son Histoire Ecclesiastique de Toul le Père Benoit mentionne que la Vologne prend sa source au lac de Gérardmer. Il s’agit en fait du lac de Longemer (et en réalité au Haut-Chitelet) : l’erreur sur place n’est pas possible étant donné que l’affluent venant du lac de Gérardmer, la Jamagne, a un débit bien moindre. D’ailleurs en 1696, Dom Ruinart la mentionne sans la nommer comme nous le verrons plus loin. Voir Père Benoit de Toul, Histoire ecclesiastique et politique de la Ville et du Diocèse de Toul, Toul, A. Laurent Imprimeur, 1707, p. 54 (URL Archive.org). ↩︎

  9. Sur ce sujet, voir Albert Denis, « Le R. P. Benoît Picart. Historien de Toul (1663-1720) », Bulletin de la Société Lorraine des Études Locales dans l’enseignement public, vol. 2, num. 5, 1930, p. 10-11. URL ↩︎

  10. Charles-Louis Hugo, Traité historique et critique sur l’origine et la généalogie de la maison de Lorraine avec les chartes servant de preuves, Berlin, Ulric Liebpert impr., 1711. Voir Arthur Benoit « Les origines de Gérardmer, d’après le P. Benoît Picart de Toul », Annales de la Société d’Émulation du Département des Vosges, Épinal, Collot, 1878, p. 249-252. URL – Gallica BNF (p. 250). ↩︎

  11. Il s’agit de Jean Herquel (Herculanus) chanoine de Saint-Dié, mort en 1572. ↩︎

  12. P. Benoît Picart, Supplément à l’Histoire de la Maison de Lorraine, avec des remarques sur le Traité historique et critique de l’origine et la généalogie de cette illustre maison, Toul, Rollin, 1712, p. 46. ↩︎

  13. Voir la carte sur le site des Archives de Meurthe et Moselle. ↩︎

  14. Voir Louis-Antoine-Nicolas Richard, dit Richard des Vosges, « Notice sur un squelette retrouvé… », reproduite dans le Bulletin de la société philomatique vosgienne, vol. 21, 1895-96, p. 53 sq. ↩︎

  15. Jean-Baptiste Jacquot, Essai de topographie physique et médicale du canton de Gérardmer. Précédé d’une notice historique, (dissertation à la faculté de médecine de Strasbourg, pour le grade de docteur en médecine, Strasbourg, impr. Levrault, 1826. ↩︎

  16. Voir Ouvrages posthumes de D. Jean Mabillon et de D. Thierri Ruinart, tome III. Cocnernant la vie d’Urbain II, les Preuves et le Voyage d’Alsace et de Lorraine, par D. T. Ruinart, Paris, Vincent Thuillier éditeur, 1724, URL Gallica ↩︎

  17. Il ne s’agissait alors que d’une partie du récit de voyage, celle concernant l’Alsace. Jacques Matter (trad.), Voyage littéraire en Alsace par Dom Ruinart, Strasbourg, Levrault, 1829. ↩︎

  18. Louis Jouve, Voyages anciens et modernes dans les Vosges, 1500-1870, Epinal, Durand et fils, 1881 URL Gallica. ↩︎

  19. Le texte original de Dom Ruinart dans le recueil des oeuvres posthumes se trouve sur le site Gallica de la BNF (le lien ci-contre renvoie à la page du passage dont il est question). Pour la traduction, voir Louis Jouve, op. cit.. ↩︎

  20. Louis Jouve oublie de traduire : l’église du monastère est merveilleusement décorée. ↩︎

  21. Oui, celle-là, elle était facile. ↩︎

  22. On notera que récemment, en 2018, la société d’histoire naturelle et d’ethnographie de Colmar a alerté les autorités à propos de la protection des moules perlières de la Vologne et du massif des Vosges en général. Il ne resterait que deux espèces en voie d’extinction. ↩︎

  23. Chabrol (Marie), «Les perles de la Vologne, trésor des ducs de Lorraine», Le Pays lorrain, Vol. 94, num. 2, 2013, pp. 115-122. Pour une étude plus ancienne et néanmoins exhaustive, voir D. A. Godron, « Les Perles de la Vologne et le Château-sur-Perle », Mémoires de l’Académie de Stanislas, 1869-1870, p. 10-30. URL Gallica. ↩︎

  24. Voir le registre par nom de lieux à cette adresse, rechercher « Cheniménil ». ↩︎

  25. Champ se rapporte à la ville de Champ-le-Duc ainsi qu’elle éteit dénomée depuis les chroniques racontant la vie de Charlemagne. Voir [histoire ecclesiastique… p. 85 du PDF] ↩︎


Publié le 11.11.2021 à 01:00

Dernières news

Le temps passe et il fini par manquer. J’ai délaissé ce blog depuis la rentrée mais c’est pour livrer encore plus de lectures ! En vrac, voici quelques activités qui pourraient vous intéresser.

Publications

Commençons d’abord par les publications. Voici deux nouvelles références.

Un article court mais que j’ai voulu un peu percutant :

Christophe Masutti, « Encore une autre approche du capitalisme de surveillance », La Revue Européenne des Médias et du Numérique, num. 59.

Beaucoup plus long, et qui complète mon ouvrage sur la question de l’histoire du courtage de données :

Christophe Masutti, « En passant par l’Arkansas. Ordinateurs, politique et marketing au tournant des années 1970 », Zilsel – Science, Technique, Société, num. 9.

Ces textes seront versés dans HAL-SHS dans quelques temps.

Interventions

A part cela, je mentionne deux enregistrements.

Le premier à Radio Libertaire où j’ai eu le plaisir d’être interviewé par Mariama dans l’émission Pas de Quartier, du groupe Louise Michel, le 2 novembre 2021. On peut réécouter l’émission ici.

Le second est une conférence débat qui s’est tenue à Bruxelles au Festival des Libertés où j’ai eu l’honneur d’être invité avec Olivier Tesquet. Un débat organisé et animé par Julien Chanet. On peut l’écouter depuis le site ici.

Et une annonce.

Enfin, j’annonce mon intervention prochaine auprès des Amis du Monde Diplomatique dans le cadre de CitéPhilo à Lille, où j’ai le plaisir d’avoir été invité par Bertrand Bocquet le 22 novembre prochain. Plus d’information ici.

À bientôt !


Publié le 21.08.2021 à 02:00

Pourquoi tant de haine ?

Une mauvaise ambiance règne actuellement dans le massif des Vosges. En plus d’être la cible régulière de tentatives d’homicides par pièges, les pratiquants de VTT se voient aujourd’hui accusés de bien des maux. Des pétitions s’échangent entre les partisans du clivage et ceux qui tentent de le dépasser pour avancer. Les journaux locaux ont couvert les derniers évènements que je vais relater rapidement avant d’essayer de m’intéresser aux raisons profondes de ce malaise entretenu par quelques personnes qui normalement ne devraient pas mériter autant d’attention.

La recrudescence du tourisme après les mois de crise sanitaire y est sans doute pour quelque chose : on ressort les vélos, et cela dérange. Pourtant le problème persiste depuis des années (nos sénateurs l’ont déjà noté) : des pièges à VTT sont posés régulièrement par des individus exceptionnellement malveillants. Cela touche toute la France, mais dans les Vosges tout particulièrement, il peut s’avérer dangereux de sortir son vélo. Les pelotons de gendarmerie commencent à s’inquiéter vraiment du phénomène, et une affaire récente, celle d’un jeune pratiquant d’Enduro passé à deux doigts la mort, donnera peut-être lieu à une enquête en règle. La Mountain Bike Foundation a fait un communiqué à ce sujet.

La presse nationale parle de plus en plus de ce phénomène auparavant relégué à de simples anecdotes. Ainsi le journal l’Equipe en 2019, Le Figaro en octobre 2020, France TV en mars 2021. Dans les canards locaux, on relate avec plus de détails : des pieux, des barbelés, et surtout les fameuses planches à clous.

J’arrête ici la revue de presse, car il est prévisible que ces histoires continuent à tourner régulièrement jusqu’à devenir des marronniers, comme la neige en hiver et le soleil en été.

Dans ma pratique de vététiste, j’avoue ne jamais avoir été confronté à ce genre de pièges élaborés. On les trouve plus généralement là où les vététistes sont censés le plus déranger : sur les pistes d'Enduro plus ou moins improvisées (j’y reviendrai à la fin de ce billet). En revanche, j’ai été confronté comme tous les vététistes quelles que soient leurs pratiques à ces branches ou pierres posées délibérément en travers du chemin ou en appui à hauteur de tête1.

Si je raconte cela, c’est pour mettre sur le même plan les deux comportements : entre improviser un obstacle délibérément mais avec les moyens disponibles sur le moment, et élaborer un piège en prenant le temps de le fabriquer et le poser à un endroit choisi. Il s’agit de la même malveillance. Les deux ont pour ambition de blesser, voire de tuer et en tout cas de punir. Leur seule différence est que la première est une opportunité tandis que l’autre a juste une intentionnalité beaucoup plus forte.

Qu’est-ce qui motive un tel geste ?

Il y d’abord l’agressivité. À la racine, un ensemble d’angoisses et de peurs que l’individu est incapable de surmonter, soit parce qu’il n’a pas en lui les ressorts nécessaires pour le faire (qui s’acquièrent à l’enfance) soit parce qu’il y a chez lui une forme d’inhibition à la transgression de la norme qui consiste à ne pas nuire à autrui. Mais cela n’explique rien : nous sommes ici dans les mécanismes qui expliquent l’acte et non l’intention.

Comment expliquer l’intention, alors ? Nous sommes ici dans un processus d’attribution de responsabilité et de motivation à punir. Il y a des faits qui sont la cause d’un désordre dans la représentation de ce qui, pour l’individu, devrait être la norme. On s’interroge donc sur les valeurs.

Pour un défenseur de la nature à tendance préservationniste, le plus important est que l’homme dérange le moins possible la faune et la flore dans un soucis d’équilibre dit naturel. La valeur placée ainsi au dessus de toutes les autres, c’est cet idéal d’une nature préservée de l’homme. Pour un chasseur passionné, le bon management de la faune consiste en premier lieu à stabiliser et ne pas faire fuir le gibier. La valeur principale est donc le respect de l’équilibre cynégétique qui lui permet de chasser. Pour un promeneur contemplatif, l’essentiel est de trouver dans la montagne un lieu propice à la contemplation, au calme, loin de toute agitation censée troubler sa quiétude personnelle. La valeur principale est le respect de cette quiétude.

On notera qu’il y a un spectre très large d’activités qui pourraient entrer en conflit avec ces valeurs. Par exemple, un chantier forestier avec tronçonneuses et autres engins de débardage. Mais il ne faut pas oublier que les valeurs ne sont jamais exclusives. On parle d’un système de valeurs pour tout un chacun. Ainsi le bûcheronnage étant un travail, il est un effort productif, et n’entre pas forcément en conflit parce qu’il fait appel à d’autres valeurs qui ont une importance tout aussi forte que les précédentes. De même imaginons un groupe d’écoliers qui croise le chemin du promeneur contemplatif : sans doute troublé par les cris des enfants, il y a peu de chances qu’il y voie une atteinte à ses valeurs à moins de détester l’enfance (cela arrive, cependant).

Donc, il ressort de cette psychologie de bazar, qu’en plus de voir ses valeurs remises en question, l’individu doit trouver chez d’autres individus des valeurs qu’il peut condamner dans la mesure où elles entrent en conflit avec son propre système de valeurs dans lequel elles ne peuvent pas s’inscrire.

Les valeurs sportives sont une cible idéale pour cela, surtout chez les personnes qui n’éprouvent aucune attirance pour le sport. Mais c’est encore insuffisant. La tolérance, par exemple, pourrait permettre de mettre un terme au conflit intérieur. Il faut donc encore un autre ingrédient : la légitimation.

La légitimation s’articule en deux temps :

  • pouvoir attribuer une responsabilité à autrui,
  • estimer que la punition est une prérogative non sociale mais individuelle, dont le but n’est pas de réhabiliter le fautif dans l’ordre social (les valeurs communes), mais rétablir l’ordre des valeurs auxquelles on adhère à titre individuel.

En d’autres termes : estimer que l’on est soi-même légitime à punir autrui non pas en vertu du droit mais en vertu de ses propres représentations morales. On infère donc deux choses :

  • la faute à partir d’une expérience personnelle et donc émettre une conclusion dont la logique est erronée (« j’ai vu trois vététistes freiner sur le chemin, donc les vététistes sont la cause de l’érosion de tous les chemins »),
  • une responsabilité en vertu d’une charge émotionnelle (« je suis en colère : eux ont le droit et pas moi ») qui déstabilise les normes, et permet le passage à l’acte : poser un piège (la destination).

Et puis, outre la vengeance personnelle contre les vététistes comme chez ce chasseur de l’Hérault, il y a le renforcement de la légitimation. C’est-à-dire tout ce qui chez l’individu malveillant pourra l’aider, de l’extérieur, à attribuer la faute et la responsabilité. Ce peuvent être par exemple :

  • un effet de groupe lorsque tout le monde y va de son témoignage personnel (on est toujours dans le jugement d’opinion) dans une bulle de représentation : « on a bien raison de penser ce qu’on pense »,
  • une pétition relayée par les médias comme celle de SOS massif des Vosges qui entretien soigneusement une confusion entre ce qui est vrai ou faux (la randonnée devenue impossible), légitime ou légal (le droit des VTT à rouler sur sentier) ou moral et immoral (les bonnes valeurs du randonneur vs celle du sportif) de manière à susciter l’adhésion.

Enfin, on ajoute la victimisation. Tout comme le troll bien connu des réseaux sociaux, l’inversion des rôles est le parfait moyen pour déstabiliser (croit-on) la cible. Ainsi, malgré l’effort de dialogue toujours prôné par la Mountain Bikers Foundation (aboutissant souvent à des ententes scellées comme celle entre chasseurs et vététistes), les chasseurs se voyant accusés eux aussi de bien des maux, n’hésitent pas à jouer les victimes. Sauf que… attisées parfois par les politiques (comme ce député LREM) les tensions se multiplient inutilement avec les chasseurs qui vont même jusqu’à faire interdire une compétition de VTT, alors même que certains chasseurs isolés se croient au Far West devant nos champions nationaux.

Bon… les tensions n’ont pas lieu qu’avec les VTT. Certains coureurs à pied en prennent aussi pour leur grade avec les chasseurs. Néanmoins, cela va mieux en le disant : les chasseurs, dans leur grande majorité, n’ont rien contre les VTT. Mon expérience personnelle confirme absolument la position commune de la Fédération Nationale de Chasse et des la Mountain Bike Foundation : j’ai toujours entretenu des relations très courtoises avec les chasseurs. Il suffit de demander où a lieu la battue et on peut toujours faire un petit effort de contournement, quel que soit son avis sur la chasse.

En fait, la malveillance contre les VTT est avant tout une affaire individuelle. Elle reflète les tensions entretenues par ceux qui ne savent pas partager les usages de la forêt ou de la montagne, et se livrent à du lobbying envers les municipalités pour chercher à tout interdire.

J’avais promis d’y revenir : les pistes d’Enduro. Oui, effectivement, cela crée de l’érosion, cela abîme par endroit les sentiers que d’autres entretiennent. Mais c’est du sport. En tant que discipline, j’ai du mal à comprendre pourquoi les municipalités qui s’enorgueillissent d’accueillir les VTT Cross Country sur des chemins balisés n’offrent pas aussi, dans les endroits concernés, des infrastructures sérieuses pour la descente. Je citerai au hasard (non, pas au hasard!) la municipalité de Barr dans le Bas-Rhin : il y a toute une population qui, ayant goûté dans cette même commune une dynamique favorable au développement de la discipline, se retrouve à se débrouiller comme elle peut pour aménager l’existant. Il y a un créneau à couvrir et un vrai petit trésor à valoriser. Pourquoi ne pas le faire et ainsi limiter les pistes sauvages ?

Une dernière chose : les imbéciles malveillants sont une extrême minorité d’individus qui peuvent cependant faire un tort considérable. Dans les Vosges, le partage de l’espace est de mieux en mieux vécu par les utilisateurs. VTT et randonneurs se croisent en toute cordialité, chasseurs et VTT discutent ensemble, les antennes du Club Vosgien (sauf celles qui n’ont rien compris au film, voir ici et ) ont souvent un groupe de vététistes dans leurs rangs, et quant aux protecteurs de la nature, ce n’est pas chez les vététistes qu’ils trouvent à blâmer pour l’état déplorable de certains milieux.

Notes


  1. Oui, il est assez facile de s’en apercevoir lorsqu’on fréquente les mêmes chemins régulièrement. Par exemple : vous passez un jour d’hiver, un arbre est tombé, traversant et endommageant le sentier. Il reste longtemps en place, le temps que des forestiers ou des bénévoles du Club Vosgien ou encore des vététistes locaux viennent le débiter. Vous repassez, le chemin est dégagé et vous rendez grâce à ces bénévoles sans qui la forêt deviendrait vite impraticable. Mais vous n’êtes pas seul à pratiquer le VTT à cet endroit. Vous avisez les morceaux de tronc posés à l’écart et vous ouvrez les paris : combien de temps ? Combien de temps avant qu’un-e imbécile trouve l’idée géniale d’en mettre un morceau en travers du chemin ? Pas juste pour obliger le cycliste à poser pied à terre (s’il s’agissait d’un obstacle à sauter, par défi, il y aurait toujours la place pour passer à côté). La pose malveillante d’obstacles est toujours réfléchie : en travers du chemin, certes, mais tiré avec d’autres branches, avec rage et détermination, vraiment pour faire ch…. Que faites vous ? vous posez le vélo, vous pensez aux autres pratiquants et vous rangez la forêt. Semaine suivante : déception, cela recommence. ↩︎


Publié le 21.08.2021 à 02:00

Vers une résistance anarchiste

Nos choix et nos usages numériques conditionnent la manière dont nos données personnelles sont extraites, analysées et valorisées. C’est aujourd’hui un poncif et la grande majorité s’accorde sur le manque d’éthique de l’exploitation de nos intimités numériques. Pourtant, un pas supplémentaire mériterait d’être systématiquement franchi vers une réflexion plus globale. En effet, plus nous réfléchissons à la maîtrise de nos outils numériques et de nos données (ce qui implique bien davantage que le seul usage de logiciels libres), plus nous réfléchissons en réalité à des moyens d’émancipation vis-à-vis du capitalisme de surveillance. Ce dernier est une forme de prédation de nos vies privées par la combinaison, d’une part, du modèle monopoliste des entreprises du numérique et, d’autre part, l’État agissant dans un esprit d’intérêt avec ces firmes, soit acteur soit consommateur (ou co-producteur) de solutions de surveillance numérique (ou surveillance de masse). Comme je l’ai toujours affirmé, il y a de la surveillance d’État parce qu’il y a un marché de la surveillance dans une économie qui aujourd’hui repose pour l’essentiel sur la donnée numérique. Ce marché est jusqu’à la caricature l’expression de la prédation du capitalisme qui, au-delà de l’accaparement du temps et de la nature (nos temps et forces de travail), au-delà de la mesure et de la rentabilité, réduit l’individu à ses comportements de consommateur, effectue un tri social implacable et finalement parvient à accaparer nos vies.

Une critique du capitalisme de surveillance ne peut séparer radicalement les acteurs économiques et l’État. Premièrement parce que les nombreux scandales qui jalonnent l’histoire (celle de la transformation des sociétés industrielles en sociétés numérisées) relèvent toujours d’une forme d’économie politique qui a pour objectif soit d’imposer une ordre hégémonique (par ex. la Guerre Froide) ou un modèle social (la société de consommation), soit d’étendre la gouvernementalité non plus des peuples mais des individus dans un mouvement sécuritaire séculaire, ainsi que l’ont montré les Révélations Snowden (accointance entre État et firmes) ou le scandale Facebook-Cambridge Analytica (fausser le dialogue politique public et donc illustrer les failles de la représentativité en démocratie). Ainsi, considérer l’État comme le seul « contre-pouvoir » capable de réguler le capitalisme et le rendre plus compatible avec les libertés, est un leurre : d’une part les jeux d’intérêts financiers ne sont pas compatibles avec ce rôle de de l’État régulateur (compliqué par ailleurs par les questions de souveraineté vis-à-vis de l’hégémonie des grands pays où s’enracinent l’économie numérique et son industrie), et d’autre part l’État a accompli ce passage vers une société de la surveillance des individus en contraignant l’état de citoyenneté (comment un individu agit comme citoyen, sa vie civile) à un ordre automatisé de l’action publique (surveillance de masse et contrôles automatisés, transformation des services publics en suites de plate-formes, éloignement mutuel des institutions et de la vie publique et enfin : répression).

Face à cette situation, le premier réflexe est d’ouvrir une critique du solutionnisme ambiant. On peut en effet se concentrer sur les problèmes liés à la surveillance : biais algorithmiques, tri social, éthique, légitimité du contrôle, prédictibilité comportementale, etc. Lorsque l’État a recours à ces solutions technologiques, c’est qu’elles sont apportées par des entreprises sans scrupules et sont nimbées d’un discours fascisant (la vieille recette de l’ennemi intérieur ou les sempiternels faux dilemmes liberté vs sécurité ou liberté vs santé). Et c’est justement au nom d’une prétendue efficacité technique que de tels discours prennent si facilement auprès d’une classe politique en pleine crise de représentativité et qui se radicalise peu à peu à l’encontre de l’individu, du groupe, du collectif, et donc des libertés. La critique du solutionnisme peut donc être une critique des choix de politiques publiques et de leur efficacité à résoudre des problèmes structurels ou sociaux, mais elle peut être aussi un moyen efficace de pointer les idéologies derrière les choix technologiques (car il n’y a pas de technologie sans idéologie).

Un second réflexe consiste à adopter une position critique plus globale sur la modernité. Éclairée par l’histoire entre technologies et sociétés, cette critique montre qu’en réalité le contexte est le fruit les orientations du capitalisme moderne, ou du néoliberalisme et de l’économie comportementale qui en est l’un des moteurs (avec la militarisation et les monopoles). Face à cette critique, l’idée n’est pas tant de proposer d’autres solutions plus efficaces qui rendraient le monde économico-numérique meilleur (et après tout les solutions technocratiques restent des solutions techniques), mais de proposer des pistes d’émancipation possible qui auraient la difficile tâche de nous sortir des préceptes du néolibéralisme, par une double critique du capitalisme et de l’État moderne.

Jusqu’à présent, la seule piste que je puisse voir est une piste anarchiste. Nous sommes en effet dans une situation d’urgence où il faut promouvoir à la fois de l’éducation populaire censée émanciper les gens vis-à-vis de l’économie numérique, et la création de groupes et autres collectifs censés se réapproprier et reforger les mécanismes démocratiques pour fonder des économies plus équilibrées. Le tout sans pour autant avoir un mot d’ordre unique mais des caractéristiques suffisamment communes pour former un tout cohérent fait de différences et de partages, selon l’idée plus générale d’une archipélisation des initiatives et des groupes. Je me suis déjà exprimé là-dessus (et je ne suis pas le seul à Framasoft), en revanche il est clair que tout cela doit encore être bien approfondi.

Un autre biais de ce que je viens d’affirmer, c’est la pratique. Tout ceci est bien gentil, mais cela ne reste que des mots. Quelle bien piètre résistance que celle qui ne s’exprime qu’entre la chaise et le clavier. Pour donner une teneur bien concrète à l’urgence que je viens de formuler, on peut regarder du côté de l’Afghanistan de ces derniers jours. Les Talibans, après une avancée fulgurante, ont instauré un nouvel État et, ce faisant, ont mis la main sur les données biométriques d’une grande quantité d’Afghans, des données rassemblées précédemment par l’armée américaine sur place. On conçoit aisément les craintes de nombreux Afghans dans une chasse aux sorcières mortelle qui ne fait que commencer dans le pays. Mais cela montre aussi à quel point il est excessivement dangereux de laisser un pouvoir centraliser des données personnelles, surtout si ces données excèdent le strict minimum censé permettre justement à l’État de fonctionner, et afin d’accroître démesurément son pouvoir de coercition (en particulier lorsque le dialogue démocratique est rompu). En France, nous devrions être bien plus attentifs au rognage systématique de nos intimités numériques et (donc) de nos libertés.

Mais par quels mécanismes nous opposer à cette soif de pouvoir, de coercition, propre à l’État et qui met à la manœuvre la pompe à données personnelles que l’économie numérique ne cesse de perfectionner ? Peut-être faut-il aller chercher au plus profond de nous-mêmes, dans notre méfiance pour ainsi dire instinctive de tout ce qui tend à remplacer l’échange par le pouvoir et le consensus par l’autorité. Finalement, sans avoir à comprendre les finesses des technologies qui nous entourent, nous sommes tous prompts à imaginer et mettre en œuvre des stratégies de contournement, des moyens d’auto-défense face au pouvoir. De ce point de vue, à la condition de proposer des alternatives accessibles à tous, y compris chez les non-techniciens, la fabrication d’alternatives logicielles libres basées sur le chiffrement et le pair-à-pair sont selon moi des éléments d’auto-défense collectifs particulièrement efficaces. Tout comme le sont, par exemple, l’échange de graines de légumes anciens interdits à la vente, l’établissement de zones à défendre contre les grands projets inutiles, ou de manière plus fine les initiatives permettant d’instaurer plus de démocratie participative dans des institutions perçues comme trop rigides (cf. la municipalité de Kingersheim).

Mais je mentionnais plus haut la question de l’anarchie. Sur LVSL vient de sortir une petite analyse synthétique sur le travail de James Scott à propos des sociétés des régions montagneuses de l’Asie du Sud-Est, autrement nommées Zomia, qui regroupe des centaines d’ethnies et des millions de personnes. On ne parle donc pas d’un simple groupe de « primitifs » paumés. Même si les conclusions de James Scott sont à mon avis un peu trop généralistes, à la différence d’un Pierre Clastres qui prenait un peu plus de précautions avant de généraliser, le constat est le même : une bonne anthropologie est d’essence anarchiste, tout simplement parce que, méthodologiquement, on ne devrait jamais apposer nos propres schémas historiques d’occidentaux sur la structure sociale du groupe étudié. Et si on a une bonne méthodologie, on constate que oui, en effet, certaines sociétés sont construites à l’encontre de l’idée de l’État.

Ce que pointent P. Clastres et J. Scott (entre autre, on peut aussi compter D. Graeber) c’est l’erreur d’une vision finaliste du développement des sociétés. Nous avons longtemps pensé que le devenir d’un peuple consistait à se développer et tendre « naturellement » vers une structuration en société-État. Ces anthropologues ont en revanche démontré que ce n’est pas du tout le cas, que l’État (et la coercition) ne sont pas le destin de toute société, qu’il y a même des sociétés qui ont développé des mécanismes pour que le pouvoir ne puisse pas émerger, ou bien s’il y a des chefs, ils n’ont aucune autorité (mais incarnent une fonction de lien et d’échange social), ou même encore des sociétés qui ont une histoire basée sur le refus assumé de l’État parce qu’elles l’ont essayé (et n’y ont vu qu’esclavage et soumission). Il en va de même pour l’économie, qui échappe à toute analyse marxiste (totalisante) puisqu’il y a des sociétés qui connaissent une absence de dynamique de forces productives et de lutte de classe, justement à cause de leur condition sans État.

Ces considérations devraient être ramenées à nos conditions de sociétés industrielles modernes. Finalement, est-ce que l’histoire des peuples n’est pas une perpétuelle lutte contre l’État, dans ce qu’il a de plus invasif (et je ne parle pas des néolibéraux soit-disant libertaires alors qu’ils doivent tout à l’État) ? La démocratie au sens Athénien n’est-elle pas une forme de lutte contre le pouvoir (l’aristocratie contre la tyrannie) ? la représentativité et le vote ne sont-ils pas une astuce pour déjouer l’émancipation des peuples en instaurant une délégation de pouvoir là où il ne devrait y avoir qu’une fonction ? Si je lis Pierre Clastres, j’en conclu (sans doute assez stupidement) qu’il peut y avoir une fonction publique sans pouvoir, en tout cas, que ce n’est pas impossible.

Ce que montre l’anthropologie anarchiste (et il n’y a pas que l’anthropologie : l’histoire et la géographie sont bien évidemment de la partie) c’est le potentiel de chaque société à lutter contre le pouvoir. La question n’est pas tant de savoir qui propose quelles alternatives, mais de savoir dans quelle mesure il importe de se regrouper dans des mouvements d’opposition et de construction de lieux et d’espaces d’échanges, aussi divers que nécessaires. La surveillance et la centralisation des données confèrent des pouvoirs exorbitants. Et ils le sont tellement que même la recherche du consentement collectif, tacite ou non, en devient superflue (il suffit de manipuler l’opinion, justement grâce aux données collectées, ou de se passer de l’opinion). Qu’il s’agisse de l’État ou des entreprises de l’économie numérique, le combat doit rester le même : ne pas accepter la valorisation lucratives des données personnelles et encore moins leur centralisation par l’État. Les données numériques et l’économie de plateformes confèrent un trop grand pouvoir aux États. Il faut leur opposer un principe négatif à toute forme de surveillance (ce qui ne veut cependant pas dire qu’il ne peut y avoir des consensus ponctuels). C’est une question de survie sociale et il faut l’inscrire dans l’histoire.


Publié le 17.06.2021 à 02:00

Pour une histoire du courtage de données

Les activités des courtiers de données (data brokers) sont assez peu connues du grand public. Pourtant, ces derniers sont situés sur le créneau crucial du marketing, et on peut considérer qu’aucune stratégie marketing rentable ne peut se faire sans la récolte et le traitement de données. Les précieux services que rendent aujourd’hui ces entreprises conditionnent l’activité économique et renforce toujours plus le modèle du capitalisme de surveillance.

Késako ?

Le courtage de données a commencé à se faire connaître du grand public à partir du moment où furent discutées dans les médias les pratiques d’extraction des données personnelles des grandes entreprises du web (les GAFAM en particulier mais pas uniquement). C’est ce que raconte Shoshana Zuboff dans son livre : au début des années 2000, à partir du moment où la pression de l’actionnariat demandait toujours plus de rentabilité à des entreprises comme Google, ces dernières ont vu dans l’extraction et la vente de données comportementales une occasion d’accroître leur rentabilité et de toujours plus innover selon ce modèle économique du service gratuit en échange de nos expériences du quotidien.

En 2016, le rapport de Cracked Lab sur les data brokers fut sans doute l’un des plus éloquents de l’ère post-révélations-Snowden. Au lieu de se concentrer sur le problème déjà bien inquiétant des relations entre les services d’espionnage américains et les entreprises monopolistes du web dans la surveillance mondiale, les membres de Cracked Lab montraient comment certaines entreprises gagnent beaucoup d’argent en monitorant en permanence nos faits et gestes, et s’accaparent une part toujours plus grande de nos intimités numériques sans se soucier vraiment de la régulation imposée par les législations en vigueur.

Un reportage télévisé récent portait justement sur le courtage de données et les passe-droits de ces entreprises, par exemple sur nos données de santé. Ces pratiques sont d’autant plus difficilement interrogeables qu’elles se font en toute discrétion, sans que les individus puissent s’y opposer : il ne s’agit pas d’agir à l’insu des personnes mais bien en aval, auprès des entreprises qui, elles, ont déjà récupéré nos consentements.

On peut surenchérir, après 4 ans d’expérience du RGPD : celui-ci a d’énormes trous dans la raquette. Le RGPD a été initié au départ pour limiter et encadrer les pratiques d’extraction des données personnelles par les entreprises auprès des utilisateurs, mais l’économie du courtage de données a quasiment été laissée de côté, comme si cela ne concernait nos vies privée qu’à la marge. Et pour cause : ce que peuvent faire ces entreprises en matière de profilages et corrélations est non seulement l’un des piliers du paradigme libéral de l’économie comportementale, mais reste aussi avant tout un marché business to business. Or, les innovations en matière de profilage et de travail des données comportementales sont vertigineuses1.

Scoop : rien de nouveau

Si vous me lisez un peu, pas de surprise avec ce que je vais vous dire : c’est pas nouveau. L’idée de récolter et tenir à jour des listes de clientèle est au moins aussi vieille que le commerce. L’idée de les vendre est un peu plus récente mais j’ai ouï-dire (à vérifier) que les banquiers de la Renaissance pratiquaient ce petit commerce (en tout cas, je pense que cela allait de pair avec la possibilité d’utiliser facilement du papier et cela a dû s’accroître avec l’imprimerie).

Tiens, c’est intéressant : on peut partir de l’hypothèse que le commerce des données n’est pas vraiment une innovation, mais que c’est une activité qui a utilisé les innovations pour créer des nouveaux marchés. Ou plutôt une activité basée sur des techniques dont la pratique a initié des marchés. Cette hypothèse peut être mise à l’épreuve avec l’histoire de la révolution informatique de la seconde moitié du XXe siècle.

C’est ce que je montre dans un article qui va bientôt paraître dans la revue Zilsel : le courtage de données a connu une brusque croissance à partir du moment où, grâce aux ordinateurs et aux travaux sur les bases de données relationnelles, on a cherché à automatiser la génération de listes clientèles. C’est cette automatisation qui a permis de passer du prospect publicitaire façon pages jaunes à une révolution fondamentale dans l’histoire du marketing : l’analyse prédictive des données comportementales, géodémographiques et psychographiques.

Alors quand ? exactement au tournant des années 1970. On retient de cette période la seconde révolution informatique que les ordinateurs mainframe ont rendu possible en intégrant les organisations (entreprises comme services publics) pour créer des systèmes d’information. Ce qui se passe alors est très intéressant. Déjà les banques (et sociétés d’évaluation de crédit), sur-équipées par rapport aux autres entreprises, passent du modèle de répertoire/suivi de clientèle à l’évaluation de solvabilité et autres fichages. Les associations de consommateurs aux États-Unis ne seront d’ailleurs pas contentes et provoqueront le vote du Fair Credit Reporting Act en 1970. Même des entreprises qui auparavant n’avaient pas vraiment de rapport avec le crédit bancaire, se mirent à acheter des données justement parce qu’elles étaient en mesure de les traiter. Petit extrait de mon article :

(…) C’est ainsi que l’Union Tank Car Company, spécialisée dans la location de wagons et disposant du matériel informatique suffisant, se lança dans l’évaluation de crédit en créant Trans Union en 1968. Cette dernière mena une politique offensive de rachat d’autres agences et dont l’objectif était de rassembler des millions de fiches consommateurs. En 1972 elle créa CRONUS (Credit Reporting Online Network Utility System), un système d’information de stockage sur bandes et de transfert d’information depuis et vers les guichets locaux. Ce modèle de système d’échange en ligne assurait un gain de temps considérable pour la mise à jour des données consommateurs. Ce ne fut pas le seul exemple. Thompson Ramo Wooldridge Inc. (plus tard nommée TRW), spécialisée dans l’aérospatiale et les composants électroniques (mais agissant en fait dans plusieurs secteurs d’activité dont l’informatique), racheta Credit Data Corporation en 1968 pour se lancer dans l’évaluation de crédit (ce fut en 1996 que le service de TRW devint Experian). Quant à la Retail Credit Company, il s’agissait historiquement de la plus grande agence d’évaluation de crédit des États-Unis. Elle s’informatisa complètement en 1970 mais fut obligée de changer d’image et de nom pour Equifax en 1975, après plus de cinq années d’enquêtes administratives (accompagnées d’auditions à charge) menées sur les pratiques de reporting des agences d’évaluation de crédit et la question de la vie privée.

Étude de cas

Prédire. C’est la question qui taraude l’homme depuis la nuit des temps. Dans un monde incertain, l’économie va mal. Qu’il s’agisse de croyance ou de science, l’économie a un besoin vital d’une rationalité de la vision du monde qui permet de spéculer sur l’avenir plus ou moins proche.

L’économie comportementale a vu ses concepts se développer dans les années 1960. Évidemment, la démarche est ancestrale : on sait depuis longtemps identifier un marché potentiel en fonction d’un contexte, d’une ambiance, d’une culture. C’est même le b.a.ba du bon commerçant. Par contre les avancées scientifiques des disciplines comme la psychologie, la sociologie et l’anthropologie, et même la physique et la biologie, on permis de pousser très loin le curseur de l’analyse comportementale des agents économiques, et tout particulièrement l’analyse des facteurs décisionnels. En agissant sur ces facteurs de manière stratégique et éclairée par les sciences comportementales, la possibilité de conditionner le choix économique (comme celui de l’achat d’un bien) devient une activité marketing redoutable surtout lorsque l’économie est lancée dans une rude dynamique concurrentielle comme ce fut le cas avec l’apparition de la fameuse économie de consommation.

L’étude de cas que je propose concerne les entreprises Acxiom et Claritas Inc.. La première est née sous le nom de Demographics en 1968, la seconde créé en 1972 est connue pour porter le système PRIZM. Ces entreprises démontrent que le capitalisme de surveillance s’inscrit dans une histoire longue qui remonte à bien avant les années 2000 et qui est relative à l’usage des technologies qui ont permis d’automatiser de le travail de la donnée, et donc ont accru la rentabilité de ce travail.

Demographics a commencé comme une entreprise électorale à Conway dans l’Arkansas. Elle est dirigée encore actuellement par certains de ses membres « d’origine », en particulier Charles Morgan, un ancien d’IBM qui y a fait venir ses homologues. Elle fut initiée et fondée par Charles Ward, entrepreneur fort connu de l’Arkansas (et dans le monde), à la tête de la Ward Body Works, aujourd’hui IC Bus, fabriquant des fameux bus jaunes réputés fiables et sécurisés.

À l’occasion de la campagne électorale pour le gouverneur de l’Arkansas, Ward voulait faire profiter le parti démocrate local de son ordinateur (un IBM s/360) afin d’optimiser les démarche de prospect et de publipostage. Il engageait alors le parti démocrate dans une course à un « armement » informatique qui opposait depuis plusieurs années le parti Républicain et le parti Démocrate sur le plan de l’analyse électorale. Il fit venir pour cela Charles Morgan qui fini par imposer à Demographics un modèle de développement typique d’IBM afin d’étendre le modèle économique de l’entreprise au-delà du secteur politique sur le chemin de la haute rentabilité financière. Tout en poursuivant les activités de l’entreprise électorale (qui lui vaudront plus tard d’être un grand ami de Clinton, qui commença dans l’Arkansas) mais en s’émancipant de la Ward, Morgan développa pour cela un système automatisé de traitement de listes de clientèles en réseau afin de proposer ce service business to business basé sur l’exploitation de bases de données enrichies de différentes sources, et l’analyse géodémographique (ce qui avait notamment servi pour l’étude des campagnes électorales).

Outre le fait qu’on validait ainsi l’idée que le marketing s’appliquait aussi bien à la politique qu’au commerce de détail, Demographics montrait aussi qu’en exploitant correctement les technologies à disposition (langages bas niveau pour tirer meilleur parti des machines, passage du stockage de données à l’entrepôt de données, temps partagé et transmission réseau) il était possible de développer une activité économique pour des coûts de développement assez faibles, et basée sur la récupération et l’exploitation astucieuse de données. Parallèlement, un sociologue nommé Jonathan Robbin développait PRIZM (Potential Rating Index for Zip Markets), un système de segmentation et de classification géodémographique des populations croisé avec l’analyse du style de vie (lifestyle). Cet ensemble doit aussi être rapproché des recherches sur les bases de données relationnelles tels les travaux initiés par Edgar Codd en 1970 et toute une communauté de chercheurs avec lui.

Teasing

Bien sûr, ces éléments n’entrent pas en relation par hasard. Pour en comprendre les articulations, il va falloir attendre la publication de mon article (rhooo… ce teasing de malaaade !). Vous devinez néanmoins déjà l’ambition : comprendre comment nous en sommes arrivés à l’acceptation sociale du stéréotypage de nos styles de vie, de l’exploitation de nos données comportementales et des modèles décisionnels, en somme tout ce qui fait qu’aujourd’hui le marketing est non seulement le pilier de l’économie mais concentre aussi l’exploitation lucrative des données personnelles. Comment espérer, dans ce cas, qu’une simple régulation du capitalisme siliconevalléesque puisse résoudre quoi que ce soit, alors que c’est l’ensemble du système économique capitaliste qui se gave de données. Le mieux à faire est de créer des îles et des archipels en dehors de l’exploitation lucrative des données. Tenter d’y échapper.

Greg, Achille Talon, *Pas de pitié pour Achille Talon*, Dargaud, 1976, p.36


  1. Il suffit de lire entre les lignes du discours bullshit qui décrit les produits de l’entreprise Liveramp (qui par ailleurs a fusionné récemment avec Acxiom). Il n’y a rien de secret dans ces pratiques, c’est du business, rien que du business… ↩︎


Publié le 08.05.2021 à 02:00

Les médias sociaux ne sont pas des espaces démocratiques

[Ce billet a été publié sur le Framablog à cette adresse, le 15 mai 2021.]

Lors d’une récente interview avec deux autres framasoftiennes à propos du Fediverse et des réseaux sociaux dits « alternatifs », une question nous fut posée :

dans la mesure où les instances de service de micro-blogging (type Mastodon) ou de vidéo (comme Peertube) peuvent afficher des « lignes éditoriales » très différentes les unes des autres, comment gérer la modération en choisissant de se fédérer ou non avec une instance peuplée de fachos ou comment se comporter vis-à-vis d’une instance communautaire et exclusive qui choisit délibérément de ne pas être fédérée ou très peu ?

De manière assez libérale et pour peu que les conditions d’utilisation du service soient clairement définies dans chaque instance, on peut répondre simplement que la modération demande plus ou moins de travail, que chaque instance est tout à fait libre d’adopter sa propre politique éditoriale, et qu’il s’agit de choix individuels (ceux du propriétaire du serveur qui héberge l’instance) autant que de choix collectifs (si l’hébergeur entretient des relations diplomatiques avec les membres de son instance). C’est une évidence.

La difficulté consistait plutôt à expliquer pourquoi, dans la conception même des logiciels (Mastodon ou Peertube, en l’occurrence) ou dans les clauses de la licence d’utilisation, il n’y a pas de moyen mis en place par l’éditeur du logiciel (Framasoft pour Peertube, par exemple) afin de limiter cette possibilité d’enfermement de communautés d’utilisateurs dans de grandes bulles de filtres en particulier si elles tombent dans l’illégalité. Est-il légitime de faire circuler un logiciel qui permet à #lesgens de se réunir et d’échanger dans un entre-soi homogène tout en prétendant que le Fediverse est un dispositif d’ouverture et d’accès égalitaire ?

Une autre façon de poser la question pourrait être la suivante : comment est-il possible qu’un logiciel libre puisse permettre à des fachos d’ouvrir leurs propres instance de microblogging en déversant impunément sur le réseau leurs flots de haine et de frustrations ?1

Bien sûr nous avons répondu à ces questions, mais à mon avis de manière trop vague. C’est qu’en réalité, il y a plusieurs niveaux de compréhension que je vais tâcher de décrire ici. Il y a trois aspects :

  1. l'éthique du logiciel libre n’inclut pas la destination morale des logiciels libres, tant que la loyauté des usages est respectée, et la première clause des 4 libertés du logiciel libre implique la liberté d’usage : sélectionner les utilisateurs finaux en fonction de leurs orientations politique, sexuelles, etc. contrevient fondamentalement à cette clause…
  2. … mais du point de vue technique, on peut en discuter car la conception du logiciel pourrait permettre de repousser ces limites éthiques2,
  3. et la responsabilité juridique des hébergeurs implique que ces instances fachos sont de toute façon contraintes par l’arsenal juridique adapté ; ce à quoi on pourra toujours rétorquer que cela n’empêche pas les fachos de se réunir dans une cave (mieux : un local poubelle) à l’abri des regards.

Mais est-ce suffisant ? se réfugier derrière une prétendue neutralité de la technique (qui n’est jamais neutre), les limites éthiques ou la loi, ce n’est pas une bonne solution. Il faut se poser la question : que fait-on concrètement non pour interdire certains usages du Fediverse, mais pour en limiter l’impact social négatif ?

La principale réponse, c’est que le modèle économique du Fediverse ne repose pas sur la valorisation lucrative des données, et que se détacher des modèles centralisés implique une remise en question de ce que sont les « réseaux » sociaux. La vocation d’un dispositif technologique comme le Fediverse n’est pas d’éliminer les pensées fascistes et leur expression, pas plus que la vocation des plateformes Twitter et Facebook n’est de diffuser des modèles démocratiques, malgré leur prétention à cet objectif. La démocratie, les échanges d’idées, et de manière générale les interactions sociales ne se décrètent pas par des modèles technologiques, pas plus qu’elles ne s’y résument. Prétendre le contraire serait les restreindre à des modèles et des choix imposés (et on voit bien que la technique ne peut être neutre). Si Facebook, Twitter et consorts ont la prétention d’être les gardiens de la liberté d’expression, c’est bien davantage pour exploiter les données personnelles à des fins lucratives que pour mettre en place un débat démocratique.

Exit le vieux rêve du global village ? En fait, cette vieille idée de Marshall McLuhan ne correspond pas à ce que la plupart des gens en ont retenu. En 1978, lorsque Murray Turoff et Roxanne Hiltz publient The Network Nation, ils conceptualisent vraiment ce qu’on entend par « Communication médiée par ordinateur » : échanges de contenus (volumes et vitesse), communication sociale-émotionnelle (les émoticônes), réduction des distances et isolement, communication synchrone et asynchrone, retombées scientifiques, usages domestiques de la communication en ligne, etc. Récompensés en 1994 par l’EFF Pioneer Award, Murray Turoff et Roxanne Hiltz sont aujourd’hui considérés comme les « parents » des systèmes de forums et de chat massivement utilisés aujourd’hui. Ce qu’on a retenu de leurs travaux, et par la suite des nombreuses applications, c’est que l’avenir du débat démocratique, des processus de décision collective (M. Turoff travaillait pour des institutions publiques) ou de la recherche de consensus, reposent pour l’essentiel sur les technologies de communication. C’est vrai en un sens, mais M. Turoff mettait en garde3 :

Dans la mesure où les communications humaines sont le mécanisme par lequel les valeurs sont transmises, tout changement significatif dans la technologie de cette communication est susceptible de permettre ou même de générer des changements de valeur.

Communiquer avec des ordinateurs, bâtir un système informatisé de communication sociale-émotionnelle ne change pas seulement l’organisation sociale, mais dans la mesure où l’ordinateur se fait de plus en plus le support exclusif des communications (et les prédictions de Turoff s’avéreront très exactes), la communication en réseau fini par déterminer nos valeurs.

Aujourd’hui, communiquer dans un espace unique globalisé, centralisé et ouvert à tous les vents signifie que nous devons nous protéger individuellement contre les atteintes morales et psychiques de celleux qui s’immiscent dans nos échanges. Cela signifie que nos écrits puissent être utilisés et instrumentalisés plus tard à des fins non souhaitées. Cela signifie qu’au lieu du consensus et du débat démocratique nous avons en réalité affaire à des séries de buzz et des cancans. Cela signifie une mise en concurrence farouche entre des contenus discursifs de qualité et de légitimités inégales mais prétendument équivalents, entre une casserole qui braille La donna è mobile et la version Pavarotti, entre une conférence du Collège de France et un historien révisionniste amateur dans sa cuisine, entre des contenus journalistiques et des fake news, entre des débats argumentés et des plateaux-télé nauséabonds.

Tout cela ne relève en aucun cas du consensus et encore moins du débat, mais de l’annulation des chaînes de valeurs (quelles qu’elles soient) au profit d’une mise en concurrence de contenus à des fins lucratives et de captation de l’attention. Le village global est devenu une poubelle globale, et ce n’est pas brillant.

Dans cette perspective, le Fediverse cherche à inverser la tendance. Non par la technologie (le protocole ActivityPub ou autre), mais par le fait qu’il incite à réfléchir sur la manière dont nous voulons conduire nos débats et donc faire circuler l’information.

On pourrait aussi bien affirmer qu’il est normal de se voir fermer les portes (ou du moins être exclu de fait) d’une instance féministe si on est soi-même un homme, ou d’une instance syndicaliste si on est un patron, ou encore d’une instance d’un parti politique si on est d’un autre parti. C’est un comportement tout à fait normal et éminemment social de faire partie d’un groupe d’affinités, avec ses expériences communes, pour parler de ce qui nous regroupe, d’actions, de stratégies ou simplement un partage d’expériences et de subjectivités, sans que ceux qui n’ont pas les mêmes affinités ou subjectivités puissent s’y joindre. De manière ponctuelle on peut se réunir à l’exclusion d’autre groupes, pour en sortir à titre individuel et rejoindre d’autre groupes encore, plus ouverts, tout comme on peut alterner entre l’intimité d’un salon et un hall de gare.

Dans ce texte paru sur le Framablog, A. Mansoux et R. R. Abbing montrent que le Fediverse est une critique de l’ouverture. Ils ont raison. Là où les médias sociaux centralisés impliquaient une ouverture en faveur d’une croissance lucrative du nombre d’utilisateurs, le Fediverse se fout royalement de ce nombre, pourvu qu’il puisse mettre en place des chaînes de confiance.

Un premier mouvement d’approche consiste à se débarrasser d’une conception complètement biaisée d’Internet qui fait passer cet ensemble de réseaux pour une sorte de substrat technique sur lequel poussent des services ouverts aux publics de manière égalitaire. Évidemment ce n’est pas le cas, et surtout parce que les réseaux ne se ressemblent pas, certains sont privés et chiffrés (surtout dans les milieux professionnels), d’autres restreints, d’autres plus ouverts ou complètement ouverts. Tous dépendent de protocoles bien différents. Et concernant les médias sociaux, il n’y a aucune raison pour qu’une solution technique soit conçue pour empêcher la première forme de modération, à savoir le choix des utilisateurs. Dans la mesure où c’est le propriétaire de l’instance (du serveur) qui reste in fine responsable des contenus, il est bien normal qu’il puisse maîtriser l’effort de modération qui lui incombe. Depuis les années 1980 et les groupes usenet, les réseaux sociaux se sont toujours définis selon des groupes d’affinités et des règles de modération clairement énoncées.

À l’inverse, avec des conditions générales d’utilisation le plus souvent obscures ou déloyales, les services centralisés tels Twitter, Youtube ou Facebook ont un modèle économique tel qu’il leur est nécessaire de drainer un maximum d’utilisateurs. En déléguant le choix de filtrage à chaque utilisateur, ces médias sociaux ont proposé une représentation faussée de leurs services :

  1. Faire croire que c’est à chaque utilisateur de choisir les contenus qu’il veut voir alors que le système repose sur l’économie de l’attention et donc sur la multiplication de contenus marchands (la publicité) et la mise en concurrence de contenus censés capter l’attention. Ces contenus sont ceux qui totalisent plus ou moins d’audience selon les orientations initiales de l’utilisateur. Ainsi on se voit proposer des contenus qui ne correspondent pas forcément à nos goûts mais qui captent notre attention parce de leur nature attrayante ou choquante provoquent des émotions.
  2. Faire croire qu’ils sont des espaces démocratiques. Ils réduisent la démocratie à la seule idée d’expression libre de chacun (lorsque Trump s’est fait virer de Facebook les politiques se sont sentis outragés… comme si Facebook était un espace public, alors qu’il s’agit d’une entreprise privée).

Les médias sociaux mainstream sont tout sauf des espaces où serait censée s’exercer la démocratie bien qu’ils aient été considérés comme tels, dans une sorte de confusion entre le brouhaha débridé des contenus et la liberté d’expression. Lors du « printemps arabe » de 2010, par exemple, on peut dire que les révoltes ont beaucoup reposé sur la capacité des réseaux sociaux à faire circuler l’information. Mais il a suffi aux gouvernements de censurer les accès à ces services centralisés pour brider les révolutions. Ils se servent encore aujourd’hui de cette censure pour mener des négociations diplomatiques qui tantôt cherchent à attirer l’attention pour obtenir des avantages auprès des puissances hégémoniques tout en prenant la « démocratie » en otage, et tantôt obligent les GAFAM à se plier à la censure tout en facilitant la répression. La collaboration est le sport collectif des GAFAM. En Turquie, Amnesty International s’en inquiète et les exemples concrets ne manquent pas comme au Vietnam récemment.

Si les médias sociaux comme Twitter et Facebook sont devenus des leviers politiques, c’est justement parce qu’ils se sont présentés comme des supports technologiques à la démocratie. Car tout dépend aussi de ce qu’on entend par « démocratie ». Un mot largement privé de son sens initial comme le montre si bien F. Dupuis-Déri4. Toujours est-il que, de manière très réductrice, on tient pour acquis qu’une démocratie s’exerce selon deux conditions : que l’information circule et que le débat public soit possible.

Même en réduisant la démocratie au schéma techno-structurel que lui imposent les acteurs hégémoniques des médias sociaux, la question est de savoir s’il permettent la conjonction de ces conditions. La réponse est non. Ce n’est pas leur raison d’être.

Alors qu’Internet et le Web ont été élaborés au départ pour être des dispositifs égalitaires en émission et réception de pair à pair, la centralisation des accès soumet l’émission aux conditions de l’hébergeur du service. Là où ce dernier pourrait se contenter d’un modèle marchand basique consistant à faire payer l’accès et relayer à l’aveugle les contenus (ce que fait La Poste, encadrée par la loi sur les postes et télécommunications), la salubrité et la fiabilité du service sont fragilisés par la responsabilisation de l’hébergeur par rapport à ces contenus et la nécessité pour l’hébergeur à adopter un modèle économique de rentabilité qui repose sur la captation des données des utilisateurs à des fins de marketing pour prétendre à une prétendue gratuité du service5. Cela implique que les contenus échangés ne sont et ne seront jamais indépendants de toute forme de censure unilatéralement décidée (quoi qu’en pensent les politiques qui entendent légiférer sur l’emploi des dispositifs qui relèveront toujours de la propriété privée), et jamais indépendants des impératifs financiers qui justifient l’économie de surveillance, les atteintes à notre vie privée et le formatage comportemental qui en découlent.

Paradoxalement, le rêve d’un espace public ouvert est tout aussi inatteignable pour les médias sociaux dits « alternatifs », où pour des raisons de responsabilité légale et de choix de politique éditoriale, chaque instance met en place des règles de modération qui pourront toujours être considérées par les utilisateurs comme abusives ou au moins discutables. La différence, c’est que sur des réseaux comme le Fediverse (ou les instances usenet qui reposent sur NNTP), le modèle économique n’est pas celui de l’exploitation lucrative des données et n’enferme pas l’utilisateur sur une instance en particulier. Il est aussi possible d’ouvrir sa propre instance à soi, être le seul utilisateur, et néanmoins se fédérer avec les autres.

De même sur chaque instance, les règles d’usage pourraient être discutées à tout moment entre les utilisateurs et les responsables de l’instance, de manière à créer des consensus. En somme, le Fediverse permet le débat, même s’il est restreint à une communauté d’utilisateurs, là où la centralisation ne fait qu’imposer un état de fait tout en tâchant d’y soumettre le plus grand nombre. Mais dans un pays comme le Vietnam où l’essentiel du trafic Internet passe par Facebook, les utilisateurs ont-ils vraiment le choix ?

Ce sont bien la centralisation et l’exploitation des données qui font des réseaux sociaux comme Facebook, YouTube et Twitter des instruments extrêmement sensibles à la censure d’État, au service des gouvernements totalitaires, et parties prenantes du fascisme néolibéral.

L’affaire Cambridge Analytica a bien montré combien le débat démocratique sur les médias sociaux relève de l’imaginaire, au contraire fortement soumis aux effets de fragmentation discursive. Avant de nous demander quelles idéologies elles permettent de véhiculer nous devons interroger l’idéologie des GAFAM. Ce que je soutiens, c’est que la structure même des services des GAFAM ne permet de véhiculer vers les masses que des idéologies qui correspondent à leurs modèles économiques, c’est-à-dire compatibles avec le profit néolibéral.

En reprenant des méthodes d’analyse des années 1970-80, le marketing psychographique et la socio-démographie6, Cambridge Analytica illustre parfaitement les trente dernières années de perfectionnement de l’analyse des données comportementales des individus en utilisant le big data. Ce qui intéresse le marketing, ce ne sont plus les causes, les déterminants des choix des individus, mais la possibilité de prédire ces choix, peu importent les causes. La différence, c’est que lorsqu’on applique ces principes, on segmente la population par stéréotypage dont la granularité est d’autant plus fine que vous disposez d’un maximum de données. Si vous voulez influencer une décision, dans un milieu où il est possible à la fois de pomper des données et d’en injecter (dans les médias sociaux, donc), il suffit de voir quels sont les paramètres à changer. À l’échelle de millions d’individus, changer le cours d’une élection présidentielle devient tout à fait possible derrière un écran.

C’est la raison pour laquelle les politiques du moment ont surréagi face au bannissement de Trump des plateformes comme Twitter et Facebook (voir ici ou ). Si ces plateformes ont le pouvoir de faire taire le président des États-Unis, c’est que leur capacité de caisse de résonance accrédite l’idée qu’elles sont les principaux espaces médiatiques réellement utiles aux démarches électoralistes. En effet, nulle part ailleurs il n’est possible de s’adresser en masse, simultanément et de manière segmentée (ciblée) aux populations. Ce faisant, le discours politique ne s’adresse plus à des groupes d’affinité (un parti parle à ses sympathisants), il ne cherche pas le consensus dans un espace censé servir d’agora géante où aurait lieu le débat public. Rien de tout cela. Le discours politique s’adresse désormais et en permanence à chaque segment électoral de manière assez fragmentée pour que chacun puisse y trouver ce qu’il désire, orienter et conforter ses choix en fonction de ce que les algorithmes qui scandent les contenus pourront présenter (ou pas). Dans cette dynamique, seul un trumpisme ultra-libéral pourra triompher, nulle place pour un débat démocratique, seules triomphent les polémiques, la démagogie réactionnaire et ce que les gauches ont tant de mal à identifier7 : le fascisme.

Face à cela, et sans préjuger de ce qu’il deviendra, le Fediverse propose une porte de sortie sans toutefois remettre au goût du jour les vieilles représentations du village global. J’aime à le voir comme une multiplication d’espaces (d’instances) plus où moins clos (ou plus ou moins ouverts, c’est selon) mais fortement identifiés et qui s’affirment les uns par rapport aux autres, dans leurs différences ou leurs ressemblances, en somme dans leurs diversités.

C’est justement cette diversité qui est à la base du débat et de la recherche de consensus, mais sans en constituer l’alpha et l’oméga. Les instances du Fediverse, sont des espaces communs d’immeubles qui communiquent entre eux, ou pas, ni plus ni moins. Ils sont des lieux où l’on se regroupe et où peuvent se bâtir des collectifs éphémères ou non. Ils sont les supports utilitaires où des pratiques d’interlocution non-concurrentielles peuvent s’accomplir et s’inventer : microblog, blog, organiseur d’événement, partage de vidéo, partage de contenus audio, et toute application dont l’objectif consiste à outiller la liberté d’expression et non la remplacer.

Angélisme ? Peut-être. En tout cas, c’est ma manière de voir le Fediverse aujourd’hui. L’avenir nous dira ce que les utilisateurs en feront.

Notes


  1. On peut se référer au passage de la plateforme suprémaciste Gab aux réseaux du Fediverse, mais qui finalement fut bloquée par la plupart des instances du réseau. ↩︎

  2. Par exemple, sans remplacer les outils de modération par du machine learning plus ou moins efficace, on peut rendre visible davantage les procédures de reports de contenus haineux, mais à condition d’avoir une équipe de modérateurs prête à réceptionner le flux : les limites deviennent humaines. ↩︎

  3. Turoff, Murray, and Starr Roxane Hiltz. 1994. The Network Nation: Human Communication via Computer. Cambridge: MIT Press, p. 401. ↩︎

  4. Dupuis-Déri, Francis. Démocratie, histoire politique d’un mot: aux États-Unis et en France. Montréal (Québec), Canada: Lux, 2013. ↩︎

  5. Et même si le service était payant, l’adhésion supposerait un consentement autrement plus poussé à l’exploitation des données personnelles sous prétexte d’une qualité de service et d’un meilleur ciblage marketing ou de propagande. Pire encore s’il disposait d’une offre premium ou de niveaux d’abonnements qui segmenteraient encore davantage les utilisateurs. ↩︎

  6. J’en parlerai dans un article à venir au sujet du courtage de données et de la société Acxiom. ↩︎

  7. …pas faute d’en connaître les symptômes depuis longtemps. Comme ce texte de Jacques Ellul paru dans la revue Esprit en 1937, intitulé « Le fascisme fils du libéralisme », dont voici un extrait : « [Le fascisme] s’adresse au sentiment et non à l’intelligence, il n’est pas un effort vers un ordre réel mais vers un ordre fictif de la réalité. Il est précédé par tout un courant de tendances vers le fascisme : dans tous les pays nous retrouvons ces mesures de police et de violence, ce désir de restreindre les droits du parlement au profit du gouvernement, décrets-lois et pleins pouvoirs, affolement systématique obtenu par une lente pression des journaux sur la mentalité courante, attaques contre tout ce qui est pensée dissidente et expression de cette pensée, limitation de liberté de parole et de droit de réunion, restriction du droit de grève et de manifester, etc. Toutes ces mesures de fait constituent déjà le fascisme. ». ↩︎


Publié le 15.04.2021 à 02:00

Contrôler les assistés

Contrôler les assistés s’est imposé à partir des années 1990 en France comme un mot d’ordre politique, bureaucratique et moral. Jamais les bénéficiaires d’aides sociales, et parmi eux les plus précaires, n’avaient été aussi rigoureusement surveillés, ni leurs illégalismes ou leurs erreurs si sévèrement sanctionnés. Ce renforcement du contrôle n’est cependant pas réductible à des préoccupations financières. Ainsi, moins sévèrement réprimés, l’évasion fiscale ou les défauts de paiement des cotisations sociales par les employeurs atteignent des montants sans commune mesure avec ceux qui concernent les erreurs ou abus des bénéficiaires d’aides sociales, traqués sans relâche.

Un mécanisme implacable à plusieurs facettes sous-tend cette spirale rigoriste à l’égard des assistés : des leaders politiques qui pourfendent la fraude sociale et qui parviennent à stigmatiser leurs contradicteurs comme naïfs ou complices ; des administrations qui surenchérissent dans des technologies de contrôle toujours plus performantes ; une division du travail bureaucratique qui déréalise et déshumanise le traitement des cas ; le fonctionnement interne de commissions où la clémence est toujours plus difficile à défendre que la sévérité ; le point d’honneur professionnel du contrôleur de la caisse locale qui traque la moindre erreur au nom de l’exactitude des dossiers.

Au nom de la responsabilisation individuelle, de la lutte contre l’abus, de la maîtrise des dépenses, un service public fondamental qui vise à garantir des conditions de vie dignes à tous les citoyens contribue désormais à un gouvernement néopaternaliste des conduites qui stigmatise et précarise les plus faibles.


Dubois, Vincent. Contrôler les assistés. Genèses et usages d’un mot d’ordre. Raisons d’Agir, 2021.

Lien vers le site de l’éditeur : https://www.raisonsdagir-editions.org/catalogue/controler-les-assistes/



Publié le 11.04.2021 à 02:00

Lettres et articles avec Zettlr ou Pandoc

Utiliser le célèbre convertisseur de document pandoc signifie manier (un tout petit peu) la ligne de commande. Rien de sorcier, pour peu d’être assez ouvert d’esprit pour comprendre qu’en matière de traitement de texte tout n’est pas censé se régler au clic de souris. Cela dit, le logiciel Zettlr permettent de s’affranchir de la ligne de commande tout en utilisant la puissance de pandoc. Zettlr propose une interface optimale pour écrire du texte en markdown et exporter dans différents formats. Il suffit d’aller voir dans les préférences avancées de Zettlr pour constater que ce dernier utilise une sorte de ligne de commande universelle avec pandoc pour réaliser ses exports. Pour ce qui concerne l’export en PDF, Zettlr utilise aussi LaTeX qu’il faudra installer sur la machine au préalable, tout comme pandoc.

J’ai écrit un petit billet sur Zettlr. Vous pouvez aller le lire pour mieux comprendre ce que je vais raconter ci-dessous.

Si vous n’avez pas envie de lire ce billet et souhaitez directement vous servir des modèles que je propose, vous trouverez l’ensemble sur ce dépôt GIT. Il y a un fichier README suffisant.

Pandoc et LaTeX

Qu’en est-il de la mise en page ? C’est là que les avantages combinés de pandoc et de LaTeX entrent en jeu : il est possible, en quelque sorte, de « programmer » la mise en page en élaborant des modèles qui utilisent différentes variables renseignées dans le fichier source en markdown. Bien entendu, on peut créer des modèles pour tout type d’export avec pandoc et d’ailleurs ce dernier utilise une batterie de modèles par défaut, mais ces derniers ne sont pas toujours adaptés à la sortie finale : qu’on utilise Zettlr ou non (ou n’importe quel éditeur de texte), il faut savoir compléter son fichier markdown avec des informations destinées à être taitées par pandoc.

Pour information, si pandoc s’utilise en ligne de commande, c’est parce qu’il y a toute une batterie d’options et de commandes que pandoc est capable d’exécuter. Pour éviter de les entrer systématiquement en ligne de commande, on peut les indiquer simplement dans l’en-tête du fichier markdown (ou dans un fichier séparé). Pour mieux comprendre de quoi il s’agit, vous pouvez vous reporter à ce document.

Pour donner un exemple trivial : si vous voulez que votre document markdown une fois exporté comporte un titre, un nom d’auteur et une date, il vous suffit de les indiquer de cette manière dans l’en-tête au début du document (on les appellera des « métadonnées ») :

``
% Le titre
% Prénom Nom
% 17/02/2021
``

Ou bien, en utilisant le format YAML :

``
---
title: "Le titre"
date: "17 février 2021"
author: "Prénom Nom"
...

``

Ainsi, pandoc les interprétera et, en utilisant un modèle par défaut ou un modèle de votre cru, reportera ces variables aux emplacements voulus dans la mise en page.

Si vous voulez écrire un article académique et le sortir en PDF en utilisant pandoc qui lui-même utilisera LaTeX, il vous faut donc réunir les éléments suivants :

  • un modèle LaTeX (ou se contenter des modèles LaTEX par défaut de pandoc),
  • des métadonnées à entrer après s’être bien renseigné sur la manuel d’utilisation de pandoc,
  • un fichier de bibliographie,
  • un fichier de style de présentation de la bibliographie.

En comptant les options courantes de pandoc que vous souhaitez utiliser, vous risquez de vous retrouver avec une ligne de commande assez longue… pour éviter cela, vous pouvez automatiser le tout avec un makefile que vous pourrez réutiliser plus tard pour d’autres documents, mais bigre… cela commence à devenir bien complexe pour qui n’a pas forcément envie d’y passer trop de temps, à moins de concevoir une fois pour toute une chaîne éditoriale que vous adapterez au fil du temps (c’est une option).

Zettlr et les modèles

Un grand avantage de Zettlr est de vous décharger de plusieurs de ces contraintes, en plus d’offrir une interface vraiment pratique entièrement destinée à l’écriture. Pour réaliser des exports, il vous faudra seulement installer pandoc. Et pour réaliser des exports PDF, il vous faudra installer LaTeX (je préconise une installation complète, par exemple Texlive-full).

Le fichier et le style CSL de bibliographie ? il vous suffit de les renseigner dans les préférences de Zettlr une fois pour toutes.

Le modèle de sortie PDF ? idem, vous le renseignez dans les préférences d’export PDF.

Et pour exporter ? il vous suffira de cliquer sur l’icône PDF.

Tout cela demeure assez simple, sauf que si vous rédigez un article sans chercher à travailler la question des métadonnées, votre sortie PDF risque de vous décevoir : pandoc utilisera le modèle par défaut, c’est-à-dire la classe [article]de LaTeX, qui en soi est une excellente mise en page, mais ne colle pas forcément à vos souhaits.

Réaliser des modèles pour pandoc est chose assez facile. En effet, si vous comprenez des notions informatiques basiques comme « pour…si…ou…alors », la syntaxe des modèles pandoc ne posera guère de problème. Il faudra néanmoins maîtriser LaTeX si vous voulez créer un modèle LaTeX.

Mes modèles article, rapport et lettre

Pour vous éviter d’y passer trop de temps, je vous propose d’utiliser mes modèles élaboré pour des articles, des rapports ou des lettres simples.

J’ai pris le parti de réaliser un modèle LaTeX destiné à chaque fois à la sortie voulue, là où le modèle pandoc par défaut permet de créer un article, une présentation ou un livre en indiquant simplement la classe voulue. Ce modèle par défaut inclu donc de nombreuses variables mais à trop vouloir être généraliste, je pense qu’on loupe l’essentiel.

Pour utiliser mes modèles, il vous suffit de réutiliser les fichiers markdown renseigner les différents éléments présents dans les en-têtes YAML de ces fichiers. Si vous voulez modifier les modèles eux-mêmes, il vous suffit de les éditer : j’ai tâché de commenter et de bien séparer les éléments importants.

Ces modèles utilisent KOMA-script, la classe scrartcl pour les article, scrreprt pour les rapports et scrlttr2 pour les lettres. Si vous connaissez LaTeX, vous comprendrez que KOMA-script est un excellent choix pour des documents européens (il fut créé au départ pour des documents de langue allemande, mais il fut rapidement adapté à différentes pratiques d’écriture, dont le Français).

Pour résumer très simplement :

  • si vous écrivez une lettre, renseignez dans Zettlr le chemin vers le modèle dans les préférences d’export PDF,
  • si vous écrivez un article ou un rapport, renseignez dans Zettlr le chemin vers le modèle dans les préférences d’export PDF et notez que le modèle utilise les styles CSL pour la bibliographie (pas de biblatex ou de natbib, donc),
  • si vous ne voulez pas utiliser Zettlr, et uniquement pandoc, je vous ai indiqué dans le README les lignes de commande à utiliser (ce sont celles qu’utilise Zettlr, en fait).

Vous trouverez l’ensemble sur ce dépôt GIT.


Publié le 06.03.2021 à 01:00

Parcours VTT. Grendelbruch-Hohwald

Voilà très longtemps que je n’avais pas proposé sur ce blog un bon vieux parcours VTT. Celui-ci a un objectif particulier : après quelques sorties de remise en jambes après l’hiver, un parcours long de dénivelé moyen permet de travailler foncièrement l’endurance. Le parcours ne présente aucune difficulté particulière du point de vue de la technique de pilotage. Quelques singles viendront briser la monotonie et il n’y a que deux passages où le portage du vélo sur 10 mètres sera nécessaire (outre les éventuelles grumes, mais de cela nous sommes habitués).

Caractéristiques du parcours

  • 50 kilomètres
  • 980 à 1000 mètres de dénivelé positif.

Regardez le tracé de près avant de partir pour ne pas être surpris : certaines directions peuvent prêter à confusion et tous les chemins empruntés ne sont pas balisés par le Club Vosgien.

Descriptif

Au départ de Grendelbruch (parking de l’église) nous démarrons (déjà) à 530 m d’altitude. En guise d’échauffement, un peu de bitume pour monter en direction de la Nécropole puis le col du Bruchberg. Là je préconise encore un peu de bitume (si vous prenez les rectangles jaunes dans l’enclos à vaches, à moins d’être en plein été et au sec, vous allez galérer entres les bouses et la boue, dès le début du parcours…). Nous enchaînons la montée sur le Shelmeck puis tour du Hohbuhl jusqu’au col de Birleylaeger.

Nous rejoignons le col de Franzluhr pour prendre les croix bleues jusque la Rothlach (953 m), sans se poser de question. Chemin large (sauf une petite variante à ne pas louper en single, regardez la trace de près). Une fois à la Rothlach, nous prenons la route forestière (GR 531), puis bifurcation sur la Vieille Métairie. On enchaîne alors la montée vers le Champ du Feu (1098 m).

Nous changeons alors de versant en passant par le Col de la Charbonnière afin de rejoindre (croix jaunes puis cercles rouges puis de nouveau croix jaunes) le Col du Kreuzweg (sur le chemin, joli point de vue sur Breitenbach). Puis poursuite des croix jaunes pour monter sur la Grande Bellevue. Là, une pause en profitant de la vue et du soleil s’il y en a !

Il est temps alors de commencer à descendre vers le Hohwald par un sympatique sentier (variante GR balisage rouge et blanc, ou ronds jaunes). Une fois au Hohwald, on commence la montée vers Welschbruch via le GR 5, et enchaînement (croix jaunes) sur la montée vers la Rothlach (sentier).

Il est temps d’amorcer le chemin de retour. Pour cela, depuis la Rothlach, on emprunte un chemin forestier pour rejoindre le GR 5, et après un passage amusant on rejoint le Champ du Messin. Encore un sentier de descente vers le Col de Franzluhr. On reprend en sens inverse le chemin vers le col de Birleylaeger. Bifurcation sur le Hohbuhl puis grande descente du Shelmeck. On termine alors par le tour du Bruchberg (attention, une partie du chemin non balisé en single) et retour vers le centre de Grendelbruch.

Avis

Comme on peut le constater, mis à part quelques singles amusants le parcours s’apparente à une promenade plutôt longue avec un faible dénivelé (compte-tenu de la longueur). Tout se joue sur l’endurance et la possibilité, surtout dans la seconde partie du parcours, de pousser un peu la machine pour rentrer plus vite.

Pour affronter les deux montées finales vers Welschbruch et la Rothlach, aussi amusantes qu’elles soient sur des singles (qu’habituellement on descend, n’est-ce pas ?), vous devrez vous obliger à bien doser votre effort dans la première partie. Il faut garder du coffre pour réaliser presque autant de dénivelé que la premmière partie en deux fois moins de longueur de parcours.

Une variante si vous êtes en mal de descente rapide (je ne parle pas de DH, hein?), consiste à couper directement du Champ du feu (GR 5 via la cascade) ou de la vieille Métairie (triangles rouges) vers le Hohwald. Ces sentiers sont connus et forts sympathiques à descendre, en revanche on ampute très largement ce parcours.

Bonne rando !

P.S.: pour récupérer les données du parcours, dans la carte ci-dessous : cliquez sur la petite flèche du menu de gauche, puis sur « exporter et partager la carte ». Puis dans al section « Télécharger les données », sélectionnez le format voulu et téléchargez.

Voir en plein écran


Publié le 09.02.2021 à 01:00

Red Mirror

La Chine a longtemps été considérée comme « l’usine du monde » fabriquant pour l’Occident, grâce à sa main d’oeuvre surexploitée, les biens de consommation puis les objets technologiques conçus dans la Silicon Valley.

Cette période est révolue : en développant massivement recherche, éducation et investissements, la Chine est devenue leader dans le domaine des technologies. Intelligence artificielle, villes intelligentes, paiement via les smartphones, surveillance et reconnaissance faciale sont déjà des réalités de l’autre côté de la Grande muraille numérique.

L’avenir s’écrit dorénavant en Chine. Mais quel avenir ?

Les stratégies géopolitiques de Xi Jinping, l’organisation du contrôle social et l’acceptation confucéenne de la surveillance personnalisée par le plus grand nombre sont le moteur de ce développement à marche forcée. Et ouvre la porte d’un monde qui ressemble déjà à la série dystopique dont s’inspire le titre de cet ouvrage.

Un regard lucide sur la place du numérique dans la Chine d’aujourd’hui, écrit par un journaliste qui y a vécu longtemps et qui continue de suivre les évolutions rapides des industries de pointe. Alors que les équilibres mondiaux changent, le récit de Simone Pieranni donne des clés essentielles pour comprendre la nouvelle situation.


Pieranni, Simone. Red Mirror. L’avenir s’écrit en Chine. CF Editions, 2021.

Lien vers le site de l’éditeur : https://cfeditions.com/red-mirror/



Publié le 01.02.2021 à 01:00

Loi sécurité globale : analyse

La proposition de loi « Sécurité globale » fut déposée en octobre 2020 par deux députés du mouvement La République en Marche, Alice Thourot et Jean-Michel Fauvergue. Elle fut adoptée le 24 novembre 2020 par l’Assemblée Nationale. Le texte tout entier relève d’une volonté d’appliquer une idéologie extrêmiste et sécuritaire, opposée aux libertés comme aux principes fondamentaux de la justice. Cette idéologie conçoit le citoyen comme une menace et redéfini la démocratie dans ce que permet ou ne permet pas le pouvoir de la technopolice. L’un de ses piliers est un marché des technologies et du travail de la surveillance. Ce film de Karine Parrot et Stéphane Elmadjian en propose une analyse critique et pertinente.

Sept juristes décryptent la loi Sécurité Globale

— Synopsis —

Novembre 2020. L’état d’urgence sanitaire est en vigueur. La population française est confinée, nul ne peut sortir de chez soi, sauf dans quelques cas « dérogatoires » et moyennant une attestation. C’est précisément ce moment hors du commun que le gouvernement choisit pour faire adopter – suivant la procédure d’urgence – une loi sur « la sécurité globale » qui vient accroître les dispositifs de contrôle et de surveillance.

Que signifie cette idée de « sécurité globale » et d’où vient-elle ? Quels sont les nouveaux systèmes de surveillance envisagés ? Qu’est-ce que le continuum de sécurité ? Que révèle le processus parlementaire d’adoption de la loi ? Pourquoi la liberté d’opinion est-elle menacée ?

Ce film croise les points de vue de sept universitaires, chercheuses et chercheurs en droit, spécialistes du droit pénal, de politique criminelle, des données personnelles et de l’espace public. Interrogées sur cette proposition de loi « Sécurité globale », ils et elles décryptent les dispositifs techno-policiers prévus par le texte et, au-delà, le projet politique qu’il recèle.


Publié le 10.01.2021 à 01:00

Un ordi par lycéen : la surenchère inutile

Dans un élan qui s’accentue de plus en plus depuis 2010, les Régions de France distribuent en masse des ordinateurs portables à tous les lycéens. « Lycée 4.0 » dans la Région Grand Est, « Lordi en Occitanie », « virage numérique » des lycées en Île de France, etc. Tout cela vient s’ajouter à la longue liste de projets plus ou moins aboutis des instances territoriales qui distribuent tablettes et ordinateurs portables avec une efficacité pédagogique fort discutable. Tout porte à croire que l’enjeu consiste surtout à verser dans la surenchère où la présence d’ordinateurs portables sur les tables reflète une image obsolète de l’école du futur, tout en faisant entrer dans les établissements scolaires certains modèles économiques des technologies numériques.

Il serait facile de rapprocher ces projets d’autres initiatives, plus anciennes, de production d’ordinateurs portables à très bas prix afin de permettre leur distribution dans des pays en développement (par exemple, le projet OLPC). Cependant les ambitions affichées par les Régions sont assez floues quant aux objectifs réellement poursuivis. Souvent employé, l’argument de la réduction de la « fracture numérique » n’est pas le plus évident car il s’agit avant tout d’élire des projets de « lycées connectés » et de faciliter les apprentissages des lycéens là où la plupart disposent déjà d’équipements informatiques. Par exemple, si le projet Lordi en Occitanie consistait en première intention à faciliter l’achat d’un ordinateur portable pour les familles, il s’est transformé en distribution générale pour tous les lycéens de la Région. C’est donc bien une transformation des modalités pratiques des enseignements qui est visée, en faisant de l’ordinateur une recette miracle d’optimisation du rendement scolaire.

Qu’est-ce qui chiffonne ?

On sait depuis longtemps qu’un apprentissage de niveau primaire ou secondaire n’est pas plus efficace avec ou sans ordinateur (ou tablette). Il y a en effet une grande différence entre un apprentissage de l’ordinateur (la programmation et les techniques) ou aux outils de communication numériques, et l’apprentissage avec l’ordinateur, ce qui suppose d’en avoir déjà une grande expertise, ce qui est loin d’être le cas (j’y reviens plus loin).

La politique se résume souvent à bien peu de choses. Ces derniers temps, montrer qu’on s’occupe de la jeunesse revenait essentiellement à distribuer des tablettes et des ordinateurs portables par brouettes : limiter la « fracture numérique », favoriser « l’égalité d’accès au digital », « projet ambitieux » pour « accompagner l’avenir » des jeunes… tout un appareillage lexical fait de périphrases abscondes qu’on qualifiera surtout de condescendantes.

En fait, ce qui est vraiment moisi, dans cette affaire, ce n’est pas le gaspillage d’argent (qui pourrait être bien mieux employé si ce genre de politique était au moins concertée avec les enseignants), non, c’est l’impact environnemental et cognitif de ces opérations. Les prémisses sont d’une part les technologies choisies (du matériel très moyen qui ne tient pas la durée) et d’autre part l’acculturation aux produits Microsoft (qui empêche l’entretien durable des machines en favorisant la passivité face aux logiciels).

Culture du jetable

Concernant les choix technologiques, c’est toujours la même histoire. Les logiques d’appel d’offre obligent les institutions publiques à effectuer des choix toujours très contraints. Et bien souvent dans ces cas là, bien que l’expertise soit menée par des personnes très compétentes, la décision revient à des politiques qui, lorsqu’ils ne sont pas parfaitement embobinés par les lobbies, ne mesurent les conséquences de leurs actions qu’en fonction du degré de satisfaction de leur électorat. Et comme aujourd’hui l’électorat est soit vieux, soit réac., soit facho1, autant dire que le plus important est de prendre une belle photo avec des jeunes en classe, leurs ordinateurs portables ouverts et bien attentifs à ce que dit le prof… (non, pardon : l’élu qui est venu faire une conférence de presse).

En matière de choix, disais-je, les ordinateurs des Régions finiront exactement comme les tablettes des lycées « pionniers » des années 2010 : au fond des tiroirs. Le premier sas vers la poubelle. Car en matière de filière de recyclage pour les matériaux de nos petites merveilles numériques, c’est zéro ou presque rien. Tout au plus quelques associations recyclent des machines pour en équiper les plus pauvres. Elles accompagnent d’ailleurs ces actions avec une vraie formation aux outils numériques, et font preuve de bien plus d’utilité publique que les plans Région dont nous parlons ici. Mais à part ces actions, je me demande encore comment vont terminer les centaines de milliers d’ordinateurs des lycéens dans quatre ou cinq ans.

Sans parler du fait que nous brûlons nos crédits écologiques tout en favorisant des économie minières inégalitaires et des guerres en sur-consommant des dispositifs numériques dans nos pays industrialisés. Quelle est la qualité des appareils fournis par les plans Région ? sont-ils assez évolués pour être plus durables que ce qu’on trouve habituellement dans le commerce bon marché ?

Même pas. Des machines qui atteignent péniblement 4Go de Ram, des matériaux de qualité moyenne, avec des périphériques moyens… Ce n’est pas tellement que les Régions fournissent des machines bas de gamme aux lycéens : elles leur confient des machines qui fonctionnent… mais ne tiendront jamais la distance.

En Région Grand Est à la rentrée 2020, les lycéens en classe de Seconde ont reçu des ordinateurs HP 240 G7, processeur Intel Celeron N4000, 4 Go de Ram, 128 Go SSD. Il faut envisager leur état dans trois ans, à la fin du lycée, par exemple, lorsque les usages deviendront plus sérieux. Sans parler du boîtier en plastique qui montre très vite des signes de faiblesse chez tous les élèves (et pas seulement les moins soigneux). Ajoutons de même que la question ne se pose pas seulement dans le Grand Est : en Île de France, outre les problème de gestion, la qualité des dispositifs n’est clairement pas au rendez-vous (voir cet article du Parisien du 11/01/2021). Hé oui, amis décideurs : si c’est pas cher, parfois c’est qu’il y a un lièvre (dans cette petite vidéo, vous avez au début un petit florilège).

Microsoft obligatoire

Bien sûr ce type de machine a une configuration matérielle largement suffisante pour une distribution GNU/Linux (la vidéo que je mentionne ci-dessus montre comment installer ElementaryOS sur ces ordinateurs). Avec un tel système d’exploitation, on pourrait envisager l’avenir de la machine de manière beaucoup plus sereine (je ne parle pas du boîtier, cela dit). Mais voilà : installer GNU/Linux apporte plus de confort et de fiabilité, mais rien n’est fait pour que les lycéens puissent l’utiliser.

En effet, deux obstacles de taille s’opposent à l’emploi d’un système libre.

Le premier c’est la connexion au Wifi des lycées : aucune autre procédure de connexion ne semble être disponible dans la Région Grand Est, à part sous Windows. J’ignore ce qu’il en est dans les autres Régions. C’est un obstacle tout à fait surmontable, à condition de développer les bons petits scripts qui vont bien et accompagner les lycéens dans l’utilisation de GNU/Linux. Mais cela implique une vraie volonté politique, or cet aspect des choses n’intéresse absolument pas les élus.

Le second obstacle m’a été rappelé récemment par le compte Twitter de la Région Grand Est : les liseuses des manuels numériques ne sont disponibles que sous Microsoft Windows. Correction cependant : ils sont disponibles en ligne avec un navigateur, mais d’une part il faut une connexion internet et d’autre part, pour les manuels dits « interactifs », les fonctionnalités manquent. Impossible de télécharger un manuel (sous format PDF, ou mieux, du HTML ou du Epub, par exemple) et l’utiliser localement sans être dépendant des logiciels des éditeurs (car il y en a plusieurs !).

Résumons donc la position de la Région Grand Est : puisque les éditeurs de manuels ne les rendent disponibles que sous Microsoft Windows (ou Apple), c’est-à-dire à grands renforts de verrous numériques (DRM), il est normal d’obliger les élèves à n’utiliser que Microsoft Windows…

Imaginons un instant la même logique appliquée aux transports : si on se fout de l’impact environnemental de la pollution des véhicules à moteur, étant donné que la plupart des stations services distribuent de l’essence, il est inutile de chercher à promouvoir des énergies alternatives.

C’est sans compter les initiatives d’éditions de manuels libres et de grande qualité telle Sesamath où le fait que, au contraire, certains éditeurs de manuels fournissent bel et bien des manuels sans pour autant obliger l’utilisation de tel ou tel système d’exploitation. Ou même la possibilité, éventuellement, de travailler en coordination avec l’Éducation Nationale pour demander aux éditeurs de créer des versions de manuels compatibles, par exemple en s’appuyant sur des appels d’offres correctement formulés. Mais non. En fait, puisque la Région n’a aucune compétence en éducation, comment imaginer qu’il y ai une quelconque coordination des efforts ? Peut-être que les Régions auraient ainsi appris que des ordinateurs en classe sont parfaitement inutiles…

OK. Mais le problème est bien plus large. C’est dès la mise en service de l’ordi que les élèves se trouvent bombardés de pop-up les invitant à installer MSOffice 365 et à ouvrir un compte Microsoft OneDrive. Tout cela bien encouragé par la Région qui explique benoîtement comment faire pour valider sa version de Microsoft Office (alors que LibreOffice est déjà installé). En plus, la version est valable sur plusieurs machines dont 5 ordinateurs (donc les lycéens détiendraient en majorité déjà des ordinateurs ?). Ben oui, si c’est gratuit…

Et c’est là qu’on peut parler d’une acculturation de masse. « Acculturation » est un terme qui relève de la sociologie et de l’ethnologie. Cela signifie dans une certaine mesure l’abandon de certains pans culturels au profit d’autres, ou de la création d’autres éléments culturels, par la fréquentation d’une autre culture. C’est ce qui se passe : alors qu’un outil informatique devrait toujours laisser le choix à l’utilisateur de ses formats et de son utilisation, l’adoption de normes « Microsoftiennes » devient obligatoire. On organise ainsi à l’adhésion forcée à ce monde où l’on parle de « Pohouèrepointe » et de « documents ouhorde ». On passera sur les recommandations du Référentiel Général d’Interopérabiltié du gouvernement Français qui recommande les formats ouverts ou bien (au hasard) la Déclaration des gouvernements européens à Talinn2 et une foule d’autres directives plaidant très officiellement pour l’utilisation des formats ouverts et des logiciels libres.

Et en ces temps de confinement à cause de la COVID, la posture s’est trouvée d’autant plus auto-justifiée. Preuve, s’il en était besoin, que chaque élève devait bien satisfaire aux exigences des enseignements à distance avec les ordinateurs qui leurs sont confiés. C’est justement ce qui rend la critique difficile, l’ordinateur faisant office de vecteur d’égalité des élèves devant les contraintes numériques. En revanche, l’argument peut se retourner aisément : n’importe quel enseignant honnête pourra témoigner de l’extrême difficulté à enseigner à distance, de l’inadaptation pédagogique de la visio-conférence, de l’intensification des inégalités des conditions sociales et d’accès aux connaissances. L’ordinateur inutile en classe est aussi un vecteur d’inégalité devant les apprentissages là où il est censé être une solution d’accès égalitaire à la technologie. En d’autres termes, focaliser sur les solutions technologiques au détriment des vrais problèmes, cela s’appelle du solutionnisme et les Régions s’y baignent avec délectation.

Des projets contre-productifs

Les plans Régionaux de distribution d’ordinateurs aux lycéens sont des instruments de communication politique qui effacent sciemment de l’équation les aspects sociaux et cognitifs de la vie des lycéens. Ils éludent l’expertise des enseignants et imposent des usages (les manuels numériques et les conditions d’exploitation des éditeurs). Ils imposent l’obligation de gérer le rapport de l’élève à l’ordinateur, c’est-à-dire un second média dans la classe, le premier étant l’enseignant lui-même et ses propres outils que sont le manuel, le tableau, les photocopies, le video-projecteur.

Partout l’ordinateur donne à voir un surplus d’information qui a tendance à brouiller le message dans la relation maître-élève. C’est pourquoi les syndicats d’enseignants trouvent évidemment beaucoup à redire face à ces plans numériques. Mais quels que soient les arguments, les Régions auront beau insister sur le fait que l’ordinateur est un bon outil pour le lycéen, les études menées dans ce domaine montrent surtout que les résultats escomptés sont loin d’être au rendez-vous. Si l’ordinateur (+ Internet) à la maison ou au CDI est évidemment un accès supplémentaire éventuellement profitable à l’acquisition d’informations (et pas forcément de connaissances), l’ordinateur en classe est parfaitement contre productif. Adieu la belle image des salles de classe Microsoft, vitrines alléchantes du solutionnisme ambiant (et coûteux) :

  • l’utilisation d’un ordinateur portable pour prendre des notes en cours entraîne un déficit de traitement de l’information et devient préjudiciable à l’apprentissage (voir cette étude),
  • l’usage d’Internet en classe avec des ordinateurs portables (y compris pour effectuer des recherches censées être encadrées par l’enseignant) détourne l’attention et provoque une baisse de performance (voir cette étude),
  • le comportement multitâche lié à l’usage de l’ordinateur en cours entraîne une baisse de la productivité (voir cette étude),
  • les élèves les moins bons pâtissent en premier lieu des difficultés de concentration causées par l’usage de l’ordinateur en classe (voir cette étude),
  • les élèves mutlitâches (avec ordis) ont non seulement des résultats moins bons, mais gênent aussi ceux qui n’ont pas d’ordi (voir cette étude),
  • même dans les écoles militaires on voit apparaître la baisse de rendement pour les élèves qui utilisent des ordinateurs ou des tablettes en classe (voir cette étude).

La liste de références académiques ci-dessus est le résultat d’une demi-heure de recherches rapides sur Internet. Un temps qui aurait pu être mis à profit avant de lancer concrètement les institutions dans la distribution à grands renforts de communication. Ces études me semblent assez alarmistes pour interroger sérieusement le slogan de la Région Grand Est (« Lycée 4.0 : de nouveaux outils pour apprendre »).

Bien sûr beaucoup d’autres études vantent depuis longtemps l’usage des TIC dans l’éducation, mais une première analyse me porte à juger que les avantages ainsi mis en avant se situent surtout dans l’acquisition de compétences liées au numérique et non pas dans l’apport réel de l’ordinateur « en classe », c’est-à-dire comme un outil censé améliorer la productivité et le rendement des élèves. Nuance. Le raccourci est bien trop dangereux entre d’une part l’idée que les TIC doivent être utilisées dans le primaire et le secondaire parce que nous vivons dans une société de la communication numérique, et d’autre part l’idée que l’ordinateur est par conséquent l’outil idéal pour acquérir et maîtriser des connaissances.

Ce raccourci, c’est la porte ouverte aux injonctions malheureuses envers les plus jeunes dans notre société. Un jeune serait-il forcément plus enclin à apprendre avec un ordinateur qu’avec un papier et un crayon ? Est-ce qu’un manuel scolaire sera meilleur qu’un autre parce qu’il possède une version numérique et interactive ? est-ce que les représentations, les intentions, les analyses des plus jeunes doivent nécessairement passer par un ordinateur pour être plus pertinentes ?

L’injonction faite aux élèves

Il y a des livres qu’on devrait tous lire et à commencer par les politiques qui se mêlent d’éducation. Le livre d’Anne Cordier, intitulé Grandir Connectés chez C&F Éditions (par ici), fait partie de ce genre de livres.

Dans le processus de recherche d’information, Anne cordier nous invite à moult précautions lorsqu’on évalue les pratiques informationnelles des « jeunes ». D’abord en distinguant la maîtrise experte de l’outil de la simple familiarité à l’outil, et ensuite en remettant en cause le cadre de l’évaluation qui trop souvent tend à évaluer la capacité cognitive (le jeune est forcément toujours un novice par rapport à l’adulte) et non les riches stratégies d’apprentissage, aussi différentes que la jeunesse est multiple et non uniforme, au moins sociologiquement. Si bien que les pratiques informationnelles des jeunes et des adultes ne sont pas si différentes dans leurs approches, loin de la pseudo distinction entre le monde adulte et celui des digital natives dont on a forgé la représentation pour en faire des cibles marchandes tout en renvoyant les adultes à leurs propres difficultés. Une doxa largement intégrée chez les adultes comme chez les plus jeunes.

Car voilà, ce qui pèse c’est l’injonction. Cette norme à laquelle on invite les plus jeunes à se conformer dès les premiers apprentissages : savoir se servir d’Internet, savoir envoyer un courriel, savoir se « servir » d’un ordinateur. L’appétence supposée des enfants envers l’ordinateur les confronte à une norme de laquelle il leur est impossible de se départir : l’appétence équivaudrait à l’expertise. Et les adultes y calent leurs propres incompétences parce qu’ils n’en n’auraient, eux, aucune appétence ou très faible.

Qu’est-ce que cela signifie ? tout simplement que les adultes qui n’ont qu’une expertise faible de l’ordinateur et plus généralement des infrastructures numériques et des outils de communication, supposent qu’il suffit à un enfant de fréquenter un ordinateur pour en acquérir l’expertise. Dès lors il n’y aurait plus de problème pour que l’ordinateur devienne un outil permettant, voire optimisant, l’acquisition de connaissance à l’école ou au lycée.

Hélas, ce n’est ni une condition nécessaire ni une condition suffisante. Il suffit par exemple d’interroger les associations d’éducation populaire qui, tous les jours ont affaire à des jeunes (et des moins jeunes) et voient à quel point malgré la présence d’un téléphone portable dernier cri dans la poche ou d’un ordinateur très cher dans la chambre, une multitude est complètement dépassée par le numérique. Pour beaucoup, Internet n’est constitué que d’une série d’applicatifs permettant d’utiliser les services des GAFAM. Quant à une adresse courriel, on a perdu le mot de passe, on ne s’en sert pas. On ignore même avoir un compte Google alors qu’on a un smartphone Android.

L’injonction faite à ces jeunes est d’autant plus cruelle qu’elle nie complètement leur rapport au numérique et leur renvoie en pleine face la responsabilité de leur inadaptation aux apprentissages. C’est exactement la même chose pour les plus vieux qui ont un rapport d’autant plus distant aux services publics que ces derniers estiment suffisant de les renvoyer sur un site internet pour effectuer toutes les démarches nécessaires à la vie publique. Si « tout le monde a Internet » alors tout le monde sait s’en servir. Rien n’est plus faux. On pourra aussi lire à ce sujet l’excellent ouvrage de Dominique Pasquier, L’internet des familles modestes (par ici) et constater qu’on n’y parle pas seulement des plus modestes…


Illustration : « L’avènement de l’école informatisée », par Shigeru Komatsuzaki, parue dans Shōnen Sunday, 1969 (archive).



  1. La caricature est rude, mais qui osera me dire qu’elle ne reflète pas la sociologie du vote en ce moment ? ↩︎

  2. Déclaration de Talinn, 06/10/2017, extrait : «[Les États membres invitent] la Commission à envisager un renforcement des exigences relatives à l’utilisation de normes et de solutions à code source ouvert lorsque la (re)construction de systèmes et de solutions TIC est effectuée avec un financement de l’UE, notamment par une politique appropriée de licences ouvertes–d’ici à 2020.» Pour information, le projet de Lycée 4.0 de la Région Grand Est s’est trouvé co-financé par le FEDER. C’est sans doute pour cette raison qu’on trouve LibreOffice installé sur les machines. Ce qui s’apprente à du Libre-whashing si, dans le même mouvement, tout est fait pour inviter les utilisateur à utiliser des logiciels de la suite MSOffice. ↩︎


Publié le 21.10.2020 à 02:00

Déterminisme et choix technologiques

(Préambule) Cette tentative de synthèse est avant tout un document martyr. J’essaie de saisir les discours empreints de déterminisme technologique au long de la révolution informatique. Ces discours valident un certain ordre économique et envisagent la production et l’innovation comme des conditions qui s’imposent à la société. Les dispositifs technologiques sont-ils uniquement des dispositifs de pouvoir ? impliquent-ils des représentations différentes du rapport entre technique et société ? Un peu des deux sans doute. Avant d’employer ce mot de dispositif et de nous en référer à Michel Foucault ou autres penseurs postmodernes, j’essaye de tracer chronologiquement la synergie entre l’émergence de l’informatique dans la société et les discours qui l’accompagnent. Il n’y a donc pas vraiment de thèse dans cet article et certaines affirmations pourront même paraître contradictoires. Je pense en revanche exposer quelques points de repères importants qui pourront faire l’objet ultérieurement d’études plus poussées, en particulier sur le rôle des principes du pair à pair, celui du logiciel libre et sur l’avenir d’Internet en tant que dispositif socio-technique. Il me semblait cependant important de dérouler l’histoire tout autant que l’historiographie de manière à contextualiser ces discours et tâcher d’en tirer enseignement à chaque étape.

P.S. : à plusieurs reprises je copie-colle quelques paragraphes de mon ouvrage publié en mars 2020. Cette redondance est voulue : tâcher d’aller plus loin.

P.S. (bis) : (màj 22/10/2020 : coquilles corrigées par Goofy !)


Téléchargez la version PDF de l’article ici


Table des matières

Introduction

Nous avons une tendance à nommer les sociétés et les âges en fonction des artefacts. De l’âge du fer à la société numérique d’aujourd’hui, qu’il s’agisse de l’outil, ou du rattachement des usages à un dispositif technique, tantôt sacré, tantôt profane, nous devons toujours lutter contre le déterminisme technologique qui restreint le degré de complexité nécessaire pour appréhender la société, son rapport à l’espace et au temps. Cette simplification n’en est pas vraiment une. En effet, prétendre que la technologie est un paramètre indépendant qui conditionne le développement humain ou social, suppose de savoir ce qui exactement dans l’ensemble des dispositifs techniques présents joue un rôle significatif. Ce choix doit être éclairé, débattu jusqu’à parfois identifier des « technologies clé » ou des combinaisons de technologies dont les effets rétroactifs conditionnent les choix économiques en termes d’innovation, de compétitivité, de profit et, au niveau macro-économique, la géostratégie.

Forme pervertie du déterminisme technologique, le solutionnisme (Morozov 2014) et les idéologies de dérégulation libertarianistes (Husson 2018) partent de ce principe qu’appréhender tout problème par algorithme et ingénierie permet de proposer des solutions techniques efficientes, indépendamment des conditions et des paramètres du problème et des finalités poursuivies. Si vous êtes fatigué-e d’une journée de travail au point de vous endormir au volant sur le chemin du retour, vous pouvez toujours utiliser des lunettes bourrées de capteurs qui vous permettront de faire sonner une alarme si vous vous endormez au volant… mais vous ne réglerez pas le problème qui consiste à se demander pourquoi votre travail est à ce point harassant.

Depuis la sortie de K. Marx (Marx 1896, chap. 2) sur le moulin à bras et le moulin à vapeur1, nombre de chercheurs ont travaillé sur le rapport déterminant ou non de la technologie sur la société ou, de manière plus restrictive, la politique, la culture ou l’économie. Dans la seconde moitié du XXe siècle, le débat fut largement occupé par les historiens tels Robert L. Heilbroner, partisan d’un déterminisme doux, tandis que les philosophes tels Martin Heidegger ou Jacques Ellul, proposaient une lecture ontologique ou matérialiste qui les fit à tort assimiler à des technophobes là où ils ne faisaient que réclamer une critique radicale de la technique. Enfin vinrent les études sociales sur les sciences et les techniques (STS) qui montrèrent que les techniques ne naissent pas de processus autonomes mais sont les fruits d’interactions sociales (Vinck 2012), même si la version radicale de certains implique que tout serait le résultat de processus sociaux, tandis que pour d’autres le réflexe déterministe reste toujours très présent (Wyatt 2008).

Avant d’être un biais conceptuel pour l’historien, le déterminisme technologique est d’abord un discours sur la technologie. Il projette des représentations qui impliquent que la société doit évoluer et faire ses choix en fonction d’un contexte technologique (l’innovation et la compétitivité économique en dépendent) tout en démontrant par la même occasion que dans la mesure où le développement technologique est sans cesse changeant, il projette la société dans l’incertitude. On ne compte plus les discours politiques contradictoires à ce propos.

Les mouvements ouvriers ont pu chercher à éviter ces paradoxes en proposant le troisième terme qu’est le capitalisme pour articuler les rapports entre société et techniques. Ainsi, de la révolution industrielle, on peut tenir le fordisme comme la forme la plus élaborée de l’équilibre entre production et consommation. Cela eut un coût, très vite identifié par Antonio Gramsci : il ne s’agissait pas seulement d’une nouvelle organisation du travail, mais une soumission au machinisme, ce qui fini par conditionner une représentation de la société où le capitalisme « annexe » la technique en y soumettant le travailleur et par extension, la société. Ce sont aussi les mots de Raniero Panzieri, l’un des fondateurs le l’ouvriérisme italien (opéraïsme) des années 1960 : le capitalisme détermine le développement technologique et pour cela il lui faut un discours qui doit montrer que c’est à la société de s’adapter au changement technologique et donc d’accepter la soumission ouvrière à la machine – là où la manufacture morcelait le travail encore artisanal, l’usine et ses machines systématisent l’exploitation de l’ouvrier et le prive du sens de son travail (Panzieri 1968, 105).

La critique marxiste fut néanmoins largement minorée après les années 1960 au profit d’une mise en accusation de la « technoscience » d’être le nouvel épouvantail du totalitarisme. Cependant, il faut regarder de près les multiples variations de discours au sujet des « nouvelles technologies » dont les ordinateurs et les infrastructures numériques représentaient l’essentiel sur lequel allaient définitivement s’appuyer les sciences comme l’industrie et les services. On voit alors comment se déploie une acculturation commune à l’informatique simultanément à une popularisation d’un déterminisme technologique qui déjà correspond à une certaine tradition de la critique – disons – non-marxiste.

Pour caricaturer, une version extrême de ce déterminisme pourrait aujourd’hui figurer dans le discours du Président de la République Française Emmanuel Macron le 14 septembre 2020 au sujet des nouveaux standards de téléphonie mobile. « Le tournant de la 5G », dit-il, « est le tournant de l’innovation. J’entends beaucoup de voix qui s’élèvent pour nous expliquer qu’il faudrait relever la complexité des problèmes contemporains en revenant à la lampe à huile : je ne crois pas au modèle Amish (…) ». Nous pouvons nous interroger sur le fait qu’un discours politique en 2020 puisse ainsi opposer la présence d’une technologie à un faux dilemme. Car c’est lorsque nous avons toutes les peines du monde à penser la société et la technique comme un tout interagissant que nous réduisons le problème à un choix entre (techno)phobie et adhésion. La technique s’impose d’elle-même à la société, la société doit s’y adapter… Il y eut des échappées à ce choix durant la « révolution informatique » : les espoirs du progrès social, les mythes qui idéalisaient les innovateurs de l’informatique, le partage communautaire des usages, les combats pour la vie privée (contre les bases de données)… Échappèrent-ils pour autant aux faux-dilemmes ?

Dans cet article, ce sont ces contradictions qui nous intéresseront à travers une lecture de la Révolution Informatique à partir des années 1960. Nous la nommerons aussi « informatisation de la société ». Nous préférons ce terme d’informatisation parce qu’il contient l’idée qu’un processus est à l’œuvre qui ne concerne pas seulement les choix sociaux mais aussi les effets persuasifs des discours sur les artefacts concernés : les ordinateurs, les programmes, les réseaux et leurs infrastructures, les acteurs humains de l’informatisation, leurs rôles et leurs représentations du processus. Nous maintenons, pour commencer, que l’adhésion du public à une conception déterministe de la technologie est cruciale dans ce qu’on peut appeler un processus historique d’assimilation, c’est-à-dire, d’une part une diffusion des discours qui assimilent progrès informatique et progrès social, et d’autre part une acculturation auprès des groupes professionnels, ingénieurs, parties prenante de l’économie numérique naissante. Cependant, des promesses d’un avenir économique radieux au mythe de l’ingénieur ermite qui développe un artefact « révolutionnaire » dans son garage, en passant par le partage de pratiques : de quel déterminisme est-il question ?

Nous pouvons opposer deux logiques. L’une « extérieure » qui consiste à interpréter de manière déterministe ou non le changement technologique, apanage des chercheurs, philosophes, historiens et sociologues. L’autre, « intérieure », plus ou moins influencée par la première, mais qui développe consciemment ou non un déterminisme discursif qui modèle l’adhésion à une culture de l’artefact, ici une culture informatique, et plus généralement l’adhésion à un modèle économique qui serait imposé par une technologie autonome. Typiquement, ramené à des considérations très contemporaines : avons-nous réellement le choix de nous soumettre ou non au capitalisme de surveillance, fruit de la combinaison entre technologies dominantes et soumission des individus à l’ordre social imposé par ces technologies et leur modèle économique fait de monopoles et d’impérialisme (Masutti 2020). Il est alors important de voir jusqu’à quel point ce discours déterministe est intégré, s’il y a des points de rupture et de résistance et comment ils se manifestent.

L’objectif de cet article est de déployer une lecture générale de la révolution informatique tout en prenant la mesure du discours déterministe qui traverse au quotidien ce processus historique d’informatisation de la société depuis les années 1960 jusqu’à nos jours. Nous emploierons pour cela plusieurs « manières de voir » les techniques (et nous pourrons aussi bien employer le mot « technologies » pour désigner les computer technologies), c’est-à-dire que nous analyserons dans leur contexte les discours qui les encadrent, promoteurs ou détracteurs, ainsi que les critiques philosophiques ou historiques, de manière à en comprendre les variations au fil du temps et comment, in fine, des choix sociaux ont fini par s’imposer, tels le logiciel libre, en créant des zones de résistance.

Que faire avec les ordinateurs ?

Réussir dans les affaires

Si l’histoire de l’informatique traite en premier lieu des « gros ordinateurs » ou mainframe, c’est parce que, au cours des deux décennies des années 1950 et 1960, ils furent porteurs des innovations les plus décisives et qui dessinent encore aujourd’hui notre monde numérique : les matériaux et l’architecture des machines, les systèmes d’exploitation, les réseaux et leurs infrastructures, la programmation et les bases de données. En même temps que ces innovations voyaient le jour, l’industrialisation des ordinateurs répondait à la demande croissante des entreprises.

D’où provenait cette demande ? L’Association internationale pour l’étude de l’économie de l’assurance (autrement connue sous le nom Association de Genève) consacra en 1976, première année de publication de sa collection phare The Geneva Papers on Risk and Insurance, un volume entier produisant une prospective des pertes économiques en Europe liées à l’utilisation de l’informatique à l’horizon 1988. Sur la base de l’expérience des vingt années précédentes, elle montrait que la confiance en l’informatique par les décideurs et chefs d’entreprise n’était pas communément partagée. Un élément décisif qui a permis de lancer concrètement l’industrie informatique dans la fabrication de masse de séries complètes d’ordinateurs, fut le passage des machines mainframe aux mini-ordinateurs, c’est-à-dire des ordinateurs plus petits, fournis avec une gamme d’applicatifs selon les secteurs d’activité des entreprises et des langages de programmation faciles à l’usage. C’est l’effort marketing d’entreprises comme IBM qui changea complètement la représentation des ordinateurs chez les cadres et chefs d’entreprises.

Auparavant, l’ordinateur représentait la puissance de calcul et l’aide à la décision. C’était ainsi qu’il était vanté dans les films publicitaires de la Rand pour la gamme Univac. Les domaines les plus réputés devoir se servir de telles machines étaient les universités, les banques, les assurances, ou l’aéronautique. Mais comment le chef d’une petite entreprise pouvait-il être convaincu par l’investissement dans une telle machine ? Il fallait réinventer l’utilité de l’ordinateur et c’est tout l’enjeu de la production de ce secteur dans les années 1960 (Ceruzzi 1998, 110). Les efforts en marketing furent largement accrus pour passer un message essentiel : l’ordinateur ne devait plus traiter l’information existante parallèlement à la production, mais produire l’information, être le pilier du système d’information et, en tant que « système expert », aider à prendre les bonnes décisions. Mieux encore, l’ordinateur pouvait prédire l’avenir : savoir déterminer à l’avance les chances de succès d’un nouveau produit en analysant le marché et l’environnement. C’est tout l’objet des projets de traitements de données quantitatives et qualitative dont le projet DEMON (Decision Mapping via Optimum Go-No Networks), débuté en 1967, fut longtemps l’illustration dans le domaine de l’informatique appliqué au marketing (Charnes et al. 1968a ; Charnes et al. 1968b).

Après deux décennies de tâtonnements, de bricolages savants et de recherche, l’ordinateur des années 1960 était passé du rang de produit d’ingénierie complexe à celui d’instrument de réussite entrepreneuriale. Cela n’allait pas sans les nombreuses inventions dans le domaine des périphériques et des applicatifs, mais la dynamique des ventes d’ordinateurs, la transformation des fabricants en multinationales et le marché concurrentiel mondial de l’informatique n’auraient jamais pu voir le jour sans qu’un discours convainquant ne puisse être véhiculé. Ce n’était pas celui de la persuasion d’un produit performant de qualité, et il était loin d’être technique (car il ne s’adressait pas aux techniciens). L’ordinateur était fait pour l’homme d’affaires. Ainsi que le vantait la publicité pour l’IBM System/3 :

Toutes les activités économiques ont une chose en commun : l’information. […] et si au lieu de travailler avec ces informations, vous pouviez travailler pour elles ? […] Voici System/3. L’ordinateur pour l’homme d’affaires qui n’avait jamais pensé qu’il pouvait s’en payer un.

Organiser la paix sociale

Aborder les aspects techniques la réorganisation informatique d’une entreprise était un sujet qui ne pouvait pas passer inaperçu. La même publicité pour System/3 précisait :

Un langage de programmation est aussi disponible, basé sur les besoins courants des entreprises. Il est simple à apprendre et à utiliser pour vos employés…

La formation des employés était un aspect incontournable de l’investissement informatique d’une entreprise. Plus précisément, face aux promesses de rentabilité, d’optimisation des processus de production et de vente, le travail des bases de données ne pouvait pas s’improviser. Les ordinateurs de nouvelle génération ne se réduisaient pas à la retranscription et au stockage de listes et de procédures pour les automatiser. Si l’ordinateur était un instrument de réussite sociale des décideurs, la formation des employés devait être l’objet d’un discours plus général sur l’avancement de la société toute entière.

Les langages informatiques de haut niveau tels FORTRAN, LISP, COBOL, ALGOL sortirent au début des années 1960 du cercle fermé des experts universitaires et industriels pour intégrer peu à peu des procédures d’automation dans les entreprises. Pour cela il fallait former de futurs salariés au travail algorithmique de la donnée, tout en abaissant le niveau de qualification global comparé aux savoirs universitaires ou d’ingénierie que nécessitait la maîtrise des ordinateurs mainframe. Dès 1965, c’est l’une des raisons qui poussèrent IBM à produire des systèmes comme l’IBM 360. Outre ses équipements qui intéressaient les secteurs de la recherche et de la haute ingénierie, la série d’IBM permettait d’initier de nouvelles pratiques, comme la possibilité de passer d’un ordinateur à l’autre avec les mêmes programmes, voire les mêmes systèmes d’exploitation, ou d’augmenter la vitesse d’exécution des programmes (grâce aux techniques de microprogrammation). L’avantage consistait aussi en l’utilisation plus harmonisée des langages de programmation réduisant ainsi les coûts de formation tout en optimisant la rentabilité de l’investissement que représentait l’achat de ces machines.

Aux États-Unis, la complexification des systèmes d’information des organisations et l’apparition des grands pôles industriels destinés à l’innovation électronique, poussèrent la population des plus diplômés à se spécialiser dans des secteurs très compétitifs. Les universités ne produisaient qu’un nombre limité de ces ingénieurs et scientifiques, le plus souvent issus d’établissements prestigieux et d’une classe sociale élevée. La communauté des ingénieurs informaticiens su faire face à ce qui fut appelé en 1968 la « crise des programmeurs » et qui en réalité avait commencé bien avant. Chaque entreprise disposant d’un ordinateur devait développer ses propres logiciels, ce qui à chaque fois augmentait la masse salariale de programmeurs qui développaient souvent des programmes similaires. C’est ainsi que le besoin s’est fait sentir de rationaliser et standardiser les programmes dans un secteur économique nouveau. La création formelle de l’IEEE Computer Society en 1971 validait ce qui déjà était une évidence : s’il fallait une industrie du logiciel, les ingénieurs devaient se regrouper pour s’entendre sur les standards et appuyer cette industrie naissante.

Pourtant, ce n’est pas pour combler un manque de main d’œuvre qu’apparurent les centres de formation (souvent pour adultes) destinés à l’apprentissage des langages de haut niveau et plus généralement pour occuper des postes informatiques de premier niveau. Dans la veine des mouvements pour les droits civils et pour faire face à des risques d’émeutes dans certains quartiers de centres urbains, les États et les municipalités construisirent des programmes de formations destinés de préférence aux populations afro- et latino- américaines (Abbate 2018). Le discours tenu était empreint d’une croyance dans le pouvoir des technologies à provoquer le changement social : s’adapter à l’informatique et apprendre les langages informatiques était une voie vers l’émancipation, la paix sociale et la démocratie. De fait, la réorganisation des entreprises autour de l’informatique créait de nouvelles hiérarchies entre cols blancs et manipulateurs, au fur et à mesure que les tâches s’automatisaient et que le travail des scientifiques-ingénieurs devait se spécialiser toujours plus au risque de se diluer dans la masse d’exécutants sur machines.

Pourtant, si l’apprentissage des langages informatiques pouvait donner du travail, il n’exonérait ni de la soumission hiérarchique à l’ordre blanc en col blanc, ni des inégalités salariales et sociales (Nelsen 2016). Si nous pouvons considérer l’histoire de l’industrie informatique selon les cycles d’innovations technologiques et envisager leur impact sur la société par le prisme de l’informatisation de la société, une lecture tout aussi pertinente peut nous amener à nous interroger la manière dont la société s’est imprégnée des discours qui accompagnèrent le marché de l’informatique. Plus ce dernier s’étendait, plus le discours devait avoir une ambition universelle et inclusive, indépendamment de la réalité sociale.

Promouvoir l’accomplissement individuel

En 1977, lorsque le premier ordinateur personnel de la gamme Apple II sorti sur le marché, l’annonce2 parue dans la presse spécialisée en micro informatique précisait, outre les fonctionnalités déjà intégrées et prêtes à l’usage : « Mais le plus grand avantage – indépendamment de la façon dont vous utilisez Apple II – est que vous et votre famille vous familiarisez davantage avec l’ordinateur lui-même ».

Aussi bien pour son concepteur Steve Wozniak que pour Steve Jobs, Apple II est le premier micro-ordinateur destiné à un usage individuel et dont le pari réussi fut d’être produit à grande échelle (et pas sous la forme d’un kit électronique réservé aux spécialistes). Utilisé le plus souvent par la catégorie des cadres d’entreprises, au moins pour les premières années de sa présence sur le marché, les principaux atouts résidaient dans la gamme logicielle fournie (en particulier le tableur VisiCalc, sorti en 1979), le stockage et archivage sur cassette, et les jeux vidéos. Malgré l’apparition des gammes concurrentes, comme celles de Commodore, et jusqu’à la vente des Apple Macintoch, Apple II resta longtemps le modèle de référence de l’ordinateur personnel, entré dans les foyers comme le véhicule d’une acculturation à l’informatique domestique.

Censé propulser les familles dans un mouvement général d’encapacitation économique et sociale, l’ordinateur personnel entrait en rupture avec la représentation courante d’une informatique à la fois puissante et encombrante, réservée à l’entreprise. Dans un monde où l’informatisation des secteurs tertiaires (banques et assurances) et industriels créait de grands bouleversements dans l’organisation du travail, l’informatique personnelle se présentait comme une part de « démocratisation » technique dans les foyers alors qu’elle était habituellement vécue dans l’entreprise comme l’application d’une stratégie autoritaire et hiérarchique.

L’historien Clifford Conner rapporte une communication privée avec Frederick Rodney Holt, l’un des piliers du développement d’Apple II, qui affirme (Conner 2011, 458) :

L’Apple II n’était pas une machine à écrire : c’était un instrument permettant de concevoir de beaux algorithmes. Les gens ne l’achetaient pas pour exécuter des programmes. Ils l’achetaient pour réaliser leurs propres logiciels. Avec les machines d’aujourd’hui, et leurs centaines de mégaoctets de code obscur, il n’est plus possible d’apprendre comment marche un ordinateur ni même d’apprendre à écrire du code. Mais en 1976, des gamins de douze, quatorze ans pouvaient réparer une machine qui ne fonctionnait pas.

Ce type de réflexion est très courant. Il s’agit de postuler que la connaissance du code informatique est un moyen d’appropriation de la machine, une forme de lutte contre l’aliénation technologique d’où résulterait un mieux-être social. Tout comme l’apprentissage des langages informatique devait être une opportunité de plein emploi et de paix sociale, suffirait-il, pour briser les chaînes de nos esclavages modernes, d’équiper les individus d’ordinateurs personnels ?

À la fin des années 1970, le mythe de l’ordinateur personnel obéissait au même schéma discursif entretenu durant la décennie précédente (Pfaffenberger 1988). La raison pour laquelle il était, parfois de bonne foi, imaginé comme un vecteur d’égalité sociale, c’est qu’il était le produit d’une éthique commune, celle des hackers de la première heure, opérant dans les universités sur des projets développement scientifiques et industriels, et dont le principal appétit était le partage collectif des savoirs et des techniques en dehors des contraintes hiérarchiques et académiques. Mais il était aussi le produit d’une autre génération de hackers, ceux sortis des institutions au profit de l’aventure entrepreneuriale (Agre 2002) et qui considéraient l’innovation du point de vue libéral voire, plus radicalement, d’un point de vue libertarien (Turner 2012). Si bien que ce discours, adressé en premier lieu à ceux qui avaient les moyens financiers d’acquérir un ordinateur personnel, rencontrait chez les cadres supérieurs des entreprises une approbation générale. En échange du prestige et de la distraction que promettait l’ordinateur personnel à toute la famille, on acceptait de faire pénétrer dans le calme foyer les obligations et les tensions du travail.

Adhésion

Le hacker, ingénieur hétérogène

Quels furent les vecteurs de l’adhésion générale à ces discours en faveur d’une informatique libératrice ? Autant il est toujours possible de centrer historiquement l’artefact « ordinateur » ou « informatique » autour de quelques personnages connus, autant l’adhésion culturelle qu’on pourrait traduire par « consentement au processus d’informatisation », en dépit des controverses (sur l’organisation du travail, par exemple), n’a jamais été traduite sur un mode consensuel et uniforme par un groupe d’acteurs bien identifiés. Au sens de la théorie de l’acteur-réseau (Callon 2006), l’hétérogénéité des acteurs-humains (hackers, décideurs politiques, chefs d’entreprises, communautés d’utilisateurs, etc.) autant que celle des acteurs-objets concernés (infrastructures de réseaux informatiques, machines informatiques, logiciels et langages de programmation, etc.) doivent nous amener à beaucoup d’humilité quant à l’identification des nœuds de traduction et des acteurs médiateurs (Akrich 2006) (objets techniques ou personnes) de l’acculturation informatique.

Lorsque nous parlons d’acteur-réseau, remarquons que l’approche des objets scientifiques et techniques à laquelle nous faisons référence date du début des années 1980, au moment où les dispositifs informatiques (réseaux et machines) devaient être considérés comme des dispositifs inaccomplis (et Internet est encore aujourd’hui un dispositif inachevé, nous y reviendrons) et n’ont fait que très rarement l’objet des études de sociologie des sciences et des techniques. Néanmoins, c’est justement pour cette raison que le concept d’hétérogénéité est si important, car il était pour ainsi dire incarné par les premières communautés d’ingénieurs-scientifiques des premiers âges de l’informatique, tout particulièrement les hackers, non parce qu’ils étaient porteurs d’un discours bien problématisé, mais parce qu’ils diffusaient des pratiques. C’est pour cette raison que les hackers ont été dès le début identifiés comme les principaux vecteurs d’une diffusion culturelle, d’un esprit, de l’informatique dans la société. C’est cette vision qui a fini par s’imposer comme un paradigme dans l’histoire de l’informatisation, avec toutes les valeurs positives qu’il véhiculait, jusqu’à parfois construire des récits, des mythes, dont le rôle consiste à sacraliser le rôle social des entreprises nées de cet esprit informaticien, de Apple à Google et des riches heures de la Silicon Valley.

Pour une approche systématique, nous devons nous limiter volontairement au concept, défini par John Law, d'ingénieur hétérogène (Law 1987), c’est-à-dire un acteur qui ne crée pas simplement des objets techniques, mais qui définit un nouveau cadre du rôle social, des représentations et des valeurs de cette technologie et de ceux qui l’emploient et la diffusent. Il faut cependant comprendre que cette diffusion n’est pas obligatoirement intentionnelle et elle est souvent moins le fait de volontés individuelles que de communautés de praticiens dont les activités et les techniques interagissent et s’enrichissent mutuellement sans cesse, des premiers phraekers aux bidouilleurs de génie piratant les réseaux commutés universitaires. L’apparition des pratiques informatiques en réseau a multiplié la diffusion des pratiques et démontré le potentiel libérateur des usages « contre-culturels » de l’informatique.

Dans un article, Janet Abbate propose dans un plaidoyer pour une étude STS (Science and Technology Studies) de l’histoire d’Internet : « Lorsqu’on observe à la fois les créateurs et les utilisateurs de matériels et de logiciels, on s’aperçoit que l’infrastructure et la culture ont amorcé une fusion » (Abbate 2012, 170). En effet, dans l’histoire de la révolution informatique, cette fusion engage à la fois l’innovation technologique, l’économie de production de ces technologies, et la figure de l’ingénieur hétérogène qui incarne à la fois la culture, l’économie et les pratiques bien qu’il s’auto-définisse comme révolutionnaire ou contre-culturel3. Le hacker est un programmeur dont le génie ne réside pas seulement dans la qualité de son travail mais aussi dans sa manière de traduire un ensemble de valeurs de la sphère informatique à la sphère sociale : le partage de l’information, l’esprit d’innovation (d’amélioration), les libertés d’usages des machines, l’idée qu’un « progrès technique » est aussi un « progrès social » dans la mesure où tout le monde peut y contribuer et en être bénéficiaire. Sa contre-culture ne s’exerce donc pas à l’encontre d’un discours dominant et largement en faveur de l’adoption de l’informatique dans toutes les organisations sociales, mais dans la tension entre l’appropriation de ces valeurs par les institutions et la défense de leur autonomie au niveau des pratiques sociales. C’est ce qui fait dire à Paul Baran (un des co-inventeurs de la communication réseau par paquets) dès 1965 que l’ingénieur informaticien a l’opportunité d’exercer « une nouvelle forme de responsabilité sociale. » (Baran 1965)

Comment exercer cette responsabilité ? Sur ce point, on peut prendre l’exemple du projet Community Memory qui, entre 1973 et 1975 s’est fait le support d’une telle ambition sur un mode communautaire (Doub 2016). Les fondateurs du projet (Judith Milhon, Lee Felsenstein, Efrem Lipkin, Mark Szpakowski) entendaient créer un système de communication non hiérarchisé où les membres pouvaient partager de l’information de manière décentralisée. Techniquement, le projet était le pilote d’un mini-réseau dans la région de la Baie de San Francisco et le succès qu’il rencontra enthousiasma ses initiateurs tant par l’engouement du public à pouvoir disposer d’un réseau d’information communautaire mais aussi par la créativité spontanée de ce public pour échanger des informations (Colstad and Lipkin 1976). Michael Rossman, journaliste, ex–activiste du Free Speech Movement et qui fréquentait alors assidûment le projet Community Memory, affirma à son propos : « le projet est indéniablement politique. Sa politique est centrée sur le pouvoir du peuple - son pouvoir par rapport aux informations qui lui sont utiles, son pouvoir par rapport à la technologie de l’information (matériel et logiciel). » (Rossman 1976)

Community Memory a fait des émules au-delà de San Francisco et ses choix techniques étaient eux aussi des choix politiques : le projet était hébergé par Resource One, une organisation non gouvernementale créée lors de la crise de 1970 et l’invasion controversée du Cambodge par l’armée des États-Unis en avril. Il s’agissait de mettre en place l’accès à un calculateur pour tous ceux qui se reconnaissaient dans le mouvement de contre-culture de l’époque. Avec ce calculateur (Resource One Generalized Information Retrieval System – ROGIRS), des terminaux maillés sur le territoire américain et les lignes téléphoniques WATS, les utilisateurs de Community Memory pouvaient entrer des informations sous forme de texte et les partager avec tous les membres de la communauté, programmeurs ou non, à partir de terminaux en accès libre. Il s’agissait généralement de petites annonces, de mini-tracts, etc. dont les mots-clés permettaient le classement.

Pour Lee Felsenstein, le principal intérêt du projet était de démocratiser l’usage de l’ordinateur, en réaction au monde universitaire ou aux élus des grandes entreprises qui s’en réservaient l’usage. Mais les caractéristiques du projet allaient beaucoup plus loin : pas de hiérarchie entre utilisateurs, respect de l’anonymat, aucune autorité ne pouvait hiérarchiser l’information, un accès égalitaire à l’information.

Community Memory était une émergence technologique de la contre-culture américaine. En tant qu’objet technique et idéologique, il s’opposait surtout à tout contrôle de l’État, dans un climat de méfiance entretenu par les épisodes de la guerre du Vietnam ou le scandale du Watergate. Pour y accéder, il fallait que l’on accepte de participer à et d’entrer dans une communauté, seule à même de rendre des comptes, indépendamment de toute structure institutionnelle. Ce système de pair à pair s’oppose frontalement à toute intention de contrôle et de surveillance externe.

C’est à travers ce type de projets que les hackers furent généralement identifiés, du moins dans les représentations populaires. Tous les hackers n’appartenaient pas à la contre-culture, du moins tous ne se prêtaient pas, dans les rues, à des manifestations contestataires. Mais tous croyaient sincèrement en une chose : l’informatique et plus généralement les ordinateurs, doivent améliorer notre quotidien. Lee Felsenstein et ses amis en étaient persuadés eux aussi, persuadés que ce modèle d’échanges d’information et de savoir-faire constituait un projet social.

Le côté obscur

Dispositifs techniques et intérêt social interagissent mutuellement. Cependant, cette affirmation que nous posons aujourd’hui comme une évidence n’est pas aisée à expliquer dans l’histoire des assimilations sociales des dispositifs informatiques. En l’espace d’à peine dix ans, la représentation commune du rapport entre utilité et contraintes de l’ordinateur a radicalement changé lors de l’apparition de l’ordinateur personnel sur le marché de la consommation des foyers.

Ce changement s’est déroulé en deux temps : dans un premier temps, une critique générale des systèmes informatiques des entreprises conçu comme une « décapacitation » du travailleur, puis, dans un second temps, une adoption de l’informatique individuelle sur le marché de la consommation, motivé par le discours d’encapacitation issu à la fois de la culture hacker et du marketing. Bien qu’une étude historique plus approfondie soit hautement souhaitable, on peut étudier ces deux étapes indépendamment des terrains géographiques car, comme nous allons le voir, un discours commun dans la « culture occidentale » se dégage autour d’une conception déterministe de la technologie.

Comme nous l’avons vu plus haut, les années 1960 connurent une embauche massive de personnels visant d’une part à apprendre les langages informatiques et d’autre part intégrer les systèmes d’information (le passage de la mécanographie à l’automatisation du travail de la donnée). Du point de vue managérial, toutefois, le thème dominant allait jusqu’à fantasmer sur la capacité des systèmes d’information à automatiser entièrement une entreprise (Haigh 2001), et manière plus prosaïque, on voyait clairement émerger une nouvelle sorte d’ingénieurs, éloignés de la programmation et du matériel : les spécialistes des systèmes d’information.

Face à ces bouleversements radicaux, tout particulièrement dans les grandes entreprises qui accomplissaient leur conversion informatique, on pouvait s’attendre à ce que les syndicats manifestent bruyamment leur méfiance. Jusqu’à la fin des années 1960, ce ne fut pas le cas dans les pays occidentaux pour plusieurs raisons. Aux États-Unis, l’évolution technologique était essentiellement comprise comme la clé des gains de productivité et de la diversification des activités, en particulier la technologie de pointe, celle justement qui permettait d’avoir des entreprises multinationales, monopolistiques, leader de l’automatisation et de l’informatique, surtout pourvoyeuses d’emplois qualifiés. Du côté Européen, à l’instar de la France, on remédiait assez lentement au retard technologique, notamment à cause de la conversion difficile de l’économie agricole et le trop grand nombre de petites entreprises.

À la lecture des archives du Trades Union Congress (TUC) on voit cependant que les syndicats de Grande Bretagne étaient en revanche très attentifs à la question mais adoptaient une posture linéaire depuis le milieu des années 1950 (où le congrès déclare se refuser à toute interprétation alarmante au sujet de l’automation dans les entreprises4), jusqu’à la mise en place en 1964 d’un sous-comité chargé de veiller à la mécanisation des bureaux et au développement de l’informatique d’entreprise (avec des points de vigilance au sujet des éventuelles suppressions de postes et l’augmentation du temps de travail5). Mais si les positions officielles du TUC étaient toujours très conciliantes avec les politiques d’avancement technologique du gouvernement, ce n’était pas le cas pour d’autres syndicats membres tels l’Amalgamed Engineering Union (regroupant des ingénieurs) dont le Comité National vota une résolution très contraignante dont les deux premiers points impliquaient de ne pas accepter de licenciement en cas d’automatisation de tâches, et pour tout changement organisationnel, obliger une consultation préalable des syndicats6.

Du point de vue des travailleurs, en effet, le sujet de l’informatique d’entreprise était alors un sujet complexe, une affaire d’ingénieurs qui s’occupaient des grandes machines dont le nombre se chiffrait seulement en milliers à l’échelle mondiale. Par contraste, la décennie des années 1970, avec la venue sur le marché des mini-ordinateurs, était une période de digestion des transformations des organisations qui s’informatisaient à une vitesse exponentielle, à mesure que les coûts investis dans ce secteur baissaient drastiquement.

Dès lors, loin des préoccupations de rentabilité, les répercussions sur l’organisation du travail furent ressenties tantôt comme une forme de taylorisation du travail de bureau, tantôt comme une négation du travail vivant (au sens marxiste) du travailleur, une remise en cause de son accomplissement personnel au profit d’une automatisation routinière, surveillée et guidée par des machines, en somme un travail « électronicisé » (Zuboff 1988).

Une prophétie se réalisait, celle de Charles Babbage lui-même qui affirmait en 1832 (Babbage 1963, 191) :

La division du travail peut être appliquée avec le même succès aussi bien aux opérations mentales qu’aux opérations mécaniques, ce qui assure dans les deux cas la même économie de temps.

C’est cette taylorisation mentale que les syndicats dénonçaient avec force. Pour certains, l’informatique était le « Cheval de Troie » de la taylorisation, en particulier du point de vue de l’ingénieur devenu un appendice pensant de la machine, à la capacité d’initiative réduite et par conséquent soumis à l’organisation et au pouvoir des organisateurs. L’informatique devenait l’instrument d’un pouvoir de classe là où elle était censée libérer les travailleurs, développer l’autonomie créatrice et démocratiser les organisations (Cooley 1980).

Ce point fut problématisé entre 1975 et 1977 par l’une des figures les plus connues de la théorie du contrôle, Howard H. Rosenbrock. Selon lui, la formulation mathématique du contrôle des processus ne peut être exhaustive et l’approche algorithmique ne peut être que le résultat d’un compromis entre des choix existants. Le choix ne se réduit jamais entre ce qui est entièrement automatisable ou non. Le principal biais du contrôle moderne est selon lui une distanciation de l’ingénieur par rapport à son objet : parce que nous voulons toujours une solution unique, optimale, les procédures tendent à restreindre les objectifs parce qu’elles n’intègrent pas, ou mal, les éléments qualitatifs et les jugements de valeurs. Si bien que, à l’ère des ordinateurs, le constat est partagé : l’ordinateur devient un « manuel de conception automatisé » (Rosenbrock 1977), ne laissant que des choix mineurs à l’ingénieur tout en donnant naissance à un brouillage entre la gestion des process et l’application de la technologie.

Entre la réduction de l’autonomie créatrice et le terrain gagné par la taylorisation mentale, tout particulièrement dans les secteurs tertiaires, les syndicats commencèrent à élaborer une réflexion ambivalente.

D’un côté il existait des projets de transformation organisationnelle dont l’objectif était très clairement guidé par une conception hacker de partage de connaissances et de pratiques. On peut citer sur ce point les projets scandinaves (en Norvège, au Danemark et en Suède) menés à partir de 1975, à l’initiative conjointe des chercheurs (on retient le rôle phare de Kristen Nygaard) et des unions syndicales afin d’influencer les développements locaux des technologies informatiques sur un mode démocratique, en alliant les contraintes de rentabilité, l’accroissement des compétences des travailleurs et la qualité de vie au travail. Le célèbre projet Utopia (Sundblad 2011), entre 1981 et 1986, était la continuité logique de projets précédents et regroupait l’ensemble des syndicats scandinaves des travailleurs graphiques (Bødker et al. 2000). Néanmoins, selon les participants, les expériences montraient que les technologies de productions en place constituaient des obstacles souvent infranchissables pour que les demandes des syndicats (être associés aux changements organisationnels, co-développer des dispositifs de production, faire valoir leur expertise, accroître leurs compétences, etc.) puissent réellement aboutir. Ce que montraient ces projets en réalité, c’était que les nouvelles technologies limitent les revendications des travailleurs et reflètent davantage les intérêts des entreprises (Lundin 2011). Les technologies, et plus particulièrement l’informatique et les systèmes d’information sont chargés de valeurs, et elles ne sont pas toujours socialement acceptables.

Face à l’avancement des technologies dans l’entreprise, les syndicats prenaient de plus en plus conscience que si l’informatisation de la société s’accommodait d’un discours positif sur le progrès social et le contrôle des technologies, les travailleurs n’avaient pour autre solution que de se soumettre à un nouvel ordre négocié où les technologies leur étaient justement incontrôlable. Ce paradoxe était essentiellement nourri d’une idée répandue alors : la technique détermine l’ordre social.

Éclairant l’état d’esprit des chefs d’entreprises à propos de l’adoption des systèmes de traitement de données informatisés dans les organisations, on peut noter ces mots de Franco Debenedetti, directeur général adjoint de Olivetti, lors d’une conférence organisée par le Financial Times en 1979, à propos de l’avenir de l’EDP (Electronic Data Processing) (Cité par S. Smith 1989) :

Il s’agit d’une technologie de coordination et de contrôle d’une main-d’œuvre, les cols blancs, que l’organisation (traditionnelle) ne couvre pas (…). En ce sens, l’EDP est en fait une technologie organisationnelle, et comme l’organisation du travail elle a une double fonction de force productive et d’outil de contrôle pour le capital.

Si bien que, d’un autre côté, face à des projets de transformation technologique où la négociation se concentrait plus sur l’aménagement du poste informatique que sur le rôle de l’informatique dans la transformation du travail, des voix réfractaires se faisaient entendre.

Comme le montre Tali Kristal pour ce qui concerne l’industrie américaine des années 1970 (Kristal 2013), la face « noire » des technologies informatiques était d’une part le fait de l’inégalité de classe qu’elles induisaient historiquement dans l’entreprise qui s’informatise tout en diminuant le pouvoir de l’action syndicale, mais aussi en dissociant le travail de l’expertise des cadres intermédiaires et des ingénieurs. En somme, l’informatisation a été aussi considérée comme un mouvement capitaliste construit sur une concentration des pouvoirs et la diminution des contre-pouvoirs dans les institutions de l’économie.

Pour prendre l’exemple de la France, le « mai des banques » en 19747, fut un épisode pour le moins surprenant : dans un secteur où se jouait déjà depuis des années un processus d’informatisation qui promettait à la fois qualité de travail et gains de productivité, les travailleurs ne se plaignaient pas seulement de leurs conditions de travail et salariales mais en interrogeaient aussi le sens. En effet le secteur bancaire n’avait pas complètement terminé ce processus d’automatisation si bien que le passage à l’informatique devait passer par une forme assumée de taylorisation de travail de bureau et, par extension, une déqualification d’une partie des employés (Moussy 1988). Préalablement, une augmentation de la demande de produits bancaires résultant de la réforme Debré de 1966 (une déréglementation de la banque qui introduisit une concurrence au nombre de guichets) avait suscité une embauche en nombre d’employés dont la qualification était de niveau moyen à bas : ces mêmes employés qu’il fallait former pour parachever la modernisation de la banque tout en maîtrisant la masse et le coût salarial. À une déqualification générale correspondait alors au début des années 1970 (et ce, jusqu’au milieu des années 1980) une employabilité toute aussi concurrentielle de jeunes diplômés sur-qualifiés pour le travail demandé, alors qu’en même temps la formation interne peinait à suivre le mouvement. Mutation informatique et déréglementation furent les principales causes de ce mouvement de 1974, dont le nom est une référence aux grèves de « mai 1968 », débuté en janvier au Crédit Lyonnais puis à la Banque de France et suivi presque aussitôt et bruyamment par les employés d’autres établissements jusqu’en avril (Feintrenie 2003).

On connaît les positions de la CFDT (Confédération française démocratique du travail) qui s’impliqua très tôt dans ce conflit du secteur bancaire. Suivant les positions d’autres syndicats en Europe, elle s’était lancée depuis quelque temps dans une réflexion de fond sur le rapport entre informatique et travailleurs. Le « mai des banques » fut un élément déclencheur qui donna lieu avec succès à un colloque en 1976 intitulé « Progrès technique, organisation du travail, conflits ». Organisé par le secteur « Action Revendicative » de la CFDT et le trio Jean-Louis Missika, Jean-Philippe Faivret – alias Philippe Lemoine – et Dominique Wolton, il donna lieu à une publication au Seuil : Les dégâts du progrès. Les travailleurs face au changement technique. Il s’agissait de penser ce nouveau rapport à la technologie dans des secteurs d’activité très différents en prenant en compte l’impact social et économique de l’informatisation et son articulation avec l’organisation du travail. L’auteur de la préface, Edmond Maire (secrétaire général de la CFDT de 1971 à 1988), résume ainsi (Maire 1977) :

Il suffit d’avoir en mémoire les grandes grèves des banques et des PTT en 1974 où les OS du tertiaire sont apparus en pleine lumière, celles de Renault au Mans sur le travail à la chaîne, de Péchiney-Noguères contre le chantage technologique, d’Usinor-Dunkerque contestant la prétendue impossibilité technique d’assurer la sécurité ; et, au-delà, la mise en cause croissante du travail posté, de la dangereuse accélération du programme d’énergie nucléaire, de l’impérialisme de l’informatique et du danger qu’il fait courir aux libertés.

Cet « impérialisme de l’informatique » est vécu dans le monde du travail des années 1970 de deux manières. Premièrement, il s’agit de mettre en exergue l’informatique comme outil de contrôle. Mais ce contrôle n’est pas celui du contremaître ou de l’informatique de gestion. Il s’agit d’un contrôle qui change radicalement l’organisation même du travail parce qu’il s’agit d’automatiser les tâches pour qu’elles deviennent des sources d’information les plus exhaustives possible. Deuxièmement, ces données ont pour effet d’intellectualiser le travail, c’est-à-dire qu’elles détachent le travail de la production. Comme le montrent les auteurs : « les tâches de contrôle et de surveillance remplacent les tâches de production. » (Missika, Faivret, and Wolton 1977, 41)

Le discours était le même pour ce qui concernait le secteur bancaire et ajoutait la dimension supplémentaire du service rendu à la clientèle qui, considéré du point de vue de l’informatisation, présentait ce danger de la surveillance des individus (Missika, Faivret, and Wolton 1977, 101) :

L’informatique n’est pas seulement une « solution » aux difficultés rencontrées en raison du développement bancaire, elle est avant tout la solution patronale : pour tout autre, elle pose plus de problèmes qu’elle n’en résout. Pour le personnel, elle signifie la standardisation des opérations et la scission entre une masse déqualifiée et un petit noyau super-qualifié. Pour la clientèle, elle constitue une action commerciale anonyme et un risque pour ses libertés.

Vie privée : inquiétudes

Choc pétrolier et crise économique, augmentation du chômage et prolétarisation intellectuelle, ont fait des années 1970 une décennie où les promesses de la technologie devenaient aussi des menaces. S’y adapter devenait un enjeu crucial pour les travailleurs : cette prise de conscience était celle de l’impact radical du changement technologique sur la société.

Démonstration de cet impact dans les représentations communes, en France, le plan « informatique pour tous » (IPT) lancé en 1985 par le ministre Laurent Fabius ne poussait pas seulement la société Thomson à des prétentions au niveau de la grande IBM. Selon les mots du ministre, ce plan entendait « donner à notre société la chance de mieux dominer l’avenir » (Fabius 1985). Le message était si bien reçu que, dans les enquêtes « Informatique pour tous », les enseignants démontraient par leurs réflexions qu’ils avaient profondément intégré le rapport entre société et informatique : pour eux le plan IPT ne représentait pas un moyen de permettre à des élèves de découvrir l’informatique, mais d’intégrer les usages déjà existants dans le domaine de l’enseignement. En somme, une nécessaire adaptation de l’école à la société (Narcy 1986) :

S’il n’est pas surprenant qu’ils voient presque unanimement en elle un instrument motivant pour les élèves, il est plus étonnant qu’ils la considèrent davantage comme une « nouvelle nécessité culturelle » que comme un outil pédagogique paré des vertus du « rattrapage », de « l’individualisation » ou de la « rigueur intellectuelle ». C’est, un peu comme si l’informatique devait, avant tout, être présente dans l’enseignement parce qu’elle est présente dans la vie sociale, indépendamment de ses apports spécifiques.

Pour qu’en 1985 les enseignants français puissent à ce point admettre que l’adoption générale de l’informatique dans la société pousse l’école à s’adapter aux usages, et non les créer, c’est parce que les représentations communes allaient dans le sens d’un certain déterminisme technologique : la technologie était présente et c’était à la société de s’y adapter.

Les critiques syndicales des transformations technologiques n’étaient pourtant que rarement technophobes. Simplement, elles avaient tendance à suivre la même idée qu’à une autonomie de la technologie (au sens de Jacques Ellul) il fallait répondre par négociations et compromis alors même que les fonctions de contrôle et de surveillance des technologies en question étaient considérées comme un instrument de pouvoir patronal. Même dans les projets où la transformation technologique pouvait paraître démocratique, l’idée qu’elle puisse être contrôlable relevait davantage de la croyance que de la soumission à un nouvel ordre capitaliste. De ce point de vue on peut mieux comprendre la construction d’une philosophie déterministe de la technique à cette période cruciale (voir section suivante).

Ceci était d’autant plus paradoxal que le rapport entre vie sociale et informatique contenait un point particulièrement problématique depuis le milieu des années 1960 : face aux bases de données informatisées et les menaces qu’elles portaient sur la vie privée, le débat public n’a cessé de croître. Là où il fut le plus visible, ce fut sur le territoire nord-américain à partir du milieu des années 1960 pour au moins deux raisons : c’est là que s’est industrialisé l’exploitation des bases de données informatiques (Atten 2013), surtout dans les secteurs bancaires, assurantiels, et dans l’administration publique, et c’est là qu’on peut identifier dans les publications (monographies, articles et rapports) une construction de la privacy à partir d’une définition juridique de la vie privée datant de la fin du XIXe siècle (The right to be let alone).

Pendant près de 50 ans jusqu’à nos jours (et nous pouvons gager que la question est loin d’être réglée), la construction de la privacy est le fruit d’une convergence entre l’histoire technique des infrastructures informatiques, l’histoire d’une économie capitaliste de la donnée, et l’histoire de la lutte pour la protection de la vie privée dans le débat public et les pratiques de régulation gouvernementales (Masutti 2020). Face aux abus des pratiques bancaires et des sociétés de crédit constatés par les consommateurs, l’État fédéral américain mis en place le Fair Credit Information Act en 1970 puis, résultat des débats tenus au Congrès sur l’usage des banques de données publiques, le Privacy Act de 1974 fut voté à son tour.

Les publications furent abondantes au sujet des « menaces sur la vie privée » que représentaient les bases de données. Employant une rhétorique qui emprunte chez Georges Orwell et Max Weber un appareillage conceptuel faisant planer les dangers d’une « société du dossier » à venir, des auteurs comme Alan Westin proposèrent au début des années 1970 une définition de le vie privée comme « une exigence à décider soi-même comment et quand les informations qui nous concernent peuvent être communiquées » (Westin 1967, 7). Peu à peu un courant de pensée se construisit et s’internationalisa au fur et à mesure que l’informatisation gagnait tous les secteurs économiques, que l’industrie de l’informatique devint une industrie faite de multinationales spécialisées, et que l’emploi des bases de données et des plateformes se généralisait jusqu’à configurer ce que Foster et Chesney nomment le capitalisme de surveillance, fruit de la jonction historique de l’impérialisme américain, de l’économie politique et de l’industrie du numérique (Foster and McChesney 2014).

Daniel J. Solove (Solove 2002), s’efforce en 2002 de synthétiser la privacy en y incluant la définition « primaire » de la vie privée au sens de la Common Law américaine (le droit d’être laissé tranquille) et y ajoutant autant de contre-propositions à l’économie de la surveillance : l’accès limité à la personne, le droit au secret, le contrôle des renseignements personnels, etc. Et c’est en 2014 avec les Révélation d’Edward Snowden que le monde apprit que malgré les nombreux débats et lois promulguées durant des années, des agences publiques et des entreprises multinationales et monopolistique de l’économie numérique avaient organisé un vaste espionnage de masse à l’échelle de la planète.

La construction de la privacy est le fruit de plus 50 ans de combats, de revendications et de créativité juridique. Si bien que l’avènement tant craint de la « société du contrôle » (de décider, d’agir, de penser, d’être) est surtout le fruit d’un imaginaire collectif tandis que la surveillance est devenue le moteur même de l’économie, translation de la surveillance des process de production de l’entreprise à la surveillance comportementale des consommateurs, ordonnancement des modèles monopolistiques et exploitation des données dans un contexte hautement concurrentiel dominé par le marketing et les objectifs de rentabilité (Zuboff 2019).

Ces débats sur la surveillance donnèrent lieu à de nombreuses études. Les surveillances studies plongent leurs racines dans cette histoire des années 1970 où l’on commençait à interroger notre rapport à l’informatique sous l’angle de l’exploitation de la donnée. Dans la mesure où des données peuvent être extraites de nos comportements pour être traitées de manière automatisée afin de créer de la valeur, les comportements peuvent être alors considérés comme des ressources primaires. Cette assimilation du comportement implique deux choses : la première est un déplacement du concept de comportement qui n’est plus seulement la manifestation, compréhension et l’anticipation des actions pour un observateur, mais la transformation de cette manifestation en indicateurs quantifiables et assimilables par la machine, c’est à dire les données personnelles. La seconde, c’est l’idée que l’avancement technologique permet la multiplication des indicateurs, l’accroissement des données quantifiables, et le passage de l’anticipation à la prédictibilité : le degré d’intrusion dans la vie privée ne s’évalue plus seulement en fonction de l’observateur mais en fonction de la technologie mobilisée pour cela.

En réponse à l’électronicisation de la vie privée et l’algorithmisation du traitement des données personnelles, les combats pour la vie privée ne se placent plus seulement sur terrain du droit, mais confrontent le droit et la technologie selon deux tendances possibles. La première consiste à maintenir une tradition contractualiste, celle que les philosophes du droit comme John Rawls ont travaillé durant les années 1970 (Rawls 1997) en articulant éthique et justice, où la liberté individuelle prévaut. C’est ce qui permet d’expliquer pourquoi les voix les plus retentissantes comme Allan Westin utilisaient cette double rhétorique du repoussoir orwellien (le totalitarisme contre les libertés) et du repoussoir weberien (la société du dossier, la bureaucratie contre une perspective américanisante d’un national-libéralisme supposé de Max Weber (Draus 1995)). La seconde constitue une réaction à la quantification par une institutionnalisation de la vie privée, la privacy : la sanctuarisation de la vie privée serait le fondement d’un nouvel équilibre entre la société et ses institutions, le droit et une économie capitaliste qui implique l’usage illimité des technologies au nom de la rentabilité et du profit illimité.

À ceci près que pendant que les luttes pour la vie privée s’organisaient sur de multiples fronts (l’État intrusif, les banques, le marketing, etc.), on admettait que le questionnement sur la technologie était une affaire de philosophie et non pas d’usages puisque le déterminisme technologique ambiant appelait de ses vœux l’informatisation de la société et sa projection vers un avenir prometteur. Face au « progrès technologique », il y avait comme un parfum de défaite.

Ce rapport à la vie privée, est un trait caractéristique d’une société moderne qui, dans son rapport à la technique, en vient à sacraliser ce qui cristallise les transformations sociales. Ainsi l’État n’est pas seulement un système de gouvernance fait de dispositifs juridiques, moraux, ou policiers. L’État moderne est un État sacralisé dans la mesure où il est peut être assimilé à une entreprise de sécularisation des concepts religieux (Schmitt 1988 ; Aron 1944). Cet exemple est le plus évident. Cependant, selon les points de vue, d’autres aspects de notre modernité sont réputés sacralisés. Ainsi la fétichisation de la marchandise selon Guy Debord, qui montre de quelle façon l’idéologie capitaliste est communément cautionnée (Debord 1992). Il reprend ainsi l’idée de Karl Marx qui montrait que le rapport entre recherche du bonheur et bien matériel passait par l’illusion qu’une marchandise avait une valeur par elle-même8. Le thème traverse aussi toute l’œuvre de Jacques Ellul qui, de manière rétroactive, montre que la technique en désacralisant le monde (nature comme spiritualité) est devenue par un effet de renversement le seul recours de l’homme au sacré, la technique sacralisée (Ellul 1954).

Enfin, la vie privée comme ressource numérique relève aussi d’un autre thème philosophique, plus ontologique, celui de l’arraisonnement heideggerien (Heidegger 1958). Si on suit ce philosophe, la technique moderne n’est plus l’art, elle est devenue ce rapport paradoxal entre la volonté de puissance et l’exercice technique, soumission de l’homme à son destin technicien, non plus sujet mais être technique, par l’instrumentalisation, l’arraisonnement du monde qu’il ne peut plus voir que comme une ressource. Les Jacques Ellul ou Guy Debord ont en réalité cherché à montrer que l’homme pouvait encore échapper à ce destin funeste en prenant conscience ici de la prégnance de l’idéologie capitaliste et là d’une autonomie de la technique (hors de l’homme). Cependant, on ne peut s’empêcher de penser que l’extraction de données à partir de la vie privée est une forme d’arraisonnement poussé à l’extrême, sur l’homme lui même, désormais objet de la technique.

Le discours du déterminisme technologique qui implique que la société doit s’adapter à la technique prend une dimension tout à fait nouvelle dans le contexte de l’informatisation de la société. À travers l’histoire de la « Révolution Informatique », ce cauchemar heideggerien est né d’un discours aliénant, où l’ordinateur devient l’artefact central, et contre lequel la simple accusation d’aliénation technologique n’est plus suffisante pour se prémunir des dangers potentiels de cette désormais profonde acculturation informatique. Les combats pour la vie privée, loin d’être technophobes, sont autant de manifestations de l’inquiétude de l’homme à ne pouvoir se réapproprier la logique autonome de la technique.

La grande conjecture

Le déterminisme est une tradition

Si on a longtemps accusé à tort Jacques Ellul d’être déterministe, c’est pour deux raisons. D’abord parce que c’est un trait caractéristique de sa pensée que de montrer que la technique est déterminante dans les transformations sociales. Cependant cela n’implique pas pour autant que tout fait social soit explicable par la technique. Au contraire, ce qui alarme Ellul c’est justement que cette technicisation de la société est en train de se produire, et que la technique moderne devient autonome (et l’est déjà depuis un certain temps au moment où il écrit).

L’autre raison, c’est l’adoption de la pensée de Ellul aux État-Unis par une importante diffusion de son livre La Technique ou l’enjeu du siècle (Ellul 1954) sous le titre The technological society, publié en 1964 et introduit par l’éminent sociologue Robert K. Merton et sur les conseils d’Aldous Huxley (Ellul 1964, sec. 1). Dans sa préface, R. K. Merton le compare à Oswald Spengler et Lewis Mumford, et soutient qu’Ellul « propose un système de pensée qui, moyennant quelques modifications critiques, peut nous aider à comprendre les forces qui se cachent derrière le développement de la civilisation technique qui est la nôtre ». Certes la société se technicise, la délibération devient rationalisation-quantification, l’économie devient pure concentration de capital et planification forcenée où l’analyse laisse place à la technique, tout ceci est contenu dans l’œuvre d’Ellul, et Merton le remarque bien. Mais au-delà d’une mise en garde contre le réflexe technophobe, c’est aussi d’une lecture techniciste de l’histoire qu’Ellul nous invite à se méfier (même si la technique joue malgré tout chez Ellul un rôle primordial et presque normatif dans sa propre lecture de l’histoire). L’absorption de l’œuvre d’Ellul aux États-Unis a certainement été en quelque sorte victime de cette lecture trop techniciste.

L’historien Merritt Roe Smith, après avoir travaillé des années sur l’histoire des techniques en Amérique, montre à quel point le déterminisme technologique imprègne la culture américaine au moins depuis le XVIIIe siècle (M. R. Smith 1994). Les visions technocratiques issues des discours politiques impliquent ainsi depuis des centaines d’années l’idée que les innovations technologiques ne sont pas seulement des illustrations du « progrès en marche » mais sont autant de preuves de cette marche du progrès, en particulier dans notre quotidien. Selon M. R. Smith cette vision s’est disséminée dans toutes les sphères intellectuelles, des politiques aux écrivains en passant par les grands industriels. L’avènement de la publicité au début du XXe siècle marqua un virage décisif : le progrès n’était plus simplement le synonyme de l’espoir industriel, la technologie était « devenue la cause du bien-être humain ». Face à ce refrain si profondément intégré, les auteurs les plus critiques tel Henri D. Thoreau qui prétendait (avant Heidegger) que les hommes étaient « devenus les outils de leurs outils » (Thoreau 1922), ont pu laisser un héritage littéraire pertinent. Cependant, d’après M. R. Smith, ce furent trois auteurs qui produisirent aux États-Unis un appareillage critique central, bien que contenant encore des bribes de déterminisme puisqu’ils reconnaissent implicitement que la technique est une force agissante qui modèle l’histoire : « Lewis Mumford, Jaques Ellul et Langdon Winner ».

Dès lors, que peut-on opposer à des siècles où le paradigme dominant implique de penser toute avancée technique comme un déterminant social décisif, central, voire absolu ? On sait bien depuis l’avènement des STS que ce n’est pas le cas mais encore une fois nous cherchons ici à comprendre le discours dominant qui n’est manifestement pas celui de l’historien éclairé mais auquel il est finalement toujours soumis. De fait, aux États-Unis comme en Europe, le mantra récité durant les trente années qui suivent l’apparition de l’industrie informatique est celui qui tient l’ordinateur comme une technologie clé de l’histoire. Ce peut être le résultat, pour reprendre la pensée de Bernard Stiegler, que la technologie a toujours été pensée d’après la tradition antique comme un « dehors » auquel répondait le « dedans » de la philosophie, le savoir, la connaissance dont la technique n’est au plus qu’un dérivé auxiliaire. Or, avec l’avènement de l’ordinateur et de la mise en réseau des machines, c’est la communication et donc le langage, véhicule de ce « dedans », qui s’est mis à dépendre fondamentalement de la technique.

Les historiens dans leurs travaux plus récents ne furent pas exempts de cette manière de considérer la technique comme un déterminant, certes rarement unique ou exclusif, mais autonome, même lorsqu’ils attribuaient un rôle décisif aux interactions sociales et aux acteurs des transformations techniques. Par exemple l’historien Paul E. Ceruzzi, dans la conclusion de sa grande histoire de l’informatique moderne, revient sur cette modernité. Il l’exprime comme un processus autonome de remplacement d’une technologie par une autre. Pour lui, l’histoire des ordinateurs et des réseaux est celle de deux prises de contrôle successives de l’analogique par le numérique. La première a été identifiée au début des années 1970 lorsque les ordinateurs ont remplacé les circuits électroniques analogiques par la programmation et la miniaturisation. La seconde est Internet, mariage de tout le secteur des communications avec l’informatique en lieu et place des télécommunications analogiques. Une prise de contrôle validée « par tout le spectre politique et culturel, par Newt Gingrich, Al Gore, Stewart Brand, feu Timothy Leary, la ‘génération X’ et de nombreuses autres personnes » (Ceruzzi 1998, 347).

Pourtant, au cours des années 1960 et 1970, la manière dont on concevait la dynamique du changement technologique était le résultat de l’observation de ce qui était en train de se passer dans l’industrie : la spécialisation toujours plus croissante des entreprises, et en particulier l’apparition des entreprises dites de « haute technologie » ou « de pointe », et l’informatisation de cette industrie qui permettait d’accroître la production et travailler en réseau (là où Ford maîtrisait sa chaîne de A à Z suivant un vieux modèle, les secteurs les plus technologiquement avancés travaillaient la coopération).

Ce changement permettait d’appréhender différemment le déterminisme technologique. Ce fut le cas de Robert L. Heilbronner qui publia un article de référence en posant la question frontalement : les machines font-elles l’histoire (Heilbroner 1967) ? Il montre que si la technologie influence l’ordre social, il y a comme un processus d’aller et retour entre l’innovation et un aspect fondamental de l’organisation sociale, la production. C’est pourquoi on peut qualifier le déterminisme de R. L . Heilbronner de « déterminisme doux ». En effet, pour lui, ce qui fait que les développements technologiques sont prévisibles, ce n’est pas parce qu’ils sont les fruits d’une application mécanique de la science sur la technique, mais le résultat d’une organisation de la production adéquate pour atteindre un stade supérieur de technologie : division du travail, spécialisation des industries et coopération. Et cette organisation est elle-même dépendante du capital mobilisé pour atteindre une congruence efficace entre les fonctions industrielles diversifiées et coopérantes. Le capitalisme autant que la science conditionne la production technologique, ce qui fait de la technologie un médiateur social qui définit les caractéristiques de la société où elle se développe : la composition de la population active (spécialisations, compétences) et l’organisation hiérarchique du travail. Si bien que dans l’histoire récente du capitalisme, là où J. Ellul pointait une technique qui s’autonomise, R. L. Heilbronner montre que si le capitalisme est le stimulant d’une technologie de production, l’expansion de la technologie dans le système de marché prend un aspect automatique à bien des égards parce que production devient synonyme de production technologique dans un système concurrentiel et de course à l’innovation.

Choisir entre antériorité ou postériorité de la technique par rapport au changement social devient un problème qui a fait son temps. La question est de savoir comment la technique est conçue comme un intermédiaire entre capitalisme-productivisme et changement social. Cependant, hors de l’ombre de ce tout technique, l’historien Lewis Mumford proposait quasi simultanément à la parution de l’article de R. L Heibronner, encore une autre manière d’envisager la technique dans Le mythe de la machine (Mumford 1973). Reléguant le couple capitalisme-machinisme au rang d’épisode négligeable dans l’histoire de l’humanité, Mumford resitue le rapport à la technique sur le temps long, depuis la préhistoire et l’émergence des États et des régimes de gouvernement où la technique apparaît comme le véhicule du pouvoir, une mégamachine (c’est ce qu’un Serge Latouche affirmera plus tard (Latouche 1995) en assimilant technique et culture9). Mieux encore, pour L. Mumford, le rôle de la technique avait largement été fantasmé et cette dissonance entre société et technique, il l’avait déjà expliqué dans Technique et civilisation en 1934 en ces termes (Mumford 1950, 35) :

En fait, la nécessité de promouvoir sans cesse des changements et des améliorations — ce qui est la caractéristique du capitalisme — a introduit un élément d’instabilité dans la technique et empêché la société d’assimiler ces perfectionnements et de les intégrer dans des schémas sociaux appropriés.

Mais dans la (ou les) mégamachine(s) qu’il décrit en 1967, tout est déjà compris : division du travail, exploitation des classes, pouvoir centralisé, puissance militaire, logique impérialiste… sans pour autant fermer la porte à une reconquête possible de la machine ou plutôt cette « mégatechnologie » qui, aux mains d’une minorité de puissants menace les individus en les enfermant dans un régime fonctionnel fait de contrôle et d’automatismes. Au moment où étaient en train de naître les réseaux de communication numérique, et alors même qu’on avait déjà assimilé des modèles théoriques de tel réseaux, notamment grâce aux travaux de Ted Nelson (qui invente l’hypertexte) en 1965, la possibilité de mettre en relation les individus était en même temps la possibilité de se sortir éventuellement de la dynamique de la mégamachine qui instrumentalise la technique. L. Mumford déclarera ainsi en 1972 (Mumford 2014) :

(…) l’objectif majeur de la technique n’est ni d’étendre encore le domaine de la machine, ni d’accélérer la transformation des découvertes scientifiques en inventions rentables, ni d’accroître la production de nouveautés technologiques changeantes et de modes dictatoriales; ce n’est pas non plus de placer toutes les activités humaines sous la surveillance et le contrôle de l’ordinateur – en bref, ce n’est pas de riveter les parties de la mégamachine planétaire encore indépendantes de manière à ce qu’il n’y ait plus moyen de s’en échapper. Non: la tâche essentielle qui incombe aujourd’hui à tous les intermédiaires humains, et surtout à la technique, est de restituer les qualités autonomes de la vie à une culture qui, sans elles, ne pourra pas survivre aux forces destructrices et irrationnelles qu’ont déclenchées ses réalisations mécaniques initiales.

Cette possibilité entr’ouverte, elle fut sans doute comprise par bien des acteurs de l’élaboration commune d’un agrégat technique qui sera nommé Internet. C’est très certainement cette ré-appropriation de la technologie qui a motivé les hackers du projet Community Memory et bien d’autres initiatives du genre, et qui donnèrent lieu à une économie de services et un choix qui fit de L. Mumford une Cassandre des temps modernes.

Réseaux, démocratie, capital

On attribue généralement la naissance d’Internet à la mise en œuvre combinée de projets militaires et civils aux États-Unis à la fin des années 1960. Sans revenir sur cette histoire maintes fois racontée, il y a plusieurs aspects que nous devons prendre en compte dans la manière dont l’usage des technologies de réseau s’étendit à travers la société.

En premier lieu, les réseaux informatiques sont le résultat d’une combinaison d’ordinateurs, de systèmes d’exploitation et de protocoles de communication. Des ordinateurs, avant tout, puisque le projet initial de l’ARPA (pour l’exprimer simplement : construire un réseau résilient) comportait une alliance très forte avec une entreprise issue du MIT nommée BBN (créé par les professeurs Leo Beranek et Richard Bolt, rejoints ensuite par un de leurs étudiants, Robert Newman) qui elle même entretenait des liens historiques avec DEC (Digital Equipment Corporation), productrice d’ordinateurs type PDP pour une grande partie des instituts de recherche. Bien que DEC ne fut pas la seule entreprise concernée, le développement ultérieur des mini-ordinateurs de type PDP-11 puis le passage à des architectures 32 bits, la baisse des coûts de production, jouèrent un rôle décisif dans le développement du marché des mini-ordinateurs et leur mise en réseau. L’arrivée de systèmes d’exploitation à temps partagé (dont CTSS – Compatible Time-Sharing System – fut l’un des projets phare au MIT, avec pour successeur le projet Multics) fut l’une des conditions à réunir pour permettre aux utilisateurs de se connecter à plusieurs sur un ordinateur. Ces créations furent associées à d’autres concepts théoriques et applicatifs tels la commutation de paquets (un sujet que Paul Baran avait initié au début des années 1960), ou, de manière structurée, la suite de protocoles TCP/IP (travaillée par Bob Kahn au début des années 1970).

Ces exemples ne montrent qu’une petite partie de l’ensemble nommé Internet, et qui n’est lui-même que la partie de réseaux de réseaux accessible au public. Des premières recherches conceptuelles qui s’agrégèrent jusqu’aux réseaux opérationnels, les technologies de base d’Internet ont été développées sur une trentaine d’années et ne cessent d’évoluer. De plus, cet agrégat n’est pas qu’un amalgame de technologies, il est le fruit de bien des aspects relationnels entre acteurs et groupes d’acteurs, institutions et entreprises. De ces convergences découla la concrétisation de la notion de computer utility, c’est-à-dire un modèle économique de service : mise à disposition de ressources informatiques (puissance de calcul) et gestion d’infrastructures (Garfinkel 1999). Ce modèle fut pensé dès le début des années 1960 mais l’arrivée de l’informatique en réseau lui donna corps, et avec cela tout un discours sur la transformation sociale qui, en un sens radicale, supposait que la technologie recelait en elle et de manière positive les ingrédients de cette transformation, comme si elle ne relevait d’aucune pensée préalable. Or, ce n’était évidemment pas le cas. Nous l’avons vu avec la pensée hacker, et comme l’a brillamment montré Fred Turner à travers des hommes comme Stewart Brand et The WELL, il en va ainsi de la majorité des acteurs principaux qui ont construit l’économie de la Silicon Valley sur l’idée que les technologies apportent les réponses à tous les « grands problèmes du monde ».

Les réseaux et leurs infrastructures ne sont pas seulement le substrat technique sur lequel s’est développée l’économie numérique. Nombre d’acteurs qui ont construit cette économie partageaient une vision commune du rapport entre société et technique que l’on pourrait qualifier de solutionniste. Ils marquèrent sur plusieurs décennies le point de basculement principal dans le processus d’informatisation de la société : les ordinateurs n’étaient pas qu’une extension du machinisme dont l’objectif était d’augmenter notre production et améliorer notre bien-être. Ils allaient plutôt nous permettre de changer le monde et pour cela, il était impératif que la société accepte le rôle calculatoire de l’ordinateur comme le maillon principal des processus de décision et d’action.

Bien entendu, ce n’était pas le point de vue de tous les hackers. Cependant, comme le montre Fred Turner, le déplacement de la contre-culture hippie associé à la logique industrielle et au libéralisme a créé un certain anti-autoritarisme qui s’est lui-même structuré en ce que nous pouvons identifier comme un « libertarianisme californien ». Le couple technologie-capital que mentionnait R. L. Heilbronner a fini par captiver cette contre-culture au point que la plupart de ces ingénieurs hétérogènes (si on les considère du point de vue acteur-réseau) on fait le choix de l’aventure entrepreneuriale. C’est au début des années 1980 que d’autres ont au contraire commencé à y voir les déséquilibres économiques et éthiques et investirent alors le modèle du logiciel libre, comme nous le verrons plus loin. Toujours est-il qu’Internet devenait l’El-Dorado de l’économie de service, point de jonction entre l’encapacitation sociale et le cercle vertueux du capital et de l’innovation.

La fin des années 1970 et le début des années 1980 furent des moments propices à la construction de cette représentation d’Internet et de l’économie de services. Cette période connut non seulement l’arrivée de l’ordinateur personnel sur le marché de la consommation de masse mais aussi la consolidation des systèmes de gestion de bases de données, et une assimilation unanime de l’informatique à la fois par les entreprises de tous les secteurs d’activité et les administrations publiques. Ainsi, en 1978, dans son best seller intitulé The Wired Society (Martin 1978) (récompensé du Pullizer), James Martin pouvait bénéficier d’un terrain d’étude extrêmement favorable sur ce qu’il a nommé les « autoroutes des télécommunications ». Il ne s’agissait plus de supposer le développement futur des usages et de leurs implications dans la société, mais de faire un premier point sur ce qu’avait changé la haute disponibilité de l’information. Huit ans plus tôt, dans un précédent ouvrage co-écrit avec Adrian Norman, The Computerized Society (Martin and Norman 1970) il s’agissait de prévenir des dangers potentiels de l’omniprésence des algorithmes dans les systèmes décisionnels : à partir du moment où un système est informatisé, la quantification devient la seule manière de décrire le monde. 0r la veille des années 1980, son analyse n’avait guère changé : le danger ne peut provenir que de ce que l’homme fera des techniques à sa disposition mais elles sont libératrices par essence, leur utilité l’emporte sur l’adversité. Il devenait le futurologue qui mettait fin aux craintes de l’avènement d’une société Orwellienne : la diversité des informations et leur accessibilité sur les autoroutes de télécommunication devait agir comme une garantie à l’encontre de la manipulation mentale et de l’autoritarisme. Les promesses de l’accès illimité aux contenus éducatifs et du partage des connaissances devaient constituer l’antithèse des régimes totalitaires qui restreignent et contrôlent les communications.

Comment comprendre ce revirement qui, à nos yeux contemporains et compte-tenu de ce que nous savons de la surveillance en démocratie, passe aussitôt pour de la naïveté ? En démocratie, l’information et le partage d’information est un élément décisif de l’épanouissement d’une société. Pense-t-on pour autant que, développés en majeure partie dans des pays démocratiques et propagés par les vertus de l’économie libérale, les réseaux de communication numériques ne pourraient servir que des objectifs démocratiques ? Il est compréhensible que leur avènement ait tant bousculé les organisations que cette révolution ait un temps occulté le fait que l’analogie n’est pas fondée.

La même année, en 1978, Murray Turoff et Roxanne Hiltz publient The Network Nation (Turoff and Hiltz 1994), un livre aux conséquences souvent mal connues mais qui consacra le domaine des communications en ligne comme la technologie-clé censée révolutionner la vie sociale et intellectuelle. M. Turoff avait inventé un système de conférence électronique pour le gouvernement américain afin de communiquer en temps de crise. Initiateur du concept de Communication médiée par ordinateur (computer-mediated conferencing, CMC), il continua avec Roxanne Hiltz, qui devint son épouse, à développer son système électronique d’échanges d’informations jusqu’à aboutir à une présentation exhaustive de ce que signifie vraiment communiquer à distance par ordinateurs interposés : échanges de contenus (volumes et vitesse), communication sociale-émotionnelle (les émoticônes), réduction des distances et isolement, communication synchrone et asynchrone, retombées scientifiques, usages domestiques de la communication en ligne, etc. Récompensés en 1994 par l’EFF Pioneer Award, on considère aujourd’hui Murray Turoff et Roxanne Hiltz comme les « parents » des systèmes de forums et de chat massivement utilisés aujourd’hui.

Pour eux, dans la mesure où les réseaux et leurs infrastructures continuent de se développer, la Network Nation ne demande qu’à éclore, aboutissant à un « village planétaire », concrétisation de la pensée de Marshall McLuhan, où « la technologie en viendra probablement à dominer la communication internationale » (Turoff and Hiltz 1994, 25). À l’aide de nombreuses études de cas, ils démontrent combien l’organisation sociale (dont l’éducation et le travail à distance) et les modèles de décision collective peuvent être structurés autour des télécommunications numériques. De l’extension du modèle de démocratie participative asynchrone et obtention de consensus par conférence téléphonique (Etzioni, Laudon, and Lipson 1975), la récolte de l’opinion publique dans les Community Centers de Hawaï en 1978, jusqu’au test grandeur nature du Public Electronic Network de Santa Monica, Murray Turoff et Roxanne Hiltz montrent à quel point la démocratie participative par réseaux de communication pourrait même bousculer radicalement la démocratie représentative qui, elle, est basé sur une participation indirecte. Sans apporter vraiment de réponse à cette question, il reste que les auteurs livrent à ce moment-là une conception selon laquelle la technique est à même de conditionner la vie publique. Les choix relatifs à la régulation des usages sont désormais écrits (Turoff and Hiltz 1994, 400) :

Le domaine des communications numériques a atteint un point où ce n’est plus la technologie, mais les questions de politique, de droit et de réglementation qui détermineront le degré de bénéfice que la société en tirera. Si nous extrapolons les tendances actuelles, des aspects tels que les utilisations publiques peuvent être artificiellement retardés de plusieurs décennies (…)

Mais ce qui devra arriver arrivera, et cela tient intrinsèquement à la nature même des technologies de communication (Turoff and Hiltz 1994, 401) :

Dans la mesure où les communications humaines sont le mécanisme par lequel les valeurs sont transmises, tout changement significatif dans la technologie de cette communication est susceptible de permettre ou même de générer des changements de valeur.

Communiquer avec des ordinateurs, bâtir un système informatisé de communication sociale-émotionnelle ne change pas seulement l’organisation sociale, mais dans la mesure où l’ordinateur se fait de plus en plus le support exclusif des communications (et les prédictions de Turoff s’avéreront très exactes), la communication en réseau fini par déterminer nos valeurs. C’est en cela que la conjecture selon laquelle l’ordinateur est une technologie déterminante est une conjecture qui prend une dimension heuristique à la fin des années 1970. Et c’est la raison pour laquelle à cette époque l’ordinateur passe si difficilement sous le feu des critiques : on lui préfère l’analyse du machinisme ou les références anciennes à la domination de l’outil de travail.

Dans la sphère intellectuelle américaine, plus versée dans la littérature que dans les modèles de systèmes d’information, on retrouve l’adhésion à ce discours. Les enjeux humanistes qu’il soulève devenaient parfaitement audibles aux oreilles des non-techniciens. C’est le cas de Jay David Bolter qui, bien que formé à l’informatique, n’en était pas moins professeur de littérature soucieux de l’avenir culturel à l’âge informatique. En 1984, il écrivit un autre best seller intitulé Turing’s Man: Western Culture in the Computer Age (Bolter 1984). Pour lui, si l’ordinateur est une technologie déterminante, ce n’est pas parce que l’usage de la technique change les valeurs, mais c’est parce que l’ordinateur est comparable à la machine à vapeur ou à l’horloge qui, selon lui, ont révolutionné notre représentation du monde en redéfinissant notre rapport au temps, à la mémoire, à la logique, à la créativité, au langage… Bien que nous puissions en dire autant de bien d’autres techniques. En fait, si on se fie à J. D. Bolter, ces dernières sont déterminantes parce qu’elles se situent haut sur une sorte d'« échelle de la détermination technologique ». Comme toutes les révolutions, la révolution informatique se mesure à l’aune de ses dangers et de la pensée critique qui s’en empare. Pour J. D. Bolter, l’âge informatique est un âge où le risque est grand de perdre l’humanisme occidental en le noyant dans une quantification de nos vies par le traitement des données informatiques. Et si la tradition humaniste est à ce point en danger, ce serait parce que la technologie a toujours déterminé la pensée. L’ordinateur suit la même voie séculaire (Bolter 1984, 36) :

Le scientifique ou le philosophe qui travaille avec de tels outils électronique pensera différemment que ceux qui travaillaient sur des bureaux ordinaires, avec du papier et des crayons, avec des stylets et des parchemins, ou du papyrus. Il choisira des problèmes différents et trouvera des solutions différentes.

Là encore, tout comme dans le livre de James Martin, on se situe bien loin des craintes d’un futur Orwellien, mariage entre technologie et totalitarisme : le côté rassurant de la technologie, aussi révolutionnaire qu’elle soit, c’est qu’elle se présente désormais comme un « déjà-là » et détermine ce que sera « l’homme de Turing ». Un état de fait qu’on ne peut qu’accepter et en trouver les avantages.

Là où Lewis Mumford voyait entr’ouverte la porte de sortie du déterminisme, J. D. Bolter la referme avec la plus grande candeur : il appartiendrait à chacun de savoir conserver la part d’humanisme dans un monde fait par la technique et pour la technique. Mais là encore, tout comme beaucoup ont mal lu J. Elllul, beaucoup ont fait l’erreur de ne pas comprendre que la mégamachine moderne n’est pas toute entière issue de la technique ou de la pensée technocratique. Il faudra plusieurs années entre la fin des années 1960 et le début des années 1990 pour que, à travers le ronronnement permanent des discours sur les bienfaits de l’innovation technoscientifique, émergent des dissonances qui ne s’attachent plus uniquement au problème du déterminisme technologique et au regret d’un humanisme perdu, mais sur les dynamiques sociales qui conditionnent la mégamachine.

En 1966, la Monthly Review publiait l’ouvrage monumental de Paul Sweezy et Paul A. Baran, Le capital monopoliste, un essai sur la société industrielle américaine. L’idée que le pouvoir n’est finalement que secondaire dans une société capitaliste où la logique économique a son cheminement propre, non pas essentiellement technique mais résultat d’une tension entre production et coût de production d’où émergent des tendances impérialistes, consuméristes, monopolistes. Pour survivre, les entreprises sont condamnées à innover. Et c’est ce qu’en 1991 et 1995 l’économiste Serge Latouche nomme le principe du « maximine » (Latouche 1991  ; Latouche 1995) (maximisation du profit, minimisation des coûts), selon lequel l’innovation technologique est le moteur qui génère nos comportements modernes de consommateurs et d’accumulateurs. Pour Serge Latouche, la mégamachine est en réalité la société toute entière qui entretient une synergie entre logique technicienne et logique économique.

Et d’autres auteurs encore développèrent cette approche critique, y compris de nos jours, via une démarche opérant une certaine filiation américaine de la pensée « néo-marxiste ». Ainsi John Bellamy Foster et Robert Mc Chesney qui, au lendemain des révélations Snowden, montrent comment la logique monopoliste, impérialiste et militariste conditionnent notre soumission à un capitalisme de surveillance. C’est-à-dire un capitalisme technologiste qui, pour reprendre le mot de Bernard Stiegler, contribue à prolétariser les individus dans leur quotidien, leur vie, leur comportement, leurs relations, là où on attendait justement des infrastructures technologiques des communications l’espoir d’une émancipation démocratique qui manquait déjà tant aux années 1970.

Internet, dispositif indéterminé

Sommes-nous arrivés à un âge critique où, après un trop-plein d’innovations techniques dont l’économie numérique serait la dernière manifestation (à la suite de la révolution pharmaceutique ou de l’automobile), une prise de conscience serait advenue faisant valoir un discours réaliste sur les interactions entre les dynamique sociales et les techniques ? Prendrait-on conscience d’un trait caractéristique de notre modernité selon lequel la société est dominée non pas par la technique mais par une logique d’accumulation qui détermine à son tour les conditions de l’innovation et donc les techniques ? Marketing, consommation, impérialisme militaro-économique, concurrence et monopoles, décision publique favorable aux monopoles, tous ces leviers (on peut ajouter le capitalisme d’État pour certaines puissances) en faveur des objectifs de production des sociétés modernes montrent que si on peut définir une société par ses technologies-clé, cette définition est non seulement non-exclusive mais doit intégrer le fait qu’il s’agit avant tout de choix collectifs, de stratégies de développement et non de la technique en soi.

C’est l’argument retenu lorsqu’on envisage les changements technologiques à une échelle plus globale et qu’on la confronte aux enjeux environnementaux. D’un côté, la lutte contre le changement climatique ou la prise de conscience des écueils de l’anthropocène et, de l’autre, l’idée que ce sont nos choix techniques qui ont dirigé plus ou moins consciemment les sociétés vers les impasses de l’urgence climatique. Là ne se confrontent plus artefacts et nature (si tant est que l’homme technicien se définisse comme « maître et possesseur ») mais capital et oïkoumène, le milieu, notre commun naturel. Et nous aboutissons aux même arguments de Bernard Stiegler : les technologies numériques font partie d’un ensemble de choix techniques dont la tendance générale consiste à prolétariser toujours plus l’homme (exceptés ceux aux commandes). En séparant technique et savoir, l’homme s’est privé de la critique scientifique de la technique et de là vient la tendance déterministe alors que l’homme se voit dépossédé de ses savoir-faire (automatisation) et savoir-être (algorithmisation de nos comportements). Penser la technique aujourd’hui consiste alors à se demander comment nous pouvons entamer une procédure de déprolétarisation en construisant, selon B. Stiegler, une économie de la contribution, c’est-à-dire une économie dont l’objectif n’est plus composé du moteur accumulation-innovation-profits. Nous y reviendrons plus loin.

Face à cette critique, les forces qui opposent une vision déterministe de la technique relèvent de l’intérêt particulier d’une vision capitaliste dont la caractéristique est de livrer une description monolithique des techniques. Pour qu’une technologie-clé soit considérée comme telle, alors que de sa promotion dépendent les choix économiques, il importe de la définir comme une technologie aboutie ou mature, et surtout libérée des contraintes sociales, c’est-à-dire postuler une neutralité de la technique, une suspension dans les vapeurs éthérées du progrès. Qu’est-ce que cela signifie ? C’est le déploiement d’un discours d’autojustification de la décision : l’utilité économique de la technologie l’emporte sur sa valeur sociale, ou en d’autres termes le besoin individuel (sublimé par l’acte de consommation) l’emporte sur l’intérêt commun. L’autonomie de la technique annoncée par J. Ellul est advenue et semble pleinement assumée par les discours dominants des entreprises monopolistes de la Silicon Valley pour lesquelles il n’existe aucun problème que la technologie ne puisse résoudre, et qui guident la décision publique vers un régime de « start-up nation » comme le souhaitait ardemment le président Macron.

Alors même que le mot « numérique » est sur toutes les lèvres pour promouvoir ce projet global de soumission à un ordre technologique capitaliste, Internet et le mouvement du logiciel libre démontrent depuis le milieu des années 1980 qu’il est possible de se réapproprier socialement la technique et la libérer des discours déterministes. Lorsqu’Internet a commencé à être conçu comme un moyen ouvert de télécommunication assistée par des ordinateurs en réseau, c’est-à-dire comme un moyen de communication social-émotionnel en même temps qu’une infinité d’offres de services et d’innovation dont le modèle économique a explosé dans les années 1990, il a produit en réalité un dispositif technique dont la prégnance sur la société contemporaine est si importante qu’il semble déterminer nos comportements et nos relations sociales. Mais ce n’est qu’une apparence. Nous avons vu qu’Internet est en fait un amalgame de dispositifs techniques. Plus exactement, on peut désigner Internet comme un méta-dispositif socio-technique :

  • Sa construction historique est une association d’infrastructures techniques différentes, de programmes et de protocoles différents, tous issus d’une dynamique d’échanges entre des groupes sociaux (issus de la recherche académique, d’entreprises ou des institutions décisionnaires) ;
  • Son modèle de gouvernance est essentiellement basé sur l’ouverture, comme le montre l’Internet Engineering Task Force (IETF) et son système de requêtes de commentaires, ou comme la suite de protocole TCP/IP (depuis 1973) : l’ouverture s’oppose ici à la possibilité qu’un ayant droit, comme un constructeur, puisse décider des conditions d’usage. Tout le monde peut contribuer à l’avancement d’Internet et des protocoles de communication utilisés. Des organismes de normalisation tels l’IETF ou le W3C consolident juridiquement les innovations issues de cette dynamique d’ouverture (pour éviter, par exemple, les patent troll) ;
  • C’est en particulier grâce à cette liberté des échanges que le mouvement du logiciel libre, dont le concept a été défini au début des années 1980, a pu s’émanciper. L’ouverture d’Internet associée aux libertés logicielles a construit un modèle économique contributif, c’est-à-dire dont le niveau de coopération et de production ne dépendent pas du développement individuel des parties, mais du niveau de progression des communs numériques.

En 2020, les chercheuses Mélanie Dulong de Rosnay et Francesca Musiani (Dulong de Rosnay and Musiani 2020) ont publié un article qui interroge la pertinence aujourd’hui des solutions alternatives d’un internet centralisateur et visiblement en tout point éloigné des objectifs d’émancipation que les discours politiques ont tendance à rabâcher. Face aux entreprises monopolistes et au capitalisme de surveillance, elles questionnent les possibilités qu’offrent depuis des années les technologies ouvertes tels le pair à pair (P2P) et autres moyens de communication décentralisés, de pouvoir proposer des alternatives tout en se rapprochant des nouveaux modes de production et de partage qu’offrent les modèles basés sur les communs. Cette manière de concevoir ce rapport entre technique et société permet aujourd’hui de considérer une autre organisation de la société, d’autres modes de production et d’échanges en alliant les architectures décentralisées et la gouvernance des biens communs (Bauwens and Kostakis 2017).

Étant donné le peu de recherche à ce sujet avant les années 2010, nous avons eu tendance à sous-estimer l’impact de la logique du logiciel libre et des échanges P2P dans la représentation générale du rapport entre société et technique. Ce n’est pas par hasard qu’au milieu des années 1980 le concept de logiciel libre se déploie dans la culture en appliquant ses principes à d’autres formes d’échanges et tout particulièrement les connaissances. Les années 1980 correspondent aussi, nous l’avons vu, à l’arrivée des sciences studies. Même si leur naissance conceptuelle débute un peu auparavant (Pestre 2006), les années 1980 furent un véritable âge d’or d’une modernisation de l’histoire des sciences et des techniques. Et à cet impératif d’interdisciplinarité répondait un changement général dans les discours sur les techniques, celui de l’intégration entre science, technique et société. Il ne pouvait plus être affirmé sans contradiction immédiate que le développement des technologies informatiques et surtout les programmes était une affaire d’innovation et de marché uniquement : comme c’était le cas aux premiers âges des ordinateurs mainframe, le logiciel libre, le développement mondial de GNU/Linux, l’arrivée de Wikipédia, tout cela montrait que l’informatique était avant tout une affaire de communautés d’utilisateurs et de créateurs. Les réseaux ont accentué significativement la tendance au partage et ont fait de ces communautés des illustrations évidentes des dynamiques de co-construction entre techniques et organisation sociale.

Ne nous méprenons pas : il n’y a pas de lien de causalité entre l’émergence de communautés mondiales d’utilisateurs et de programmeurs communiquant avec Internet et le nouvel élan scientifique des science studies. Les deux sont concomitants : des convergences conceptuelles existent entre une vision sociale des techniques et un vécu social des techniques. Le logiciel libre, formalisé juridiquement par les licences libres, est une démonstration à grande échelle de ce que les communautés de pratiques apportent comme apprentissages organisationnels et dynamiques d’innovation. Les communautés ne sont pas que des collectifs de partage mais des maillons décisifs dans l’organisation collective du processus de création : conceptualisation, tests, validation (Cohendet, Créplet, and Dupouët 2003).

Le mouvement du logiciel libre, parce qu’il est avant tout un mouvement social, a suscité beaucoup d’espoirs au point de le considérer comme une utopie plus ou moins concrète qui proposerait une alternative au modèle capitaliste dominant. Il n’en est rien : comme le montre Sébastien Broca (Broca 2018), ce mouvement est profondément ancré dans le modèle capitaliste et notre modernité. Certes, il propose de nouveaux équilibres face aux impasses de la propriété intellectuelle, de la concentration des savoirs, de l’accès aux technologies, et de l’organisation du travail (opposer verticalité et horizontalité, cathédrale ou bazar). Pour autant, les libertés que garanti le logiciel libre ne s’opposent à aucun modèle économique en particulier. Dans la mesure où le secteur de la programmation et des services est aujourd’hui un secteur soumis à de très fortes tensions concurrentielles, il n’y a pas de raison pour que les entreprises spécialisées (les sociétés de services en logiciels libres, SSLL) échappent au modèle dominant, même si elles portent en elles des messages éthiques auxquels adhèrent les utilisateurs. L’éthique du logiciel libre apporte une régulation du marché, sans doute la meilleure, en s’appuyant sur des arguments solides et qui engagent utilisateurs et concepteurs dans un avenir cohérent et durable.

Ce qui a fondamentalement changé la donne, en revanche, c’est l’intégration du concept de pair à pair dans les structures mêmes des réseaux de communication. Et parce que les protocoles qui le permettent sont ouverts et basés sur les mêmes libertés numériques que promeut le mouvement pour le logiciel libre, alors le méta-dispositif socio-technique qu’est Internet peut proposer des modèles de production de valeur indépendants des marchés dominants et des politiques économiques. Historiquement cette idée fait écho à la Déclaration d’Indépendance du Cyberespace écrite en 1996 par John Perry Barlow. Cette dernière été comprise comme le rêve libertarien d’un « village global » de communications et d’échanges sans État ni pouvoir central. À bien des égards, c’était le cas, car en 1996 la Déclaration était d’abord une réaction au Telecommunications Act instauré par le gouvernement de Bill Clinton aux États-Unis, qui ouvrait la concurrence dans les services et équipements de télécommunication et contribua finalement à la bulle capitaliste qui explosa en 2000. En revanche, la Déclaration oppose deux approches de la communication : l’une soumise à un ordre de gouvernement qui impose son modèle par le haut, et l’autre qui promeut, en « défense de l’intérêt commun », une « conversation globale de bits », des échanges selon un ordre collectivement déterminé. Face à un ordre économique profondément inégalitaire, un système différent basé sur des échanges égalitaires permet une mutualisation de l’information et structure la gouvernance des communs. Une gouvernance décidée, orientée, régulée collectivement.

Quels communs ? En premier lieu des biens communs informationnels, dont la caractéristique est d’être non rivaux. Mais d’autres communs peuvent être ainsi gouvernés collectivement de manière à ce que les échanges informationnels de pair à pair permettent de structurer la décision et l’organisation, tout comme le logiciel libre permettait des apprentissages organisationnels. Les modèles de production et d’usage sont alors des modèles sociotechniques : décision et processus de décision, le substrat technique sur lequel la décision se structure, c’est-à-dire les outils communicationnels de pair à pair, autant que les échanges de pair à pair de biens et services. Il peut s’agir de modèles bénévoles ou de modèles marchands. Dans tous les cas, le principe de pair à pair empêche fondamentalement les déséquilibres que cause la prédation d’une économie extractive qui ronge les communs et les individus, qu’il s’agisse de l’environnement, de la connaissance ou encore de nos données personnelles.

Dans une économie pair à pair, il est aussi important de structurer les échanges que de les pratiquer. C’est pourquoi, lorsqu’on se concentre sur le rôle que joue Internet (et le cyberespace) il est important là encore d’éviter toute approche déterministe. La proposition selon laquelle l’innovation venue d’un monde « d’en haut », imposée comme une technique autonome à laquelle nous devrions nous adapter, est fondamentalement une proposition fallacieuse  : s’adapter à Google ou à Facebook comme les seuls pourvoyeurs de solutions de communication sur Internet, c’est accepter des modèles d’échanges qui sont structurellement inégalitaires. Certes des échanges auront bien lieu, mais ils se soumettent à une logique extractive et, comme l’a montré l’affaire Cambridge Analytica, ils imposent aussi leur propre ordre politique. L’autre face de cette proposition fallacieuse consiste à séparer technique et société, en faisant croire qu’Internet est avant tout un ensemble de services techniques précis dont l’avenir ne dépend pas des utilisateurs mais des capacités d’innovation des entreprises qui construisent pour nous un cyberespace mesuré et régulé… alors qu’il est essentiellement conformé à leurs propres intérêts, ainsi qu’en témoigne la tendance concentrationnaire des conditions de l’innovation technique (propriété intellectuelle, puissance financière, possession des infrastructures).

Lorsque le philosophe des techniques Andrew Feenberg s’interroge à propos d’Internet et de son pouvoir d’encapacitation démocratique (Feenberg 2014), il commence par montrer combien Internet est un dispositif qui échappe aux analyses classiques. Historiquement, la stabilisation d’une technologie dans la société vient du fait qu’elle entre dans une dynamique de production et d’innovation qui lui est propre : ce n’est qu’après que le moteur à explosion soit choisi de préférence par les constructeurs que l’automobile passa du statut de prototype à objet de luxe puis à un objet de consommation qui modifia l’organisation sociale en tant que mode de transport. Il n’y a pas d'« artefact Internet » et encore moins qui puisse répondre à ce schéma. C’est pourquoi le fait qu’Internet soit un espace d’échanges qui favoriserait la démocratie est une affirmation qui, selon A. Feenberg doit d’abord prendre en considération qu’Internet est un dispositif sociotechnique qui est encore indéterminé. Pour notre part, nous pensons qu’Internet est potentiellement un dispositif à jamais indéterminé à condition de maintenir le pair à pair comme principe fondamental.

On peut considérer le dispositif dans un sens philosophique. Essentiellement en référence à Michel Foucault, plusieurs penseurs ont travaillé cette notion de dispositif. Giogio Agamben répond à la question Qu’est-ce qu’un dispositif ? en ces termes (Agamben 2014  ; Agamben 2006) :

(…) tout ce qui a, d’une manière ou d’une autre, la capacité de capturer, d’orienter, de déterminer, d’intercepter, de modeler, de contrôler et d’assurer les gestes, les conduites, les opinions et les discours des êtres vivants. Pas seulement les prisons donc, les asiles, le panoptikon, les écoles, la confession, les usines, les disciplines, les mesures juridiques, dont l’articulation avec le pouvoir est en un sens évidente, mais aussi, le stylo, l’écriture, la littérature, la philosophie, l’agriculture, la cigarette, la navigation, les ordinateurs, les téléphones portables, et, pourquoi pas, le langage lui-même (…)

Définir un dispositif, c’est le faire entrer dans une liste dont l’objectif est de rassembler des éléments certes hétérogènes (dispositifs institutionnels, cognitifs, techniques, etc.) mais dont, à un moment donné la cohérence définit l’action. Par exemple l’action de gouverner, d’imposer un pouvoir, ou pour ce qui concerne un dispositif technique, le fait de déterminer des usages ou configurer plus ou moins significativement l’organisation sociale. Envisager Internet comme un dispositif, au sens philosophique, amène une dimension supplémentaire à notre analyse : si Internet est un dispositif indéterminé, il peut devenir l’infrastructure au sens métaphorique, ou la matrice matérielle et logicielle, pratique et théorique, des relations de pair à pair à la source d’alternatives plurielles et néanmoins cohérentes au modèle privateur dominant, et donc matrice d’apprentissages organisationnels ouvrant une pluralité de choix sociaux, économiques, technologiques, politiques.

Internet est ce que nous en ferons. Et pour cela il n’y a aucune ambiguïté dans les projets communautaires consistant à bâtir des réseaux dont les caractéristiques intègrent techniquement la logique des échanges pair à pair grâce au développement de logiciels libres. C’est le cas de ce qui a été nommé depuis quelques années le Fediverse. Il s’agit d’un ensemble de serveurs fédérés entre eux de telle sorte que chacun d’entre eux puisse échanger avec les autres de manière transparente afin de former des réseaux décentralisés de publications de contenus. Chaque serveur propose au moins une instance d’un logiciel libre dont le but est de permettre aux utilisateurs de communiquer entre eux et à travers toutes les instances, par exemple pour des activités de micro-blogage, de blog, de partage de vidéo, de musique, etc. Les logiciels sont libres (le code est connu de tous) et les protocoles ouverts sont standardisés (depuis 2008 avec OStatus jusqu’au protocole ActivityPub recommandé par le W3C). Les seules limites au Fediverse sont celles de la créativité de ses utilisateurs et concepteurs ainsi que l’impossibilité technique de centraliser et capter des ressources, surtout dans une logique de profit, sans sortir du Fediverse. Quant aux usages, et le fait qu’une instance puisse être acceptée par les autres, ils reposent eux aussi sur les notions de partage et de réciprocité. Le Fediverse est sans doute la plus brillante démonstration de l’indétermination d’Internet en tant que dispositif sociotechnique : nonobstant la législation en vigueur dans le pays où une instance est installée, toute tentative de régulation par le haut afin de défendre des intérêts particuliers est vouée à l’échec (de l’un ou de l’autre ou des deux).

Conclusion : portes de sortie

Nous avons vu qu’une tradition du déterminisme technologique transparaissait dans les représentations d’une société informatisée, mêlant ici les espoirs de l’encapacitation générale à la démocratie, et là la nécessité d’un modèle productiviste et innovateur. L’économie numérique s’est imposée comme un nouvel ordre face auquel les critiques « anti-déterministes » avaient tendance à focaliser sur les critiques du pouvoir que cet ordre imposait, ou sur les manquements éthiques d’une technique prétendue autonome. Cependant, si l’avancement technologique est bien le jeu d’interactions entre sciences, techniques et société, il pouvait y avoir la possibilité pour que certaines techniques intègrent en elles by design une réaction à ce nouvel ordre économique. Par conséquent, il existe bien une possibilité de se sortir du modèle productiviste et d’innovation capitaliste. Néanmoins ce modèle est tellement dominant que, du point de vue des utilisateurs, c’est le discours déterministe qui reste encore le plus audible sur le mode d’une idolâtrie de la machine pour reprendre les mots de Simondon (Simondon 1969).

Une grande partie des usages publics d’Internet sont dépendants de sociétés de services qui centralisent l’information et conditionnent les usages de manière déloyale afin d’extraire des données personnelles des utilisateurs. Longtemps dénoncé, ce système fait d’internet un dispositif d’assujettissement, ainsi que le montre S. Zuboff, en surveillant nos quotidiens, en captant nos expériences humaines et en les instrumentalisant pour orienter nos comportements. C’est pourquoi la critique de ce dispositif a fait un lien direct avec un autre dispositif, le panoptique de J. Bentham dont s’inspire Michel Foucault. En effet, pour ce dernier, tout dispositif, surtout parce qu’il a une finalité stratégique, contient une relation de pouvoir (Foucault 1994b, 300). La surveillance continue, exercée tant par des entreprises monopolistes que par des États, a éclaté au grand jour à travers le scandale soulevé par les Révélations Snowden en 2014. Or, ce fut là le point de convergence où l’on trouva les preuves indiscutables que les dispositifs de surveillance avaient des objectifs de contrôle et donc d’assujettissement. La clairvoyance des penseurs postmodernes pouvait être convoquée : si Michel Foucault avait bien anticipé le caractère transitoire d’une société disciplinaire où l’enfermement permet la surveillance et donc l’équilibre du contrat social, l’avenir d’une telle société, nous disait Gille Deleuze (Deleuze 1990), était de passer à un mode ouvert où le contrôle s’exercerait de manière instantanée, permanente et diffuse. À leur tour Michael Hardt et Antonio Negri (Negri and Hardt 2004) montrent que le propre d’une société de contrôle consiste à se servir des dispositifs les plus démocratiques, les plus socialement intégrés pour exercer un contrôle cognitif et biologique. Aujourd’hui ces formes de contrôles ne font aucun doute lorsqu’on considère les scandales sur la sécurité des données personnelles et la main-mise des courtiers de données sur l’analyse comportementale et le modelage de nos comportements au marché ou les techniques de surveillance de masse des populations par les États (et le marché hautement lucratif de ces techniques).

Nous savons tout cela. Mais à ne voir qu’un assujettissement, on ne pense plus une critique d’Internet qu’à travers ce prisme. Or, comme le montre le Fediverse, il existe des stratégies qui, depuis longtemps, imbriquent dans les dispositifs techniques des logiques en tout point opposées au contrôle et au pouvoir. D’où viennent ces stratégies ?

On pourrait les rapprocher des pratiques que déploient les individus en société, la consolidation des relations sociales à travers le souci de soi. Non pas un réflexe individualiste, mais à l’instar de la manière dont Michel Foucault en comprend le déploiement à partir de la cité antique (Foucault 1984), c’est-à-dire les « arts de l’existence », un travail sur soi que l’on fait à travers des pratiques permettant de se transformer afin de vivre avec les autres, partager des règles communes, un « connais-toi toi-même – mais aussi prend soin de toi », comme le conseille Socrate à Alcibiade, pour élever le citoyen (peut-être amené à gouverner) vers l’exemplarité, l’esthétique de soi. Le souci de soi est d’abord la capacité de prendre la mesure de l’autre, en ce sens c’est un rapport éthique  : « le souci de soi est éthiquement premier, dans la mesure où le rapport à soi est ontologiquement premier » (Foucault 1994a). C’est un principe d’accomplissement et en cela, le souci de soi, individuellement et collectivement, est la tendance à mettre en œuvre des pratiques de liberté. Le principe du pair à pair et son inclusion dans des dispositifs techniques tels le Fediverse, élaborés collectivement, de manière contributive, apparemment spontanée mais dans l’effort réfléchi d’une stratégie altruiste, relève de ce souci de soi en structurant les conditions communes de communication et de production de contenus.

Ces pratiques de libertés se retrouvent dans l’œuvre de Michel de Certeau (Certeau 1990). Ce dernier oppose au principe d’assujettissement une lecture beaucoup plus fine du quotidien de l’homme ordinaire face à un ordre organisateur de la technologie. M. de Certeau s’interroge d’abord sur notre état de consommateur dans une économie de production où nous serions docilement soumis à la manipulation par dispositifs communicationnels interposés de marketing ou de télévision. Comment comprendre que la masse de nos singularités puisse être comprise comme un tout uniforme soumis au pouvoir des dispositifs sociotechniques de l’économie ou de l’État ? Au contraire, dans les messages qu’il reçoit, dans ses manières de consommer ou d’agir avec les techniques qu’on lui vend ou qu’on lui impose, il y a toujours chez l’individu un moment de réappropriation tactique qui est en soi un mode de production selon le contexte, un réemploi qui est quelque chose de plus que le seul usage, c’est-à-dire une manière de faire et une manière d’être qui sont à nulles autres pareilles. Or, alors même que les critiques des GAFAM montrent à quel point l’économie numérique influe sur nos quotidiens au point de s’en emparer en pillant notre vie privée, il s’avère que l’équation n’est peut-être pas aussi simple du point de vue individuel. L’approche du quotidien comme celle de Michel de Certeau peut sans doute édulcorer l’idée d’un assujettissement général aux dispositifs de pouvoir.

Alan Westin, l’une des figures intellectuelles des débats publics sur la vie privée au début des années 1970, a longuement travaillé avec de grands instituts de sondage sur la manière dont la population américaine perçoit les risques liés à l’usage des données personnelles dans l’économie numérique. Il dirigea pas moins de 45 sondages entre 1979 et 2001. L’une de ses conclusions est que, si dans les années 1980 une petite partie seulement des personnes se sentait concernée par la question de la vie privée, les années 1990 connurent une multiplication des pratiques et stratégies des consommateurs pour veiller sur cette question. Il résume lors d’une intervention au Congrès en 2001 (Westin 2001) :

Au fil des ans, les sondages que j’ai menés auprès de Harris et de Opinion Research Corporation m’ont permis de dresser un profil de trois segments du public américain. Premièrement, il y a ce que nous appelons les « fondamentalistes de la protection de la vie privée », soit environ 25 % de la population. Il s’agit de personnes très préoccupées par la protection de la vie privée, qui rejettent généralement les avantages qui leur sont offerts par les entreprises ou qui sont sceptiques quant au besoin d’information du gouvernement, et qui veulent voir une loi pour contrôler la collecte et l’utilisation des renseignements personnels par les entreprises.

À l’opposé, il y a ce que j’appelle les « non-concernés », qui étaient auparavant de 20 %, mais qui sont maintenant tombés à 12 %, et qui ne savent vraiment pas de quoi il s’agit. J’aime à penser que pour 5 cents de rabais, ils vous donneront toutes les informations que vous voulez sur leur famille, leur style de vie, leurs plans de voyage, etc.

Entre les deux, il y a ce que nous appelons les « pragmatiques de la protection de la vie privée », soit 63 %, ce qui représente environ 126 millions d’adultes américains et, essentiellement, ils passent par un processus très structuré lorsqu’ils se préoccupent de leur vie privée.

Cet état des lieux montre à quel point l’écrasante majorité des personnes élabore des stratégies (et Michel de Certeau aurait parlé de tactiques) en réponse aux dispositifs de surveillance, alors même que la critique dominante des pratiques des entreprises et des États a tendance à présupposer la passivité chronique de toute la population. Et le problème ne cesse de s’aggraver. Dans un documentaire de 2020 intitulé The Social Dilemma, des « repentis » des grandes entreprises telles Facebook, témoignent à l’encontre des pratiques de captation de l’attention et d’extraction des données personnelles dont ils ont participé à la mise en œuvre. Au long du documentaire, le présupposé consiste à démontrer que seuls les experts des technologies numériques qui ont effectivement travaillé dans ces entreprises seraient à même de développer un discours légitime à leur propos. L’idée sous-jacente serait qu’il n’y peut y avoir de critique des dispositifs techniques en dehors de ces dispositifs. La société ne peut qu’être soumise à ce déterminisme technologique dans la mesure où l’expertise se concentre à l’intérieur du modèle économique qui crée la technologie.

On voit à quel point cette idée est décalée de la réalité car non seulement les utilisateurs créent dans leur quotidien des stratégies de réappropriation mais, de plus, ces stratégies ont toujours existé, depuis les phreakers jusqu’au détournement des services de catalogue commerciaux Prodigy en salons de chat à la fin des années 1980 jusqu’à la création de logiciels et services libres de réseaux sociaux. Des espaces de résistance se sont formés et n’appartiennent pas uniquement aux experts. Ces tactiques du quotidien sont diffuses et universelles. La logique et l’éthique hacker ont su gagner les mentalités et la culture.

On pourra néanmoins rétorquer qu’une analyse sociologique montrerait que l’adoption des dispositifs alternatifs a toujours besoin d’une expertise, et que par conséquent se développent là aussi des jeux de pouvoir entre spécialistes et non spécialistes. C’est d’autant moins vrai que de plus en plus de collectifs ouverts aux non-spécialistes proposent une organisation contributive des dispositifs techniques, c’est-à-dire la possibilité pour tous les utilisateurs d’accomplir leurs actes de réappropriation dans des espaces communs et dans un engagement éthique. Par exemple : ne pas exiger un service de courrier électronique à la hauteur de ce que les grandes firmes proposent, mais en retour avoir la possibilité d’utiliser un service de confiance, dont on connaît les responsables de maintenance. Répondre à des offres de services globaux et basées sur des logiques de profits en initialisant de nouvelles chaînes de confiance dans un système de pair à pair, local et contributif, telle est la réponse « populaire » à la défaite de l’assujettissement, de l’aliénation ou du refuge spirituel.

En fin de compte, il ne suffit pas de s’approprier ou de transformer les techniques (la perversion de l’éthique hacker par les chantres de la Silicon Valley l’a bien montré). La déprolétarisation pensée par Bernard Stiegler ne se suffit pas à elle-même : c’est dans un système contributif qu’il faut créer des techniques qui n’ont pas de prise aliénante sur l’homme. L’éthique du logiciel libre non plus ne se suffit pas : il faut pour lui donner corps des collectifs qui mettent en œuvre concrètement des systèmes de pair à pair producteurs d’organisation, de pratiques mais aussi de biens et services. Ces collectifs préfigurent des modèles organisationnels de demain, c’est-à-dire que les apprentissages organisationnels, les procédures démocratiques qu’ils mettent en œuvre tout autant que les services et les biens qu’ils produisent s’élaborent collectivement et simultanément, sans obéir à des schémas préexistants mais en s’adaptant aux contextes divers dans lesquels ils se déploient, et afin de refléter une ou plusieurs idées de la société future (voir à ce propos des mouvements préfiguratifs les travaux de Carl Boggs, David Graeber et Mariane Maeckelbergh).

Pour terminer cette conclusion, une proposition déclarative. Il est troublant de constater que dans la conclusion de leur article, M. Dulong de Rosnay et de F. Musiani proposent, pour que les alternatives au capitalisme numérique puissent aboutir, un triptyque composé d’un environnement de partage (juridiquement sécurisé), de la recherche et la diffusion des connaissances historiques et techniques. Nous établissons un parallèle avec le triptyque de David Graeber et Andrej Grubacic (Graeber and Grubacic 2004) à propos de l’avenir des mouvements anarchistes au XXIe siècle qui, pour se déployer au mieux (et dans un mouvement que nous pouvons qualifier de préfiguratif, là aussi) ont besoin de la jonction entre militants, chercheurs et organisations populaires. Les mouvements collectifs du futur Internet établiront ces jonctions sur les déclinaisons suivantes des dispositifs socio-techniques communicationnels :

  • indétermination du dispositif (logique d’ouverture et innovation collective permanente),
  • neutralité et communalité assurées par le design matériel et logiciel,
  • interopérabilité et compatibilité,
  • responsabilité juridique et indépendance institutionnelle,
  • pérennité des protocoles et contributions (RFC, copyleft)
  • décentralisation, déconcentration des ressources (matérielles et financières)
  • fédération des instances et gouvernementalité multiorganisationnelle,
  • inclusion de tous et refus des formes de pouvoirs politiques, religieux, de classe ou capitalistes,
  • opposition radicale à toute forme de surveillance à des fins de profits privés.

Bibliographie

Abbate, Janet. 2012. “L’histoire de l’Internet Au Prisme Des STS.” Le Temps Des médias 18 (1): 170. https://doi.org/10.3917/tdm.018.0170.

—. 2018. “Code Switch: Alternative Visions of Computer Expertise as Empowerment from the 1960s to the 2010s.” Technology and Culture 59 (4): S134–59. https://doi.org/10.1353/tech.2018.0152.

Agamben, Giorgio. 2006. “Théorie des dispositifs.” Po&sie 115 (1): 25–33. https://www.cairn.info/revue-poesie-2006-1-page-25.htm.

—. 2014. Qu’est-ce qu’un dispositif ? Paris: Rivages.

Agre, Philip E. 2002. “Cyberspace As American Culture.” Science as Culture 11 (2): 171–89. https://doi.org/10.1080/09505430220137234.

Akrich, Madeleine. 2006. “La Description Des Objets Techniques.” In Sociologie de La Traduction : Textes Fondateurs, edited by Michel Callon and Bruno Latour, 159–78. Sciences Sociales. Paris: Presses des Mines. http://books.openedition.org/pressesmines/1197.

Aron, Raymond. 1944. “L’avenir Des Religions séculières I.” La France Libre 8 (45): 210–17.

Atten, Michel. 2013. “Ce Que Les Bases de Données Font à La Vie Privée. L’émergence d’un Problème Public Dans l’Amérique Des Années 1960.” Réseaux 178 (2): 21–53. https://doi.org/10.3917/res.178.0021.

Babbage, Charles. 1963. On the Economy of Machinery and Manufactures (1832). (1832) ed. New York: Kelley.

Baran, Paul. 1965. “Communications, Computers and People.” In AFIPS, Fall Joint Comput. Conf., 27:45–49. Thompson Book Co.

Bauwens, Michel, and Vasilis Kostakis. 2017. Manifeste Pour Une véritable économie Collaborative. Vers Une Société Des Communs. Paris: Éditions Charles Léopold Mayer. https://www2.eclm.fr/livre/manifeste-pour-une-veritable-economie-collaborative/.

Bolter, J. David. 1984. Turing’s Man: Western Culture in the Computer Age. Chapel Hill: The University of North Carolina Press.

Broca, Sébastien. 2018. Utopie du logiciel libre. Lyon, France: Éditions le Passager clandestin.

Bødker, Susanne, Pelle Ehn, Dan Sjögren, and Yngve Sundblad. 2000. “Cooperative Design — Perspectives on 20 Years with ‘the Scandinavian IT Design Model’.” In Proceedings of NordiCHI 2000. Stockholm. https://www.lri.fr/~mbl/ENS/DEA-IHM/papers/Utopia.pdf.

Callon, Michel. 2006. “Sociologie de l’acteur réseau.” In Sociologie de La Traduction : Textes Fondateurs, edited by Madeleine Akrich and Bruno Latour, 267–76. Sciences Sociales. Paris: Presses des Mines. http://books.openedition.org/pressesmines/1201.

Certeau, Michel de. 1990. L’invention du quotidien. 2 vols. Paris, France: Gallimard, DL 1990-1994.

Ceruzzi, Paul E. 1998. A History of Modern Computing. MIT Press. Cambridge, Mass.

Charnes, Abraham, William W. Cooper, J. DeVoe, and D. B. Learner. 1968a. “DEMON: A Management Model for Marketing New Products.” California Management Review 11 (1): 31–46.

—. 1968b. “DEMON, MARK II : An External Equation Approach to New Product Marketing.” Management Science 14 (8): 513–24.

Cohendet, Patrick, Frédéric Créplet, and Olivier Dupouët. 2003. “Innovation Organisationnelle, Communautés de Pratique Et Communautés épistémiques: Le Cas de Linux.” Revue Française de Gestion 29 (146): 99–121. https://doi.org/10.3166/rfg.146.99-121.

Colstad, Ken, and Efrem Lipkin. 1976. “Community Memory: A Public Information Network.” ACM SIGCAS Computers and Society 6 (4): 6–7. https://doi.org/10.1145/958785.958788.

Conner, Clifford D. 2011. Histoire populaire des sciences. Montreuil, France: Éditions L’Échappée.

Cooley, Mike. 1980. “Computerization – Taylor’s Latest Disguise.” Economic and Industrial Democracy 1: 523–39. https://doi.org/10.1177%2F0143831X8014004.

Debord, Guy. 1992. La société du spectacle. Paris, France: Gallimard.

Deleuze, Gilles. 1990. “Post-Scriptum Sur Les Sociétés de Contrôle.” In Pourparlers 1972-1990, 240–47. Paris: Éditions de minuit.

Doub, Bob. 2016. Community Memory: Precedents in Social Media and Movements. Computer History Museum. Mountain View.

Draus, Franciszek. 1995. “Max Weber Et La Liberté.” Revue Européenne Des Sciences Sociales 33 (101): 123–43. https://www.jstor.org/stable/40370104.

Dulong de Rosnay, Mélanie, and Francesca Musiani. 2020. “Alternatives for the Internet: A Journey into Decentralised Network Architectures and Information Commons.” tripleC: Communication, Capitalism & Critique, August, 622–29. https://doi.org/10.31269/triplec.v18i2.1201.

Ellul, Jacques. 1954. La technique ou l’enjeu du siècle. Paris, France: Armand Colin.

—. 1964. The Technological Society. New York: Vintage Books.

Etzioni, Amitai, Kenneth Laudon, and Sara Lipson. 1975. “Participatory Technology: The MINERVA Communications Tree.” Journal of Communication 25 (2): 64–74. https://doi.org/10.1111/j.1460-2466.1975.tb00581.x.

Fabius, Laurent. 1985. Brochure : Informatique Pour Tous. Paris: Éditions CNDP.

Feenberg, Andrew. 2014. “Vers une théorie critique de l’Internet.” Tic&Société 8 (1). https://doi.org/10.4000/ticetsociete.1382.

Feintrenie, Aurélie. 2003. Chronique de la grève de 1974 au Crédit lyonnais. Librairie Droz. https://www.cairn.info/le-credit-lyonnais-1863-1986--9782600008075-page-153.htm.

Foster, John Bellamy, and Robert W. McChesney. 2014. “Surveillance Capitalism. Monopoly-Finance Capital, the Military-Industrial Complex, and the Digital Age.” Monthly Review 66 (July). https://monthlyreview.org/2014/07/01/surveillance-capitalism/.

Foucault, Michel. 1984. Histoire de La Sexualité. Tome 3 -- Le Souci de Soi. Paris: Gallimard.

—. 1994a. “L’éthique Du Souci de Soi Comme Pratique de La Liberté.” In Dits Et Écrits IV, 708–29. Paris: Gallimard.

—. 1994b. “Le Jeu de Michel Foucault.” In Dits Et Écrits III, 298–329. Paris: Gallimard.

Garfinkel, Simson. 1999. Architects of the Information Society: Thirty-Five Years of the Laboratory for Computer Science at Mit. MIT Press. Cambridge, Mass.

Graeber, David, and Andrej Grubacic. 2004. “L’Anarchisme, Ou Le Mouvement révolutionnaire Du Vingt Et Unième Siècle.” The Anarchist Library. https://fr.theanarchistlibrary.org/library/david-graeber-andrej-grubacic-l-anarchisme-ou-le-mouvement-revolutionnaire-du-vingt-et-unieme-s.

Haigh, Thomas. 2001. “Inventing Information Systems: The Systems Men and the Computer, 1950–1968.” Business History Review 75 (1): 15–61. https://doi.org/10.2307/3116556.

Heidegger, Martin. 1958. “La Question de La Technique.” In Essais Et Conférences, 9–48. Paris: Gallimard.

Heilbroner, Robert L. 1967. “Do Machines Make History?” Technology and Culture 8 (3): 335–45. https://doi.org/10.2307/3101719.

Husson, Édouard. 2018. “Peter Thiel, Les Libertariens Et La Silicon Valley : Comme Une méchante Ombre Sur Les démocraties Occidentales.” Atlantico, January 7, 2018.

Kristal, Tali. 2013. “The Capitalist Machine: Computerization, Workers' Power, and the Decline in Labor’s Share Within U.S. Industries:” American Sociological Review, May. https://doi.org/10.1177/0003122413481351.

Latouche, Serge. 1991. La Planète Des Naufragés. Essai Sur l’après-développement. Paris: La Découverte.

—. 1995. La mégamachine. Raison Techno-Scientifique, Raison économique Et Mythe Du Progrès. Paris: La Découverte -- Bibliothèque du MAUSS.

Law, John. 1987. “On the Social Explanation of Technical Change: The Case of the Portuguese Maritime Expansion.” Technology and Culture 28 (2): 227–52. https://doi.org/10.2307/3105566.

Lundin, Per. 2011. “Designing Democracy: The UTOPIA-Project and the Role of the Nordic Labor Movement in Technological Change During the 1970s and 1980s.” In History of Nordic Computing 3, edited by John Impagliazzo, Per Lundin, and Benkt Wangler, 187–95. IFIP Advances in Information and Communication Technology. Berlin, Heidelberg: Springer. https://link.springer.com/book/10.1007/978-3-642-23315-9.

Maire, Edmond. 1977. “Préface.” In Les dégâts Du Progrès Les Travailleurs Face Au Changement Technique, edited by Jean-Louis Missika, Jean-Philippe Faivret, and Dominique Wolton. Paris: Seuil.

Martin, James. 1978. The Wired Society. Englewood Cliffs, N.J: Prentice-Hall.

Martin, James, and Adrian R. D. Norman. 1970. The Computerized Society. An Appraisal of the Impact of Computers on Society over the Next 15 Years. Englewood Cliffs: Prentice-Hall.

Marx, Karl. 1896. Misère de La Philosophie. Paris: Giard et Brière.

Masutti, Christophe. 2020. Affaires Privées. Aux Sources Du Capitalisme de Surveillance. Paris: C&F Éditions.

Missika, Jean-Louis, Jean-Philippe Faivret, and Dominique Wolton. 1977. Les dégâts Du Progrès Les Travailleurs Face Au Changement Technique. Paris: Seuil.

Morozov, Evgeny. 2014. Pour Tout résoudre Cliquez Ici : L’aberration Du Solutionnisme Technologique. Paris: Éditions FYP.

Moussy, Jean-Pierre. 1988. “L’emploi au cœur de la mutation bancaire.” Revue d’économie financière 7 (3): 49–67. https://doi.org/10.3406/ecofi.1988.1547.

Mumford, Lewis. 1950. Technique Et Civilisation. Paris: Seuil.

—. 1973. Le mythe de la machine. Translated by Léo Dilé. 2 vols. Paris, France: Fayard.

—. 2014. “L’héritage de l’homme.” Translated by Annie Gouilleux. Notes & Morceaux Choisis -- Bulletin Critique Des Sciences, Des Technologies Et de La Société Industrielle 11.

Narcy, Michel. 1986. “Au Terme de Deux Enquêtes.” Informatique Et pédagogie -- Numéro Spécial de l’EPI 42: 53–60. https://www.epi.asso.fr/revue/histo/h85-gredip.htm.

Negri, Antonio, and Michael Hardt. 2004. Empire. Paris: 10/18.

Nelsen, Arvid. 2016. “Concern for the ‘Disadvantaged’: ACM’s Role in Training and Education for Communities of Color (1958–1975).” In Communities of Computing: Computer Science and Society in the ACM, by Thomas J. Misa, 229–58. New York: ACM Books.

Panzieri, Raniero. 1968. Quaderni Rossi. Luttes Ouvrières Et Capitalisme d’aujourd’hui. Paris: Maspéro.

Pestre, Dominique. 2006. Introduction Aux Science Studies. Paris: La Découverte.

Pfaffenberger, Bryan. 1988. “The Social Meaning of The Personnal Computer : Or Why the Personal Computer Revolution Was Not a Revolution.” Anthropological Quarterly 61 (1): 39–47. https://doi.org/doi:10.2307/3317870.

Rawls, John. 1997. Théorie de la justice. Translated by Catherine Audard. Paris, France: Éditions du Seuil.

Rosenbrock, Howard Harry. 1977. “The Future of Control.” Automatica (1975) 13: 389–92. https://doi.org/10.1016/0005-1098(77)90022-X.

Rossman, Michael. 1976. “Implications of Community Memory.” ACM SIGCAS Computers and Society 6 (4): 7–10. https://doi.org/10.1145/958785.958789.

Schmitt, Carl. 1988. Théologie politique. Translated by Jean-Louis Schlegel. Paris, France: Gallimard.

Simondon, Gilbert. 1969. Du Mode d’existence Des Objets Techniques. Paris: Aubier-Montaigne.

Smith, Merritt Roe. 1994. “Technological Determinism in American Culture.” In Does Technology Drive History?, edited by Merritt Roe Smith and Leo Marx, 1–35. Cambridge: MIT Press.

Smith, Steve. 1989. “Information Technology in Banks: Taylorization or Human-Centered Systems?” In Computers in the Human Context, edited by Tom Forester, 377–90. Cambridge: MIT Press.

Solove, Daniel J. 2002. “Conceptualizing Privacy.” California Law Review 90 (4): 1132–40. https://ssrn.com/abstract=313103.

Sundblad, Yngve. 2011. “UTOPIA: Participatory Design from Scandinavia to the World.” In History of Nordic Computing 3, edited by John Impagliazzo, Per Lundin, and Benkt Wangler, 176–86. IFIP Advances in Information and Communication Technology. Berlin, Heidelberg: Springer. https://link.springer.com/book/10.1007/978-3-642-23315-9.

Thoreau, Henri David. 1922. Walden Ou La Vie Dans Les Bois. Translated by Louis Fabulet. Paris: La Nouvelle Revue Française.

Turner, Fred. 2012. Aux Sources de l’utopie Numérique : De La Contre Culture à La Cyberculture. Stewart Brand, Un Homme d’influence. Caen: C&F Editions.

Turoff, Murray, and Starr Roxane Hiltz. 1994. The Network Nation: Human Communication via Computer. Cambridge: MIT Press.

Vinck, Dominique. 2012. “Manières de Penser l’innovation.” In Les Masques de La Convergence. Enquêtes Sur Sciences, Industries Et Aménagements, by Bernard Miège and Dominique Vinck, 125–48. Paris: Éditions des Archives contemporaines.

Westin, Alan F. 1967. Privacy and Freedom. New York: Atheneum.

—. 2001. “Opinion Surveys: What Consumers Have to Say About Information Privacy.” In Hearing Before the Subcommittee on Commerce, Trade and Consumer Protection of the Committee on Energy and Commerce, 107th Congress. https://www.gpo.gov/fdsys/pkg/CHRG-107hhrg72825/html/CHRG-107hhrg72825.htm.

Wyatt, Sally. 2008. “Technological Determinism Is Dead; Long Live Technological Determinism.” In The Handbook of Science and Technology Studies. Third Edition, edited by Edward J. Hackett, Olga Amsterdamska, Michael Lynch, and Judy Wajcmann, 165–80. Cambridge: MIT Press.

Zuboff, Shoshana. 1988. In The Age Of The Smart Machine: The Future Of Work And Power. New York: Basic Books.

—. 2019. The Age of Surveillance Capitalism: The Fight for a Human Future at the New Frontier of Power. New York: Public Affairs.

Notes


  1. La citation : « Le moulin à bras vous donnera la société avec le suzerain ; le moulin à vapeur, la société avec le capitaliste industriel ». ↩︎

  2. Publicité Apple parue dans le magazine Byte en décembre 1977, page 2. La reproduction est disponible sur commons.wikimedia.org. URL. ↩︎

  3. Voir la définition de hacker dans le Jargon File. URL ↩︎

  4. Trades Union Congress Report 1956, TUC history online, p. 518-519. ↩︎

  5. Trades Union Congress Report 1965, TUC history online, p. 136. ↩︎

  6. United States National Commission on Technology, Automation, and Economic, Technology and the American Economy: Report, vol. III, p. 57. ↩︎

  7. Écouter l’émission La Fabrique de l’Histoire (France Culture) : Quand les banquiers criaient « À bas les profits ! », 13 mars 2012. URL. ↩︎

  8. Karl Marx, Le Capital, livre I, ch. 4 — Le caractère fétiche de la marchandise et son secret. ↩︎

  9. Pour citer Serge Latouche: « la technique n’est pas un instrument au service de la culture, elle est la culture ou son tenant lieu ». ↩︎


Publié le 02.06.2020 à 02:00

Affaires privées : les coulisses

À la suite d’un échange sur une plateforme de microblogage, j’ai promis de décrire ma méthode de production de manu-(tapu)scrit en vue de l’édition d’un livre. Ce billet vise à montrer à quel point les formats ouverts sont importants dans un processus d’écriture. Il témoigne de mes préférences et n’est en aucun cas une méthode universelle. Cependant j’ose espérer qu’il puisse donner quelques pistes profitables à tous !

Identification des besoins

Le livre dont il est question ici (il est bien, achetez-le !) s’intitule Affaires privées. Aux sources du capitalisme de surveillance, publié chez C&F Éditions, mars 2020. Il fait un peu moins de 500 pages. La production du manuscrit proprement dit (le fichier qu’on envoie à l’éditeur) m’a pris environ 5 mois. Sur cette base, l’équipe éditoriale (qu’elle en soit ici remerciée) s’est livrée au travail de relecture, avec plusieurs va-et-vient avec moi pour les corrections, et enfin un gros travail de mise en page.

Ce dont je vais traiter ici concerne la production du tapuscrit, et donc le processus d’écriture proprement dit, qui regarde essentiellement l’auteur. Pour le reste, il s’agit d’un travail éditorial avec d’autres contraintes.

Au risque d’être un peu caricatural il va me falloir décrire rapidement ce qu’est un travail de recherche en histoire et philosophie des sciences. On comprendra mieux ainsi pourquoi le choix des formats de fichiers est important dans l’élaboration d’un flux de production d’écriture pour un document long, comme un livre, ou même lorsqu’on s’apprête à écrire un article.

Dans ce type de travail, il ne suffit pas de récolter des documents historiques (pour ce qui me concerne, il s’agit de textes, photos, vidéos). Ces sources sont stockées dans différents formats, surtout des PDF (par exemple des fac-similés, des copies d’articles), des transcriptions sous forme de texte (le plus souvent dans un format texte de base), etc. Étant donnée cette diversité, un premier impératif consiste à ne pas sur-ajouter des formats et tâcher de faire en sorte que les notes de consultation soient accessibles dans un format unique et le plus malléable possible. Par ailleurs, se pose aussi la question du stockage de ces sources : les avoir à disposition, où que je me trouve, et m’assurer de la pérennité de leur sauvegarde.

Outre les sources, je dispose de travaux d’écriture préalables. Écrire un manuscrit en 5 mois n’est possible qu’à la condition d’avoir aussi à disposition une matière déjà travaillée en amont, comme un terrain préparatoire à l’écriture proprement dite. Il faut considérer ces travaux préparatoires comme des sources avec un statut particulier.

Il en est de même pour les notes de lectures qui sont aussi des réflexions sur les enjeux philosophiques, historiques et politiques, la méthodologie, les idées critiques, bref des sources particulières puisque produites par moi et toujours soumises à modifications au fur et à mesure de la maturité d’une pensée et de l’acquisition de connaissances.

Se pose ensuite la question du recensement des sources et, de manière générale, toute la bibliographie qu’il faudra utiliser dans le manuscrit. Dans ce genre de discipline, au risque de barber sérieusement le lecteur, une forme d’obligation consiste à citer la bibliographie « à la page » chaque fois que cela est possible. Afin de pouvoir mobiliser ces éléments qui se chiffrent par centaines, il faut bien entendu avoir un système capable de trier, classer, et sortir des références bibliographiques exploitables.

Un autre impératif consiste à élaborer un flux d’écriture qui soit à la fois rapide et efficace tout en l’édulcorant au maximum des contraintes logicielles. Ces contraintes peuvent être liées à la « lourdeur » du logiciel en question, par exemple le temps passé à saisir la souris pour cliquer sur des icônes est autant de temps en moins consacré à l’écriture. Se libérer de ces contraintes va de pair avec une certaine libération des contraintes matérielles : l’idéal consiste à pouvoir écrire sur différents supports c’est-à-dire un ou plusieurs ordinateurs, un smartphone ou une tablette. Pour ce qui me concerne, se trouver coincé par l’accès à un logiciel sur un seul type de support m’est proprement insupportable.

En résumé, les besoins peuvent s’énumérer ainsi : écrire, utiliser différentes machines, synchroniser et sauvegarder, gérer et exploiter une bibliographie, produire un résultat. Allons-y.

Écrire

C’est de plus en plus répandu : les utilisateurs qui produisent du contenu en écriture n’utilisent plus uniquement les logiciels de traitement de texte tels MSWord ou LibreOffice Writer en première intention. Demandez-vous par exemple ce qu’utilisent tous les blogueurs via des interfaces d’écriture en ligne, ou regardez de près le logiciel de prise de notes que vous avez sur votre smartphone : la mise en page est assurée ultérieurement, tout ce que vous avez à faire est simplement d’écrire.

Si j’ai traduit et adapté un manuel sur LibreOffice Writer, c’est parce que je considère ce logiciel comme l’un des plus aboutis en traitement de texte mais aussi parce que le format Open Document est un format ouvert qui permet l’interopérabilité autant qu’un travail post-production. Il en est de même pour LaTeX (qui est un système de composition) et dont les fonctionnalités sont quasi infinies. J’adore LaTeX.

Alors… pourquoi ne pas utiliser d’emblée l’un de ces deux logiciels ? Parce que ce dont j’aimerais vous parler ici, ce n’est pas de la production de document, mais de l’écriture elle-même. Mélanger les deux signifie anticiper la production finale (au risque de se tromper). Quoi qu’on en dise, c’est en tout cas mon cas, on se laisse facilement distraire par les fonctionnalités du logiciel.

Pour écrire, et simplement écrire, je n’ai besoin que d’un éditeur de texte. C’est-à-dire un logiciel qui me permet d’entrer du texte et d’enregistrer sans information de formatage (on parle de plain text) ou alors le strict minimum. C’est sur ce strict minimum qu’il faut réfléchir en allant un peu plus loin dans le raisonnement.

En effet, lors de la production finale, je n’ai pas très envie de revenir sur chaque partie du texte nécessitant un traitement typographique au cours de l’écriture. Par exemple certains mots en emphase, le signalement des titres de parties, sections et sous-sections. Idem, j’ai aussi besoin de pouvoir formater mon texte de manière à ce qu’il se prête ultérieurement à toutes les transformations envisageables nécessitant un processus de traitement comme la génération des références bibliographiques ou l’ajout de liens (URLs). Ces choses-là sont toujours possibles en plain text mais il y a des solutions plus pratiques.

Il existe un format très intéressant : le markdown. C’est du texte, mais avec quelques ajouts d’informations très simples qui permettent un traitement ultérieur lors de la production finale. Ce langage de balisage est léger. Il nécessite un apprentissage de quelques minutes et il s’applique facilement au cours de l’écriture sans la freiner outre mesure. C’est dans ce format que j’écris, y compris par exemple le texte de ce billet de blog. Ce format est par définition ouvert (cela reste du texte).

En pratique, il ne reste plus qu’à choisir l’éditeur de texte ou un éditeur de texte spécialisé en markdown. Sur ce point j’ai déjà eu l’occasion de me prononcer sur ce blog. Par aillieurs, j’accorde beaucoup d’importance au confort visuel de l’écriture. La possibilité de configurer l’affichage l’éditeur (couleurs du fond, style de la police, de la syntaxe, raccourcis, etc.), en jouant notamment sur les contrastes, me permet d’écrire plusieurs heures durant sans avoir trop de gêne visuelle. Il s’agit d’un confort personnel. Il y a d’autres fonctionnalités que l’on trouve dans les éditeurs de texte1, par exemple :

  • éditer le texte à plusieurs endroits à la fois avec un split de fenêtres,
  • faire des recherches sur des expressions régulières,
  • un panneau latéral ouvrant le contenu du dossier sur lequel on travaille,
  • le surlignage d’occurrences,
  • la possibilité d’avoir accès à un terminal sans quitter l’éditeur2,
  • etc.

Enfin, j’y reviendrai plus tard, l’utilisation de fichiers non binaires se prête admirablement à l’utilisation de Git, un outil de gestion de version qui, dans mon cas, me sert surtout à sauvegarder et synchroniser mon travail d’écriture. Et il se prête tout aussi admirablement à la conversion vers d’autres formats à leur tour exploitables tels odt, html et tex.

Mes éditeurs de texte préférés du moment sont les suivants : Gedit, Atom, Ghostwriter. Depuis peu, j’utilise aussi Zettlr pour mes notes, voyez ici.

Utiliser différentes machines

Au fur et à mesure de l’avancée des travaux, on se retrouve généralement à utiliser différents dispositifs. La question se pose : doit-on réserver uniquement la tâche d’écriture à l’ordinateur de son bureau ? Pour moi, la réponse est non.

Sur tous les ordiphones et tablettes, il existe des logiciels de prise de notes qui utilisent le format texte et, comme c’est souvent le cas, le markdown. L’application Nextcloud, par exemple, permet aussi d’utiliser Nextcloud Notes, un logiciel de prise de notes qui synchronise automatiquement les notes sur un serveur Nextcloud (on peut le faire aussi avec n’importe quelle application de notes pourvu que l’on sauvegarde ses fichiers dans le dossier synchronisé). Cela est utile dans les cas suivants :

  • le processus d’écriture n’est pas toujours « sur commande ». Même si les meilleures idées ne surgissent pas toujours inopinément, et même si bien souvent ce qu’on pensait être une bonne idée s’avère être un désastre le lendemain, il est utile de pouvoir développer quelques passages sans pour autant être assis à son bureau. J’utilise pour cela Nextcloud Notes, soit en tapant directement la note, soit par dictée vocale.
  • recopier tout un texte lorsqu’on est en train de consulter des documents ? que nenni, soit on utilise un scanner et un logiciel de reconnaissance de caractères, soit on peut carrément utiliser son ordiphone (avec ce logiciel par exemple), pour produire un texte à placer dans ses notes.

L’essentiel est de ne pas dépendre d’un dispositif unique présent dans un lieu unique. On peut utiliser plusieurs ordinateurs et des lieux différents, utiliser l’ordiphone qu’on a toujours avec soi, la tablette sur laquelle on lit un livre et exporte des notes de lecture…

Tout ceci permet de générer rapidement des ressources exploitables et de les organiser en provenance de différents outils. Pour cela d’autres logiciels doivent encore être utilisés afin de sauvegarder et de synchroniser.

Synchroniser et sauvegarder

Comme je viens d’en discuter, l’organisation est primordiale mais s’en préoccuper sans cesse est plutôt lassant. Mieux vaut automatiser le plus possible.

Séparons dans un premier temps ce qui a trait à la gestion des sources documentaires et la production écrite.

Pour la gestion documentaire, l’ensemble est stocké sur un serveur Nextcloud (hébergé sur un serveur de confiance3). Sur chaque machine utilisée, une synchronisation est paramétrée avec un client Nextcloud. On travaille directement dans le dossier qui se synchronise automatiquement.

Pour la production écrite, c’est Git qui sera utilisé avec un serveur Gitlab (Framagit en l’occurrence). Sont concernés les fichiers suivants :

  • l’écriture des chapitres (fichiers .md),
  • les notes (autres que les notes de lecture) (fichiers .md),
  • le fichier bibtex de la bibliographie (contenant aussi le référencement descriptif de chaque source documentaire ainsi que les notes de lecture) (fichiers .bib).

Pour terminer, il faut aussi penser à faire une sauvegarde régulière de l’ensemble sur le second disque dur de la machine principale sur laquelle je travaille, doublée d’une sauvegarde sur un disque externe. La première sauvegarde est automatisée avec rsync et tâche cron exactement comme c’est décrit dans ce billet. La seconde tâche pourrait aussi être automatisée, mais je la fais manuellement pour éviter de toujours laisser branché le disque externe.

Gérer la bibliographie

Gérer sa bibliographie ne s’improvise pas. Il faut d’abord trouver le logiciel qui répond à ses attentes. Le choix est assez large pourvu que le logiciel en question puisse être en mesure d’exporter une bibliographie dans un format ouvert, exploitable par n’importe quel autre logiciel.

En la matière, selon moi, les deux formats intéressants sont le .bib et le .xml. Au stade de l’écriture, l’essentiel est donc de choisir un logiciel avec lequel on se sent à l’aise et dont les fonctionnalités d’export sont les plus étendues possibles. J’ai choisi Zotero et JabRef.

Pourquoi ces deux logiciels ? Dans les deux cas, des extensions permettent de les intégrer au navigateur Firefox (ainsi qu’à LibreOffice). Dans les deux cas on peut synchroniser la biblio en ouvrant un compte Zotero ou en plaçant son fichier .bib sur Nextcloud dans le cas de JabRef.

Mon usage est un peu exotique, je l’avoue : j’utilise Zotero pour engranger un peu tout et n’importe quoi et j’utilise JaBref pour mon travail proprement dit en utilisant le format .bibet souvent en éditant directement le fichier avec un éditeur de texte. Disons que le .bib final est un fichier très « propre » contenant pour l’essentiel la bibliographie citée alors que Zotero contient un peu de tout au gré des récupérations avec l’extension Firefox. Ce n’est pas l’essentiel : quoi qu’il en soit, lors de la production finale, on configurera ce qui doit apparaître ou non dans la bibliographie.

Enfin, je préfère utiliser le .bib car il est fait au départ pour le logiciel Bibtex lui-même destiné à une utilisation avec LaTeX. Si je veux pouvoir avoir le choix de production finale, autant utiliser ce format. En outre, sa lisibilité lorsqu’on l’édite avec un éditeur de texte permet de retravailler les informations, surtout en cas de problème d’encodage.

Produire un résultat

Nous voici arrivés à la production du manuscrit (on dit plutôt un tapuscrit dans ce cas). Il faut alors se demander ce que veut l’éditeur. Dans notre cas, il s’agissait de produire un fichier .odt avec une présentation complète de la bibliographie.

Nous avons à disposition des fichiers markdown et un fichier bibtex. On peut en faire exactement ce qu’on veut, à commencer par les éditer ad vitam æternam en plain text.

On notera que pour entrer des références bibliographique dans un document en markdown, la syntaxe est très simple et l’utilisation est décrite dans plusieurs billets de ce blog.

On utilisera pour cela un logiciel libre du nom de Pandoc qui permet non seulement de convertir du markdown en plusieurs types de formats mais aussi d’effectuer simultanément des opérations de compilation pour la bibliographie avec un processeur CSL nommé citeproc.

En effet, pour présenter la bibliographique il faut utiliser un format de style bibliographique. On utilise le Citation Style Language (CSL) qui est basé sur un agencement de champs en XML. Pour créer un modèle CSL, le mieux est encore de partir sur la base de modèles existants et adapter le sien. Il existe par exemple cet éditeur CSL.

En d’autres termes il s’agit d’ordonner ceci à Pandoc :

S’il te plaît, transforme mon fichier markdown en fichier au format .odt tout en utilisant la bibliographie que voici au format .bib et le modèle de présentation de bibliographie .csl que voici.

La ligne de commande est alors la suivante :

pandoc -s --bibliography mabiblio.bib --filter pandoc-citeproc --csl modif-monmodele.csl fichier-entree.md -o fichier-sortie.odt

Cela c’est pour l’éditeur ! pour ce qui me concerne, ce sera plutôt une transformation en .tex et une bonne vieille compilation avec XeLaTex + Biber avec un style de mise en page sympathique. De même… pour du epub.

Le seul ennui est qu’à ce stade il fallait encore travailler le texte et tout le processus de relecture qui s’est déroulé exclusivement avec LibreOffice Writer et la fonction de suivi de modification. On a donc quitté la quiétude des fichiers texte pour entrer dans un processus d’échange de fichiers .odt. Ce travail aurait tout aussi bien pu s’effectuer avec Git, évidemment. Mais au bout du compte il aurait tout de même fallu créer un .odt avec les styles de l’éditeur afin d’entrer le tout dans la moulinette de son processus éditorial. Mais cela ne nous… regarde pas.

Conclusion

Comme on peut le voir, tout le processus considère le fichier .odt comme un format obtenu en fin de production et non pas un format sur lequel on travaille directement. C’est une posture qui se justifie par la volonté de conserver la plus grande malléabilité possible sur les résultats finaux et sur la manipulation des fichiers de travail.

Par ailleurs concernant le flux de production d’écriture, une fois l’habitude prise, il est extrêmement confortable d’écrire « au kilomètre » dans un éditeur de texte bien configuré et qui, par sa légèreté n’a besoin que de très peu de ressources système.

Toute l’importance des formats ouverts est là, tant au niveau de la lecture avec différents logiciels qu’au niveau de la production finale et l’interopérabilité qu’ils permettent. De la même manière, on peut voir que tout le travail s’est effectué avec des logiciels libres (et sur des systèmes d’exploitation libres). Le grand choix dans ce domaine permet à chacun de travailler selon ses envies et ses petites manies.


  1. Certaines de ces fonctionnalités se retrouvent aussi sur LibreOffice Writer, bien entendu, mais je trouve que leur accès est plus rapide dans un éditeur de texte simple. ↩︎

  2. Certains me diront d’utiliser Emacs ou Vim. C’est ce que je fais de temps en temps mais l’apport vis-à-vis de mon travail n’est pas significatif. ↩︎

  3. Il s’agit de mon serveur à moi et aussi du serveur destiné à l’usage interne des membres de l’association Framasoft. J’utilise les deux mais c’est un détail. ↩︎


Publié le 11.05.2020 à 02:00

Revue articles et communications autour de Stop-Covid

Afin de garder une trace (!) des débats qui enflamèrent l’opinion publique lors de la crise sanitaire du printemps 2020, voici une revue partielle d’articles parus dans la presse et quelques communications officielles autour de l’application Stop-Covid, entre discours réalistes et solutionnisme technologique (cette liste est mise à jour régulièrement, autant que possible).

Presse écrite et en ligne

Numerama (18/06/2020), « StopCovid a été lancé alors que même la Cnil ne savait pas comment l’app fonctionnait »

Un chercheur a montré que le fonctionnement technique de StopCovid n’était pas similaire à ce qui était annoncé par le gouvernement, ce qui est écrit dans le décret d’application et même ce qui a été validé par la Cnil. … En résumé, la Cnil a validé un dispositif qui n’est pas celui qui est utilisé aujourd’hui dans l’application que tous les Français et Françaises sont fortement invités à utiliser, par le gouvernement et à grands coups de campagnes de communication. Comme on peut le voir au point numéro 37 qui était abordé dans l’avis du 25 mai, la Commission avait d’ailleurs elle-même « [pris] acte de ce que l’algorithme permettant de déterminer la distance entre les utilisateurs de l’application reste à ce stade en développement et pourra subir des évolutions futures ».

Le Monde - Pixel (16/06/2020), « L’application StopCovid collecte plus de données qu’annoncé »

Un chercheur a découvert que l’application collectait les identifiants de toutes les personnes croisées par un utilisateur, pas seulement celles croisées à moins d’un mètre pendant quinze minutes.

Mediapart (15/06/2020), « StopCovid, l’appli qui en savait trop »

Loin de se limiter au recensement des contacts « à moins d’un mètre pendant au moins quinze minutes », l’application mise en place par le gouvernement collecte, et transfère le cas échéant au serveur central, les identifiants de toutes les personnes qui se sont « croisées » via l’appli. De près ou de loin.

L’Usine Digitale (12/06/2020), « L’application StopCovid n’a été activée que par 2 % des Français »

Échec pour StopCovid. Du 2 au 9 juin, seuls 2 % des Français ont téléchargé et activé l’application. Un chiffre beaucoup trop bas pour qu’elle soit utile. Au moins 60 % de la population d’un pays doit utiliser un outil de pistage numérique de ce type pour que celui-ci puisse détecter des chaînes de contamination du virus.

Dossier Familial (12/06/2020), « Le flop de l’application StopCovid »

Alors même que son efficacité dépend de son succès, l’application StopCovid n’est utilisée effectivement que par environ 350 000 personnes.

France Inter (11/06/2020), « Coût et soupçon de favoritisme : l’appli StopCovid dans le collimateur d’Anticor »

L’association Anticor, qui lutte contre la corruption, a déposé un signalement auprès du Procureur de la République. Le coût de l’application StopCovid est en cause. L’inquiétude ne porte pas sur l’utilisation de nos données, mais sur son coût et… un soupçon de favoritisme.

Liberation (11/06/2020), « L’application StopCovid utilise-t-elle des services des Gafam ? »

Le logiciel développé par le gouvernement français a bien recours au «Captcha» de Google mais n’est pas hébergé sur des serveurs Microsoft (contrairement au projet, distinct, de Health Data Hub).

Le Monde (10/06/2020) « L’application StopCovid, activée seulement par 2 % de la population, connaît des débuts décevants »

Le coût de l’application de suivi de contacts, désormais supportée par l’Etat, pose question, une semaine après son lancement.

Slate.fr (03/06/2020), « Les trois erreurs qui plombent l’application StopCovid »

Ce projet tout à fait louable s’est écrasé en rase campagne en quelques semaines alors que tous les feux étaient au vert.

Nouvel Observateur (02/06/2020), « StopCovid, une application au coût salé »

L’application de lutte contre le Covid-19 a été développée gratuitement par des chercheurs et partenaires privés. Toutefois, depuis son lancement mardi 2 juin, sa maintenance et son hébergement sont bel et bien facturés, entre 200 000 et 300 000 euros par mois.

TV5 Monde (01/06/2020), StopCovid : « C’est le signe d’une société qui va très mal et qui est en train de devenir totalement paranoïaque »

A partir de ce mardi 2 juin, l’application StopCovid débarque en France. Son but : pister le Covid-19 pour éviter sa propagation. Alors cette application est-elle vraiment efficace ? Nos données personnelles sont-elles menacées ? Entretien avec Benjamin Bayart, ingénieur français, ancien président de French Data Network et co-fondateur de la Quadrature du Net.

The Conversation (25/05/2020) « Données de santé : l’arbre StopCovid qui cache la forêt Health Data Hub »

Le projet de traçage socialement « acceptable » à l’aide des smartphones dit StopCovid, dont le lancement était initialement prévu pour le 2 juin, a focalisé l’intérêt de tous. Apple et Google se réjouissaient déjà de la mise en place d’un protocole API (interface de programmation d’application) qui serait commun pour de nombreux pays et qui confirmerait ainsi leur monopole.

Mais la forte controverse qu’a suscitée le projet en France, cumulée au fait que l’Allemagne s’en est retirée et à l’échec constaté de l’application à Singapour, où seulement 20 % des utilisateurs s’en servent, annoncent l’abandon prochain de StopCovid.

« Ce n’est pas prêt et ce sera sûrement doucement enterré. À la française », estimait un député LREM le 27 avril auprès de l’AFP.

Pendant ce temps-là, un projet bien plus large continue à marche forcée : celui de la plate-forme des données de santé Health Data Hub (HDHub).

The Guardian (23/05/2020), « How did the Covidsafe app go from being vital to almost irrelevant? »

The PM told Australians in April the contact tracing app was key to getting back to normal but just one person has been identified using its data (En avril, le Premier ministre a déclaré aux Australiens que l’application de recherche des contacts était la clé du retour à la normale, mais seule une personne a été identifiée grâce à ses données)

Politico (20/05/2020) « Meet the Dutchman who cried foul on Europe’s tracking technology »

The national privacy watchdog has repeatedly broken ranks with EU peers over tracing technology. His approach seems to be winning.

(…) Alors que les gouvernements européens s’empressent d’adopter la technologie pour lutter contre le coronavirus, un Néerlandais au franc-parler est apparu comme une épine dans leur pied.

Le message d’Aleid Wolfsen : Ne prétendez pas que vos solutions sont respectueuses de la vie privée.

“Nous devons éviter de déployer une solution dont on ne sait pas si elle fonctionne réellement, avec le risque qu’elle cause principalement d’autres problèmes”, a déclaré en avril le responsable de l’autorité néerlandaise chargée de la protection de la vie privée, en référence aux applications de suivi des coronavirus pour smartphones en cours de développement dans la plupart des pays de l’UE.

Le Monde (18/05/2020), Tribune – Coronavirus : « Sur l’application StopCovid, il convient de sortir des postures dogmatiques »

Chercheurs à l’Inria et travaillant sur l’application StopCovid, Claude Castelluccia et Daniel Le Métayer mettent en garde, dans une tribune au « Monde », contre les oppositions de principe, notamment à un système centralisé, qui ne reposent pas sur une analyse précise des risques potentiels et des bénéfices attendus. (…)

(…) Même si la valeur ajoutée d’une application comme StopCovid dans le processus plus global de traçage (qui repose sur des enquêtes menées par des humains) reste à déterminer et à évaluer précisément…

The Economist (16/05/2020) « Don’t rely on contact-tracing apps »

Governments are pinning their hopes on a technology that could prove ineffective — and dangerous

Wired (13/05/2020), « Secret NHS files reveal plans for coronavirus contact tracing app »

Documents left unsecured on Google Drive reveal the NHS could in the future ask people to post their health status to its Covid-19 contact tracing app

Numerama (13/05/2020), « ‘Il n’y a rien du tout’ : la première publication du code source de StopCovid est inutile »

(…) les critiques et les moqueries ont fusé immédiatement sur ce qui a été publié le 12 mai. En effet, de l’avis de diverses personnes habituées à travailler avec du code informatique, ce qui est proposé ressemble surtout à une coquille vide. Impossible donc pour les spécialistes de passer aux travaux pratiques en analysant les instructions du logiciel.

Dalloz Actualité (12/05/2020) – par Caroline Zorn – « État d’urgence pour les données de santé (I) : l’application StopCovid »

À travers deux exemples d’actualité que sont l’application StopCovid (première partie) et le Service intégré de dépistage et de prévention (SIDEP) (seconde partie), la question de la protection des données de santé à l’aune du pistage est confrontée à une analyse juridique (et parfois technique) incitant à une réflexion sur nos convictions en période d’état d’urgence sanitaire. Cette étude a été séparée en deux parties, la première consacrée à StopCovid est publiée aujourd’hui.

Revue politique et parlementaire (11/05/2020), « Stopcovid : une application problématique sur le plan éthique et politique »

Pierre-Antoine Chardel, Valérie Charolles et Eric Guichard font le point sur les risques engendrés par la mise en œuvre d’une solution de type Stopcovid, solution techniciste de court terme qui viendrait renforcer une défiance des citoyens envers l’État et ses représentants, ou à l’inverse un excès de confiance dans le numérique, au détriment de projets technologiques soucieux de l’éthique et susceptibles de faire honneur à un État démocratique.

MIT Technology Review (11/05/2020) « Nearly 40% of Icelanders are using a covid app — and it hasn’t helped much »

The country has the highest penetration of any automated contact tracing app in the world, but one senior figure says it “wasn’t a game changer.”

Newstatesman – NSTech (11/05/2020), « The NHSX tracing app source code was released but privacy fears remain »

In a move designed to create the impression of radical transparency, NHSX finally released the source code for the UK’s Covid-19 tracing app last week. However, among experts, the reception was mixed.

Aral Balkan, software developer at Small Technology Foundation, expressed criticism that the source code for the server hadn’t been released, only that of the iOS and Android clients. “Without that, it’s a meaningless gesture,” he wrote on Twitter. “Without the server source you have no idea what they’re doing with the data.”

In further analysis, Balkan said the iOS app was “littered with Google tracking” and the app was using Firebase (a Google mobile and web application development platform) to build the app. He pointed out that Microsoft analytics also tracked what information the person has provided, such as partial postcode and collected contact events. 

France info, (09/05/2020) – Nouveau monde. Refuser l’application StopCovid revient à remettre en question notre système de santé, selon le directeur du comité d’éthique du CNRS

« Déjà, nous sommes tracés tous les jours par notre téléphone qui enregistre énormément d’informations. Surtout, nous sommes tous satisfaits de notre système étatique de santé et, avec un système étatique, contrairement aux États-Unis, l’État est nécessairement au courant de tout. L’État sait chez quels médecins nous allons, quels médicaments nous sont prescrits, quels hôpitaux nous fréquentons, etc. Bien sûr, cela doit se faire avec une certaine confidentialité mais si l’on prenait au sérieux certains discours actuels, cela remettrait en cause le système de santé tel qu’il existe aujourd’hui. Et ça, je pense que ce n’est pas légitime. »

Le Monde (08/05/2020), « Suivi des « cas contacts » : ce que contiendront les deux nouveaux fichiers sanitaires prévus par l’Etat Par Martin Untersinger »

La stratégie du gouvernement pour lutter contre une reprise de l’épidémie repose sur un suivi des « cas contacts ». Les autorités prévoient un « système d’information », reposant sur deux bases de données médicales : Sidep et Contact Covid.

Acteurs Publics, (07/05/2020) « Aymeril Hoang, l’architecte discret du projet d’application StopCovid »

Membre du Conseil scientifique Covid-19 en tant qu’expert du numérique, l’ancien directeur de cabinet de Mounir Mahjoubi au secrétariat d’État au Numérique a eu en réalité un rôle central, en coulisses, dans l’élaboration du projet d’application de traçage numérique StopCovid. Récit.

Les Echos (07/05/2020), « La Réunion lance sa propre appli de traçage… sans attendre StopCovid »

Des entrepreneurs réunionnais ont mis au point Alertanoo, une application mobile permettant aux habitants de l’île testés positifs au coronavirus d’alerter les personnes qu’elles ont croisées récemment.

Le Temps (06/05/2020), « A Singapour, le traçage par app dégénère en surveillance de masse »

Premier pays à avoir lancé le pistage du virus par smartphone de manière volontaire, Singapour lance un nouveau service liberticide, baptisé SafeEntry. La Suisse peut en tirer des leçons

(…) Ainsi, le système central obtiendra les coordonnées complètes – du nom au numéro de téléphone – des Singapouriens qui fréquentent ces lieux. SafeEntry diffère ainsi de TraceTogether sur deux points majeurs: d’abord, son caractère obligatoire, comme on vient de le voir – même si un haut responsable de la Santé vient de demander que TraceTogether devienne obligatoire. Ensuite, la qualité des données récoltées diffère: la première application lancée fonctionne de manière anonyme – ni le nom, ni la localisation des personnes n’étant révélés. SafeEntry ne semble pas avoir suscité, pour l’heure, de critiques.

Wired (05/06/2020), « India’s Covid-19 Contact Tracing App Could Leak Patient Locations »

The system’s use of GPS data could let hackers pinpoint who reports a positive diagnosis.

As countries around the world rush to build smartphone apps that can help track the spread of Covid-19, privacy advocates have cautioned that those systems could, if implemented badly, result in a dangerous mix of health data and digital surveillance. India’s new contact tracing app may serve as a lesson in those privacy pitfalls: Security researchers say it could reveal the location of Covid-19 patients not only to government authorities but to any hacker clever enough to exploit its flaws.

Nextinpact (04/05/2020), « SIDEP et Contact Covid, les deux fichiers du « contact tracing »

Le Conseil d’État estime que les conditions de mise en œuvre des fichiers, qui reposeront notamment sur le traitement de données de santé non anonymisées, « le cas échéant sans le consentement des personnes intéressées », « ne portent pas une atteinte disproportionnée au droit au respect de la vie privée ». Le projet de loi est examiné aujourd’hui au Sénat.

Numerama (04/05/2020), « Après l’échec du StopCovid local, Singapour passe à une solution beaucoup plus radicale »

À Singapour, l’application TraceTogether non fonctionnelle est accompagnée d’un nouveau mode de traçage des contacts numérique : le scan d’un QR Code. Et, dans les grandes lignes, il est obligatoire.

Medium (03/05/2020), par Cedric O. « StopCovid ou encore ? »

Le secrétaire d’Etat chargé du numérique Cedric O. se fend d’un long article sur Medium pour faire le point sur l’application Stop-Covid.

Liberation (02/05/2020), « Fichiers médicaux, isolement, traçage… Le gouvernement précise son état d’urgence sanitaire »

A l’issue du Conseil des ministres de samedi, Olivier Véran a justifié l’utilisation prochaine de «systèmes d’information» pour «tracer» les personnes infectées par le nouveau coronavirus et la prolongation de l’état d’urgence sanitaire jusqu’à juillet.

France Info Tv/2 (02/05/2020), « Déconfinement : le travail controversé des “brigades d’anges gardiens” »

Protéger, isoler, tester, pour mettre en place ce triptyque, la mise en place d’un nouvel outil, avec le suivi des patients, et la récolte des données personnelles est prônée par le gouvernement.

Allons-nous tous être fichés, et faut-il s’inquiéter ? Le gouvernement a dévoilé sa politique de traçage. Lorsqu’une personne est testée positive au Covid-19, elle apparaitra dans un fichier, appelé Sidep, les personnes qu’elle a côtoyé seront fichées dans un deuxième fichier nommé Contact Covid, afin d’être testées et si besoin isolées pour empêcher la propagation du virus. 3 à 4 000 personnes seront affectées à cette mission.

France Info (02/05/2020), « Application StopCovid : “Nous avons absolument besoin de ce regard”, affirme le président du syndicat de médecins généralistes MG France »

Selon Jacques Battistoni, les généralistes effectuent déjà une forme de surveillance en mentionnant les contaminations au coronavirus sur les arrêts de travail. Pour lui, l’application envisagé par le gouvernement donnera une “vision d’ensemble”.

Numerama (02/05/2020), « StopCovid : Olivier Véran confirme les incertitudes autour de l’application de contact tracing »

L’application StopCovid ne sera pas prête pour le 11 mai. Le ministre de la Santé Olivier Véran prépare déjà la France à ce qu’elle ne voit jamais le jour.

Reuters (02/05/2020), « India orders coronavirus tracing app for all workers »

NEW DELHI (Reuters) - India has ordered all public and private sector employees use a government-backed contact tracing app and maintain social distancing in offices as it begins easing some of its lockdown measures in districts less affected by the coronavirus. (…) “Such a move should be backed by a dedicated law which provides strong data protection cover and is under the oversight of an independent body,” said Udbhav Tiwari, Public Policy Advisor for internet browser company Mozilla. Critics also note that about 400 million of India’s population do not possess smartphones and would not be covered.

Capital (01/05/2020), « L’application “Stop Covid” dans le top de l’AppStore, sauf que ce n’est pas la bonne »

Des milliers de personnes ont téléchargé cette application sur Google Play ou l’AppStore, sauf qu’il s’agit de celle lancée par le gouvernement géorgien.

Charlie Hebdo (30/04/2020), « Stop Covid est un danger pour nos libertés »

Le Covid-19 va-t-il nous faire basculer vers une société de surveillance ? Bernard E. Harcourt, professeur de droit à Columbia University et directeur d’études à l’EHESS nous alerte notamment sur les risques de l’application Stop Covid. Il avait publié en janvier dernier un ouvrage intitulé « La société d’exposition », (Ed Seuil), dans lequel il montrait de manière saisissante comment les nouvelles technologies exploitent notre désir d’exhibition et de mise en avant de soi.

Buzzfeed (29/04/2020) « We Need An “Army” Of Contact Tracers To Safely Reopen The Country. We Might Get Apps Instead »

Without enough human contact tracers to identify infected people, the US is barreling toward a digital solution, and possible disaster.

(…) “My problem with contact tracing apps is that they have absolutely no value,” Bruce Schneier, a privacy expert and fellow at the Berkman Klein Center for Internet & Society at Harvard University, told BuzzFeed News. “I’m not even talking about the privacy concerns, I mean the efficacy. Does anybody think this will do something useful? … This is just something governments want to do for the hell of it. To me, it’s just techies doing techie things because they don’t know what else to do.”

Dalloz Actualités (28/04/2020) « Coronavirus : StopCovid, les avis de la CNIL et du CNNum »

Quoi que favorables à l’application de traçage StopCovid telle qu’elle est actuellement présentée, la Commission nationale informatique et libertés et le Conseil national du numérique relèvent cependant les risques et les garanties qui devront être discutées par le législateur.

Mediapart (28/04/2020) « Le gouvernement s’embourbe dans son projet d’application «StopCovid» »

Édouard Philippe a reconnu « les incertitudes » pesant sur le projet d’application de traçage des contacts des personnes contaminées. Celui-ci suscite l’opposition de défenseurs des libertés publiques comme de chercheurs.

Numerama (27/04/2020), « Application StopCovid : que sait-on du projet de contact tracing du gouvernement ? »

StopCovid est un projet d’application servant à suivre la propagation de la maladie dans la population. Présentée début avril, elle doit être prête lorsque la phase de déconfinement débutera. Mais cette stratégie est l’objet d’un intense débat. Que sait-on d’elle ? Numerama fait le point.

Le Monde (27/04/2020) « Coronavirus : « Substituons temporairement au terme “liberté” de notre devise française celui de “responsabilité” »

Trois spécialistes en épidémiologie de l’université de Toulouse, associée à l’Inserm, présentent dans une tribune au « Monde » un éclairage éthique sur le traçage numérique de la propagation du Covid-19, entre intérêt public et libertés individuelles.

France Culture (27/04/2020), « Traçage : “Ce n’est pas le numérique qui pose question, mais notre capacité à penser le bien commun”

Entretien | À travers le monde, les différentes solutions technologiques imaginées pour répondre à la pandémie via les applications de traçage “StopCovid” dessinent une carte assez précise de la façon dont le politique se saisit - ou pas - des questions numériques. Analyse avec Stéphane Grumbach, de l’INRIA.

Numerama (27/04/2020), « StopCovid dans l’impasse : Cédric O confirme que la France se lance dans un bras de fer avec Apple »

Cédric O a confirmé que la France choisissait le bras de fer avec Apple pour obtenir un passe-droit sur le Bluetooth, au risque de mettre en danger la vie privée des utilisatrices et utilisateurs d’iPhone. Sans cela, StopCovid ne fonctionnera pas.

Libération (26/04/2020). Tribune par Didier Sicard et al. « Pour faire la guerre au virus, armons numériquement les enquêteurs sanitaires »

Pourquoi se focaliser sur une application qu’il faudra discuter à l’Assemblée nationale et qui risque de ne jamais voir le jour, alors que nous devrions déjà nous concentrer sur la constitution et l’outillage numérique d’une véritable armée d’enquêteurs en épidémiologie ?

Le Figaro (26/04/2020). « Mobilisation générale pour développer l’application StopCovid »

Les récents avis rendus par la Cnil, le CNNum et le Conseil scientifique ont sonné le top départ pour les équipes de développement d’une application de «contact tracing».

Les Echos (26/04/2020), « StopCovid : le gouvernement passe en force et supprime le débat à l’Assemblée »

En intégrant le débat sur le projet d’application StopCovid à celui, général, sur le déconfinement, l’exécutif est accusé de passer en force. Une situation dénoncée à gauche comme au sein même de la majorité, où les réticences contre cette application sont fortes.

Politis (26/04/2020). « Covid-19 : la solution ne sera pas technologique »

Les débats autour de l’application StopCovid, souhaitée par le gouvernement français, révèlent la grande obsession de notre temps. Face aux périls qui nous menacent, nous devrions nous jeter à corps perdu dans la technologie. Surtout, ne rien remettre en cause, mais opter pour un monde encore et toujours plus numérisé. Au mépris de nos libertés, de l’environnement, de l’humain et, au final, de notre avenir.

Reuters (26/04/2020), « Germany flips to Apple-Google approach on smartphone contact tracing »

Germany changed course on Sunday over which type of smartphone technology it wanted to use to trace coronavirus infections, backing an approach supported by Apple and Google along with a growing number of other European countries.

Le Monde (26/04/2020), « Application StopCovid : la CNIL appelle le gouvernement « à une grande prudence » »

Dans son avis, la Commission nationale de l’informatique et des libertés donne un satisfecit au gouvernement tout en pointant les « risques » liés à ce projet d’application.

Le Monde (25/04/2020). Tribune par Antonio Casilli et al. « StopCovid est un projet désastreux piloté par des apprentis sorciers »

Il faut renoncer à la mise en place d’un outil de surveillance enregistrant toutes nos interactions humaines et sur lequel pèse l’ombre d’intérêts privés et politiques, à l’instar du scandale Cambridge Analytica, plaide un collectif de spécialistes du numérique dans une tribune au « Monde ».

La Dépêche du Midi (25/04/2020), « Coronavirus : la société toulousaine Sigfox propose des bracelets électroniques pour gérer le déconfinement »

Tracer les malades du Covid-19 via une application pour alerter tous ceux qui les ont croisés et qui ont été touchés par le nouveau coronavirus, c’est l’une des options étudiées par le gouvernement pour le déconfinement. La société toulousaine Sigfox a proposé ses services : un bracelet électronique au lieu d’une application. Plus sûr selon son patron.

Le Monde (24/04/2020), Tribune de Thierry Klein, entrepreneur du numérique, « Déconfinement : « Nous nous sommes encore tiré une balle dans le pied avec le RGPD »

L’entrepreneur Thierry Klein estime, dans une tribune au « Monde », que le Règlement général sur la protection des données est un monstre juridique dont la France subira les conséquences quand il s’agira de mettre en place des outils numériques de suivi de la contagion.

Extrait :

Le pompon de la bêtise, celle qui tue, est en passe d’être atteint avec le traitement du coronavirus. Au moment où nous déconfinerons, il devrait être possible de mettre une application traceuse sur chaque smartphone (« devrait », car il ne faut pas préjuger des capacités techniques d’un pays qui n’a su procurer ni gel ni masques à ses citoyens). Cette application, si vous êtes testé positif, va être capable de voir quels amis vous avez croisés et ils pourront être eux-mêmes testés. Ainsi utilisée, une telle application réduit significativement la contagion, sauve des vies (par exemple en Corée du Sud), mais réduirait selon certains nos libertés et, drame national, enfreindrait le RGPD.

Une telle interprétation est un détournement de la notion de citoyenneté, au bénéfice d’une liberté individuelle mal comprise – de fait, la liberté de tuer.

NextInpact (24/04/2020), « « Contact tracing » : la nécessité (oubliée) de milliers d’enquêteurs » (Par Jean-Marc Manach )

La focalisation du débat autour des seules applications Bluetooth de « contact tracing » fait complètement l’impasse sur le fait que, en termes de santé publique, le « contact tracing » repose d’abord et avant tout sur le facteur humain. Et qu’il va falloir en déployer des centaines de milliers, dans le monde entier.

Numerama (21/04/2020), « »StopCovid vs Apple : pourquoi la France s’est mise dans une impasse »

D’après Cédric O, secrétaire d’État au Numérique, l’application StopCovid ne sortira pas dans les temps à cause d’Apple. Cette politisation simpliste du discours autour de l’app de contact tracing cache un désaccord technique entre la méthode nationale de l’Inria et le développement international de la solution de Google et Apple. Résultat : la France est dans l’impasse.

Corriere Della Sera (21/04/2020), « Coronavirus, l’App (quasi) obbligatoria e l’ipotesi braccialetto per gli anziani »

Une idée pour l’incitation pourrait être de laisser la possibilité de télécharger l’application, ou de porter le bracelet, rester volontaire. Comme le gouvernement l’a déjà indiqué clairement. Mais prévoir que pour ceux qui choisissent de ne pas le télécharger, des restrictions de mobilité subsistent. Il reste à préciser ce que l’on entend exactement par restrictions à la liberté de circulation. Pas l’obligation de rester à la maison, ce ne serait pas possible. Mais il pourrait y avoir un resserrement du mouvement qui, pour tous les autres, dans la phase 2, sera autorisé progressivement. La proposition, encore en phase d’élaboration, pourrait être formalisée dans les prochains jours par la commission technico-scientifique, en accord avec Domenico Arcuri, le commissaire extraordinaire qui a signé l’ordre précisément pour l’application, et en accord également avec le groupe de travail dirigé par Vittorio Colao. La décision finale, bien sûr, appartient au gouvernement.

Korii-slate (20/04/2020), « Peut-on déjà se fier à une app de passeport immunitaire? » (voir original sur Quartz paru le 15/04/2020)

Une start-up propose déjà son CoronaPass aux États, sur des bases scientifiques pourtant balbutiantes.

Le Temps (18/04/2020), « L’EPFL se distancie du projet européen de traçage du virus via les téléphones »

L’EPFL, mais aussi l’EPFZ se distancient du projet européen de traçage des smartphones pour lutter contre le coronavirus. A l’origine, les deux établissements faisaient partie de l’ambitieux projet de recherche européen Pan-European Privacy-Preserving Proximity Tracing (PEPP-PT), regroupant 130 organismes de huit pays. Mais vendredi, les deux partenaires suisses ont décidé d’explorer une autre solution, davantage respectueuse de la vie privée.

Le Figaro (17/04/2020). Interview de Shoshana Zuboff « Shoshana Zuboff: «Les applications de contrôle de la pandémie doivent être obligatoires, comme les vaccins» » Traduction d’une interview parue originellement dans La Repubblica «Shoshana Zuboff: ‘Le app per il controllo della pandemia possono essere obbligatorie come i vaccini’ »

VU D’AILLEURS - L’auteure du livre L’ère du capitalisme de surveillance nous explique pourquoi les systèmes numériques de contrôle de la pandémie devraient relever du secteur public et donc devenir obligatoires.

L’Usine Nouvelle (16/04/2020) « Sanofi et Luminostics s’associent pour développer un autotest du Covid-19 sur smartphone »

Le français Sanofi et la start-up californienne Luminostics font alliance pour le développement d’un test de dépistage du Covid-19 à faire soi-même sur son smartphone. Les travaux doivent débuter dans quelques semaines et la solution pourra voir le jour d’ici à la fin 2020 sous réserve de l’obtention des autorisations réglementaires.

WIRED (14/04/2020), « The Apple-Google Contact Tracing Plan Won’t Stop Covid Alone »

Putting the privacy of these smartphone apps aside, few Americans have been tested—and there’s a risk of false positives.

Apple and Google are offering a bold plan using signals from more than 3 billion smartphones to help stem the spread of the deadly coronavirus while protecting users’ privacy. But epidemiologists caution that—privacy concerns aside—the scheme will be of limited use in combating Covid-19 because of the technology’s constraints, inadequate testing for the disease, and users’ reluctance to participate.

Le Monde (10/04/2020), « Coronavirus : Apple et Google proposent un outil commun pour les applications de traçage des malades »

Les deux géants de la téléphonie vont mettre en place une solution technique mise à disposition des gouvernements.

Wired (05/04/2020), « Google and Apple Reveal How Covid-19 Alert Apps Might Look »

As contact tracing plans firm up, the tech giants are sharing new details for their framework—and a potential app interface.

Finding out that you’ve been exposed to a serious disease through a push notification may still seem like something out of dystopian science fiction. But the ingredients for that exact scenario will be baked into Google and Apple’s operating system in as soon as a matter of days. Now the two companies have shown not only how it will work, but how it could look—and how it’ll let you know if you’re at risk.

France Inter (04/04/2020) « Google et le Covid-19 ou le Big data au service des gouvernement »

Google a mis en ligne vendredi l’ensemble des données de déplacements des utilisateurs (qui ont activé l’option localisation) de son outil de cartographie, Google Maps. Des données qui doivent, selon le géant du web américain, permettre d’aider les dirigeants à améliorer l’efficacité de leur politique de confinement.

La Tribune (24/03/2020), « Covid-19 et contagion : vers une géolocalisation des smartphones en France ? »

Un comité de douze chercheurs et médecins va être mis en place à l’Élysée à partir de ce mardi pour conseiller le gouvernement sur les moyens d’endiguer la propagation du coronavirus. Le numérique figure parmi les thèmes à l’étude, notamment pour identifier des personnes ayant été potentiellement exposées au virus. De nombreux pays ont déjà opté pour la géolocalisation des smartphones afin de traquer les déplacements des individus.

Avis et infos experts

CNIL (25/05/2020) – Délibération n° 2020-056 du 25 mai 2020 portant avis sur un projet de décret relatif à l’application mobile dénommée «StopCovid» (demande d’avis n° 20008032)

Feu vert de la CNIL.

SI Lex (01/05/2020), par Calimaq : StopCovid, la subordination sociale et les limites au « Consent Washing »

J’ai déjà eu l’occasion dans un précédent billet de dire tout le mal que je pensais de StopCovid et je ne vais pas en rajouter à nouveau dans ce registre. Je voudrais par contre prendre un moment sur la délibération que la CNIL a rendue en fin de semaine dernière à propos du projet d’application, car elle contient à mon sens des éléments extrêmement intéressants, en particulier sur la place du consentement en matière de protection des données personnelles.

CNIL (26/04/2020), Publication de l’avis de la CNIL sur le projet d’application mobile « StopCovid »

Dans le cadre de l’état d’urgence sanitaire lié à l’épidémie de COVID-19, et plus particulièrement de la stratégie globale de « déconfinement », la CNIL a été saisie d’une demande d’avis par le secrétaire d’État chargé du numérique. Celle-ci concerne l’éventuelle mise en œuvre de « StopCovid » : une application de suivi de contacts dont le téléchargement et l’utilisation reposeraient sur une démarche volontaire. Les membres du collège de la CNIL se sont prononcés le 24 avril 2020.

Dans le contexte exceptionnel de gestion de crise, la CNIL estime le dispositif conforme au Règlement général sur la protection des données (RGPD) si certaines conditions sont respectées. Elle relève qu’un certain nombre de garanties sont apportées par le projet du gouvernement, notamment l’utilisation de pseudonymes.

La CNIL appelle cependant à la vigilance et souligne que l’application ne peut être déployée que si son utilité est suffisamment avérée et si elle est intégrée dans une stratégie sanitaire globale. Elle demande certaines garanties supplémentaires. Elle insiste sur la nécessaire sécurité du dispositif, et fait des préconisations techniques.

Elle demande à pouvoir se prononcer à nouveau après la tenue du débat au Parlement, afin d’examiner les modalités définitives de mise en œuvre du dispositif, s’il était décidé d’y recourir.

Conseil National du Numérique (24/04/2020), « Stop-Covid. Avis du Conseil National du Numérique »

Dans le cadre de la réponse à la crise du COVID-19, ​le secrétaire d’État chargé du Numérique a saisi le Conseil national du numérique pour émettre un avis sur les modalités de fonctionnement et de déploiement de l’application pour téléphones mobiles StopCOVID​, dont le développement a été annoncé le 8 avril 2020.

Ligue des Droits de l’Homme (24/04/2020), « Lettre ouverte concernant le vote sur la mise en œuvre de l’application StopCovid »

Les risques d’atteinte au respect de la vie privée et au secret médical, les risques de surveillance généralisée au regard d’une efficacité tout à fait incertaine conduisent la Ligue des droits de l’Homme (LDH) à vous demander instamment de vous opposer au projet StopCovid.

Washington Post (23/04/2020). Tribune de Bill Gates (24/04/2020) « Here are the innovations we need to reopen the economy. Version lisible aussi sur son blog en [version courte](The first modern pandemic (short read) ) et en version longue. On peut voir qu’un informaticien devient « spécialiste » en épidémiologie et comment il promeut du solutionnisme technologique (tout en affirmant que ce n’est pas non plus la panacée). Il propose le contact tracing (tracage de contact)

Le deuxième domaine dans lequel nous avons besoin d’innovation est le contact tracing. Lorsqu’une personne est testée positive, les professionnels de santé publique doivent savoir qui d’autre cette personne pourrait avoir été infectée.

Pour l’instant, les États-Unis peuvent suivre l’exemple de l’Allemagne : interroger toutes les personnes dont le test est positif et utiliser une base de données pour s’assurer que quelqu’un assure le suivi de tous leurs contacts. Cette approche est loin d’être parfaite, car elle repose sur la déclaration exacte des contacts par la personne infectée et nécessite un suivi personnel important. Mais ce serait une amélioration par rapport à la manière sporadique dont le contact tracing se fait actuellement aux États-Unis.

Une solution encore meilleure serait l’adoption généralisée et volontaire d’outils numériques. Par exemple, il existe des applications qui vous aideront à vous rappeler où vous avez été ; si jamais vous êtes déclaré positif, vous pouvez revoir l’historique ou choisir de le partager avec la personne qui vient vous interroger sur vos contacts. Et certaines personnes ont proposé de permettre aux téléphones de détecter d’autres téléphones qui se trouvent à proximité en utilisant le Bluetooth et en émettant des sons que les humains ne peuvent pas entendre. Si une personne était testée positive, son téléphone enverrait un message aux autres téléphones, et son propriétaire pourrait se faire tester. Si la plupart des gens choisissaient d’installer ce genre d’application, cela en aiderait probablement certains.

Risque-tracage.fr (21/04/2020). Le traçage anonyme, dangereux oxymore. Analyse de risques à destination des non-spécialistes.

Des chercheurs de l’INRIA, du LORIA etc. se regroupent pour diffuser un note de vulgarisation sur les risques liés au traçage par téléphone. Ils produisent un PDF qui circule beaucoup.

Privacy International (20/04/2020) « There’s an app for that: Coronavirus apps »

Increased trust makes every response to COVID-19 stronger. Lack of trust and confidence can undermine everything. Should we trust governments and industry with their app solutions at this moment of global crisis?

Key findings:

  • There are many apps across the world with many different uses.
  • Some apps won’t work in the real world; the ones that do work best with more virus testing.
  • They all require trust, and that has yet to be built after years of abuses and exploitation.
  • Apple and Google’s contributions are essential to making contact-tracing work for their users; these are positive steps into privacy-by-design, but strict governance is required for making, maintaining and removing this capability.

La Quadrature du Net (14/04/2020), « Nos arguments pour rejeter StopCovid Posted »

Utilisation trop faible, résultats vagues, contre-efficacité sanitaire, discriminations, surveillance, acclimatation sécuritaire…

Ross Anderson (chercheur Univ. Cambridge), (12/04/2020) « Contact Tracing in the Real World »

Voici le véritable compromis entre la surveillance et la santé publique. Pendant des années, une pandémie a figuré en tête du registre des risques de la Grande-Bretagne, mais on a beaucoup moins dépensé pour s’y préparer que pour prendre des mesures antiterroristes, dont beaucoup étaient plus ostentatoires qu’efficaces. Pire encore, la rhétorique de la terreur a gonflé les agences de sécurité au détriment de la santé publique, prédisposant les gouvernements américain et britannique à ignorer la leçon du SRAS en 2003 et du MERS en 2015 - contrairement aux gouvernements de la Chine, de Singapour, de Taïwan et de la Corée du Sud, qui y ont prêté au moins quelque attention. Ce dont nous avons besoin, c’est d’une redistribution radicale des ressources du complexe industriel de surveillance vers la santé publique.

Nos efforts devraient porter sur l’extension des tests, la fabrication de ventilateurs, le recyclage de tous ceux qui ont une formation clinique, des infirmières vétérinaires aux physiothérapeutes, et la construction d’hôpitaux de campagne. Nous devons dénoncer des conneries quand nous en voyons et ne pas donner aux décideurs politiques le faux espoir que la techno-magie pourrait leur permettre d’éviter les décisions difficiles. Sinon, nous pouvons mieux être utiles en nous tenant à l’écart. La réponse ne doit pas être dictée par les cryptographes mais par les épidémiologistes, et nous devons apprendre ce que nous pouvons des pays qui ont le mieux réussi jusqu’à présent, comme la Corée du Sud et Taïwan.

Union Européenne (08/04/2020) - Rapport technique sur le contact tracing. European Centre for Disease Prevention and Control . « Contact tracing: public health management of persons, including healthcare workers, having had contact with COVID-19cases in the European Union. » Lien vers le pdf , Lien vers la page.

This document aims to helpEU/EEA public health authorities in the tracing and management of persons,including healthcare workers, who had contact with COVID-19 cases. It should be implemented in combination with non-pharmaceutical measures as appropriate.

The purpose of identifying and managing the contacts ofprobable or confirmedCOVID-19casesisto rapidly identify secondary cases that may arise after transmission from the primary known cases in order tointervene andinterruptfurther onward transmission. This is achieved through:

  • the prompt identification of contacts of a probable or confirmedcase of COVID-19;
  • providing contacts withinformation on self-quarantine, proper hand hygiene and respiratory etiquette measures,and advice around what to do if they develop symptoms;
  • timely laboratory testingfor all those withsymptoms.

CEVIPOF (01/04/2020), Martial Foucault « Note 3 - Opinons sur l’usage du téléphone portable en période de crise du Coronavirus »

En France, aucune décision n’a encore été prise. Comme le démontrent les exemples étrangers précédents, plusieurs modalités d’usage des données cellulaires sont envisageables, allant d’une politique de santé publique partagée (Singapour) à une politique de surveillance sans consentement (Iran). Dans le cadre de l’enquête comparée «Attitudes sur le COVID-19», nous avons interrogé un échantillon représentatif de Français sur «la possibilité de mobiliser les opérateurs téléphoniques à des fins de contrôle des déplacements». Àcette question, une majorité de personnes exprime une opinion fortement défavorable (48%). Seules 33% des personnes interrogées (échantillon de 2000 personnes) y sont favorables. Le niveau d’indécision sesitue à 18,4%.L’évolution des réponses à cette question posée dans les mêmes termes entre les 16-17 mars et les 24-25 mars montre une dynamique fortement positive. Les raisons de cette progression sont à rechercher autour de l’aggravation réelle de la pandémie et de la perception par l’opinion de l’urgence de l’ensemble des politiques sanitaires, technologiques et maintenant numériques. Le cadrage médiatique, fondé sur des expériences étrangères, du possible recours aux téléphones ne précise pas la position que pourraient prendre les autorités françaises en la matière. C’est pourquoi, ici, la question posée dans les deux enquêtesporte volontairement sur la dimension la plus intrusive sur la vie privée et la plus liberticide (la formulation insiste sur une politique de surveillance).

Chaos Computer Club (06/04/2020), « 10 requirements for the evaluation of “Contact Tracing” apps »

Loin d’être fermé à la mise en oeuvre d’application mobile de contact tracing le CCC émet 10 recommandation hautement exigeantes pour rendre ces applications acceptables.

Facebook (06/04/2020), « De nouveaux outils pour aider les chercheurs en santé à suivre et à combattre le COVID-19 »

Dans le cadre du programme Data for Good de Facebook, nous proposons des cartes sur les mouvements de population que les chercheurs et les organisations à but non lucratif utilisent déjà pour comprendre la crise du coronavirus, en utilisant des données agrégées pour protéger la vie privée des personnes. Ils nous ont dit combien ces informations peuvent être précieuses pour répondre au COVID-19, et aujourd’hui nous annonçons de nouveaux outils pour soutenir leur travail :…

Google (blog), (03/04/2020), « Helping public health officials combat COVID-19 »

Starting today we’re publishing an early release of our COVID-19 Community Mobility Reports to provide insights into what has changed in response to work from home, shelter in place, and other policies aimed at flattening the curve of this pandemic. These reports have been developed to be helpful while adhering to our stringent privacy protocols and policies.

Officiel

Anti Cor (12/11/2020) « Application StopCovid : Anticor saisit le parquet national financier »

Anticor a déposé un signalement auprès du Procureur de la République, mercredi 10 juin, ayant pour objet l’attribution du contrat de maintenance de l’application StopCovid, qui n’aurait été soumis à aucune procédure de passation de marché public.

FRA (European Union Agency For Fundamentals Rights) - 28/05/2020 « Les réponses technologiques à la pandémie de COVID-19 doivent également préserver les droits fondamentaux »

Protection des données, respect de la vie privée et nouvelles technologiesAsile, migration et frontièresAccès à l’asileProtection des donnéesEnfants, jeunes et personnes âgéesPersonnes handicapéesOrigine raciale et ethniqueRomsDroits des victimes

De nombreux gouvernements sont à la recherche de technologies susceptibles de les aider à suivre et tracer la diffusion de la COVID-19, comme le montre un nouveau rapport de l’Agence des droits fondamentaux de l’UE (FRA). Les gouvernements qui utilisent la technologie pour protéger la santé publique et surmonter la pandémie se doivent de respecter les droits fondamentaux de chacun.

Office parlementaire d’évaluation des choix scientifiques et technologiques, 12/05/2020. Audition de M. Guillaume Poupard, directeur général de l’Agence nationale de la sécurité des systèmes d’information (ANSSI) – Vidéos Sénat.

Explications sur Stop-Covid, nécessité de conserver la souveraineté de l’Etat dans ce domaine, inquiétudes au sujet de la progression des GAFAM dans le secteur de la santé. Inquiétudes au sujet de la montée en puissance du tracage de contacts dans les dispositifs Apple / Google, et l’éventualité d’un futur développement d’une économie dans ce secteur avec tous les biais que cela suppose.

ANSSI (27/04/2020), « Application StopCovid –L‘ANSSI apporte à Inria son expertise technique sur le volet sécurité numérique du projet »

Pilote du projet d’application StopCovid, à la demande du Secrétaire d’Etat chargé du numérique, Cédric O, l’Institut national de recherche en sciences et technologies du numérique (Inria) est accompagné par l’Agence nationale de la sécurité des systèmes d’information (ANSSI) sur les aspects de sécurité numérique.

INRIA (26/04/2020). Communiqué de presse annonçant officiellement l’équipe-projet de l’application Stop-Covid.

Inria, ANSSI, Capgemini, Dassault Systèmes, Inserm, Lunabee Studio, Orange, Santé Publique France et Withings (et Beta.gouv a été débarqué du projet, qui contiendra finalement peu de briques open-source).

Protocoles

Les protocoles et applications suivants, développés dans le cadre de la lutte contre Covid-19 utilisent en particulier le Bluetooth.

BlueTrace est le protocole open source inventé au sein du gouvernement de Singapour dans le cadre de la lutte contre la propagation du virus Covid-19. Le protocole est utilisé dans l’application TraceTogether. À son tour le gouvernemetn Australien implémente ce protocole dans l’application COVIDSafe distribuée en Australie.

En Europe, le protocole ouvert Pan-European Privacy-Preserving Proximity Tracing (PEPP-PT/PEPP) utilise le bluetooth pour rechercher des contacts mais centralise des rapports sur un serveur centralisé. Son concurrent open source Decentralized Privacy-Preserving Proximity Tracing ne permet pas au serveur central de signalement d’accéder aux journaux de contacts.

Pour la France, le protocole ROBERT (ROBust and privacy-presERving proximity Tracing) a été publié par l’INRIA le 18 avril 2020

Listes d’applications Covid-19 : fr.wikipedia.org/wiki/Applications_Covid-19


Publié le 10.04.2020 à 02:00

Prophètes et technologistes à l’ère de la suspicion généralisée

Ha ! Le sacro-saint « révélateur ». À écouter et lire les médias, la pandémie Covid-19 que nous traversons aujourd’hui est censée « révéler » quelque chose, un message, un état d’esprit, l’avènement d’une prophétie. Et on voit proliférer les experts toutologues, devins des temps modernes, avatars des prédicateurs de l’An Mille, les charlatans de fin du monde. Je voudrais partager ici quelques réflexions au sujet des discours actuels sur la surveillance en situation de crise sanitaire.

(Note : ce billet a été publié sur le Framablog le 10 avril 2020)

Les prophètes

Faire une révélation, nous dit le dictionnaire, c’est porter à la connaissance quelque chose qui était auparavant caché, inconnu. Et le pas est vite franchi : pour nos prêtres médiatiques, il est très commode de parler de révélation parce que si le divin à travers eux manifeste ce qu’eux seuls peuvent dévoiler au public (eux seuls connaissent les voies divines), il leur reste le pouvoir de décider soit de ce qui était auparavant caché et doit être dévoilé, soit de ce qui était caché et n’est pas censé être dévoilé. Bref, on refait l’histoire au fil des événements présents : la sous-dotation financière des hôpitaux et les logiques de coupes budgétaires au nom de la rigueur ? voilà ce que révèle le Covid-19, enfin la vérité éclate ! Comment, tout le monde le savait ? Impossible, car nous avions tous bien affirmé que la rigueur budgétaire était nécessaire à la compétitivité du pays et maintenant il faut se tourner vers l’avenir avec ce nouveau paramètre selon lequel la rigueur doit prendre en compte le risque pandémique. Et là le prêtre devient le prophète de jours meilleurs ou de l’apocalypse qui vient.

Pourquoi je raconte tout cela ? Je travaille dans un CHU, les politiques de santé publiques me sont quotidiennes ainsi que la manière dont elles sont décidées et appliquées. Mais vous le savez, ce n’est pas le sujet de mes études. Je m’intéresse à la surveillance. Et encore, d’un point de vue historique et un peu philosophique, pour faire large. Je m’intéresse au capitalisme de surveillance et j’essaie de trouver les concepts qui permettent de le penser, si possible au regard de notre rapport à l’économie et au politique.

J’ai appris très tôt à me méfier des discours à tendance technologiste, et cela me vient surtout de ma formation initiale en philosophie, vous savez ce genre de sujet de dissertation où l’on planche sur le rapport technologie / politique / morale. Et à propos, sans pour autant faire de la philo, je ne saurais que conseiller d’aller lire le livre de Fred Turner qui, déjà en 2006 (la traduction est tardive), grattait assez profondément le vernis de la cyberculture californienne. Mais au fil des années de mon implication dans le logiciel libre et la culture libre, j’ai développé une autre sorte de sensibilité : lorsque les libertés numériques sont brandies par trop de prophètes d’un coup, c’est qu’il faut aller chercher encore ailleurs le discours qui nous est servi.

Pour exemple de l’effet rhétorique de la révélation, on peut lire cet article du géographe Boris Beaude, paru le 07 avril 2020 dans Libération, intitulé « Avec votre consentement ». L’auteur passe un long moment à faire remarquer au lecteur à quel point nous sommes vendus corps et âmes aux GAFAM et que la pandémie ne fait que révéler notre vulnérabilité :

Lorsque nous acceptons que de telles entreprises collectent les moindres détails de nos existences pour le compte de leurs clients et que nous doutons conjointement des régimes politiques qui nous gouvernent, nous réalisons que les effets de la propagation du Sars-Cov-2 ne sont qu’un révélateur de l’ampleur de notre vulnérabilité.

Il est important de comprendre la logique de ce discours : d’un côté on pose un diagnostic que seul un sage est capable de révéler et de l’autre on élève la pandémie et ses effet délétères au rang des sept plaies d’Égypte, qui sert de porte à une nouvelle perception des choses, en l’occurrence notre vulnérabilité face aux pratiques d’invasion de la vie privée par les GAFAM, et par extension, les pratiques des États qui se dotent des moyens technologiques pour surveiller et contrôler la population. Évidemment, entre la population assujettie et l’État-GAFAM, il y a la posture du prophète, par définition enviable puisqu’il fait partie d’une poignée d’élus livrant un testament aux pauvres pêcheurs que nous sommes. Reste plus qu’à ouvrir la Mer Rouge…

Arrêtons là si vous le voulez bien la comparaison avec la religion. Je l’affirme : non la crise COVID-19 ne révèle rien à propos du capitalisme de surveillance. Elle ne révèle rien en soi et encore moins à travers les prophètes auto-proclamés. Et la première des raisons est que ces derniers arrivent bien tard dans une bataille qui les dépasse.

Pendant la crise sanitaire que nous traversons il ne faut pas se demander ce qu’elle peut révéler mais interroger les discours qui se servent de cette crise pour justifier et mettre en œuvre des pratiques de surveillance et limiter encore davantage nos libertés. Penser les choses en termes de révélation n’a pour autre effet que de limiter toujours plus notre pouvoir d’action : que peut-on à l’encontre d’une révélation ?

Les amis de la Quadrature du Net (comme beaucoup d’autres, heureusement) préfèrent une approche bien plus structurée. Ils affirment par exemple dans un récent communiqué que, au regard de la surveillance, la crise sanitaire Covid-19 est un évènement dont l’ampleur sert d’argument pour une stratégie de surveillance de masse, au même titre que les attentats terroristes. Ceci n’est pas une révélation, ni même une mise en garde. C’est l’exposé des faits, ni plus ni moins. Tout comme dire que notre ministre de l’intérieur C. Castaner a d’abord affirmé que l’État Français n’avait pas pour intention de copier la Corée du Sud et la Chine en matière de traçage de téléphones portables, avant de revenir sur ses propos et affirmer que les services gouvernementaux planchent sur une application censée tracer les chaînes de transmission. Qui s’est offusqué de ce mensonge d’État ? C’est devenu tellement banal. Pire, une telle application permettrait d’informer les utilisateurs s’ils ont « été dans les jours précédents en contact avec quelqu’un identifié positif au SARS-CoV-2 », comme l’affirment les deux ministres Castaner et Véran dans un entretien au Monde. C’est parfait comme technique de surveillance : la Stasi pratiquait déjà ce genre de chose en organisant une surveillance de masse basée sur la suspicion au quotidien.

Le smartphone n’est qu’un support moderne pour de vieilles recettes. Le Covid-19 est devenu un prétexte, tout comme les attentats terroristes, pour adopter ou faire adopter une représentation d’un État puissant (ce qu’il n’est pas) et faire accepter un État autoritaire (ce qu’il est). Cette représentation passe par un solutionnisme technologique, celui prôné par la doctrine de la « start-up nation » chère à notre président Macron, c’est-à-dire chercher à traduire l’absence d’alternative politique, et donc l’immobilisme politique (celui de la rigueur budgétaire prôné depuis 2008 et même avant) en automatisant la décision et la sanction grâce à l’adoption de recettes technologiques dont l’efficacité réside dans le discours et non dans les faits.

Techno-flop

Le solutionnisme technologique, ainsi que le fait remarquer E. Morozov, est une idéologie qui justifie des pratiques de surveillance et d’immenses gains. Non seulement ces pratiques ne réussissent presque jamais à réaliser ce pourquoi elles sont prétendues servir, mais elles sont le support d’une économie d’État qui non seulement dévoie les technologies afin de maîtriser les alternatives sociales, voire la contestation, mais entre aussi dans le jeu financier qui limite volontairement l’appropriation sociale des technologies. Ainsi, par exemple, l’illectronisme des enfants et de leurs enseignants livrés à une Éducation Nationale numériquement sous-dotée, est le fruit d’une volonté politique. Comment pourrait-il en être autrement ? Afin d’assurer la « continuité pédagogique » imposée par leur ministre, les enseignants n’ont eu d’autres choix que de se jeter littéralement sur des services privateurs. Cette débandade est le produit mécanique d’une politique de limitation volontaire de toute initiative libriste au sein de l’Éducation Nationale et qui serait menée par des enseignants pour des enseignants. Car de telles initiatives remettraient immanquablement en question la structure hiérarchique de diffusion et de valorisation des connaissances. Un tel gouvernement ne saurait supporter quelque forme de subsidiarité que ce soit.

La centralisation de la décision et donc de l’information… et donc des procédés de surveillance est un rêve de technocrates et ce rêve est bien vieux. Déjà il fut décrié dès les années 1970 en France (voir la première partie de mon livre, Affaires Privées) où la « dérive française » en matière de « grands fichiers informatisés » fut largement critiquée pour son inefficacité coûteuse. Qu’importe, puisque l’important n’est pas de faire mais de montrer qu’on fait. Ainsi l’application pour smartphone Stop Covid (ou n’importe quel nom qu’on pourra lui donner) peut d’ores et déjà figurer au rang des grands flops informatiques pour ce qui concerne son efficacité dans les objectifs annoncés. Il suffit de lire pour cela le récent cahier blanc de l’ACLU (Union Américaine pour les libertés civiles), une institution fondée en 1920 et qu’on ne saurait taxer de repère de dangereux gauchistes.

Dans ce livre blanc tout est dit, ou presque sur les attentes d’une application de tracing dont l’objectif, tel qu’il est annoncé par nos ministres (et tel qu’il est mentionné par les pays qui ont déjà mis en œuvre de telles applications comme la Chine ou Israël), serait de déterminer si telle personne a été exposée au virus en fréquentant une autre personne définie comme contagieuse. C’est simple :

  1. Il faut avoir un smartphone avec soi et cette application en fonction : cela paraît basique, mais d’une part tout le monde n’a pas de smartphone, et d’autre part tout le monde n’est pas censé l’avoir sur soi en permanence, surtout si on se contente de se rendre au bureau de tabac ou chez le boulanger…
  2. aucune technologie n’est à ce jour assez fiable pour le faire. Il est impossible de déterminer précisément (c’est-à-dire à moins de deux mètres) si deux personnes sont assez proches pour se contaminer que ce soit avec les données de localisation des tours de téléphonie (triangulation), le GPS (5 à 20 mètres) ou les données Wifi (même croisées avec GPS on n’a guère que les informations sur la localisation de l’émetteur Wifi). Même avec le bluetooth (technologie plébiscitée par le gouvernement Français aux dernières nouvelles) on voit mal comment on pourrait assurer un suivi complet. Ce qui est visé c’est en fait le signalement mutuel. Cependant, insister sur le bluetooth n’est pas innocent. Améliorer le tracing dans cette voie implique un changement dans nos relations sociales : nous ne sommes plus des individus mais des machines qui s’approchent ou s’éloignent mutuellement en fonction d’un système d’alerte et d’un historique. Qui pourra avoir accès à cet historique ? Pourra-t-on être condamné plus tard pour avoir contaminé d’autres personnes ? Nos assurances santé autoriseront-elles la prise en charge des soins s’il est démontré que nous avons fréquenté un groupe à risque ? Un projet européen existe déjà (PEPP-PT), impliquant entre autres l’INRIA, et il serait important de surveiller de très près ce qui sera fait dans ce projet (idem pour ce projet de l’École Polytechnique de Lausanne).
  3. Ajoutons les contraintes environnementales : vous saluez une personne depuis le second étage de votre immeuble et les données de localisation ne prennent pas forcément en compte l’altitude, vous longez un mur, une vitrine, une plaque de plexiglas…

Bref l’UCLA montre aimablement que la tentation solutionniste fait perdre tout bon sens et rappelle un principe simple :

Des projets ambitieux d’enregistrement et d’analyse automatisés de la vie humaine existent partout de nos jours, mais de ces efforts, peu sont fiables car la vie humaine est désordonnée, complexe et pleine d’anomalies.

Les auteurs du rapport écrivent aussi :

Un système de suivi de localisation dans le temps peut être suffisamment précis pour placer une personne à proximité d’une banque, d’un bar, d’une mosquée, d’une clinique ou de tout autre lieu sensible à la protection de la vie privée. Mais le fait est que les bases de données de localisation commerciales sont compilées à des fins publicitaires et autres et ne sont tout simplement pas assez précises pour déterminer de manière fiable qui était en contact étroit avec qui.

En somme tout cela n’est pas sans rappeler un ouvrage dont je conseille la lecture attentive, celui de Cathy O’Neil, Algorithmes: la bombe à retardement (2018). Cet ouvrage montre à quel point la croyance en la toute puissance des algorithmes et autres traitements automatisés d’informations dans le cadre de processus décisionnels et de politiques publiques est la porte ouverte à tous les biais (racisme, inégalités, tri social, etc.). Il n’en faudrait pas beaucoup plus si l’on se souvient des débuts de la crise Covid-19 et la suspicion dans nos rues où les personnes présentant des caractères asiatiques étaient stigmatisées, insultées, voire violentées…

Ajoutons à cela les effets d’annonce des GAFAM et des fournisseurs d’accès (Orange, SFR…) qui communiquaient il y a peu, les uns après les autres, au sujet de la mise à disposition de leurs données de localisation auprès des gouvernements. Une manière de justifier leur utilité sociale. Aucun d’entre eux n’a de données de localisations sur l’ensemble de leurs utilisateurs. Et heureusement. En réalité, les GAFAM tout comme les entreprises moins connues de courtage de données (comme Acxiom), paient pour cela. Elles paient des entreprises, souvent douteuses, pour créer des applications qui implémentent un pompage systématique de données. L’ensemble de ces pratiques crée des jeux de données vendues, traitées, passées à la moulinette. Et si quiconque souhaite obtenir des données fiables permettant de tracer effectivement une proportion acceptable de la population, il lui faut accéder à ces jeux… et c’est une denrée farouchement protégée par leurs détenteurs puisque c’est un gagne-pain.

De la méthode

À l’heure où les efforts devraient se concentrer essentiellement sur les moyens médicaux, les analyses biologiques, les techniques éprouvées en santé publique en épidémiologie (ce qui est fait, heureusement), nous voilà en train de gloser sur la couleur de l’abri à vélo. C’est parce que le solutionnisme est une idéologie confortable qui permet d’évacuer la complexité au profit d’une vision du monde simpliste et inefficace pour laquelle on imagine des technologies extrêmement complexes pour résoudre « les grands problèmes ». Ce n’est pas une révélation, simplement le symptôme de l’impuissance à décider correctement. Surtout cela fait oublier l’impréparation des décideurs, les stratégies budgétaires néfastes, pour livrer une mythologie technologiste à grand renfort de communication officielle.

Et l’arme ultime sera le sondage. Déjà victorieux, nos ministères brandissent une enquête d’opinion du département d’économie de l’Université d’Oxford, menée dans plusieurs pays et qui montre pour la France comme pour les autres pays, une large acceptation quant à l’installation d’une application permettant le tracing, que cette installation soit volontaire ou qu’elle soit imposée1. Est-ce étonnant ? Oui, effectivement, alors même que nous traversons une évidente crise de confiance envers le gouvernement, la population est prête à jouer le jeu dangereux d’une surveillance intrusive dont tout laisse supposer que cette surveillance se perpétuera dans le temps, virus ou pas virus. Mais cela ne signifie pas pour autant que la confiance envers les dirigeants soit rétablie. En effet le même sondage signale que les retombées politiques en cas d’imposition d’un tel système sont incertaines. Pour autant, c’est aussi un signal envoyé aux politiques qui vont alors se lancer dans une quête frénétique du consentement, quitte à exagérer l’assentiment pressenti lors de cette enquête. C’est déjà en cours.

À mon avis, il faut rapprocher le résultat de cette enquête d’une autre enquête récente portant le plébiscite de l’autoritarisme en France. C’est une enquête du CEVIPOF parue en mars 2020 qui montre « l’emprise du libéralisme autoritaire en France », c’est-à-dire que le manque de confiance dans l’efficacité du gouvernement ne cherche pas son remède dans une éventuelle augmentation des initiatives démocratiques, voire alternativistes, mais dans le refuge vers des valeurs de droite et d’extrême droite sacrifiant la démocratie à l’efficacité. Et ce qui est intéressant, c’est que ceux qui se vantaient d’apporter plus de société civile à la République sont aussi ceux qui sont prêts à dévoyer la démocratie. Mais qu’on y prenne garde, ce n’est pas vraiment une affaire de classe sociale, puisque cette orientation autoritaire est aussi valable dans les tranches basses et moyennes. On rejoint un peu les propos d’Emmanuel Todd dans la première partie de son ouvrage Les Luttes de classes en France au XXIe siècle, données sérieuses à l’appui (y compris celles de l’Insee).

Alors quoi ? les Français sont-ils définitivement des veaux heureux d’aller à l’abattoir ? Honnêtement, parfois on peut le penser. Mais pas là. Non. L’enquête d’opinion d’Oxford a été menée dans un climat général extrêmement angoissant, et inédit. Pour retrouver un tel degré de panique dans la population, il faudrait par exemple se souvenir de la crise des missiles cubains et de la manière dont elle a été mise en scène dans les médias américains. Même l’épisode Tchernobyl en France n’a pas eu cet impact (ok, on a largement minimisé le problème). Et là dedans, avec un gouvernement à la fois empêtré et sidéré (avec la chargée de comm' S. Ndiaye alignant ad nauseam sottises et âneries), on fait un sondage dont les tenants et aboutissants techniques sont loin d’être évidents et qui pose la question : êtes-vous prêt à installer une application de tracing sur votre mobile qui permettrait de lutter contre l’épidémie ? Sérieux, on attend quoi comme réponse ? Sur plusieurs pays qui ont connu les mêmes valses-hésitations politiques, le fait que les réponses soient à peu près les mêmes devrait mettre la puce à l’oreille, non ? Bien sûr, allez demandez ce qu’elles pensent de la vidéosurveillance à des personnes qui se sont fait agresser dans la rue, pensez-vous que nous aurions les mêmes réponses si le panel était plus large ? Ce que je veux dire, c’est que le panel des 1.000 personnes interrogées en pleine crise sanitaire n’est représentatif que de la population touchée par la crise sanitaire, c’est-à-dire un panel absolument homogène. Évidemment que les tendances politiques ne viennent donc qu’en second plan et ne jouent qu’un rôle négligeable dans les réponses données.

Je ne suis pas statisticien, je ne peux donner mon sentiment qu’avec mes mots à moi. Mais, n’est-ce pas, nous sommes déjà habitués au techniques d’extorsion (fabrique ?) de consentement. À celui-ci s’ajoute une certaine pauvreté dans la manière d’appréhender cette fuite en avant vers la surveillance. Avec l’expression « Big Brother », on a l’impression d’avoir tout dit. Mais c’est faux. On ne passe pas si facilement d’un libéralisme autoritaire à une dystopie orwellienne, il y a des étapes, et à chaque étape nous prenons une direction. Scander « Big Brother » (comme la récente Une de l’Obs le 02 avril 2020 « Big Brother peut-il nous sauver ? »), c’est un peu comme si on cherchait à donner une théorie sans d’abord la démontrer. « Big Brother » impose une grille de lecture des événements tout en prédisant déjà la fin. Ce n’est pas une bonne méthode.

Y-a-t’il une bonne méthode ? Étudier la surveillance, c’est d’abord faire appel à un ensemble de concepts que l’on met à l’épreuve. Il faut signaler sur ce point l’excellent édito de Martin French et Torin Monahan dans le dernier numéro de la revue canadienne Surveillance & Society, intitulé « Dis-ease Surveillance: How Might Surveillance Studies Address COVID-19? ». C’est tout un programme de recherche qui est développé ici, à titre prospectif. La première chose que s’empressent de signaler les auteurs, c’est que surveiller le Covid-19, ce n’est pas surveiller la population. Ce sont deux choses bien différentes que les politiques feraient mieux de ne pas perdre de vue. Surveiller le Covid-19 c’est faire de l’épidémiologie, et identifier des cas (suspects, déclarés, etc.). Et là où on peut s’interroger, c’est sur la complexité des situations qu’une approche scientifique réduit à des éléments plus simples et pertinents. Si, pour les besoins d’une étude, il faut faire un tri social, il importe de savoir ce que l’étude révélera finalement : y-a-t’il plus de patients Covid-19 dans les couches pauvres de la population ? Comment l’information sur la surveillance circule et est reçue par les populations ? Et plus généralement qu’est-ce que la surveillance des populations en situation de pandémie, quelles sont les contraintes éthiques, comment les respecter ?

Ensuite vient tout un ensemble de concepts et notions qu’il faut interroger au regard des comportements, des groupes de pression, des classes sociales et tous autres facteurs sociaux. Par exemple la vigilance : est-elle encouragée au risque de la délation, est-elle définie par les autorités comme une vigilance face à la maladie et donc une forme d’auto-surveillance ? Il en est de même au sujet de l’anticipation, la stigmatisation, la marginalisation, la prévention, la victimisation, l’exclusion, la confiance, autant d’idées qui permettent de définir ce qu’est la surveillance en situation de pandémie. Puis vient la question des conséquences de la surveillance en situation de pandémie. Là on peut se référer à la littérature existante à propos d’autres pandémies. Je ne résiste pas à citer les auteurs :

L’écologie informationnelle contemporaine se caractérise par une forme de postmodernisme populiste où la confiance dans les institutions est érodée, ne laissant aucun mécanisme convenu pour statuer sur les demandes de vérité. Dans un tel espace, la peur et la xénophobie remplissent facilement le vide laissé par l’autorité institutionnelle. En attendant, si les gens ont perdu confiance dans l’autorité institutionnelle, cela ne les protégera pas de la colère des institutions si l’on pense qu’ils ont négligemment contribué à la propagation de COVID-19. Déjà, des poursuites pénales sont en cours contre la secte chrétienne qui a contribué à l’épidémie en Corée du Sud, et les autorités canadiennes affirment qu’elles n’excluent pas des sanctions pénales pour « propagation délibérée de COVID-19 ». Comme nous l’avons vu en ce qui concerne le VIH, la réponse de la justice pénale a connu un regain d’intérêt au cours de la dernière décennie, ce qui laisse entrevoir la montée d’une approche de plus en plus punitive des maladies infectieuses. Dans le cas du VIH, cette évolution s’est produite sans qu’il soit prouvé qu’une réponse de la justice pénale contribue à la prévention du VIH. À la lumière de ces développements, les chercheurs devraient s’attendre — et s’interroger sur les implications des flux de données sanitaires dans les systèmes de justice pénale.

Effectivement, dans un monde où le droit a perdu sa fonction anthropologique et où l’automatisation de la justice répond à l’automatisation de nos vies (leur gafamisation et leur réduction à des données numériques absconses) on peut se demander si l’autoritarisme libéral ne cherchera pas à passer justement par le droit, la sanction (la punition) pour affirmer son efficacité, c’est-à-dire se concentrer sur les effets au détriment de la cause. Qu’importe si l’application pour smartphone Covid-19 dit le vrai ou pas, elle ne saurait être remise en cause parce que, de manière statistique, elle donne une représentation de la réalité que l’on doit accepter comme fidèle. Ce serait sans doute l’une des plus grandes leçons de cette épidémie : la consécration du capitalisme de surveillance comme la seule voie possible. Cela, ce n’est pas une prophétie, ce n’est pas une révélation, c’est le modèle dans lequel nous vivons et contre lequel nous ne cessons de résister (même inconsciemment).


Crédit image d’en-tête : Le Triomphe de la Mort, Pieter Brueghel l’Ancien (1562) – Wikipédia.


  1. Un sondage réalisé à une semaine d’intervalle dément complètement les résultats de celui de l’université d’Oxford. Il a été réalisé sur la population française par l’IFOP suite à une demande de la Fondation Jean-Jaurès. Il apparaît qu’une majorité de français est en fait opposée à une application de type Stop-Covid. Voir Maxime des Gayets, « Tracking et Covid : extension du domaine de l’absurde », Fondation Jean-Jaurès, 12/04/2020 ↩︎


Publié le 24.03.2020 à 01:00

Culture de la surveillance : résistances

« Lutte pour les libertés numériques », « droits et libertés sur Internet », liberté, liberté, j’écris ton nom… Sauf qu’il n’a jamais été autant question de liberté dans le monde numérique sans qu’elle finisse invariablement à se retrouver comme réduite à une simple revendication d’auto-détermination individuelle. Nous revendiquons un « droit à la connexion », nous exigeons de pouvoir rester maîtres des données que nous transmettons (et nous ne le sommes pas). Mais ces droits et ces libertés, nous les réclamons en tant que sujets de pouvoir ou plutôt d’une couche de pouvoirs, impérialisme économique et concentration de technologies. Par ces incessantes réclamations, n’est-ce pas plus simplement que nous réaffirmons sans cesse notre soumission au capitalisme de surveillance ?

J’ignore encore, à l’heure où j’écris ces lignes, où je veux en venir exactement. Pas banal direz-vous, car j’ai habitué les lecteurs de ce blog à d’autres stratégies, mais baste ! En ces instants de confinement généralisé, j’ai bien envie de me laisser aller à quelques détours réflexifs. Je voudrais vous parler de Michel Foucault, de Michel de Certeau, des surveillance studies1, et d’autres enjeux que je ne développe pas dans mon récent bouquin (Affaires Privées) parce que la réflexion n’est pas encore assez mûre.

Je feuilletais récemment un ouvrage collectif intitulé Data Politics. Worlds, Subjects, Rights2, un de ces nombreux ouvrages qui fleurissent depuis une dizaine d’années (et plus encore depuis les révélations d’E. Snowden) dans le monde de la recherche en politique et sociologie du côté anglo-saxon. Me sont venues alors quelques réflexions. Ce n’est pas que dans la vieille Europe nous soyons démunis de ce côté-là, et en France encore moins, mais nous avons un gros défaut : une tendance à l’auto-centrisme.

C’est peut-être en réponse à cette limitation intellectuelle que récemment la « littérature » scientifique (et journalistique) en France a commencé par cesser la complainte du « ils nous surveillent, regardez comment », pour se pencher sur l’analyse des causes et des processus de ce qu’on a encore bien du mal à appeler le capitalisme de surveillance. Cette dernière expression est employée un peu partout, mais il est bien rare de trouver une publication académique en France qui l’utilise vraiment. Lorsque c’est le cas, on se tourne généralement vers une seule autrice, Shoshana Zuboff, qui propose effectivement une lecture du capitalisme de surveillance très pertinente puisqu’elle donne une analyse systématique des pratiques des entreprises, la répartition du pouvoir et de la décision que cela induit et l’impact sur la vie privée. Ainsi on a assisté depuis 2014 à la publication de nombreux articles de S. Zuboff en Allemagne (en particulier dans les versions allemandes et anglaises du Frankfurter Allgemeine Zeitung ) et aux États-Unis, avec le point culminant de son ouvrage monumental The Age of Surveillance Capitalism (publié d’abord en Allemagne puis aux États-Unis, et bientôt en France). On prévoit alors la « déferlante Zuboff » dans les prochaines publications ici et là : le Monde Diplomatique à son tour, puis la revue Esprit… Les colonnes sont ouvertes, on bouffera du Zuboff en 2020.

Tout cela est bon. Vraiment. Déjà parce que Zuboff est plus digeste que Masutti (cf. AffairesPrivées), mais surtout parce qu’il est très important d’avoir une base solide sur laquelle on peut commencer à discuter. Je l’ai déjà dit sur d’autres billets de ce blog, mais j’admire vraiment S. Zuboff parce qu’elle fourni dans son travail une analyse globale des pratiques de surveillance de l’économie numérique. C’est un travail essentiel aujourd’hui. Plus encore en ces jours de confinement « Covid 19 » où le solutionnisme technologique bat son plein dans les tentatives pathétiques de contrôle des populations. Il est vrai que la « start-up nation » tant vantée ces deux dernières années est encore attendue au tournant alors que c’est bien du côté de l’Économie Sociale et Solidaire que nous voyons émerger créativité et solidarité numériques pour palier les manquements de l’État-Gafam. S. Zuboff ne montre pas autre chose que le grignotage néolibéral des fonctions publiques et des libertés individuelles, ce qu’elle voit à la fois comme une injustice et une menace pour la démocratie.

Cependant (vous le reconnaissez cet adverbe assassin et jubilatoire des pédants qui critiquent le travail des autres ?), cependant, dis-je, cette analyse de S. Zuboff repose presque exclusivement sur l’idée que le capitalisme de surveillance est une dépossession de l’expérience individuelle, au sens d’un contrôle des masses consommatrices et productives, afin d’imposer un modèle économique qui ne crée pas autre chose qu’un déséquilibre dans la dynamique normale du capitalisme (concurrence, égalité, choix, etc.). Elle en vient même à déclarer que l’atteinte à la vie privée, moteur du capitalisme de surveillance est la marque d’une appropriation de savoirs (qui possède l’information et qui décide ?) d’ordre « pathologique ». En d’autres termes nous parlons donc d’un capitalisme malade qu’il faudrait soigner. Et, de là, S. Zuboff plaide pour une prise de conscience générale des décideurs afin de ré-organiser la régulation et rétablir l’équilibre économique.

Bon. Là-dessus, je ne suis pas d’accord (et je ne suis pas le seul). D’abord, d’un point de vue méthodologique il y a comme un (gros) problème : cette économie de la surveillance ne commence pas avec les géants de la Silicon Valley, elle s’inscrit dans une histoire que S. Zuboff élude complètement. Et si elle l’élude, c’est parce que vouloir influencer les comportements de consommation de masse, c’est déjà vieux (le marketing, c’est les années 1920), mais surtout la critique consistant à dénoncer les atteintes à la vie privée en s’appuyant sur des procédures informatisées et des formules prédictives, c’est un processus normal du capitalisme moderne dans une société informatisée, c’est-à-dire au moins depuis les années 1960 — et ça c’est ce que j’écris dans mon bouquin, entre autre. Si bien que S. Zuboff s’inscrit en fait dans une tradition déjà bien ancienne des contempteurs d’une économie de l’atteinte à la vie privée, qui dénonçaient déjà les pratiques à l’œuvre et dont les ouvrages furent de véritables best-seller dans les années 1960 et 1970 (Arthur Miller, James B. Rule, Alan Westin, etc.).

Mais S. Zuboff apporte bien des nouvelles choses. Elle contextualise son analyse en se concentrant sur l’idéologie de la Silicon Valley dont elle démontre comment, de manière réfléchie, cette idéologie grignote petit à petit nos libertés. S. Zuboff fait tout cela de manière excessivement renseignée, pointant, démontrant avec exactitude (et de nombreux exemples) comment les stratégies des « capitalistes de la surveillance » organisent la confusion entre marché et individu, nient la société pour nous assujettir à leurs modèles. Ce que des gens comme Fred Turner avaient déjà pointé en montrant que les utopies soi-disant contre-culturelles à l’origine de ce « nouveau monde numérique », n’étaient finalement qu’un échafaudage en carton-pâte, S. Zuboff l’intègre davantage dans une confrontation entre une nouvelle idéologie néfaste de la dérégulation et un capitalisme bien régulé où l’État reprendrait ses prérogatives et les individus leur pouvoir d’autodétermination de soi.

Oui, mais… non. Car si ce capitalisme de surveillance apporte des nouvelles règles, elles sont fatalement à l’épreuve de la société et de la culture. Et ce travail d’analyse manque cruellement à S. Zuboff. La réalité de l’idéologie de la Silicon Valley, c’est une augmentation délirante du chômage et de la précarisation, des exploitations nationales et mondiales de la pauvreté, de l’environnement et du climat, mais aussi les luttes solidaires contre l’ubérisation de l’économie, et tout un ensemble de résistances sociales qui font que non, décidément non, nous ne sommes pas que des sujets soumis aux pouvoirs. Si le capitalisme de surveillance impose ses jeux de pouvoir par le biais des États qui, sous couvert de solutionnisme technologique usent et abusent des contrôle des populations, ou par le jeu plus direct de la captation des données et de la prédictions des comportements de consommation, il reste que concrètement, aux bas niveaux des interactions sociales et des comportements collectifs, tout ne se passe pas de manière aussi mécanique qu’on voudrait le croire.

S. Zuboff reprend (sans le dire) l’expression de capitalisme de surveillance des auteurs de la Monthly Review. J’ai déjà eu l’occasion de disserter sur cette usurpation ici et , et j’en parle aussi dans mon ouvrage, aussi je ne vais pas y revenir. En fait, le capitalisme de surveillance est surtout un projet d’étude, une approche du capitalisme. Au lieu d’en faire un objet qui serait le résultat d’une distorsion d’un capitalisme idéal, c’est au contraire une lecture historique (matérialiste) du capitalisme qui est proposée et que S. Zuboff ne peut pas voir. Il est en effet primordial d’envisager le capitalisme de surveillance dans l’histoire, dans une histoire de la surveillance. Par conséquent il est tout aussi important de confronter la lecture de S. Zuboff aux faits sociaux et historiques. C’est ce que j’ai fait dans mon livre avec l’informatisation de la société depuis les années 1960, mais on peut aussi bien le faire avec une approche sociologique.

Maintenant j’en reviens à la référence que je citais en tout début de ce billet, Data Politics. Worlds, Subjects, Rights. Reconnu depuis des années dans le milieu des surveillance studies, le sociologue David Lyon, publie dans ce livre un chapitre (num. 4) que j’ai trouvé tout particulièrement pertinent. Il s’intitule « Surveillance Capitalism, Surveillance Culture and Data Politics ». Ces derniers temps, D. Lyon a beaucoup œuvré autour du livre de S. Zuboff et de la question du capitalisme de surveillance, notamment par des communications dans des colloques (comme ici) ou en interview (comme ici)3. Cela m’avait un peu étonné qu’il ne choisisse pas d’avoir un peu plus de recul par rapport à ces travaux, mais en réalité, j’avais mal lu. Dans le chapitre en question, D. Lyon propose de sortir du dilemme « zubovien » (pour le coup je ne suis pas fort en néologismes) en confrontant d’un côté le point de vue de S. Zuboff et, de l’autre côté, l’idée qu’il existe une « culture de la surveillance », c’est-à-dire en fait une porte de sortie que S. Zuboff ne parvient pas à entr’ouvrir mais qui existe bel et bien, celle des résistances aux capitalisme de surveillance. Des résistances qui ne sont pas de simples revendications pour un capitalisme mieux régulé. En fait, sans trop le dire, D. Lyon voit bien que l’analyse de S. Zuboff, aussi complète soit-elle du côté des pratiques, ne va guère plus loin en raison d’une croyance tout aussi idéologique en la démocratie libérale (et ça c’est moi qui l’ajoute, mais c’est pourtant vrai).

Après avoir rapidement mentionné l’existence de poches de résistances importantes autour du libre accès aux connaissances et les luttes collectives d’activistes, D. Lyon en vient à montrer que les contours d’une culture de la surveillance sont justement dessinés par les résistances et les pratiques de contournement dans la société. Autant, selon moi, le salut réside dans des résistances affirmées comme telles et qui s’imposent aux pouvoirs économiques et politiques (j’y reviendrai plus loin), autant il est vrai que ces résistances plus affirmées ne seraient rien si elles ne prenaient pas leurs racines sociales dans quelque chose de beaucoup plus diffus et que D. Lyon va chercher chez un penseur bien français-de-chez-nous (mais avec une carrière internationale), Michel de Certeau.

Bon alors, là c’est un gros morceau, je vais essayer de faire court, surtout que je ne suis pas sûr de viser juste car je rappelle que ceci n’est qu’un billet de blog prospectif.

Penchons-nous un instant sur des sujets qui gravitent autour de la théorie de l’action. On parle d’action individuelle ou collective, et de la manière dont elle se « déploie ». Par exemple, on peut penser l’action selon plusieurs angles de vue : la décision, le choix, les déterminant cognitifs, la rationalité, mais aussi la manière dont l’action peut être contrainte, normée, obéissant à une éthique, consciente ou inconsciente, etc. En sociologie ou en anthropologie, on peut dire que l’action est le plus souvent vue comme soumise à des contraintes (les institutions, les organisations sociales, les traditions).

Parmi les élément rationnels qui guident l’action, on peut mentionner les savoirs, mais aussi les éléments culturels qui ne sont pas vraiment des savoirs (au sens de connaissances ou de savoir-faire) mais sont de l’ordre des éléments de construction des représentations. Une vue de l’extérieur de l’environnement social contraint. Pour David Lyon, il y a les utopies (ou les dystopies) qui, comme œuvres artistiques constituent autant d’accroches à une éthique de l’action. De mon côté, j’ai pu voir à quel point, effectivement, depuis 50 ans, l’œuvre 1984 d’Orwell est systématiquement utilisée, presque de manière méthodologique, pour justifier des réflexions sur la société de surveillance. Ce faisant, on peut alors effectivement penser la société en fonction de ces représentations et orienter des actions de résistance, par exemple en fonction de valeurs que l’on confronte aux normes imposées. C’est tout l’objet de cette conférence d’Alain Damasio au Festival de la CNT en 2015.

Par exemple, je reprendrai uniquement cette citation d’Arthur R. Miller, écrite dans son célèbre ouvrage Assault on Privacy: Computers, Data Banks and Dossiers en 1971, et qui donne immédiatement la saveur des débats qui avaient lieu à ce moment-là :

Il y a à peine dix ans, on aurait pu considérer avec suffisance Le meilleur des mondes de Huxley ou 1984 d’Orwell comme des ouvrages de science-fiction excessifs qui ne nous concerneraient pas et encore moins ce pays. Mais les révélations publiques répandues au cours des dernières années au sujet des nouvelles formes de pratiques d’information ont fait s’envoler ce manteau réconfortant mais illusoire.

L’informatisation de la société a provoqué des changements évidents dans les contraintes sociales. Institutions, organisations, cadres juridiques, hiérarchies, tout s’est en quelque sorte enrichi d’une puissance calculatoire et combinatoire qu’est l’informatique. C’est dans ce contexte (et le terme contexte est important ici) qu’il faut penser la théorie de l’action. Et j’estime que les penseurs post-modernes, à l’époque même de l’informatisation de la société, n’ont pas vraiment pris la mesure du problème de la captation des données et de la transformation de l’économie. Certes, il y a toujours Deleuze et sa fameuse « société de contrôle », mais comme d’autres il ne pouvait pas penser qu’allait émerger une culture de la surveillance car il pensait d’abord en termes de contraintes sociales imposées (par les institutions, d’abord, ou par les organisations comme les banques) et, dans tout cela, l’individu en recherche impossible d’émancipation parce que tout est bouclé par le discours, une impossibilité d’énoncer l’alternative.

Revenons alors à la théorie de l’action. L’individu (doté d’un capital de savoirs spécifique à chacun) serait toujours sujet soumis aux forces, aux contraintes de l’environnement (géographie, économie, politique, anthropologie…) dans lequel il se situe. C’est en quelque sorte l’héritage de la sociologie de Bourdieu, celle de la reproduction des hiérarchies sociales mais aussi celle d’une théorie de l’action selon laquelle les stratégies des individus sont des habitus adaptés au monde social dans lequel il évoluent dans les contraintes de compétitions, de structures et de violence symbolique. En somme, l’individu est fondamentalement soumis aux règles dictées par les hiérarchies sociales et l’environnement social construit pour lui dans lequel il doit lui aussi essayer d’exister socialement. Mais dans ce contexte, l’individu n’est pas pleinement conscient de ses pratiques. Elles lui sont soit naturelles soit subies, mais elles sont aussi ce qui le structure comme un individu. À la nécessité de déployer ces pratiques correspond comme une sorte de prolétarisation de l’être : ce savoir-être qu’il n’a pas (dont on le prive) et qui se résout à n’être qu’un ploiement face aux normes.

Un peu dans le même ordre d’idée, l’individu chez Michel Foucault est soumis aux pratiques de décisions des institutions. C’est flagrant dans Surveiller et Punir, toutes ces procédures, administrations et techniques forment un ordre du pouvoir. Il peut être la tentative de rétablir un système de relations sociales normées (dans l'Histoire de la Folie), ou une force disciplinaire qui circonscrit l’espace à un espace cellulaire universel (le même pour tous) et permet le contrôle social.

Mais n’y a-t-il pas d’autre méthode que de réduire tout le fonctionnement social à une procédure dominante qui serait le contrôle et la surveillance ?

Chez Michel de Certeau, l’ordre des choses est loin d’être aussi simple, et ce n’est pas vraiment un ordre (au sens d’ordonnancement ou au sens du pouvoir donneur d’ordres). C’est la question du rapport entre pensée et action. D’abord, son point de vue sur le sujet est beaucoup plus optimiste puisqu’il le dote d’une certaine puissance. Cette puissance se traduit par le fait qu’il est tout à fait conscient de sa résistance à l’ordre imposé et même, M. de Certeau décompose l’ordre et la résistance en distinguant deux démarches différentes : stratégies et tactiques. Dans L’invention du quotidien, M. de Certeau analyse cela sous l’angle d’une réflexion sur le quotidien et s’oppose en quelque sorte à la seule logique du discours qui, chez Foucault est quasiment la seule logique qui explique les rapports de pouvoir. Pour M. de Certeau, le discours, c’est le contexte, c’est-à-dire que l’énonciation d’un état de choses, d’un ordre, est toujours relative au contexte, un temps et un espace, dans lequel on exprime. L’énonciation peut alors avoir deux niveaux. Le premier est la représentation, c’est un calcul, une stratégie où le sujet fait de volonté et de pouvoir (intention, délibération, exécution, etc.) observe de l’extérieur et détermine les choix rationnels : le sujet en question peut être aussi bien un individu qu’une institution ou une entreprise, peu importe. Par l’ingéniosité, la stratégie permet alors de saisir des occasions (avec une prudence toute aristotélicienne) qui font basculer les choix dans l’intérêt du sujet (ou pas…). Déjà, là, nous sommes loin de Bourdieu et sa théorie dispositionnelle où c’est à l’intérieur de l’individu, dans sa structure cognitive, qu’entrent en jeu les dispositions qui orientent son action dans un contexte donné. Avec M. de Certeau, ce n’est pas qu’on réfute l’idée que la cognition ne joue pas un rôle, mais on ajoute quelque chose de très pertinent : l’occasion, qui au fond est la mesure de la pertinence de l’action. La stratégie est d’ordre topologique, elle exprime un rapport essentiellement à l’espace, qu’elle cherche non seulement à mesurer et calculer mais aussi contrôler sous les trois piliers que sont la prospective (prévoir), la théorie (savoir) et la domination (pouvoir).

Le second niveau de l’énonciation, ce sont les tactiques. Elles sont propres aux individus mais ne sont en aucun lieu déterminé puisqu’elles s’expriment selon les occasions sur le terrain ou la loi imposés par le stratège, celui qui a décidé (voir paragraphe précédent), qui a pu envisager l’ordre de l’extérieur et le designer. Ces tactiques relèvent d’une pratique du temps, ce sont des actes et des usages. Elles n’organisent pas de discours, elles sont « purement » pratiques et surtout créatrices. Elles explorent le territoire, mais sont autant de résistances à la loi imposée. Ce sont des « manières de faire », des « ruses ». En d’autre termes, là où le commandement implique une stabilité et une identification précise et fixe des lieux (par exemple l’institution Républicaine qui a des lieux précis, préfectures, et administrations), résistance et tactiques jouent des circonstances et créent des usages qui ne sont pas forcément raccord avec l’ordre déterminé stratégiquement. En fait, c’est même tout leur objet, de ne pas être raccord, puisqu’elles sont un art de vivre, des savoir-vivre.

Pour illustrer cela on peut se reporter au rapport entre lecture et écriture. C’est un exemple de M. de Certeau. La lecture déstabilise toujours l’écrit là où on l’on pensait au contraire que la réception de l’écrit est universelle et balisée, au contraire une lecture diffère toujours d’une autre, elle « déterritorialise » l’écrit. On peut encore illustrer en reprenant la manière dont la chercheuse Anne Cordier fait référence à Michel de Certeau dans son livre Grandir connectés, les adolescents et la recherche d’information en mentionnant la manière dont les élèves élaborent des tactiques dans l’environnement contraint du CDI ou de l’institution pour satisfaire l’enseignant lors de la recherche d’information (montrer ostensiblement qu’on ne va pas sur Wikipédia tout en contournant la règle pour y récupérer des informations).

On comprend peut-être mieux à quel point les utopies (ou les dystopies) sont en soit des actes de résistance. Puisqu’elles détournent les stratégies pour être des matrices créatrices de nouveaux usages. Le détour du tacticien par l’utopie lui permet d’imaginer un autre ordre possible que le territoire qui lui est donné. Et de cette occasion-là, il peut se servir pour changer le quotidien.

Cette manière de penser l’action est un peu le contre-pied du point de vue de Bernard Stiegler. Pour ce dernier, les GAFAM ont entrepris un vaste projet de prolétarisation des savoirs (savoir-être et savoir-vivre) et il nous appartient de chercher à se déprolétariser en fondant une économie de la contribution, qui soit le contraire d’une économie de la consommation-extraction-des-données où nous sommes les produits et les agents consommateurs. Mais dans ce point de vue, on en reste à l’idée que la résistance ne peut se faire qu’un revendiquant, de manière révolutionnaire, notre libération de ces contraintes. Cela me fait penser à Jean Baudrillard qui oppose société de consommation (où notre objectif consiste à satisfaire nos egos et nous distinguer des autres) et société de non consommation (la Chine de Mao ?). Faire cette distinction revient à penser que le consumérisme, pilier du libéralisme, est une affaire de choix individuels (au pluriel, les agents rationnels de l’économie) et s’oppose au choix collectif qui pourrait nous mener vers une société meilleure (le choix social communiste ?). Mais, selon moi, c’est oublier que le choix consumériste, libéral ou néolibéral, est d’abord et avant tout un choix politique, donc collectif ! Penser l’individu en tant qu’un éternel sujet soumis aux contraintes, aux normes ou à ses appétences non maîtrisées de petit élève consommateur… cela implique que des sachants viennent enfin lui expliquer comment sortir de son état prolétaire. Mais il y a déjà des tactiques à l’œuvre et nous sommes tous individuellement des résistants conscients de leurs résistances. En tout cas au moins depuis les Lumières où nous nous sommes sortis des carcans et des prescriptions… cf. Kant. Je ne veux pas opposer ici la philosophie kantienne mais, tout de même, l’anthropologie et la sociologie nous montrent bien tout cela. Si on prend le simple exemple de Wikipédia, c’est sur ce genre de tactique que s’est monté l’un des plus vastes mouvements d’émancipation de savoirs au monde (hors du cadre académique).

La culture de la surveillance, ce n’est pas seulement être habitué à être surveillé et même à y trouver des avantages (les gens se rendent sur Facebook par envie et par plaisir) ou contourner la surveillance pour son propre avantage (piratage de films contre le cadre Hadopi). La culture de la surveillance, c’est aussi la mise en pratique de toutes ces tactiques qui sont rendues possibles avec Internet parce qu’Internet fourni aussi les outils de résistance et de formulation de contre-ordre, de contre-culture.

Si nous en revenons au capitalisme de surveillance, finalement de quoi s’agit-il ? s’il s’agit d’un ordre économique et politique qui nous est imposé, et il est imposé parce que les données avec lesquelles il élabore la stratégie sont en grande partie des données issues non pas de notre quotidien (qui est la dynamique de nos tactiques, nous inventons notre quotidien) mais une extraction de notre quotidienneté, c’est à dire, comme le disait Henri Lefevre dans sa Critique de la vie quotidienne4, la banalité inconsciente et inconséquente de nos actions (tout le monde chez Mac Do, tout le monde regarde Netflix, tout le monde achète sur Amazon…) l’insignifiance de nos gestes… Une insignifiance dans le sens ou, pour reprendre M. de Certeau, il s’agit de la part non tacticienne de soumission au stratège : notre obéissance à l’ordre. Et donc la captation de nos données consiste à une extrapolation de ce que nous sommes, en tant qu’individus, une re-construction théorique. Nos doubles numériques sont eux-mêmes doublement construits : re-construction des données (par inférence, recoupement, calcul, combinaisons et algorithme), et re-construction théorique de notre quotidienneté. Mais tout cela n’est pas notre quotidien.

Nous sommes des résistants.

Le problème est de savoir si nos tactiques, nos résistances à l’ordre du capitalisme de surveillance doivent se résoudre à n’être qu’individuelles. Ce serait là une grossière erreur. D’abord parce que, comme le montre l’exemple de Wikipédia, mais aussi tous les mouvements ouverts, les collectifs, les zads, les libristes (et j’en passe) sont bien des actions collectives qui détournent, contournent l’ordre des institutions et créent de nouvelles structures, repensent la démocratie, et le tout dans une dynamique où la méthode est presque aussi importante que les actes. On peut difficilement faire plus conscient que cela. Et si ces mouvements se créent par des logiques tacticiennes, souvent par spontanéité, c’est parce que les cadres et les institutions n’emportent plus l’adhésion générale. Si bien que l’ensemble des tactiques fait monter la pression entre le cadre et le désir, et se créent alors des espaces de violence.

Le souhait le plus ardent des stratèges, en faisant la bonne figure d’un capitalisme régulé (régulé par la loi, donc la politique, donc soi-disant par tous) est donc de réduire les tactiques à la seule dimension individuelle. L’individu responsable, donc libre de disposer de soi dans les limites de la loi et du contrat social. Un contrat qui ne fait qu’imposer la logique d’un modèle unique de démocratie élective (parfois pas) et libérale. Donc lutter contre le capitalisme de surveillance par la revendication des libertés individuelles, en prônant l’idée que la vie privée est d’abord un concept qui garanti les choix individuels, c’est en quelque sorte conforter le cadre stratégique de l’aliénation et revenir à définir la résistance sociale à la somme des résistances individuelles. C’est l’échec, à mon avis.

Menons encore une petite prospective. Comme on parle de Michel de Certeau, généralement, la théologie et le mysticisme ne sont pas loin. Je pense à la théologie de la libération, ce courant christiano-marxiste porté notamment en Amérique du Sud dans les années 1970 puis à travers tout ce qu’on a appelé le « Tiers monde ». Ce qui me plaît là-dedans, ce n’est pas le message théologique, mais l’idée que dans le mouvement de résistance, en particulier face aux dictatures, c’est à la base des hiérarchies sociales, donc les plus pauvres généralement, que se situe l’appropriation des savoirs (ici la parole divine, les évangiles, etc.), à la fois pour se libérer des conditions sociales imposées, mais aussi des conditions religieuses imposées par les colonisateurs et classes dominantes pour se créer leur propre cadre religieux chrétien. On dépasse le cadre de la charité pour permettre aux pauvres d’agir eux-mêmes pour améliorer leur condition. Et si la théologie de la libération a pu trouver un échos dans les classes sociales, c’est parce qu’elle cristallisait au bon moment les tactiques de contournement des masses à l’ordre social imposé. Des tactiques que d’aucun aurait pu juger qu’il s’agissait de l’effacement de la personnalité au profit de l’humilité face aux blancs colonisateurs… jusqu’au jour où le colonisateur se prenant une balle perdue au milieu de la pampa, l’illumination sur la réalité sociale se fait.

Évidemment, on parle ici de guérillas et de répressions. Mais le plus important pour mon propos est de constater qu’il s’agit bien d’une réflexion sur l’action. Ce que certains, à la même époque d’ailleurs, on appelé l’action directe. L’action directe n’est pas d’emblée une action violente (elle est même souhaitable, c’est ce que je dis ci-dessous) mais elle contribue fatalement à augmenter la pression entre les tactiques et le cadre imposé. Et souvent la violence ne vient pas « d’en-bas ».

Alors comment ? Comment faire pour favoriser la résistance collective ? Déjà il faut comprendre qu’elle est déjà-là. Il faut surtout la comprendre et formuler ses formes idéales qui, selon moi, doivent prendre deux aspects : la préfiguration et l’archipélisation.

Pour ce qui concerne la préfiguration, j’ai déjà écrit ce billet. Je répéterai simplement qu’il s’agit d’une voie de l’avènement de pratiques collectives, non uniformisées, dont la diversité dans les organisations et les actions fait la force, en lutte contre les oppressions et de manière générale contre les cadres imposés qui n’emportent plus l’adhésion ou la supposée adhésion. Dès lors, ces pratiques sont toujours en mode préfiguratif : elles n’attendent ni validation ni autorisation des institutions. C’est l’idée du faire, faire sans eux, faire contre eux. À mon sens c’est une attitude résolument anarchiste.

Quant à l’achipélisation, c’est un concept qui revient à Édouard Glissant. Elle permet d’inclure ce qui manque dans la réflexion précédente (même si en affirmant qu’il s’agit d’anarchie, je l’inclus évidemment) : le rôle de l’autre, notre relation à l’autre. C’est en cela que la préfiguration, comme action de tactique collective, est d’abord un mouvement altruiste. Je copie ici un paragraphe de la conclusion de Affaires Privées :

Si le mouvement d’émancipation est d’essence anarchique, la cartographie des initiatives est celle d’un archipel. Cette métaphore insulaire, nous la reprenons du philosophe Edouard Glissant. On peut en effet prendre exemple sur l’imprévisible pluralité créole chère à ce grand penseur antillais (martiniquais). Elle montre que la richesse langagière, culturelle, sociale et sans doute politique ne réside ni dans le pouvoir et l’ordre ni dans la centralisation (continentale) mais dans le jeu de l’échange et du partage, au point que chaque individu possède en lui une pensée-archipel qui permet d’entrer en relation avec l’autre. L’archipélisation permet d’englober cela de manière à voir une cohérence dans l’insularité des imaginaires et des initiatives, et les regrouper dans une inter-insularité coopérative. La démarche préfigurative peut donc être anarchique, mais la concevoir dans un monde-archipel permet de penser l’inattendu de l’expérimentation, l’indétermination des alternatives au monde-continent. Ainsi, toutes les initiatives ne sont pas censées adhérer à des principes anarchistes, se reconnaître comme telles, ou même seulement penser à l’être. On ne compte plus les mouvements qui se revendiquent de l’autogestion, de la gestion collective, de l’initiative libre, de la participation ouverte, ou qui se présentent comme des collectifs, d’associations pluri-représentatives, des groupes informels, des groupes anonymes… en somme tout cela est finalement très cohérent puisque les normes structurelles existantes n’emportent plus l’adhésion.

Pour conclure ce billet un peu foutraque, tout cela mérite d’être amplement retravaillé, révisé, et sans doute mieux compris. Car je ne cache pas que les pensées de tous les auteurs cités ici sont loin de me mettre à l’aise. Je pense néanmoins ne pas être si éloigné que cela des problématiques actuelles que pose le capitalisme de surveillance et auxquelles je souhaiterais répondre par une forme de théorie de l’émancipation, histoire de sortir un peu de la sempiternelle plainte à l’encontre des pratiques des GAFAM et des États à la sauce start-up-nation-de-contrôle. Une plainte qui, sans être accompagnée de la recherche au moins théorique d’une porte de sortie, ne fait que tourner en rond depuis les premiers âges de l’informatisation de la société.


  1. Voir « La » revue de référence en la matière : Surveillance & Society. ↩︎

  2. Didier Bigo, Engin Isin, Evelyn Ruppert, Data Politics. Worlds, Subjects, Rights, London : Routledge, 2019. ↩︎

  3. Zuboff, Shoshana & Möllers, Norma & Murakami Wood, David & Lyon, David. (2019). « Surveillance Capitalism: An Interview with Shoshana Zuboff », Surveillance & Society, 17, 2019, p. 257-266. ↩︎

  4. Henri Lefebvre, Critique de la vie quotidienne, Paris, L’Arche, 1958. ↩︎


Publié le 20.03.2020 à 01:00

Affaires Privées

Au quotidien, nos échanges numériques et nos comportements de consommateurs sont enregistrés, mesurés, calculés afin de construire des profils qui s’achètent et se vendent. Des débuts de la cybernétique aux big data, la surveillance a constitué un levier économique autant qu’idéologique.

Dans Affaires privées, Christophe Masutti retrace l’histoire technique et culturelle de soixante années de controverses, de discours, de réalisations ou d’échecs. Ce retour aux sources offre un éclairage passionnant sur le capitalisme de surveillance et sur le rôle joué par le marketing dans l’informatisation de la société.Il décrit la part prise par les révolutions informatiques et le marché des données dans les transformations sociales et politiques.

La surveillance est utilisée par les administrations à des fins de contrôle, et par les entreprises pour renforcer leurs capacités commerciales. Si les pratiques de renseignement des États ont souvent été dénoncées, la surveillance venue du monde des affaires n’a longtemps suscité qu’indifférence. Le business des données en a profité pour bousculer les cadres juridiques et réglementaires de la vie privée.

Comment développer une économie numérique qui respecterait la vie privée des individus ? Comment permettre à la vie privée d’échapper au pouvoir des affaires ? Christophe Masutti propose une réflexion historique et politique sur les conditions d’émancipation face à l’économie de la surveillance.


Masutti, Christophe. Affaires Privées. Aux sources du capitalisme de surveillance. C&F éditions, 2020.

Lien vers le site de l’éditeur : https://cfeditions.com/masutti/



Publié le 17.03.2020 à 01:00

Affaires Privées : en attendant

En raison de l’épidémie qui touche notre pays actuellement, l’éditeur C&F éditions n’est pas encore en mesure d’effectuer les envois des exemplaires précommandés de mon ouvrage Affaires Privées. Aux sources du capitalisme de surveillance. En attendant, voici quelques éléments pour vous mettre en bouche…

Tout d’abord, je voudrais remercier ceux qui comptent précommander l’ouvrage avant même sa sortie et toutes les critiques qui ne manqueront pas de le dézinguer (ou pas !). C’est important pour moi parce que cela montre dans quelle mesure le livre est attendu (histoire de me rassurer un peu), et c’est important pour l’éditeur qui joue tout de même sa réputation en publiant un livre qui ne soit pas totalement hors de propos.

Sachez aussi qu’en raison de la situation sanitaire Covid-19, l’éditeur C&F éditions a choisi d’allonger la durée de souscription (donc avec une petite remise sur le prix final). Allez-y, n’hésitez plus !

C’est presque Noël ! l’éditeur a aussi décidé d’accélérer la fabrication de la version epub de l’ouvrage. Elle sera garantie sans DRM (on dirait une publicité pour légumes bio quand on dit des choses pareilles !). Donc ceux qui ont choisi la souscription, et n’auront pas la joie de découvrir l’ouvrage dans leur boîte à lettres dans un délai raisonnable, pourront toujours se réconforter avec la version électronique.


Pour terminer, et si vous avez les crocs, voici ci-dessous quelques liens vers des billets de ce blog qui concernent Affaires Privées. Ils sont loin (très loin) de présenter un aperçu général de l’ouvrage (475 pages, tout de même, c’est pas si cher au kilo… pour suivre la métaphore des légumes bio). Par ailleurs il y a eu des modifications substantielles entre le moment où j’ai écrit ces billets et la publication du livre, alors ne soyez pas sévères…

Dans un premier temps voici deux billets qui transcrivent des passages complets du livre. Le premier concerne le projet Cybersyn, à une époque où le fait qu’un gouvernement puisse posséder un pouvoir de surveillance « total » n’était pas si mal vu. Le second est un point de vue plus théorique sur notre modernité à l’ère de la surveillance et qui reprend un passage où j’expose comment je vais chercher chez Anthony Giddens quelques clés de lecture.

Les deux billets suivants font partie de l’argumentation qui me situe par rapport au récent livre de Shoshana Zuboff, The Age of Surveillance Capitalism qui a fait l’objet d’une grande couverture médiatique. Attention : il ne s’agit absolument pas d’une argumentation complète, mais le format « billet » pourra peut-être aider à une meilleure compréhension lorsque vous accrocherez la dernière partie de l’ouvrage.

Alors, je vous souhaite bonne lecture en attendant le pavé dans la mare…

Christophe Masutti, Affaires Privées. Aux sources du capitalisme de surveillance (couverture)


Commander sur le site de l’éditeur : C&F éditions



Publié le 02.03.2020 à 01:00

Parution : Affaires Privées

Au quotidien, nos échanges numériques et nos comportements de consommateurs sont enregistrés, mesurés, calculés afin de construire des profils qui s’achètent et se vendent. Des débuts de la cybernétique aux big data, la surveillance a constitué un levier économique autant qu’idéologique.

Table des matières

Descriptif

Titre : AFFAIRES PRIVÉES. Aux sources du capitalisme de surveillance

Auteur : Christophe Masutti

Préface de Francesca Musiani

Édition : C&F éditions, Collection Société numérique, 5

Date de parution : mars 2020

Nombre de pages : 475

ISBN : 978-2-37662-004-4

Dimensions : 15 x 21 cm

Commander sur le site de l’éditeur : C&F éditions

Télécharger un descriptif de l’ouvrage (PDF)

Couverture

Christophe Masutti, Affaires Privées. Aux sources du capitalisme de surveillance (couverture)

4e couverture

Au quotidien, nos échanges numériques et nos comportements de consommateurs sont enregistrés, mesurés, calculés afin de construire des profils qui s’achètent et se vendent. Des débuts de la cybernétique aux big data, la surveillance a constitué un levier économique autant qu’idéologique.

Dans Affaires privées, Christophe Masutti retrace l’histoire technique et culturelle de soixante années de controverses, de discours, de réalisations ou d’échecs. Ce retour aux sources offre un éclairage passionnant sur le capitalisme de surveillance et sur le rôle joué par le marketing dans l’informatisation de la société. Il décrit les transformations sociales et politiques provoquées par les révolutions informatiques et le marché des données.

La surveillance est utilisée par les administrations à des fins de contrôle, et par les entreprises pour renforcer leurs capacités commerciales. Si les pratiques de renseignement des États ont souvent été dénoncées, la surveillance venue du monde des affaires n’a longtemps suscité qu’indifférence. Le business des données en a profité pour bousculer les cadres juridiques et réglementaires de la vie privée.

Comment développer une économie numérique qui respecterait la vie privée des individus ? Comment permettre à la vie privée d’échapper au pouvoir des affaires ? Christophe Masutti propose une réflexion historique et politique sur les conditions d’émancipation face à l’économie de la surveillance.

Une citation

Cité dans l’ouvrage :

Ces grandes banques de données permettront au citoyen, lorsqu’il est confronté à un nouvel environnement, d’établir « qui il est » et d’acquérir rapidement les avantages qui découlent d’une évaluation de solvabilité (bancaire) fiable et d’un caractère social acceptable aux yeux de sa nouvelle communauté. En même temps, les établissements commerciaux ou gouvernementaux en sauront beaucoup plus sur la personne avec laquelle ils traitent. Nous pouvons nous attendre à ce qu’un grand nombre de renseignements sur les caractéristiques sociales, personnelles et économiques soient fournis volontairement – souvent avec empressement – afin de profiter des bienfaits de l’économie et du gouvernement.

Lance J. Hoffman, « Computer and Privacy : a survey » (1969).

Argumentaire

« Envahisseurs de la vie privée », « homme informatisé », « société du dossier », « surveillance publique », « contrôle social »… toutes ces expressions sont nées à la fin des années 1960. Le processus d’informatisation de la société occidentale s’est fait sur le fond d’une crainte de l’évènement de la dystopie de 1984. Et pourtant, lorsqu’on raconte l’histoire de la révolution informatique, on retient surtout l’épopée des innovations technologiques et le storytelling californien.

Les pratiques de surveillance sont les procédés les plus automatisés possible qui consistent à récolter et stocker, à partir des individus, de leurs comportements et de leurs environnements, des données individuelles ou collectives à des fins d’analyse, d’inférence, de quantification, de prévision et d’influence. Des années 1960 à nos jours, elles se révèlent être les outils précieux des administrations publiques et répondent aux besoins concurrentiels et organisationnels des entreprises. On les appréhende d’autant mieux que l’on comprend, grâce à de nombreux exemples, qu’elles dépendent à la fois des infrastructures informatiques et de leur acceptation sociale. Ainsi, le marché de la donnée s’est progressivement étendu, économique, idéologique, culturel. Fruit de rapports sociaux, le capitalisme de la surveillance n’est pas un nouveau système économique, il est le résultat de l’adjonction aux affaires économiques de la surveillance électronique des individus et de la société.

Faire l’histoire (critique) du capitalisme de surveillance, c’est analyser les transformations sociales que l’informatisation a rendu possibles depuis les années 1960 en créant des modèles économiques basés sur le traitement et la valorisation des données personnelles. La prégnance de ces modèles ajoutée à une croissance de l’industrie et des services informatiques a fini par créer un marché hégémonique de la surveillance. Cette hégémonie associée à une culture consumériste se traduit dans plusieurs contextes : l’influence des consommateurs par le marketing, l’automatisation de la décision, la réduction de la vie privée, la segmentation sociale, un affaiblissement des politiques, un assujettissement du droit, une tendance idéologique au solutionnisme technologique. Il fait finalement entrer en crise les institutions et le contrat social.

Du point de vue de ses mécanismes, le capitalisme de surveillance mobilise les pratiques d’appropriation et de capitalisation des informations pour mettre en œuvre le régime disciplinaire de son développement industriel et l’ordonnancement de la consommation. Des bases de données d’hier aux big data d’aujourd’hui, il permet la concentration de l’information, des capitaux financiers et des technologies par un petit nombre d’acteurs tout en procédant à l’expropriation mercantile de la vie privée du plus grand nombre d’individus et de leurs savoirs. Et parce que nous sommes capables aujourd’hui d’énoncer cette surveillance aux multiples conséquences, il importe de proposer quelques solutions collectives d’émancipation.


Publié le 18.02.2020 à 01:00

Zettlr : markdown puissance dix

Le logiciel libre a toujours quelque chose de magique. Cédant au plaisir coupable d’une attitude consommatrice, on se met à essayer frénétiquement plusieurs solutions logicielles, rien que « pour voir ». Zettlr fera-t-il partie de ces nombreux éditeurs markdown que je recense dans l’espoir de trouver le Graal du genre ? Attention : on n’essaye pas Zettlr sans en comprendre d’abord les objectifs.

Comparaison et flux de travail

Dès les premières pages de présentation dans la documentation de Zettlr, on voit clairement que pour se servir de ce logiciel, il faut de bonnes raisons.

On peut expliquer ces raisons en comparant Zettlr avec d’autres éditeurs spécialisés dans le markdown. Essayons par exemple de le comparer Ghostwriter (j’en ai parlé dans ce billet), du point de vue utilisateur.

La première différence c’est que là où Ghostwriter propose une interface très facile et rapide à prendre en main… Zettlr n’est pas aussi explicite. Bien sûr, on peut d’emblée commencer à écrire en markdown, enregistrer un fichier, mais ce n’est pas le but unique de Zettlr. Si Ghostwriter se concentre avant tout sur la partie éditeur, Zettlr est à la fois dédié à l’écriture et à la gestion de connaissances. Et pour cause, il a été créé et il est utilisé essentiellement dans le monde universitaire. C’est donc dans un contexte qui concerne les documents longs qu’il faut appréhender Zettlr, là où Ghostwriter servira bien la cause pour écrire un billet de blog, par exemple.

En fait tout se joue dans la manière dont on intègre un éditeur markdown dans un flux de travail. Dans mon cas, l’éditeur que j’utilise ne constitue pas un nœud décisif, ce qui fait que, selon les situations, je peux opter pour un autre éditeur (spécialisé ou non dans le markdown) pour continuer à travailler sur le même document.

J’aime bien avoir cette possibilité d’utiliser plusieurs éditeurs pour un même fichier, indépendamment du système sur lequel je travaille. Ensuite, pour produire le document final, j’exporte directement dans un format donné (si l’éditeur le permet) ou bien j’utilise pandoc qui me permet de transformer le fichier markdown en à peu près tout ce que je veux. Dans ce cas, je « sors » de l’éditeur pour utiliser la ligne de commande, puis une fois le document produit, j’utilise un autre logiciel pour terminer ma production selon le format choisi (LibreOffice pour.odt, un éditeur TeX pour(La).TeX, un éditeur de texte pour le .html, LibreOffice pour .docx, etc.). Pour les questions liées à la gestion de la bibliographie, c’est un peu complexe, puisque je suis contraint d’ouvrir, en plus de mon éditeur, un gestionnaire de bibliographie tel Zotero ou JabRef, repérer les clé bibtex des références, les insérer sous la forme [@dupont1955].

Tout dépend des goûts, mais on voit bien qu’un éditeur markdown trouve vite ses limites lorsqu’on commence à intégrer le markdown dans une démarche de rédaction plus « soutenue » et afin de rédiger des documents longs. Des allers-retour avec d’autres logiciels (notamment pour la gestion de la bibliographie) sont nécessaires.

Bien sûr les éditeurs comme Ghostwriter permettent de faire des exports en différents formats. Ils peuvent même créer du PDF en utilisant LaTeX (c’est d’ailleurs l’option recommandée pour un bon résultat, à condition d’avoir préalablement installé LaTeX). Mais il faut savoir se méfier des solutions qui prétendent tout faire. Ainsi, lorsqu’on commence à manipuler de la bibliographie, les « exports-gadgets » sont plus encombrants qu’autre chose. Cependant, il faut reconnaître que Zettlr a plutôt bien réussi à intégrer ces fonctionnalités d’export.

Pour ce qui me concerne, la solution que j’ai adoptée consiste à utiliser un éditeur de texte nommé Atom qui dispose d’extensions permettant d’écrire en markdown, faire de l’autocomplétion avec du Bibtex, intégrer un convertisseur avec pandoc et utiliser la console pour lancer des commandes (et plein d’autres choses). Cela me permet d’avoir mon flux de travail concentré pour l’essentiel sur un seul logiciel et utiliser les fonctionnalités au besoin, en gardant l’avantage de segmenter l’activité.

Alors, si de tels couteaux suisses existent, me demanderez-vous, pourquoi s’intéresser à Zettlr ? parce que les couteaux suisses demandent un temps d’apprentissage assez long, disposent d’une foule de fonctionnalités au point de s’y perdre et que Zettlr cherche à concentrer l’essentiel (avec quelques bémols toutefois).

De la gestion de connaissance

Avant de parler des fonctionnalités concrètes de Zettlr, il faut questionner l’ambition générale de ce logiciel.

Il a été créé essentiellement pour les chercheurs et les écrivains. C’est d’ailleurs un chercheur en sciences humaines, Hendrik Erz, qui a créé Zettlr afin de pouvoir sortir du carcan « traitement de texte » qui ne correspond pas vraiment aux besoins lorsqu’on écrit ou prend des notes dans une activité de production de connaissances (là où le traitement de texte devrait intervenir à une étape ultérieure de « mise au propre »).

Quels sont ces besoins ? pouvoir écrire en se concentrant sur ce qu’on écrit, tout en disposant d’une aide pour accéder aux ressources cognitives qu’on aura prit soin d’organiser en amont.

Cette organisation passe par la gestion bibliographique (à l’aide de logiciels dédiés tels Zotero) ainsi que par la gestion des notes et autres notices ou fiches que l’on stocke dans un système de pensée qui nous est propre.

Pour ce qui concerne la gestion bibliographique, l’utilisation de logiciels dédiés (et capables de sortir différents formats de bibliographie) est une habitude que bon nombre de chercheurs ont déjà (si ce n’est pas le cas, il y a un problème). Zettlr permet d’intégrer l’utilisation de références bibliographiques au cours du travail d’écriture dans l’éditeur markdown. Il suffit de renseigner le fichier .bib (ou CSL Json, qu’on obtient avec Zotero) puis Zettlr permet son utilisation au cour de la frappe. Cela rappelle par exemple l'extension Zotero qu’on installe dans LibreOffice, mais de manière plus brute et beaucoup plus fluide.

Saisie de référence biblio

Pour ce qui concerne la mobilisation des connaissances, Zettlr a été conçu pour créer un système de Zettelkästen. On le note en allemand (ici au pluriel) parce que, pour un néophyte qui se rendrait dans les options de configuration de Zettlr, il y a une rubrique entièrement dédiée au « flux de travail Zettelkasten », et très franchement ça peut surprendre (sauf qu’on comprend aussi pourquoi Zettlr se nomme ainsi).

Une Zettelkasten signifie littéralement « boîte » (der Kasten) à notices ou pense-bêtes (der Zettel). Personnellement j’appelle cela une « boîte à fiches ». Dans ce cas, direz-vous, il y a déjà des logiciels spécialisés dans les « notes », y compris en permettant de synchroniser en ligne, avec une interface pour smartphone, etc. Oui, évidemment, et il n’est pas idiot de penser que, dans la mesure où ces logiciels de prise de notes utilisent le plus souvent le markdown, ces notes peuvent aussi être ouvertes avec Zettlr (c’est que je fais). Mais cela va plus loin.

Zettlr permet de créer des fiches tout en créant soi-même un système de rangement. C’est ce qui est expliqué ici. Le logiciel ne cherche pas à formater les notes ou à créer une seule manière de les rédiger ou les stocker : c’est à vous de créer votre système de rangement. On utilise alors pour cela les outils courants de liens externes entre les fiches et les mots-clés qu’on note pour chaque fiche. Un genre wiki, si on veut (même si un logiciel comme Dokuwiki sera bien plus puissant), mais sans quitter Zettlr.

Fiche demo

L’intérêt réside selon moi dans la création et le nommage des fiches. Selon le besoin, il est possible de configurer l’identifiant de la fiche (le nom du fichier) et créer des liens entre les fiches en profitant de l’assistant (menu contextuel qui liste les noms de fiche). Ces fonctionnalités sont très simples, on pourra même les qualifier de basiques, mais à l’utilisation quotidienne, elle permettent un réel gain de temps… Et à propos de temps on notera que si Zettlr propose un format d’export en Org (pour Emacs), ce n’est pas pour rien !

Fiche lien

Aide à la saisie

Zettlr est d’abord un éditeur markdown et le moins qu’on puisse dire est qu’il accompli ce rôle avec brio. L’aide à la saisie, indissociable de l’interface, est soignée.

Outre un petit menu, en haut, dédié à la mise en forme, on notera :

  • la visibilité automatique des titres de section, avec la possibilité de masquer la section ;
  • l’aide à la saisie de tableaux ;
  • quelques raccourcis et astuces (voir la documentation) tels la combinaison Ctrl + alt + F qui permet d’entrer une référence de note de bas de page automatiquement, ou encore Ctrl + alt + pointage curseur qui permet de saisir le même texte à deux endroits en même temps…

Aide à la saisie de tableaux

Correction en cours de frappe

L’ajout d’une fonction de correction basée sur des dictionnaires est quelque chose d’assez banal. Zettlr l’intègre pour plusieurs langues et c’est un atout très important. Mais pour un éditeur markdown, la possibilité de configurer soi-même la correction en cours de frappe est, osons le dire, assez exceptionnel. Ainsi, dans Paramètres > AutoCorrect il est possible d’activer l’utilisation des guillemets selon le contexte linguistique, mais aussi toutes sortes de saisies utiles, en particulier pour la typographie. Ainsi, on peut faire en sorte que la frappe d’un double point soit remplacée par une séquence qui associe une espace insécable (AltGr + Esp) et un double point, et toutes autres joyeusetés relatives aux règles typographiques.

Fonction auto-correction

Travailler par projet

Comme le font beaucoup d’éditeurs, en particulier pour la programmation, l’utilisation de Zettlr sera d’autant plus efficace si vous optimisez la gestion des fichiers en créant un dossier par projet. C’est ce dossier que vous ouvrez alors, et c’est dans ce dossier que seront listés les fichiers que vous créez (dans le panneau de gauche). Ainsi, dans les options d’export, je conseillerais plutôt de cocher l’option qui consiste à sauvegarder les fichiers exportés dans le dossier en cours.

La bibliographie

Comme mentionné plus haut, Zettlr fournir un outil d’aide à la saisie de références bibliographiques.

Le principe qui a été retenu par les créateurs est celui-ci : dans les paramètres, vous entrez le chemin du fichier de bibliographie que vous avez créé. Vous pouvez entrer un fichier .bib ou un fichier .json créé par exemple avec Zotero.

À la différence de la gestion bibliographique via une extension Zotero ou JabRef dans le logiciel de traitement de texte tel LibreOffice, il faut entrer le chemin du fichier .bib ou .json dans les paramètres et ce seront ces données qui seront utilisées par Zettlr. Évidemment, si vous complétez votre bibliographie il faut s’assurer que Zettlr pourra bien trouver dans le fichier vos nouvelles références sans pour autant remplacer le fichier à chaque fois et devoir recharger Zettlr. Une fonctionnalité de Zotero vous sera très utile pour cela :

  • Dans Zotero, sélectionnez la bibliothèque que vous souhaitez exporter, clic droit puis Exporter la bibliothèque
  • Sélectionnez le format Better BibTeX ou Json et cochez la case Garder à jour
  • Sauvegardez et entrez le chemin vers ce fichier dans Zettlr
  • Désormais, lorsque la bibliothèque Zotero subira des modifications, le fichier d’export sera toujours à jour (et vous retrouverez vos nouvelles références)

À mes yeux, c’est une posture bancale. Certes, le fichier sera toujours à jour mais c’est une fonctionnalité qui dépend d’un autre programme (et tant pis si vous n’aimez pas Zotero). Par ailleurs, cela implique aussi que le fichier de bibliographie soit le même pour tous vos projets, ce qui signifie que si, comme moi, vous avez une biblio séparée pour chaque projet dans Zotero, la seule bibliothèque à exporter, c’est la principale. Cela dit, une fois configurée la bibliographie, Zettlr permet l’autocomplétion des références, ce qui est déjà d’une grande aide.

Ceci est valable aussi pour la configuration du format de bibliographie à la production de sortie, c’est-à-dire à l’export. En effet, pour formater la bibliographie, Zettlr permet de sélectionner le fichier de style CSL (que vous pourrez trouver sur ce dépôt ou via ce configurateur – reportez-vous à la section Bibliographie de ce billet pour comprendre de quoi il s’agit). Là encore, l’idée me semble bancale : si vous rédigez plusieurs documents avec des exigences différentes de format de bibliographie, il faut changer à chaque fois.

Donc idéalement, l’une des prochaines améliorations de Zettlr devrait inclure une solution d’extension Zotero ou JabRef capable de générer le fichier de bibliographie final à la volée et une solution de sélection de fichiers de style CSL. Plus facile à dire qu’à faire… 

Paramètrage de la biblio

Export et pandoc

Pour utiliser les fonctionnalités d’export de Zettlr, il vous faut le logiciel pandoc installé sur votre système. Vous ne serez pas efficace si vous ne connaissez pas dans les grandes lignes le fonctionnement de ce logiciel… Qui ne connaît pas pandoc aura toutes les peines du monde à comprendre comment Zettlr exporte les fichiers dans un format choisi.

Pandoc est un logiciel de conversion muti-format très puissant et avec des résultats très propres (il ne s’encombre pas de formules polluantes qui rendent inutilisables les fichiers produits). Là où pandoc prend toute sa valeur dans notre cas, c’est qu’il permet de transformer le format markdown en à peu près tout ce que vous voulez. Par ailleurs, il est capable non seulement de convertir, mais aussi de convertir en utilisant des modèles et même d’autres logiciels qui paramètrent la conversion. Je vous invite à lire ce billet à propos de la manipulation de documents markdown et ce billet à propos de pandoc et LaTeX pour vous faire une idée (complétez aussi par celui-ci).

Ces lectures vont vous permettre de mieux comprendre la section des paramètres avancés de Zettlr.

Zettlr Paramètres avancés Dans l’illustration, la liste des annexes concerne les fichiers que vous allez voir figurer dans le panneau latéral de droite (en cliquant sur la petit trombone) lorsque vous liez des documents annexes à votre document. Quant aux chemins vers pandoc et XeLaTeX, inutile de vous en soucier, pourvu que ces programmes soient bien installés.

Ce qui nous intéresse dans les paramètres avancés, c’est la commande pandoc réservée aux « utilisateurs avancés seulement ». Parce qu’en réalité, elle détermine comment pandoc doit fonctionner avec Zettlr. Essayons de comprendre.

Pandoc est un logiciel dont l’usage est simple. Ce n’est pas parce qu’il s’utilise en ligne de commande que cela en fait un logiciel compliqué. La preuve : pour utiliser pandoc, vous devez lancer la commande pandoc en précisant le fichier sur lequel vous voulez travailler, le nom du fichier à produire et les options et formats choisis pour la conversion. Ainsi la commande

$pandoc source.md -o sortie.odt

Consiste à produire un fichier .odt nommé « sortie » à partir d’un fichier nommé « source ». Le -o signifie « output » (vers la sortie).

Une variante pourrait être   : $pandoc -f markdown -t odt bonjour.md … c’est à dire transformer le fichier « bonjour.md » du markdown vers (-f c-à-d. : from markdown vers -t c-à-d. : to) le .odt.

Ça va jusque là ? vous voyez il n’y a rien de compliqué. Continuons un peu.

Pandoc ne fait pas « que » convertir. Il est capable de convertir en utilisant des informations beaucoup plus complexes et qui permettent même d’enrichir le fichier de départ, surtout si ce dernier n’est qu’en markdown. Par exemple :

  • avec le programme citeproc il est capable d’interpréter un format de bibliographie (en CSL) et on aura pris soin de renseigner dans la ligne de commande à la fois l’option citeproc et le chemin vers le fichier de bibliographie ;
  • avec reveal.js il est capable de sortir, à partir d’un fichier markdown rédigé à cette intention, une très jolie présentation en HTML qu’il reste à afficher dans un navigateur en vue de faire une conférence.

Maintenant imaginez que vous n’avez pas le nom du fichier source ni le nom de sortie et que vouliez permettre à un utilisateur de choisir le format de sortie. Et bien il vous reste à créer une ligne de commande qui, au lieu de donner des instruction rigides, propose des valeurs (avec des $ qui seront utilisées (ou pas). Et vous voilà avec la ligne de commande que propose Zettlr dans les paramètres avancés.

Exporter en PDF

L’export au format PDF à partir de Zettlr suppose que vous ayez LaTeX (et XeLaTeX) installé sur votre système. Si tel est le ca,s il vous reste à vous rendre dans le menu fichier > Paramètres de PDF afin d’y renseigner divers éléments dont un modèle .tex qui pourra être utilisé. Rendez-vous sur la documentation de Pandoc pour apprendre à vous en servir.

Paramètres du PDF

Attention : Si vous avez une version de pandoc antérieure à 2.0 (c’est le cas pour beaucoup d’installations), Zettlr (via pandoc) retournera une erreur du type unrecognized option --pdf-engine=xelatex. L’explication se trouve ici. Il s’agit d’un changement qui a eu lieu pour pandoc 2.0  qui est passé de la commande --latex-engine=xelatex à la commande --pdf-engine=xelatex. Pour résoudre ce problème, remplacez simplement l’occurrence dans la ligne de commande pandoc que vous trouverez dans Paramètres > Paramètres avancés. Ou bien installez la dernière version de pandoc.

Attention (bis) : Dans les options du PDF, section Police sont indiquées les polices de caractères que pandoc utilisera pour la transformation en PDF via XeLaTeX. Si vous ne les avez pas sur votre système, un message d’erreur sera affiché. Indiquez à cet endroit les polices de caractères que vous souhaitez utiliser.

Les autres formats

Zettlr permet de faire des présentations en markdown puis de les exporter en utilisant reveal.js. Il vous reste donc à rédiger votre présentation et choisir parmi les modèles proposés (couleurs dominantes).

Export de présentaiton

Vous pouvez aussi exporter directement en HTML  : pour cela Zettlr dispose d’un modèle et exportera votre document en une page HTML contenant aussi les styles (on dit « standalone » ou option -s avec pandoc).

Quand aux autres formats, le choix reste intéressant :

Format Destiné pour
HTML Navigateur
.ODT Traitement de texte type LibreOffice, MSWord, AbiWord, etc.
.DOCX Microsoft
rST ReStructuredText : mise en forme pour de la doc de langage type Python
RTF Rich Text Format : format descriptif pour traitement de texte
TeX Format pour TeX / LaTeX
TXT Format texte (simple)
ORG Pour Emacs Org (pour les utilisateurs d’org-mode, très puissant
Bdl / Pck TextBundle (un conteneur markdown + description + fichiers liés) / Variante

… il manque selon moi la possibilité d’exporter en .epub, un tâche dont s’acquitte très bien pandoc et qui pourrait avoir son application pour l’écriture de livre, lorsqu’on a plusieurs chapitres dans des fichiers séparés. Peut-être que cette fonctionnalité sera ajoutée ultérieurement.

Conclusion

Zettlr est un excellent logiciel qui tire de nombreux avantages du markdown dans le flux de production de documents longs et dans la gestion de documentation personnelle. Il pêche encore par manque de pédagogie, mais il est sur la bonne voie. Par ailleurs, sur les aspects qui concernent l’exportation, ce que propose Zettlr est une interface graphique de pandoc. Les habitués de al ligne de commande, comme moi, ne seront pas franchement épatés : j’estime qu’il à ce niveau plus important d’apprendre à complètement se servir de pandoc. Et s’il lui faut une interface graphique (et je pense que ce serait plutôt bien), dans ce cas, je préférerais largement un programme uniquement dédié aux fonctions de conversion de pandoc (et pas au markdown).

Des directions devront être envisagées en fonction du public visé pour Zettlr. Par exemple, au vu de son fonctionnement global, il pourrait tout à fait être utilisé en binôme avec Git et par conséquent intégrer des options spécialisées dans le versionning. Une autre possibilité consisterait à utiliser une connexion à un dépôt Nextcloud afin de pouvoir synchroniser facilement l’écriture de documents en markdown. Bien sûr, qu’il s’agisse de Git ou de Nextcloud, il est déjà possible soit de commiter les fichiers à part, soit de travailler dans un dossier distant, mais il s’agit-là de tâches spécialisées avec lesquelles tout le monde n’est pas familier.


Publié le 05.01.2020 à 01:00

Sentiers et randonnée : le grisbi du Club Vosgien

En octobre 2019, après un bon repas dans un restaurant montagnard, la Direction du Parc Naturel Régional des Ballons des Vosges et le Club Vosgien ont signé une charte de protection des sentiers pédestres. Ils entendent ainsi définir l’exclusivité des usages et tentent de légitimer une discrimination entre les piétons et les autres usagers, en particulier les VTT. Si cette charte n’a qu’une valeur juridique potentielle, elle n’en demeure pas moins une démarche qui pourra essaimer dans les autres parcs naturels, et c’est toute une activité sportive (et touristique) qui en subira les conséquences. Il faut se mobiliser.

Vététiste

Loin des clichés et des vidéos impressionnantes de DownHill qu’on trouve sur les zinternetz, le VTT est d’abord et avant tout une activité à la fois sportive et populaire. Cela va de la petite promenade dominicale en famille dans les sous-bois, à la grande randonnée de 60 kilomètres avec 2500 m de dénivelé. Cette forme de randonnée sportive a un autre nom, le Cross Country ou All Mountain… On va appeler cela la Randonnée Sportive en VTT, pour faire court et francophone.

Il s’agit d’une pratique en solo ou en petits groupes. On croisera rarement un peloton de 20 vététistes dans la forêt sauf en cas d’organisation d’un événement dédié. On peut dire aussi que les vététistes sont des amoureux de la nature. Lorsque vous croisez un vététiste sur un sommet, par exemple dans les Vosges, il y a de fortes chances qu’il soit monté depuis le fond de la vallée (pour mieux y redescendre) et il n’a donc pas amené sa voiture sur le parking à 200 m de là. Dans son sac à dos, il préfère embarquer quelques outils et non pas la combinaison chips et papiers gras que d’aucuns n’hésitent pas à laisser traîner : il préfère une petite barre de céréales et quelques fruits secs. C’est aussi un contemplatif, il aime les paysages et reste très sensible aux aspects esthétiques du circuit qu’il accompli.

Bref, il ressemble à quoi notre vététiste ? à un randonneur. Un pur, un vrai, exactement comme les randonneurs chevronnés du Club Vosgien, cette vénérable institution qui regroupe des mordus de la marche et du bivouac. Sauf que lui, il a juste un vélo en plus.

Cette pratique du VTT rassemble l’écrasante majorité des pratiquants. Ils descendent sur les sentiers ou les chemins plus larges sans se prendre pour des champions du monde (parce que se casser la figure en VTT peut coûter cher). Sourire aux lèvres, sensations dans le guidon, quelques menus frissons : le VTT est une activité cool (avec un peu de transpiration quand même, sinon c’est pas drôle). Et pour les mordus comme moi, quelques degrés vers zéro ou un peu de pluie ne nous font peur (même la neige c’est marrant).

Dans les Vosges, on croise les vététistes soit sur les sentiers soit à la terrasse des fermes-auberges. Quoi de plus normal ? Des allemands, des belges, des habitants du coin ou d’un peu plus loin… exactement comme les randonneurs pédestres vous dis-je.

Alors c’est quoi le problème ?

J’ai déjà eu l’occasion de pondre un assez long billet sur cette curieuse mentalité de quelques antennes (alsaciennes) du Club Vosgien qui refusent le partage des usages tout en s’octroyant le droit de décider des libertés (en particulier celle d’aller et venir) pour l’ensemble des usagers, y compris les randonneurs qui ne font pas partie du Club Vosgien (une majorité, donc).

Il faut croire que les mêmes ont su réitérer de manière encore plus officielle et cette fois en entraînant dans leur sillage la plus haute responsabilité du Club Vosgien, sa présidence, et en sachant convaincre le président du Parc Naturel Régional des Ballons des Vosges.

À l’initiative de l’antenne CV de Saint Amarin, une charte a été signée le 11 octobre 2019, avec pour titre : « Charte de protection des sentiers pédestres ». Elle concerne tout le massif et engage réciproquement le Parc le Club Vosgien… Je n’en fais pas l’article, l’antenne de la MBF Vosges a écrit à ce sujet un communiqué plus que pertinent.

Cette charte a été rédigée, discutée et signée en totale exclusion des représentants des autres usagers de la montagne et de ses sentiers, en particulier les vététistes. On remarque parmi les présents à la « cérémonie » de la signature : des représentants d’antennes du Club Vosgien (surtout celui de Saint Amarin), des représentants du Parc, le préfet du Haut Rhin (surprenant !), un représentant du Club Alpin Français, un représentant d’Alsace Nature (association de protection de la nature), quelques élus municipaux, départementaux et régionaux… C’est-à-dire, outre le Club Vosgien, une très faible représentation des usagers de la montagne et du Parc mais une très forte représentation des instances administratives.

Source : page FB du club Vosgien antenne St. Amarin

Cette charte engage réciproquement le Club Vosgien et le Parc sur des sujets tels l’entretien des sentiers et leurs préservation, en vertu de leurs valeurs patrimoniale, esthétique, et économique. Fort bien, dirions-nous, puisque dans ce cas, les devoirs ne concernent que ces instances.

Mais que lit-on au détour d’un article ? que les « sentiers fragiles de montagnes seront réservés en exclusivité à la circulation pédestre ».

On ne parle pas ici des sentiers déjà interdits par arrêté (parfois même aux piétons) et qui concernent de très petites parties classée en zone protégée. Non : on parle des sentiers que visiblement le Club Vosgien défini péremptoirement comme des sentiers « fragiles », c’est-à-dire « inférieurs à 1 mètre de large », « sinueux, situés dans des pentes raides » et « ne permettent pas le croisement avec d’autres usagers que pédestres » (comme si les VTT ne s’arrêtaient jamais pour laisser passer les marcheurs…)

En d’autres termes, dans une charte qui ne fait que stipuler des engagements réciproques entre le Parc et le Club Vosgien, c’est-à-dire entre une association et une autorité administrative, on voit apparaître comme par enchantement une clause qui rend exclusif et discriminatoire l’usage des sentiers. Faute d’avancer des faits réels et tangibles pour justifier cette exclusivité, la clause en question n’a pas la valeur d’un arrêté mais elle est néanmoins légitimée par une autorité administrative. Tel était l’objectif du Club Vosgien, et il a été atteint.

Il faut encore préciser que la valeur patrimoniale de ces sentiers est essentiellement le fruit du travail du Club Vosgien depuis le début du siècle dernier. On ne peut que saluer l’énorme travail fourni mais on ne peut toutefois s’empêcher de remarquer que le CV se place aujourd’hui en juge et partie : la même valeur patrimoniale est-elle communément partagée ? Certains préfèrent peut-être davantage insister sur les aspects environnementaux, sportifs, culturels…

Le seul argument éventuellement vérifiable qui soit avancé par le Club Vosgien consiste à accuser les VTT de favoriser l’érosion des sentiers. Tout comme on pourrait pointer l’élargissement des sentiers par les randonneurs qui marchent de front. J’ai de mon côté la certitude que le VTT n’est certainement pas un facteur significatif d’érosion. Et si tant est qu’une étude sérieuse porterait sur l’érosion par les usagers du Parc il faudrait alors s’attendre à devoir questionner :

  • l’intérêt réel pour le Club Vosgien de baliser près de 20.000 Km de sentiers (sans aucune érosion bien entendu),
  • les pratiques des exploitants et la gestion forestière en général (une calamité dans le massif vosgien),
  • la gestion du couvert végétal et de la faune,
  • questionner le schéma de circulation des véhicules à moteur,
  • la pratique du ski,
  • etc.

Et il faudrait alors aussi questionner les raisons pour lesquelles, par exemple, une association comme la MBF se voit souvent refuser les autorisations de participer à l’entretien des sentiers. Car de ce côté aussi une certaine exclusivité du Club Vosgien est organisée (puisque valider la participation des vététistes reviendrait à valider aussi leur usage).

Bref, qu’on se le dise : certains membres de certaines antennes du Club Vosgien ont une dent contre les vététistes. Et profitant de leurs appuis et de leurs relations, ils s’arrangent pour officialiser les choses.

Conséquences

Il est clair que de telles dispositions dans la charte ont de fait une valeur juridique potentielle. Cela signifie que désormais il sera possible de se référer à cette charte comme un élément justifiant un arrêté futur visant carrément à interdire la pratique du VTT.

Mais cette disposition change aussi la manière de concevoir l’espace commun : sous prétexte d’entretenir les sentiers balisés, et donc d’exercer le monopole des itinéraires de randonnée, le Club Vosgien s’approprie cet espace commun, ses valeurs patrimoniales et esthétiques, et s’arroge le droit de choisir qui peut en jouir et comment.

Comme le dit Ludovic, membre de la MBF :

Le problème dans les documents signés par le PNRBV et la Fédération du Club Vosgien, c’est qu’on inverse totalement la réalité des usages et la loi. Légalement, la règle c’est la libre circulation partout et les limitations par voie d’exception (avec des motifs réels et sérieux). Ici l’exception est partout.

Et quitte à l’interdire, toujours selon cette charte, cela risquerait de concerner énormément d’endroits dans le massif des Vosges :

  • « Sentiers fragiles » : concept très vagues et donc pouvant être élargi toujours davantage (montées, descentes…),
  • chemins de moins d'1 mètre de large,
  • « Sentiers pittoresques à haute valeur esthétique en sommet de crête, chaumes, forêts d’altitudes ».

Bref, autant dire que si on veut passer d’une vallée à l’autre ou atteindre un sommet, cela ne sera plus possible en VTT (sauf éventuellement par la route bitumée et les cols des départementales).

Mais le plus grave dans tout cela, c’est que si de telles dispositions sont prises dans le Parc Naturel Régional des Ballons des Vosges, on peut s’inquiéter légitimement pour ce qu’il en sera dans les autres Parcs Naturels Régionaux ! Car en effet, on sait combien les « expérimentations » ont tendance à devenir très vite des règles universelles.

Et pourtant

La solution pour plus de sérénité dans le massif réside autant dans le partage des usages que dans le partage des responsabilités. Les mains n’ont cessé de se tendre vers le Club Vosgien.

Les vététistes sont toujours prêts à accepter que dans certains cas, sur des zones particulières et rares, des sentiers dédiés peuvent être imaginés, voire même des itinéraires de délestage, comme des contournements, mais laissant aux uns comme aux autres la liberté de circuler. Des propositions peuvent être élaborées, il reste à les faire valoir, y compris pour leurs intérêts touristiques.

Toute forme d’interdiction portant sur un usage global et dont les conditions seraient définies par un seul acteur, aussi engagé soit-il et exerçant un monopole, reviendrait à l’échec. Non seulement parce que le Club Vosgien ne représente pas tous les usagers, mais aussi parce qu’il serait impossible de faire respecter de tels interdits à moins de placer un agent du Parc Régional chaque jour à chaque coin de la forêt. Il ne pourrait en résulter autre chose que des tensions inutiles entre pratiquants. Au contraire, proposer de manière ouverte et démocratique des solutions alternatives serait profitable à deux points de vue :

  • éviter les clivages là où le respect des usages et de l’environnement est d’abord un combat à mener en commun,
  • améliorer les flux de circulation et enrichir les itinéraires selon les pratiques (randonneurs, VTT, VTT électriques, niveaux de difficulté, etc.).

Pour cela, il faut associer systématiquement tous les usagers aux décisions, ce qui est est une démarche démocratique et égalitaire. Associer les vététistes reviendrait aussi à leur confier les responsabilités qu’ils réclament de leur côté, y compris pour entretenir les sentiers.

Pour éviter que les seules réponses aux difficultés ne soient que l’exclusion et l’ignorance, il est important pour les pratiquants de VTT se rassemblent pour former un front commun de discussion. Seule la MBF et la Fédération Française de Cyclisme (dont le silence est parfois assourdissant) peuvent être des interlocuteurs valables dans un monde où peinent à être reconnus les collectifs informels. Alors, si ce n’est déjà fait, adhérez à la MBF !


Publié le 21.12.2019 à 01:00

L’utopie déchue

Ce livre est écrit comme un droit d’inventaire. Alors qu’Internet a été à ses débuts perçu comme une technologie qui pourrait servir au développement de pratiques émancipatrices, il semble aujourd’hui être devenu un redoutable instrument des pouvoirs étatiques et économiques.

Pour comprendre pourquoi le projet émancipateur longtemps associé à cette technologie a été tenu en échec, il faut replacer cette séquence dans une histoire longue : celle des conflits qui ont émergé chaque fois que de nouveaux moyens de communication ont été inventés. Depuis la naissance de l’imprimerie, les stratégies étatiques de censure, de surveillance, de propagande se sont sans cesse transformées et sont parvenues à domestiquer ce qui semblait les contester. Menacé par l’apparition d’Internet et ses appropriations subversives, l’État a su restaurer son emprise sous des formes inédites au gré d’alliances avec les seigneurs du capitalisme numérique tandis que les usages militants d’Internet faisaient l’objet d’une violente répression.

Après dix années d’engagement en faveur des libertés sur Internet, Félix Tréguer analyse avec lucidité les fondements antidémocratiques de nos régimes politiques et la formidable capacité de l’État à façonner la technologie dans un but de contrôle social. Au-delà d’Internet, cet ouvrage peut se lire comme une méditation sur l’utopie, les raisons de nos échecs passés et les conditions de l’invention de pratiques subversives. Il interpelle ainsi l’ensemble des acteurs qui luttent pour la transformation sociale.


Tréguer, Félix. L’utopie déchue. Une contre-histoire d’Internet, XVe-XXIe siècle. Fayard, 2019.

Lien vers le site de l’éditeur : https://www.fayard.fr/sciences-humaines/lutopie-dechue-9782213710044



Publié le 11.12.2019 à 01:00

Monopoly Capital

« Aux États-Unis comme dans tous les autres pays capitalistes, les masses dépossédées n’ont jamais été en mesure de déterminer leurs conditions de vie ou les politiques suivies par les différents gouvernements. Néanmoins, tant que démocratie signifiait le renversement du despotisme monarchique et l’arrivée au pouvoir d’une bourgeoisie relativement nombreuse, le terme mettait l’accent sur un changement majeur de la vie sociale. Mais qu’est-il resté de ce contenu de vérité dans une société où une oligarchie minuscule fondée sur un vaste pouvoir économique et contrôlant pleinement l’appareil politique et culturel prend toutes les décisions politiques importantes ? Il est clair que l’affirmation selon laquelle une telle société est démocratique ne fait que dissimuler la vérité au lieu de la mettre à jour. » (P. A. Baran, P. Sweezy, Monopoly Capital, 1966).

Il y a des citations dont le commentaire ne ferait que retranscrire les évidences auxquelles nous faisons face actuellement (les fonctions de l’État bourgeois). Remplacez ici le pouvoir monarchique par la peur du fascisme, et vous retrouvez la soupe continuellement touillée par une certaine oligarchie française (pour ne citer qu’elle). Lorsqu’il se plonge dans les vieux grimoires, le sorcier en sort toujours des grenouilles.

En 1966, paraît un pavé dans les sciences économiques aux États-Unis : Monopoly Capital: An Essay on the American Economic and Social Order (trad. fr. : Le capitalisme monopoliste - Un essai sur la société industrielle américaine). Il est écrit par deux économistes d’inspiration marxiste, Paul Sweezy (fondateur de la Monthly Review) et Paul A. Baran (professeur d’économie à Standford). Le livre sera pour ce dernier publié à titre posthume.

P. A. Baran, P. Sweezy, Monopoly Capital: An Essay on the American Economic and Social Order

En quoi cet ouvrage est-il intéressant aujourd’hui ? Nous évoluons dans un modèle d’économie capitaliste à forte tendance monopoliste et cet ouvrage en développe une description particulièrement pertinente. Néanmoins, depuis les années 1960 beaucoup de choses ont changé et lire cet ouvrage aujourd’hui implique de le resituer dans son contexte : une économie capitaliste-monopoliste naissante. Et c’est là que l’ouvrage prend toute sa dimension puisqu’il explore les mécanismes du modèle que nous subissons depuis des années, en particulier la manière dont les schémas concurrentiels influent sur l’ensemble de l’économie et, par conséquent, la politique.

Qu’il s’agisse d’un capitalisme dirigiste ou de l’émergence de monopoles privés sur certains secteurs économiques (grâce aux « bienfaits » du libéralisme), le rôle de la décision publique dans le cours économique est fondamental à tous points de vue. C’est l’évidence pour la Chine par exemple. Mais en Occident, le libéralisme a tendance parfois à masquer cette évidence au profit d’une croyance populaire en des lois quasi-naturelles d’équilibre de marché et d’auto-régulation. Superstitions.

Pour ce qui concerne l’histoire contemporaine de l’économie américaine et, par extension celle des économies occidentales, l’apparition des monopoles est le résultat de stratégies politiques. Pour les deux auteurs, l’accumulation du capital par des acteurs privés atteint des sommets vertigineux à partir du moment où ces stratégies (notamment en politique extérieure) se déploient selon deux grands principes : l’impérialisme économique et la domination militaire. À leur suite, et surtout après la crise du début des années 1970, d’autres économistes apportèrent encore d’autres éléments : le rôle de la politique dans la régulation du marché intérieur comme arme stratégique protectionniste, la division sectorielle de l’impérialisme (financier, informationnel et culturel), le lobbying, etc.

La traduction littérale du titre originel de l’ouvrage est sans doute plus évocatrice. Il s’agit bien de la création d’un nouvel ordre social et économique. P. A. Baran et P. Sweezy ont su prendre la mesure du nouvel agencement socio-économique de la seconde moitié du xxe siècle, au-delà de la seule question de la consommation de masse. Le refrain n’a guère changé aujourd’hui : en faveur de la dynamique accumulatrice du capitalisme dans une économie monopoliste, la politique doit jouer son rôle de transfert des ressources vers le privé. Aucun échange non-marchand n’a d’avenir dans une telle économie. Sa nature procède par phases successives de centralisations des ressources (matérielles, informationnelles et financières) et d’éclatements de bulles erratiques.

Pour ce qui concerne le nouvel ordre social, les auteurs ont identifié plusieurs dynamiques en cours aux différents niveaux de l’économie quotidienne : les fluctuations de l’immobilier, les banques, les assurances et, surtout, le marketing. Cette dernière activité (avec l’impérialisme et le militarisme) a pour objectif la bonne allocation du surplus économique, c’est-à-dire le rapport excédentaire entre ce qu’une société produit et le coût (théorique) de la production. Avec le marketing, l’absorption du surplus est assurée selon deux moteurs : l’investissement et la consommation.

Il me semblait amusant de recenser quelques citations relevées par P. A. Baran et P. Sweezy et transcrites dans leur ouvrage au chapitre concernant le marketing. Je les reproduis ci-dessous. En effet, dans ce domaine on cite régulièrement l’inventeur du marketing (plus exactement des « relations publiques ») Edward L. Bernays et son ouvrage Propaganda. Mais on oublie bien souvent qu’il a fait école et que les piliers du marketing, la mesure et l’influence des comportements des individus et des masses, sont à la base de la propagande nécessaire à l’assentiment politique des foules. Jusqu’à atteindre des raffinements inégalés avec les GAFAM (pensons à l’affaire Cambridge Analytica, pour ne citer qu’elle). À cet égard, nous avons bel et bien vécu plus de 50 années bercés par une persuasion clandestine (pour reprendre le titre français du best-seller de V. Packard). De cette lancinante berceuse, il est temps de s’extraire (avec pertes et fracas).

Quelques citations

Pourtant, il suffisait de lire… Les citations ci-dessous n’ont rien d’étonnant si on les considère avec nos yeux du début du xxie siècle, mais c’est justement ce qu’elles préfiguraient…

La publicité affecte la demande… en transformant les besoins eux-mêmes. La distinction entre ceci et la modification des moyens de satisfaire des besoins existants est souvent cachée dans la pratique par le chevauchement des deux phénomènes ; analytiquement, elle est parfaitement claire. Une publicité qui ne fait qu’afficher le nom d’une marque de fabrique particulière ne donnera aucune information sur le produit lui-même ; cependant, si ce nom devient ainsi plus familier pour les acheteurs ils auront tendance à le demander de préférence à d’autres marques peu connues et sans publicité. De même, les méthodes de vente qui jouent sur la susceptibilité de l’acheteur, qui se servent de lois psychologiques qu’il ignore et contre lesquelles il ne peut se défendre, qui l’effrayent, le flattent ou le désarment, n’ont rien à voir avec l’information du client : elles tendent à manipuler et non à informer. Elles créent un nouvel ensemble de besoins en remodelant ses motivations.

Edward H. Chamberlin, The Theory Of Monopolistic Competition, Cambridge, Mass., 1931, p. 119.

« Les études menées au cours des douze dernières années montrent de façon évidente que les individus sont influencés par la publicité sans en être conscients. L’individu qui achète est motivé par une annonce publicitaire mais il ignore souvent l’origine de cette motivation. »

Louis Cheskin, Why People Buy, New York, 1959, p. 61.

Les défenseurs de la publicité affirment qu’elle comprend de nombreux avantages économiques. D’utiles informations sont transmises au public ; des marchés s’ouvrent à la production de masse ; et en guise de sous-produits nous obtenons une presse indépendante, le choix entre de nombreux programmes de radio et de télévision, et des revues épaisses. Et ainsi de suite. D’autre part on prétend que l’excès de publicité tend à en annuler les effets et procure peu d’informations valables au consommateur ; que pour chaque minute de musique symphonique il y a une demi-heure de mélo. Le problème serait plus susceptible d’être discuté s’il n’existait le fait troublant, révélé par le Sondage Gallup, que de nombreuses personnes semblent aimer la publicité. Ils ne croient pas tout ce qu’on leur raconte mais ils ne peuvent s’empêcher de s’en souvenir.

Paul A . Samuelson, Economics, New York, 1961, p. 138.

Claude Hopkins, qui est l’un des « immortels » de la publicité raconte l’histoire de l’une de ses campagnes publicitaires pour une marque de bière. Au cours d’une visite à la brasserie il écouta poliment l’exposé des qualités du malt et du houblon employés, mais ne s’intéressa qu’à la stérilisation par la vapeur des bouteilles vides. Son client lui fit remarquer que toutes les brasseries procédaient de la sorte. Hopkins lui expliqua patiemment que ce n’était pas ce que les brasseries faisaient qui importait, mais ce qu’elles affirmaient faire par leur publicité. Il fonda sa campagne sur le slogan : « Nos bouteilles sont lavées à la vapeur ! ». George Washington Hill, le grand fabricant de tabac, fonda une campagne publicitaire sur le slogan « Nous grillons notre tabac ! » En fait, tous les tabacs le sont, mais aucun autre fabricant n’avait pensé à l’énorme potentiel publicitaire du slogan. Hopkins, remporta une autre grande victoire publicitaire en proclamant à propos d’une marque de dentifrice : « Enlève la pellicule qui se forme sur vos dents ! » En vérité tous les dentifrices en font autant.

Rosser Reeves, Reality in Advertising, New York, 1961, p. 55-56.

Quand la forme du produit est reliée à la vente plutôt qu’à la fonction productive, comme cela est le cas de plus en plus souvent, et quand la stratégie de vente est fondée sur de fréquents changements de style, certains résultats sont presque inévitables : tendance à l’emploi de matières de qualité inférieure ; « raccourcis » adoptés pour limiter le temps indispensable à une bonne mise au point des produits ; négligence sur l’indispensable contrôle de qualité. Une telle obsolescence provoquée amène une augmentation de prix pour le consommateur sous la forme d’une réduction de la durée des biens et d’un accroissement des frais de réparation.

Dexter Master, ancien dirigeant de l’Association des Consommateurs, cité par Vance Packard, The Waste Makers, 1960, p.14.


Publié le 11.11.2019 à 01:00

Les voies de la préfiguration

Pour de récentes approches des mouvements altermondialistes ou apparentés, il semble que le concept de préfiguration devienne une clé de lecture prometteuse. Doit-on uniquement réfléchir en termes de stratégies politiques, ou justifier les initiatives en cherchant une légitimité dans des expériences fictives, comme celle d’Orwell ? Et si oui, comment obtenir l’adhésion du public ? Il importe de travailler un peu cette idée de la préfiguration et c’est ce que je propose dans cet article.

Titre

Qu’est-ce que préfigurer ? La préfiguration est d’abord un concept travaillé dans les études littéraires, artistiques ou philosophiques. Pour un événement ou des idées, il s’agit de déceler des éléments antérieurs, culturels, issus de l’expérience, ou d’autres idées et concepts qui peuvent être liés d’une manière ou d’une autre au présent qu’on analyse.

L’ordre temporel n’est pas toujours aussi net. En littérature, les commentateurs construisent des généalogies entre les auteurs, certes, mais avec le dialogue qu’ils construisent avec leurs lecteurs (à titre posthume ou pas), les auteurs aussi construisent à rebours leurs généalogies, déterminent les « plagiats par anticipation ». C’est-à-dire qu’il existe entre les pensées et les textes des fictions de généalogies. Le lecteur n’est pas en reste puisqu’à reconnaître chez un auteur des formes littéraires, des pensées ou des concepts déjà présents chez d’autres auteurs précédents, le lecteur change lui-même, de manière rétroactive, la réception du discours, et les textes plus anciens deviennent des préfigurations historiques.

Précurseurs ? les sciences n’en sont pas exemptes : on voit dans l’histoire des sciences à quel point les auteurs sont toujours soucieux de se situer dans des « Écoles de pensées », de citer les expériences et les théories non seulement lorsqu’il s’agit de les remettre en cause ou les questionner, mais aussi établir une filiation qui permet de légitimer leurs propres recherches. En sciences, la recherche de la préfiguration est une recherche de légitimation, y compris lorsque cette recherche n’est pas effectuée par le chercheur mais aussi par le lecteur qui établit des liens, élabore des clés de lecture jamais pensées auparavant. On peut citer par exemple la re-découverte des travaux de G. Mendel au début du vingtième siècle, et les controverses que cela suscita1 au sujet de la construction d’une nouvelle discipline (la génétique), des controverses qui furent justement les produits de lectures différentes et donc de généalogies différentes.

En histoire, il en va de même, notamment parce qu’il s’agit d’en faire l’épistémologie. Les événements ont-ils toujours une histoire causale, linéaire, dans laquelle on peut facilement trouver les éléments qui en préfigurent d’autres, ou au contraire faut-il réfléchir en faisceaux d’évènements, de documents qui permettent de construire un sens dont on peut dire que ces indices préfigurent quelque chose, mais jamais entièrement ?

Dans les fictions politiques et leur réception dans les représentations dominantes à travers les époques, les mécanismes à l’œuvre ne sont pas tant ceux d’une légitimation de l’action (les auteurs ne sont pas des prophètes dont on suivrait les préceptes) qu’une reconnaissance a postériori d’une expérience politique qui devient alors un instrument de compréhension du présent. À travers l’histoire de l’informatisation de la société, dès les années 1950 et 1960, de nombreux textes font référence à la dystopie de G. Orwell et 1984 pour décrire les dangers des grandes bases de données. Et aujourd’hui encore cette clé de compréhension qu’est le monde politique de 1984 est énoncée, le plus souvent sans vraiment en faire la critique, comme si cette unique référence pouvait réellement fonctionner depuis plus de 60 ans.

Comme le dit P. Boucheron2 :

La littérature ne prédit pas plus l’avenir qu’elle n’en prévient les dangers. Et voilà pourquoi la critique littéraire de l’anticipation ne peut être qu’une critique de l’après-coup. Si on pense aujourd’hui que les fictions politiques de Kafka ou d’Orwell préfigurent une politique à venir, c’est parce que nous vivons aujourd’hui une situation politique en tant que nous sommes préparés à les reconaître comme ayant déjà été expérimentées par avance dans les fictions politiques.

L’ennui c’est que nous avons tendance à penser l’action politique en fonction de cette manière de concevoir la préfiguration, c’est-à-dire en s’efforçant de chercher les concepts dans des expériences fictives ou analytiques qui précèdent l’action et de manière à justifier l’action. Dans l’action politique, toute idée ou pratique qui n’appartiendrait pas à une généaologie donnée serait par définition non recevable, indépendamment de son caractère novateur ou non.

Ceci est particulièrement problématique car le caractère novateur des idées ne peut alors se prouver qu’en fonction d’efforts théoriques soutenus, généalogie et démonstration, ce qui ne coïncide que très rarement avec l’urgence politique. Penser qu’un acte, une décision ou une idée préfigurent toujours potentiellement quelque chose, c’est penser que l’action politique obéit toujours à une stratégie éprouvée et prétendre que « gouverner, c’est prévoir ». Mais jusqu’à quel point ?

Par exemple, l’activisme lié aux questions environnementales montre qu’on ne peut pas circonscrire l’action (comme une zone à défendre contre des projets capitalistes nuisibles aux biens communs) à la seule revendication pro-écologique. D’autres aspects tout aussi importants se greffent et que l’on pourrait rattacher aux nombreux concepts qui permettent d’opposer au modèle dominant des modèles sociaux et économiques différents. Pour rester sur le thème environnementaliste, c’est bien le cas de l’activisme dans ce domaine qui, dans les représentations communes chez les décideurs politiques comme dans la population en général, est resté longtemps circonscrit à une somme de revendications plus ou moins justifiées scientifiquement mais toujours à la merci de la décision publique, elle-même sacralisée sur l’autel « démocratique » du vote et de la représentativité.

L’apparition des ZAD et leur sociologie ont montré combien l’activisme ne correspondait plus à ce « revendicalisme », et c’est ce choc culturel qui permet de comprendre pourquoi il ne passe plus par les mécanismes habituels des démocraties libérales mais propose d’autres mécanismes, basés sur des modes de démocratie directe et l’exercice de la justice, mais inacceptables pour les réactionnaires. Ces derniers ont alors beau jeu de traduire ces nouvelles propositions politiques en termes de radicalismes ou d’extrémismes car elles sont en fait la traduction sociale de la crise des démocraties capitalistes.

Est-ce de l’action directe ? L’action directe (qui n’est pas nécessairement violente, loin s’en faut) est le fait d’imposer un rapport de force dans la décision sans passer par l’intermédiaire de la délégation de pouvoir (la représentativité) et même parfois, dans certains cas, sans passer par les institutions judiciaires (ce qui peut parfois aider à justifier des actions illégales, bien qu’étant légitimées du point de vue moral, ou éthique, tels les actes de désobéissance civile).

Pour ce qui me concerne, l’ennui avec l’action directe est qu’elle relève d’une conception anarchiste qui me semble aujourd’hui dépassée. C’est Voltairine de Cleyre qui a théorisé l’action directe en 1912. Dans les commentaires et les reprises qui ont suivis, l’action directe est pensée en mettant sur le même plan la revendication (syndicale, par exemple), le devoir d’un ouvrier dans la défense des intérêts collectifs de sa classe devant le patronat, la négociation directe entre un collectif et des autorités, etc. C’est-à-dire que l’action directe n’a pas pour objet la prise de pouvoir (elle exclu donc la conquête du pouvoir par la violence) mais elle est d’abord un acte d’organisation. Hier, on pensait cette organisation généralement en termes de classes sociales, aujourd’hui d’autres auteurs parlent plutôt de groupes d’affinités (ce qui n’efface pas pour autant les classes). Et comme il s’agit d’abord d’organiser des actions collectives en fonction de projets prééxistant, c’est-à-dire en fonction d’une expérience relevant de l’imaginaire politique, c’est seulement après-coup que l’on peut penser la puissance préfigurative de l’action directe : « ils avaient bien raison », « c’est grâce à ces luttes sociales que nous pouvons aujourd’hui… », etc.

Or que constatons-nous aujourd’hui ? Tout comme n’importe quel historien le constate en étudiant objectivement l’histoire des luttes sociales. Très rares sont les projets théoriques suscitant l’adhésion d’un collectif et suffisamment compris par chacun pour susciter de l’action directe. On le trouve peut-être dans l’action syndicale, mais si on regarde les processus révolutionnaires, on voit bien que la théorie n’a pas nécessairement précédé l’action, elle s’est construite « en faisant », « en marche » (comme dirait l’autre). On peut douter par exemple que les Révolutionnaires à la Bastille avaient bien tous compris (et lu) les textes de l’Assemblée Constituante. Meilleur exemple, la Commune de Paris née d’un mouvement d’opposition et de révolte, mais débouchant sur une expérience de gestion collective. Ainsi, il y a une stratification des actions et des pratiques dans un mouvement d’opposition et de préfiguration qui font qu’une ZAD ne ressemble pas à une autre ZAD, qu’un rond-point de gilets jaunes dans le Sud de la France ne ressemblera pas à un autre rond-point dans le Nord de la France, et ce n’est pas seulement parce que les contextes environnementaux et sociaux ne sont pas les mêmes, mais c’est parce qu’ils n’ont pas de prétention à préfigurer quoique ce soit de manière stratégique, suivant un plan préétabli.

Cela explique aussi pourquoi il y a de grandes transformation dans le fil chronologique des mouvements sociaux. Les revendications à Hong-Kong se sont certes construites au début sur un rejet des politiques pro-Chine, mais elles se sont assez vite cristallisées autour de contestations plus étendues et diverses rendant de plus en plus difficile une réponse politique (autre que la violence policière et l’étouffement). Il en va de même au sujet des autres mouvements à travers le monde aujourd’hui, qui ont tendance à transformer la revendication en une opposition de modèles sociaux et politique.

Certains sociologues qui se sont intéressés aux mouvements tel Occupy (Wall Street), les ZAD ou Nuit Debout ont montré que, en réalité, à la logique de l’action directe répondait aussi une logique de la théorie directe. N. Sturgeon3 montre combien les mouvements d’opposition changent aussi le cadre discursif : en tant qu’action directe ils rendent le dialogue et la négociation très difficiles avec les autorités (et vouent souvent à l’échec le discours politique en place) mais ils retravaillent aussi à l’intérieur même du mouvement les notions d’horizontalité, de diversité, de décision, de mécanisme démocratique, etc. En somme ce que les mouvements alter- proposent, ce sont tout autant des alternatives que de l’altérité.

Si ces mouvements alter préfigurent quelque chose, ce n’est donc pas par la formalisation d’un discours mais par l’organisation elle-même, au moins aussi importante que la revendication. C’est ce qu’un chercheur comme T. Luchies identifie en étudiant les courants anarchistes de l’anti-oppression4 :

Dans une organisation politique anarchiste, un tel activisme cherche à identifier les formes normalisées d’oppression et à éliminer les institutions qui reproduisent la suprématie blanche et masculine, le handicap, l’homophobie et la transphobie, le racisme et le capitalisme. La lutte contre l’oppression est une action continue et, grâce à sa pratique collaborative et cumulative, nous pouvons entrevoir des formes radicalement inclusives et autonomisantes de communauté politique. Son fonctionnement quotidien préfigure des modes alternatifs d’organisation et de résistance ensemble.

Sans forcément mobiliser un collectif à part entière, ces expériences peuvent être éprouvées dans n’importe quelle organisation qui met l’autonomie et la démocratie au premier plan de ses règles de fonctionnement.

Pour prendre un exemple que je connais plutôt bien, l’association Framasoft fonctionne sur ce modèle. Sans avoir formalisé notre mode de fonctionnement dans une charte ou un règlement intérieur particulièrement élaboré, l’idée est justement de laisser assez de latitude pour apprendre en permanence à moduler le système collectif de prise de décision. Dans les objectifs de réalisation, l’idée est bien de prétendre à l’action directe : mettre en oeuvre des projets concrets, des expériences de logiciels libres et de culture libre, et faire autant de démonstrations possibles d’un monde numérique basé sur une éthique du partage et de la solidarité. Ainsi, nous ne revendiquons rien, nous mettons au pied du mur la décision publique et les choix politiques en proposant d’autres expériences sociales en dehors du pouvoir et de la représentativité politique.

Dans cet ordre d’idée, un dernier auteur que nous pouvons citer est la chercheuse M. Maeckelbergh qui montre bien que la préfiguration n’est ni une doctrine, ni une stratégie politique. Elle échappe à une lecture du pouvoir politique parce qu’elle est presque exclivement en acte. Et c’est aussi la raison pour laquelle, du point de vue de la méthodologie sociologique, elle ne peut s’appréhender qu’en immersion. Elle affirme dans son étude sur les mouvements altermondialistes5 :

Ce qui différencie le mouvement altermondialiste des mouvements précédents, c’est que le « monde » alternatif n’est pas prédéterminé ; il est développé par la pratique et il est différent partout.

Est-ce pour autant du relativisme selon lequel tous les mouvements seraient équivalents, quelles que soient leurs orientations morales et politiques ? Heureusement non, car ce qui défini l’action directe dans cette dynamique de préfiguration, c’est aussi l’expérimentation de multiples formes de démocraties directes. Si, de manière générale, elles ont tendance à appeler à un changement de paradigme (celui de la représentativité et de la délégation de pouvoir) elles appellent aussi à un changement de modèle social et économique. Il peut néanmoins subsister des désaccords. Très prochainement, nous verrons sans doute apparaître quelques tensions entre ceux pour qui le capitalisme pourrait retrouver figure humaine (et pourquoi pas humaniste) et ceux pour qui le modèle capitaliste est en soi un mauvais modèle. Mais quelle que soit la prochaine configuration, les enjeux sociaux et environnementaux d’aujourd’hui présentent assez d’urgence pour ne plus perdre trop de temps à écrire des fadaises : les principes d’expansion et d’exploitation capitalistes des ressources (naturelles et humaines) impliquent dès mainenant une urgence de l’action.


  1. On peut se reporter aux travaux de l’historien des sciences Jean Gayon à ce sujet. ↩︎

  2. Patrick Boucheron, Qu’est-ce que préfigurer ? Des généalogies à rebours, Cours au Collège de France, 27 mars 2017, Lien. ↩︎

  3. Noel A. Sturgeon, « Theorizing movements: direct action and direct theory », in : M. Darnovsky, B. Epstein, R. Flacks (Éds), Cultural Politics and Social Movements, Philadelphia, PA: Temple University Press, 1995, p. 35– 51 ↩︎

  4. Timothy Luchies, « Anti-oppression as pedagogy; prefiguration as praxis », Interface : a journal for and about social movements, 6(1), 2014, p. 99-129. ↩︎

  5. Marianne Maeckelbergh « Doing is Believing: Prefiguration as Strategic Practice in the Alterglobalization Movement », Social Movement Studies, 10(1), p. 1-20, 2011. ↩︎


Publié le 25.10.2019 à 02:00

Perspectives d’avenir

Comment les crises politiques et économiques pourront-elles être surmontées demain par ceux qui détiennent le pouvoir aujourd’hui ? En se livrant à une analyse critique et prospective, Peter Gelderloos envisage la manière dont les gouvernements pourront à l’avenir proposer des solutions à la crise du capitalisme et de la démocratie. Ces solutions sont-elles souhaitables ? quels en seront les mécanismes politiques ? laisseront-ils des opportunités pour d’autres modèles sociaux et d’autres modes de vie ?


Table des matières

Avant-propos

Paris, Hong Kong, Beyrouth, Détroit, Santiago, Barcelone… les contestations sociales finissent par être traitées dans les médias, même si nous devrions nous attendre à autre chose que des éléments de langage. Depuis la crise de 2008 on peut constater que les grands mouvements de contestation dans les démocraties occidentales trouvent leurs sources dans les inégalités sociales autant que dans le manque de confiance dans les institutions démocratiques elles-mêmes. En fait, brandissant l’épouvantail du fascisme au prétexte que le seul choix des peuples se situe désormais entre la dictature (d’extrême droite) et la démocratie, les régimes démocratiques cherchent par tous les moyens à sauvegarder le modèle économique dominant du capitalisme.

Cela se fait par exemple au détriment de l’urgence environnementale et climatique, pour laquelle les gouvernements, sous la pression des peuples et des sciences, ont été obligés de prendre des engagements, aussitôt relégués au rang de promesses d’ivrognes par les pays les plus capitalistes à commencer par les États-Unis, la France et l’Allemagne.

Cela se fait en faveur du capitalisme de surveillance, par lequel l’accumulation de valeurs se fait désormais sur nos vies privées, tout en permettant aux démocraties d’espionner en masse et de mettre en oeuvre des lois liberticides tout en marchant sur les plate-bandes des partis fascistes (par exemple lorsque C. Castaner, ministre de l’Intérieur, promeut une société de la vigilance).

Cela se fait en faveur des inégalités sociales, comme le Chili qui actuellement tremble dans ses fondations après des années de néolibéralisme frénétique. Mais qu’on se rassure sur ce point, comme le dit le ministre Français J. Y. Le Drian le 22 octobre dernier à l’Assemblée Nationale : le Chili est une démocratie qui a apporté des « réponses » aux revendications malgré « les violences qui ont donné lieu à un bilan humain lourd » (et par conséquent, il n’y a aucune raison de remettre en cause la participation de la France à la COP 25 qui aura lieu en décembre 2019 à Santiago). Les périphrases en disent long : outre le déni, on interprète très bien l’idée selon laquelle ce sont les « violences » du peuple qui sont la causes des morts sous les balles d’une police pourtant connue pour sa violence « légitime ». D’ailleurs, la France n’a pas à rougir de sa politique de maintien de l’ordre, puisque ce sont bien les mêmes méthodes de pourissement politique et de répression qui prévalent dans plusieurs pays.

Et, pour finir la litanie, cela se fait aussi en faveur d’une technocratie qui, petit à petit remplace les mécanismes démocratiques pour maintenir en place la collusion entre capitalisme et représentativité. Ainsi on remplace la voix du peuple par des mini-conseils ou des mini-débats (et le texte ci-dessous est visionnaire sur ce point), ou bien on joue sur un incessant ballet de modifications constitutionnelles afin de consolider un système moribond.

Le théoricien anarchiste Peter Gelderloos a des avis sur ces questions. Bousculant les idées reçues sur la démocratie et les mouvements sociaux qui s’y exercent, il est l’auteur en 2013 d’un ouvrage intitulé The Failure of Nonviolence: From the Arab Spring to Occupy (traduit en Français en 2018 sous le titre Comment la non-violence protège l’État : Essai sur l’inefficacité des mouvements sociaux). L’année dernière le 05/11/2018, il publie un long texte prospectif intitulé « Diagnostic of the Future. Between the Crisis of Democracy and the Crisis of Capitalism: A Forecast ». Ce texte résonne parfaitement aujourd’hui, alors que dans les pays démocratiques la crise du capitalisme entraîne une crise des institutions que pourtant on pensait constitutionnellement indépendantes.

Bien que je ne puisse pas apprécier certains raccourcis historiques hâtifs de la part de Peter Gelderloos, et bien que certains points méthodologiques font la part bien trop belle au déterminisme, j’ai pris la décision de traduire ce texte et le diffuser (avec l’accord de l’auteur). La principale raison est qu’il y a bien peu d’auteurs qui, aujourd’hui, osent se lancer dans une critique prospective sans tomber dans le piège du futurisme ou du catastrophisme. Peter Gelderloos nous propose ici un texte lucide dont certains points se sont déjà vérifiés depuis la première publication du texte.

La difficulté de lecture pourra néanmoins concerner les aspects historiques souvent trop peu connus (mais Wikipédia pourra alors être d’une grande aide) ou un vocabulaire auquel le lecteur européen est peu habitué (on peut citer par exemple la manière d’aborder la notion de suprémacisme blanc). D’autres points seront tout à fait compréhensibles car ils partent du même diagnostic que l’on trouve chez tous les défenseurs des libertés.

Les mouvements du capitalisme, les réponses sociales et les interactions entre l’économie et les types de régimes politiques sont autant de clés pour une lecture historique et actuelle de la société. Lorsqu’on aborde ces thèmes, en particulier pour tâcher de construire l’avenir, il n’y a aucune raison de ne pas proposer de critique de la démocratie au prétexte que le régime est en soi non-critiquable. Mais nos inhibitions sont souvent les fruits de nos certitudes. Et si pour changer on adoptait un point de vue anarchiste ?



Perspectives d’avenir

Entre la crise de la démocratie et la crise du capitalisme : quelques prévisions

Peter Gelderloos / traduction (24/10/2019) par Framatophe.

Ce n’est un secret pour personne : la démocratie et le capitalisme sont tous deux en crise. Pendant plus d’un demi-siècle, les dirigeants et leurs experts se sont bornés à à faire valoir la démocratie comme un régime « préférable au communisme (d’État) ». Dans les années 1990 et la plus grande partie des années 2000, ils n’avaient même pas à se justifier du tout. La démocratie était la seule voie possible, le destin téléologique de l’humanité tout entière.

Aujourd’hui, ce n’est plus le cas. Sur la scène mondiale, les institutions démocratiques de coopération interétatique sont en désordre, et l’émergence de nouvelles alliances et de nouvelles positions suggère qu’une alternative commence à se coaliser. Au niveau des États-nations proprement dits, la base qui a permis un grand consensus social pendant des décennies a pratiquement disparu. Il y a de plus en plus de mouvements à droite pour reformuler le contrat social – et, à la limite, pour en finir complètement avec la démocratie – alors que la gauche prépare une vague de fond pour renouveler la démocratie et lisser ses contradictions en renouvelant le rêve de l’inclusion universelle et de l’égalité. Ces deux mouvements suggèrent que la démocratie telle qu’elle existe actuellement ne peut pas perdurer.

Entre-temps, la crise financière mondiale de 2008 n’a pas été résolue, elle s’est simplement stabilisée grâce à la privatisation massive des ressources publiques et à la création de nouvelles bulles financières toujours plus grosses pour absorber temporairement le capital en excès. Le capitalisme a désespérément besoin d’un nouveau territoire pour s’étendre. Quelle que soit la stratégie adoptée par les capitalistes, il leur faudra fournir une croissance exponentielle des opportunités d’investissement rentables et une solution au chômage de masse qui pourrait toucher plus de la moitié de la main-d’œuvre mondiale car l’Intelligence Artificielle (IA) et la robotisation la rendent inutile.

Ces deux crises sont intimement liées. Les capitalistes soutiendront les modèles gouvernementaux qui protègent leurs intérêts, alors que seul l’État peut ouvrir de nouveaux territoires à l’accumulation de capital et réprimer la résistance qui se manifeste toujours. En tirant sur les coutures révélées dans cet interstice, nous pouvons commencer à diagnostiquer l’avenir que ceux qui détiennent le pouvoir s’affairent à échafauder afin de tenter d’enterrer les possibilités divergentes et émancipatrices qui se présentent à nous. Si nous ne faisons rien, cette Machine que nous combattons corrigera ses dysfonctionnements. Si nous analysons ces dysfonctionnements et les solutions qui nous sont offertes, nous pouvons agir de façon plus intelligente. La crise nous offre l’occasion d’une révolution qui pourrait abolir l’État et le capitalisme, mais seulement si nous comprenons comment la domination évolue et seulement si nous cherchons à bloquer son avancée, au lieu d’ouvrir la voie à de nouvelles formes de domination comme tant de révolutionnaires l’ont fait dans le passé.

Pour ce faire, nous examinerons l’architecture du système mondial actuel et nous identifierons exactement ce qui ne fonctionne pas dans ce système. Le diagnostic permettra de déterminer ce dont le capitalisme a besoin pour sortir de la crise actuelle et quelles options lui offrent l’horizon le plus prometteur, notamment la possibilité d’une expansion bioéconomique. Parallèlement, nous analyserons la crise de la démocratie, tant au niveau de l’État-nation qu’au niveau de la coopération interétatique et mondiale ; nous comparerons les solutions, qu’elles soient fascistes, démocrates-progressistes, hybrides ou technocratiques, envisagées pour rétablir la paix sociale et satisfaire les besoins des capitalistes. Au cours de cette discussion, nous nous pencherons sur le changement climatique, qui est un élément clé qui conditionne les crises gouvernementales et économiques et qui suggère – ou même exige – une synthèse dans les réponses à ces deux crises. Enfin, nous aborderons ce que tout cela signifie pour nous et nos possibilités d’action.

L’État ethnique

Le 20 juillet 2018, avec la signature de la loi loi « Israël, État-nation du peuple juif », Israël est devenu le premier État ethnique explicite. Les actions du Likoud et la coalition réactionnaire qu’il représente mettent en évidence la crise de la démocratie.

Un État ethnique est une reformulation récente de l’État-nation souverain, cet élément fondamental de l’ordre mondial libéral depuis le traité de Westphalie de 1648 jusqu’à nos jours. Ethnos et nation ont la même signification – la première d’une racine grecque, la seconde d’une racine latine – donc la différence est contextuelle. De 1648 à 1789, l’État-nation a évolué jusqu’à prendre sa forme actuelle en tant que complexe institutionnel qui prétend donner une expression politique à une nation par le biais du mécanisme de représentation, modulé par la vision du monde des Lumières et les valeurs d’égalité juridique et de droits universels.

S’écartant de ce modèle désormais poussiéreux, l’État ethnique est une révision de la pensée du siècle des Lumières, en se fondant sur une interprétation, au xxie siècle, des anciens concepts politiques. Au xviie siècle, aucune des nations occidentales n’existait en tant que telle ; elles se forgeaient encore à partir de myriades d’expressions linguistiques et culturelles et inventaient les institutions sociales capables de peser culturellement assez lourd pour créer une identité commune et inter-classe de peuples disparates. La proto-nation la plus stable de l’époque, les Britanniques, était encore une alliance hiérarchique de plusieurs nations. Les créateurs du système d’État-nation (ou interétatique), ceux que nous appellerions anachroniquement les Hollandais, étaient connus sous le nom de Provinces Unies ou de Pays-Bas, et leur unité reposait davantage sur une opposition commune au pouvoir impérial Espagnol des Habsbourg que sur une identité nationale commune. Ils n’avaient pas de langue ou de religion commune.

À l’origine, la souveraineté westphalienne était un système de ségrégation et de droits des minorités : des frontières solides étaient tracées entre les entités politiques, mettant fin au système féodal disparate dans lequel la plupart des terres étaient inaliénables et étaient réparties entre plusieurs propriétaires et utilisateurs. Comme les puissances féodales avaient des possessions dans plusieurs pays, aucun pays n’était soumis à une hiérarchie politique uniforme. Le système westphalien a cimenté de telles hiérarchies, aboutissant à la reconnaissance d’un souverain suprême dans chaque pays, et à la reconnaissance de la religion des dirigeants comme la religion du territoire. Cependant, les membres des minorités religieuses avaient toujours le droit de pratiquer en privé dans la mesure où ils étaient catholiques, luthériens ou calvinistes (car seules les Provinces Unies pratiquaient une tolérance religieuse assez large pour inclure les anabaptistes et les juifs). Dans sa phase inachevée, ce système a utilisé l’identité religieuse pour exercer la fonction de ségrégation que la nation allait remplir par la suite.

Comme il n’y avait pas encore de science de la nation, les différentes stratégies de construction nationale qui sont apparues au cours des deux siècles suivants ont d’abord été considérées comme également valables : le melting-pot américain, le colonialisme français des Lumières, l’essentialisme scientifique par lequel les grands penseurs universitaires et gouvernementaux du monde occidental ont tenté de figer l’origine ethnique en une réalité biologique.

Au xxie siècle, les mécontents réactionnaires de l’ordre mondial libéral font appel à un essentialisme scientifique dépassé pour contester les évolutions postmodernes et transhumanistes du concept de nation. Ces dispositifs idéologiques plus flexibles associent l’intégration mondiale croissante du capitalisme à une intégration philosophique de l’humanité. Les postmodernes ont mis à nu les mécanismes brutaux de l’édification de la nation pour dépeindre une similitude aliénée qui traverse prétendument les continents, tandis que les transhumanistes adaptent les valeurs libérales à un culte de la bio-machine, dans lequel les différences supposées entre communautés humaines deviennent irrationnelles et une version moderne et progressive de la culture occidentale est proposée comme nouvel universel.

S’opposant à ces innovations psycho-économiques, les promoteurs réactionnaires de l’État ethnique utilisent un pilier fondamental de la modernité contre un autre, utilisant une acception de la nationalité provenant à la fois du XIXe et du xxie siècle, ravivant les éléments suprémacistes blancs toujours présents dans la pensée des Lumières et rejetant ce qui avait été l’élément intégralement interconnecté de l’égalité démocratique.

En d’autres termes, l’État ethnique d’aujourd’hui n’est pas seulement une reformulation de l’État-nation classique : l’État ethnique émerge de l’autre côté de la démocratie, tentant de rompre avec la vieille synthèse des Lumières. Pourtant, en même temps, la nouvelle formulation exige que l’État ethnique remplisse l’ancien objectif supposé de l’État-nation : prendre soin d’un peuple et lui donner une expression politique. Les promoteurs de l’État ethnique estiment que cette tâche est plus importante que ce qui, pendant des siècles, a été considéré comme des fonctions indissociables et concomitantes dans la pensée occidentale : la garantie de l’égalité des droits et la participation démocratique.

Si nous le regardons en face, nous constatons que l’État ethnique est une réponse réactionnaire à une crise de la démocratie et de l’État-nation. Une crise qui est, sinon générale, certainement mondiale. Notant le premier indice qui pourrait nous permettre d’identifier des schémas plus larges, rappelons que c’est la gauche para-institutionnelle du mouvement altermondialiste qui a d’abord sonné la crise de l’État-nation et appelé l’État – comme il le demande encore pathétiquement – à remplir son devoir et à prendre soin de ses populations.

L’État israélien a révélé sa volonté de rompre avec l’égalité démocratique afin de construire une nouvelle synthèse en légiférant des droits non égaux, en refusant explicitement aux Arabes, aux musulmans et aux autres non-juifs le droit à l’autodétermination ou le droit à la terre et au logement, en soulignant même un engagement symbolique à la démocratie selon les termes de la nouvelle loi.

Le système mondial

La période entre la Première et la Seconde Guerre Mondiale a représenté un interrègne au cours duquel le Royaume-Uni s’est battu pour conserver sa domination dans un système mondial en voie d’extinction, tandis que l’Allemagne et les États-Unis s’en sont disputés les rôles d’architectes rénovateurs (l’URSS ayant rapidement abandonné ses piètres tentatives). Comme l’affirme Giovanni Arrighi, le crash de 1929 a signifié la crise finale du système britannique. Depuis la Seconde Guerre, les États-Unis ont conçu et dirigé un système mondial d’accumulation économique et de coopération interétatique. Prétendue championne de la décolonisation, elle-même nation d’anciennes colonies qui ont obtenu leur indépendance, les États-Unis ont gagné la participation de la quasi-totalité de la population mondiale à leur système en créant l’ONU et en donnant à tous les nouveaux États-nations une place à la table des négociations. Par l’intermédiaire des institutions de Bretton Woods – le Fonds monétaire international et, plus tard, le GATT/OMC – les États-Unis ont amélioré le système britannique antérieur et intensifié la participation mondiale au régime capitaliste en créant un ensemble équitable de règles fondées sur l’idéologie du libre-échange. Les règles étaient honnêtes dans la mesure où elles étaient censées être les mêmes pour tous, contrairement à l’ancien système colonial qui reposait explicitement sur la suprématie et la puissance militaire – le genre de pratiques crues qui avaient été nécessaires pour imposer brutalement l’économie capitaliste à la population mondiale. Et les règles étaient attrayantes pour les acteurs dominants parce qu’elles éliminaient les obstacles au jeu du capital accumulant toujours plus de capital, de sorte que ceux qui en avaient le plus profiteraient le plus. Dans ce diabolique arrangement, les États-Unis ont maintenu leur supériorité militaire – le seul élément au sujet duquel personne n’a parlé d’égalisation – par le biais de l’Organisation du Traité de l’Atlantique Nord (OTAN).

C’était peut-être une structure à toute épreuve, mais le pouvoir est d’abord et avant tout un système de croyances, et le pouvoir de la stupidité est tel que rien au monde n’est infaillible. Il ne faut jamais s’attendre à ce que l’État soit au-dessus des effets de la stupidité ; à plusieurs niveaux, l’État est l’institutionnalisation de la stupidité humaine. La vraie sagesse n’a jamais eu besoin d’un État.

Avec un pouvoir aussi remarquable, la classe dirigeante américaine sentait qu’elle était au-dessus de ses propres règles. Ce sont les États-Unis, et en particulier les réactionnaires de ce pays, qui ont saboté l’ONU, l’OMC et l’OTAN. Sur les trois, paralyser l’ONU était le projet le plus collaboratif, impliquant démocrates et républicains dans une proportion presque égale ; bien que les démocrates aient fait un meilleur travail pour que l’ONU se sente appréciée, mais ils l’ont toutefois empêchée de remplir sa mission au Vietnam, au Salvador, au Nicaragua, en Afrique du Sud et, surtout, en Israël.

Il est de circonstance que la nouvelle synthèse qui pourrait sonner le glas du système mondial américain trouve sa première manifestation en Israël, son allié le plus coûteux et inopportun bénéficiaire. Plus que tout autre État-client sanguinaire, c’est l’utilisation agressive du soutien américain par Israël qui a fait de l’ONU un tigre de papier incapable de faire face aux injustices les plus flagrantes dans le monde. Ce n’était pas non plus un prix à payer pour servir des intérêts géopolitiques machiavéliques au Proche-Orient. L’Arabie saoudite, l’Égypte et d’autres États arabes se sont avérés des alliés plus fiables, avec plus de ressources naturelles, alors qu’Israël est petit, belligérant et déstabilisateur. Il est possible que cette alliance désastreuse soit moins le résultat d’une pensée stratégique que d’une pensée suprémaciste blanche et chrétienne – l’identification de la classe politique américaine à une culture judéo-chrétienne. La tendance suprémaciste blanche israélienne est beaucoup plus développée que la tendance suprémaciste blanche saoudienne. Non pas par la faute des Saoudiens, qui ne se retiennent pas d’abuser et d’exploiter leurs propres classes marginalisées et racialisées, mais parce que, mille ans après les Croisades, les Occidentaux considèrent toujours les Arabes et les musulmans comme une menace.

Certes, avec plus d’aide militaire par habitant que tout autre pays du monde (et les dépenses militaires par kilomètre carré les plus élevées), Israël a été très utile à l’OTAN en tant que laboratoire militaire développant des techniques non seulement pour la guerre entre États mais aussi le type de guerre intérieure qui concerne davantage les États-Unis, le Royaume-Uni, la France : les quartiers sécurisés qui se défendent contre les ghettos racialisés. Mais d’autres pays auraient aussi pu jouer ce rôle sans déstabiliser de point chaud géopolitique.

Les systèmes mondiaux fluctuent toujours et finissent par disparaître. Les tendances de ces changements sont des terrains d’étude intéressants. Jusqu’à présent, les systèmes mondiaux successifs ont montré une alternance entre expansion et intensification. Le cycle d’accumulation des Pays-Bas a représenté une intensification des modes d’exploitation coloniale. Cette exploitation s’était déjà répandue dans tout l’océan Indien et jusqu’en Amérique du Sud grâce au partenariat Portugais et Castillano-génois, mais les Hollandais ont perfectionné la technique de la terre brûlée des nouvelles économies et des nouvelles sociétés.

Le cycle d’accumulation des Britanniques représentait une expansion géographique qui a vu le colonialisme (qui utilisait encore des modèles économiques et politiques largement néerlandais) absorber tous les coins du monde. Et le cycle d’accumulation des États-Unis représentait une intensification des relations capitalistes et interétatiques qui s’étaient développées au cours du cycle précédent, à mesure que les colonies se libéraient politiquement afin de participer davantage au capitalisme occidental et aux structures démocratiques mondiales.

Le rythme de plus en plus rapide de ces changements suggère que nous sommes en passe de connaître un nouveau cycle d’accumulation. Arrighi a émis l’hypothèse que la crise pétrolière de 1973 était le signal de la crise du cycle américain, marquant le passage de l’expansion industrielle à l’expansion financière et donc le gonflement d’une bulle massive, qui devait faire de la récession de 2008 la crise finale. La fin apparente de l’hégémonie américaine, que les historiens de demain pourraient dater jusqu’en 2018, à moins que 2020 n’apporte des changements extrêmes, suggère que nous sommes peut-être déjà dans l’interrègne. En témoignent la déclaration de la Palestine, après le déménagement de l’ambassade américaine à Jérusalem, selon laquelle les États-Unis n’avaient pas leur place dans les futures négociations de paix ; ou les déclarations que l’UE est prête à faire sans la coopération étroite des États-Unis ; ou le rôle croissant de la Chine dans la géopolitique à travers l’initiative Belt and Road ; ou le lancement du partenariat transpacifique (la plus grande zone de libre-échange au monde) sans les États-Unis ; ou encore la course diplomatique que la Corée du Nord a menée autour des États-Unis – par le biais de négociations bilatérales avec la Corée du Sud et la Chine, puis avec les négociations avec les États-Unis dans lesquelles ces derniers n’avaient aucun moyen de pression – détruisant de fait le consensus international et l’embargo les plus efficaces que les États-Unis avaient jamais orchestrés.

Comprise comme l’idéologie qui sous-tend le système mondial dirigé par les États-Unis, la démocratie est en crise parce que l’hégémonie américaine est en crise, et elle est également en crise parce qu’elle ne parvient pas à fournir l’expression politique qui suffira à maintenir les populations mondiales intégrées dans un système économique et interétatique unique, de la Grèce à la Hongrie et à la Birmanie.

La coalition réactionnaire qui a été créée par Nétanyahou – et non par Trump – ne représente pas la seule façon de progresser à partir de la démocratie libérale. Mais le fait qu’un État important, suivi d’un nombre croissant d’autres États, est en train de briser une synthèse ancienne et sacrée – retourner l’État-nation contre l’égalité universelle – est la preuve irréfutable que le système mondial qui nous a gouvernés jusqu’à présent s’effondre.

La droite réactionnaire

En tant qu’étiquettes politiques, gauche et droite se réfèrent à l’origine aux bancs gauches et droits des États Généraux au début de la Révolution Française, avec des tendances politiques différentes qui recoupent les différentes rangées. À proprement parler, les anarchistes n’ont jamais appartenu à la gauche, à moins que l’on ne compte ces moments honteux où une partie du mouvement a rejoint les bolcheviks en Russie ou encore le gouvernement républicain en Espagne. Plutôt que d’être des exemples d’action anarchiste efficace, il s’agissait d’opportunistes et de possibilistes médiocres, incapables de tempérer les tendances autoritaires de leurs alliés d’autrefois, ni même de sauver leurs propres peaux.

Néanmoins, les anarchistes ont toujours participé à des mouvements révolutionnaires et ont toujours été des ennemis farouches des mouvements réactionnaires, et en tant que tels, nous avons souvent éprouvé un grand sentiment de proximité avec la base – et non avec les dirigeants – des organisations de l’aile gauche. Les tout premiers anarchistes à prendre ce nom furent les enragés de la Révolution Française qui étaient trop téméraires pour rejoindre les Jacobins et les Girondins dans leur politique de pouvoir, leurs alliances sordides, leurs bureaucraties étouffantes et les massacres des paysans au nom de la bourgeoisie.

Dans ce cadre historique, la droite est certainement la branche la plus répugnante du gouvernement, mais pas nécessairement la plus dangereuse pour les gens qui se trouvent en bas de l’échelle. Dans le cas de la Révolution Française, oui, les paysans mouraient de faim sous la monarchie, mais ils ont été massacrés par les Jacobins, et finalement dépouillés des biens communs pour toujours par les différentes libéraux progressistes.

De toutes les tendances du pouvoir, la droite réactionnaire a été la moins perspicace pour sentir la direction du vent. Tout changement graduel dans l’organisation du capitalisme mondial et du système interétatique a emprunté beaucoup plus à la gauche qu’à la droite, mais cela ne signifie pas que la droite soit sans importance. Elle n’est pas tournée vers l’avenir, on peut même la décrire comme cette part de la classe dirigeante qui n’a jamais de bonnes idées, mais les conflits que la droite a poussés à maintes reprises au-delà du point d’ébullition sociale façonnent généralement, bien que négativement, le régime à venir. L’avenir a rarement appartenu aux Napoléons et aux Hitler, mais ils ont laissé leurs empreintes sanglantes, décimant les classes les moins élevées et les luttes sociales de leur temps. Et lorsque la gauche a été plus efficace dans l’élaboration de nouveaux régimes de domination et d’exploitation, c’est en cooptant les réflexes de survie des classes populaires et en étouffant les éléments les plus radicaux dans des alliances progressistes qui semblaient alors nécessaires pour assurer la survie face aux attaques de la droite.

Si l’avenir est une Machine à orienter des résultats inconnus dans l’intérêt de ceux qui dominent une société, cette interaction entre la droite et la gauche a longtemps été l’un de ses principaux moteurs.

Une analyse historique montre à l’évidence que les changements dans les modèles de gouvernement et d’exploitation ne surviennent pas dans un seul pays, mais toujours en réponse à une dynamique qui a été mondiale pendant des siècles.

Il en va de même pour une nouvelle mouture de la droite réactionnaire qui, au centre du système mondial à l’agonie – l’Occident anachronique – a trouvé un terrain commun pour faire émerger le programme de l’État ethnique. Ceux qui suivent les tendances du néo-fascisme ont tracé la portée internationale de cette idée, mais ils ont rarement mentionné le rôle de premier ordre occupé par la droite israélienne, une omission qui n’est plus justifiée depuis la nouvelle loi du 20 juillet. L’angle mort concernant Israël était idéologiquement inscrit, étant donné le poids que la gauche allemande – influencée par l’idéologie anti-allemande pro-israélienne – a eu dans l’articulation de l’anti-fascisme contemporain. Mais nous en reparlerons plus tard.

Le Likoud de Netanyahou est à la tête d’une nouvelle coalition qui comprend la Hongrie sous Orban au gouvernement depuis 2010, la Pologne fermement à droite depuis 2015, et la nouvelle coalition d’extrême droite à la tête de l’Autriche depuis fin 2017.

Cette alliance politique conclut l’un des débats les plus stériles du xxe siècle, celui sur le sionisme, dans lequel ses nombreux critiques juifs (Arendt, Chomsky, Finkelstein, etc.) ont été délégitimisés par cette caricature artificielle du « Juif qui se hait ». Maintenant que les défenseurs du sionisme ne cherchent plus à justifier leur projet raciste en termes démocratiques, il devient également clair que c’est la droite israélienne, et non la gauche juive, qui a une tolérance politiquement opportune pour l’antisémitisme. Orban n’a pas seulement fait des commentaires antisémites au sujet de George Soros : lui et sa base commémorent régulièrement les collaborateurs nazis qui gouvernaient autrefois la Hongrie. Le gouvernement polonais de droite a récemment rendu obligatoire le déni de l’Holocauste, criminalisant toute mention du fait que la Pologne était complice de l’Holocauste. Et le partenaire minoritaire de la coalition du chancelier autrichien Kurz est le néo-fasciste Parti de la Liberté, qui a édulcoré sa rhétorique antisémite sans changer fondamentalement d’opinion.

Il est stratégique à court terme pour Israël de tenter de déstabiliser l’Union européenne et la soi-disant communauté internationale dans son ensemble, car de nombreux membres des deux alliances considèrent Israël comme un paria pour ses violations flagrantes des accords internationaux. En brisant ce consensus, Israël ouvre davantage d’opportunités pour construire des alliances bilatérales et réintégrer la géopolitique mondiale. Sur un autre plan, cependant, cette stratégie va certainement à l’encontre de ses intérêts les plus fondamentaux. En chassant l’ensemble de la gauche israélienne dans ce qui est devenu une diaspora majeure, la droite prive l’État israélien de la possibilité d’un rajeunissement démocratique dans l’avenir, lorsque les choses iront mal, comme cela arrivera inévitablement. En ne montrant aucun respect pour la vie des Palestiniens, il devient de plus en plus illusoire qu’ils puissent compter sur la pitié de leurs voisins dès lors que l’aide militaire américaine – non seulement à Israël mais aussi à l’Arabie saoudite et à l’Égypte – ne leur offre plus de bouclier efficace.

Une classe dirigeante israélienne lucide aurait fait des concessions, en faisant semblant de respecter l’ordre international et en adaptant son inhérente suprématie blanche, tout comme la classe dirigeante américaine l’avait fait dans les années 1960 et 1970 pour restaurer sa légitimité ternie en redéfinissant elle-même son suprémacisme. Comme nous l’avons déjà dit, la droite réactionnaire omet souvent de privilégier la compréhension claire de ses propres intérêts à long terme sur les idéologies troubles avec lesquelles elle justifie les inégalités et les instabilités qu’elle impose.

Les nazis se sont en fait suicidés en pensant qu’ils pouvaient restaurer l’Allemagne en tant que puissance coloniale par une expansion militaire, non seulement contre la Grande-Bretagne et ses alliés mais aussi contre l’URSS. Et c’est à pas de géant que la droite xénophobe d’aujourd’hui a affaibli économiquement les États-Unis et l’Europe. L’économie de pointe exige un recrutement intellectuel mondial et, par conséquent, des régimes d’immigration relativement ouverts, ce qui explique pourquoi les entreprises de la Silicon Valley ont été bruyamment pro-immigrés et anti-Trump. La décision de Merkel d’accueillir des réfugiés syriens a été juste précédée par l’annonce de la plus grande association d’employeurs allemands pour qui l’économie nationale faisait face à une pénurie de millions de travailleurs qualifiés. Mme Merkel n’a jamais pris la moindre mesure pour sauver les classes défavorisées syriennes des camps de réfugiés en Turquie où elles pourrissaient ; tout son programme consistait à réglementer l’entrée des Syriens de la classe moyenne, ayant fait des études supérieures, et qui pouvaient se permettre de faire un voyage de plusieurs milliers d’euros vers l’Europe.

L’extrême droite n’a absolument aucune réponse à ce casse-tête qui menace actuellement le grand avantage que l’Europe et l’Amérique du Nord ont dans le secteur de la haute technologie sur la Chine, puissance économique mondiale prochainement dominante. Par des guerres commerciales nationalistes et des manœuvres populistes comme le Brexit, ils nuisent en fait à leur économie nationale. En semant la discorde dans ce qui avait été de solides centres de consensus néolibéraux – l’ALENA et l’UE – ils érodent la confiance à laquelle les investisseurs rattachent systématiquement la croissance économique.

Les réactionnaires sont les produits de leur temps. Ils répondent à un consensus démocratique qui se déchire - tantôt en l’anticipant, tantôt en l’accélérant – et proposent de nouvelles synthèses. En tant que réactionnaires, ils sont prêts à se donner beaucoup de mal pour choquer le système afin de restaurer les valeurs élitistes qu’ils défendent ; souvent, les chocs qu’ils fournissent galvanisent un système mondial défaillant pour promouvoir un nouveau plan organisationnel afin de sortir de la période de chaos systémique, où la plupart des acteurs ne reconnaissent toujours pas que l’ancien régime est dépassé. Le problème est que le nouveau plan d’organisation est rarement calqué sur la synthèse qu’ils proposent.

En d’autres termes, la montée du modèle de l’État ethnique jouera sans aucun doute un rôle dans la déstabilisation du consensus néolibéral et menacera les configurations existantes du pouvoir, mais la probabilité qu’il représente le nouveau modèle organisationnel de l’avenir est faible.

Perspectives d’avenir

L’avenir est aussi une machine discursive qui construit le récit qui fait surgir la cohérence d’un chaos d’événements conflictuels, en recadrant tout, en soulignant certaines choses et en écartant les autres. En tant que stratégie politique, cette machine mobilise d’immenses énergies de la part des gouvernements pour produire les résultats souhaités, mais l’horizon fluide de ce qui est techno-socialement possible constitue une limitation majeure. Au moment où l’on découvre le nouveau récit, un développement peut-être politiquement identifié comme une percée stratégique. À ce moment-là, tout s’accélère au point de devenir une initiative partagée, unissant experts gouvernementaux et capitalistes dans une course en avant. Mais avant ce moment, dans la phase inachevée, les entreprises de technologie et les agences de recherche définissent les frontières obscures comme des parois opaques et pâteuses, à travers lesquelles on sent les possibilités inexploitées qui se déclarent comme « rentables ». Le leitmotiv de cette phase est l’admirable intuition du capital-risqueur. L’investissement dans un avenir incertain qui n’a pas encore fait l’objet d’un contrôle scientifique doit être réalisé à l’aveuglette, comme les paris d’un joueur, plutôt que systématiquement évalué, comme dans les calculs du propriétaire du casino.

Dans cette situation, des idées très différentes du profit sont soumises à la même méthode, stupéfiante. Le casino brûle et poser les jetons pour un autre tour de poker pourrait être plus rentable que d’éteindre le feu. La classe capitaliste présente exactement le même genre de comportement au crépuscule du cycle actuel d’accumulation.

Pratiquement tous les capitalistes américains, outre les entreprises sidérurgiques, sont touchés par la guerre tarifaire, mais ils ont empoché des centaines de millions en réductions fiscales et ils salivent devant les possibilités offertes par l’abrogation des règlements environnementaux. Les capitalistes de la Silicon Valley ont reconnu que les politiques anti-immigration de Trump étaient une mauvaise stratégie commerciale, mais leurs protestations se sont amenuisées. Après tout, les gouvernements ne se contentent pas de restreindre ou de permettre l’accès aux marchés, comme le veut la philosophie libérale. Ils créent aussi des marchés. Microsoft, Google, Amazon et Accenture ont plongé leurs doigts dans des contrats lucratifs avec l’ICE et le Pentagone, offrant un régime frontalier rentable. L’État est nécessaire pour apprivoiser le terrain social de l’expansion économique, mais les États disposent aussi de tant de ressources qu’ils peuvent amener les capitalistes à investir dans des domaines qui contredisent leurs intérêts à long et moyen terme.

Les capitalistes ne connaissent pas l’avenir. Il peut être utile de sonder leurs prédictions, mais au mieux cela nous fait entrer dans la tête d’un expert en profits, alors qu’ils sont aveuglés par leur idéologie à tel point qu’ils ne voient pas la nature contradictoire du capitalisme.

Dans l’ensemble, ce que l’on peut voir dans leur comportement est une augmentation de l’instabilité systémique.

Les États-Unis hébergent toujours le plus grand ou le deuxième plus grand marché du monde, selon la façon dont on l’évalue ; cependant, l’investisseur américain typique conserve maintenant 40% voire 50% de son portefeuille en actions étrangères, soit entre deux et quatre fois plus que dans les années 1980. Rien qu’en 2017, le montant total des fonds américains investis à l’étranger a augmenté de 7,6% (427 milliards de dollars), principalement vers l’Europe, dont 63 milliards de dollars d’investissements dans des sociétés suisses (plus 168 milliards, non comptabilisés comme investissements, déposés sur des comptes bancaires suisses), et encore plus en Irlande. Les investissements directs étrangers aux États-Unis ont chuté de 36% en  2017.

Les ultra-riches investissent également dans des bunkers post-apocalyptiques de luxe, achetant pour des centaines de millions de dollars des installations militaires rénovées ou des silos à missiles en Europe et en Amérique du Nord, équipés pour la survie pendant un an ou plus avec des systèmes autonomes d’aération, de distribution d’eau, de réseau électrique, ainsi que des piscines, des bowlings, des salles de projection. Les ventes de bunkers haut de gamme par l’une des plus grandes entreprises du domaine ont augmenté de 700% entre 2015 et 2016, et ils ont continué à augmenter après les élections présidentielles.

Pour ajouter aux mauvaises nouvelles, les experts en Intelligence Artificielle (IA), y compris bon nombre de ceux qui bénéficient des développements dans ce domaine, préviennent que d’ici dix à vingt ans, l’IA pourrait causer un chômage massif car les robots et les programmes informatiques remplaceront les emplois de fabrication, d’administration, de gestion, de vente au détail et de livraison. Sur les 50 plus grandes catégories d’emplois aux États-Unis, seuls 27 ne sont pas significativement menacées de remplacement par l’IA. Sur les 15 premières, seulement 3 ne sont pas menacées : les infirmiers, les serveurs et les aides-soignants. Les vendeurs dans le commerce de détail, qui occupent la première place avec 4 602 500 employés en 2016, devraient diminuer considérablement à mesure que les ventes en ligne continueront de croître. Dans les magasins physiques qui persisteront en raison des préférences pour l’achat de certains produits en main propre, le personnel de vente au détail subsistera même s’il ne sera plus technologiquement nécessaire, car son but premier est de donner une touche humaine pour encourager les ventes, contrairement aux caissières (le numéro deux avec trois millions et demi) qui continueront à être remplacées par des machines.

En fait, la plupart des catégories d’emplois qui ne seront pas remplacées par des machines ne sont pas protégées par des limites technologiques mais par des limites culturelles. Notre société devrait subir un énorme changement de valeurs pour permettre aux avocats (num. 44) ou aux enseignants du primaire (num. 22) d’être remplacés par des robots. Prenons l’exemple des serveurs, la catégorie d’emploi qui connaît la croissance la plus rapide. À aucun moment de l’histoire, ce travail n’a été technologiquement nécessaire. Mais le fait d’avoir une personne dont le travail est d’attendre, d’être de garde pour transporter votre nourriture de la cuisine à votre table, crée une expérience que ceux qui en ont les moyens ont toujours été prêt à payer pour en bénéficier.

Bien que les pires effets de l’IA et de la robotisation n’aient pas encore été ressentis (en dehors des activités manufacturières, des télécommunications et des services postaux), le sous-emploi est déjà élevé et de plus en plus de gens ont du mal à joindre les deux bouts. Les taux de chômage réels aux États-Unis sont réputés historiquement bas, mais c’est en grande partie parce qu’un nombre croissant de personnes sans emploi ne sont plus dénombrées parmi la population active.

La dette américaine liée aux cartes de crédit a atteint mille milliards de dollars et les taux d’intérêt ne font qu’augmenter, beaucoup plus rapidement que les salaires, en fait. Cela s’explique surtout par le fait que le principal cadeau fiscal de Trump a forcé la Fed (NdT. Réserve Fédérale) à augmenter les taux pour prévenir l’inflation galopante. La proportion de paiement du service de la dette par rapport au revenu disponible par ménage est récemment revenue aux niveaux élevés que l’on observait juste avant la Grande Récession de 2008 ; en termes simples, les gens doivent dépenser une plus grande part de leur argent pour rembourser leurs dettes. Entre-temps, les effets de stimulation économique engendrés par les réductions d’impôt de Trump devraient prendre fin d’ici 2020. Le ministre saoudien de l’Énergie a également averti que d’ici 2020, la demande croissante de pétrole excédera l’offre en cours de diminution, à moins d’un afflux important d’investissements en vue d’exploiter de nouvelles ressources. Et les prix du pétrole ont déjà augmenté, ce qui tend à augmenter les prix de tous les autres biens de consommation.

Au sujet du pétrole, les industriels ont majoritairement décidés qu’une taxe sur les émissions de carbone était acceptable. Même certains républicains ont proposé une telle taxe. Les entreprises devraient payer 24$ la tonne pour le droit d’émettre du CO2 ; cette somme d’argent serait versée aux ménages les plus pauvres et servirait à améliorer les infrastructures de transports. Le piège de cette proposition, c’est que le gouvernement affaiblirait la réglementation sur les émissions, de sorte que les entreprises pourraient faire tout ce qu’elles veulent avec l’atmosphère tant qu’elles en paient le prix, et elles seraient à l’abri des responsabilités civiles comme celles qui ont été vues à la baisse pour l’industrie du tabac et même pour Monsanto. Tout cela indique que les entreprises du secteur de l’énergie veulent des incitations pour développer des énergies alternatives, qu’elles s’attendent à ce que les prix du pétrole continuent d’augmenter et qu’elles craignent qu’un retour de bâton ne les oblige à payer des dommages.

La dette des entreprises a atteint de nouveaux sommets. La valeur de l’encours des obligations d’entreprises est passée de 16% du PIB américain en 2007 à 25% en 2017. Il y a encore plus d’emprunts d’entreprises sur les marchés émergents et des prêts plus risqués. Tant que les taux d’intérêt seront bas, la plupart des entreprises pourront se permettre de poursuivre cette pratique, mais si les taux d’intérêt augmentent, comme ils sont censés le faire afin de contenir l’inflation, cela pourrait provoquer une cascade de défauts de paiement – le dégonflement de la bulle – surtout si cela coïncide avec le ralentissement économique mondial qui devrait commencer entre 2020 et 2022. Les taux d’intérêt augmentent au fur et à mesure que les affaires baissent : les entreprises ne peuvent pas payer toutes leurs dettes, ou contracter de nouveaux emprunts pour rembourser les anciennes.

Il ne s’agit pas seulement d’un problème américain. Bien que la croissance économique indienne et surtout chinoise ait été astronomique, la Chine ralentit et commence à montrer des signes avant-coureurs d’un krach boursier, quant à l’Inde, elle se heurte à des problèmes monétaires qui pourraient bientôt mettre un terme à sa croissance.

Par nature, le capitalisme crée des bulles et s’engage de manière répétitive sur la voie de l’effondrement financier. Cependant, ces effondrements peuvent être très difficiles à prévoir. Élaboré par le théoricien des systèmes mondiaux Giovanni Arrighi, l’un des meilleurs modèles rétrospectifs à ce jour et offrant une vision à long terme de ces cycles d’accumulation, est pourtant déjà en retard dans ses prévisions. Du passé, Arrighi a dressé la frise d’une accélération exponentielle de la fréquence des crises : à mesure que le capitalisme croît exponentiellement, le capital s’accumule et s’effondre de plus en plus rapidement. Cependant, pour que son modèle conserve sa précision géométrique, la Grande Récession de 2008 aurait dû être la crise terminale du cycle d’accumulation américain. Même si, selon certaines mesures, cette récession vient d’être évitée et n’a pas été complètement dépassée, la reprise apparente rompt encore le schéma historique des transitions d’un cycle à l’autre.

Cela s’explique en partie par l’intelligence et la complexité institutionnelle de plus en plus grandes du capitalisme, à savoir le rôle toujours plus important de la planification étatique dans l’économie et les interventions économiques de l’État toujours plus fortes et constantes. Cela réfute les néomarxistes qui annoncent en toute occasion l’obsolescence de l’État, quel que soit le nombre de fois où ils se trompent.

Le New Deal de Roosevelt, un investissement majeur de l’argent du gouvernement dans les travaux publics afin de créer des emplois, a permis aux États-Unis de sortir de la Grande Dépression avant leurs contemporains européens, tout en se positionnant comme le sauveur économique de l’Europe et de l’Asie ravagées par la guerre, et donc comme l’architecte du prochain cycle d’accumulation. Les dépenses publiques massives assimilées à un stimulant économique continu ont caractérisé le système américain, lié à la Réserve fédérale et à un réseau mondial de banques centrales et d’institutions monétaires qui maintiennent l’inflation dans des limites acceptables et renflouent les banques privées ou les petits gouvernements qui font faillite.

Paradoxalement, tout ce régime de stabilité économique est basé sur la dette. Pour empêcher le capitalisme de s’écrouler, les États-Unis et beaucoup d’autres États dépensent systématiquement beaucoup plus d’argent qu’ils n’en ont réellement. Le déficit américain – le montant qu’ils dépensent chaque année au-delà des gains réels – est maintenant supérieur à mille milliards de dollars, et la dette totale est maintenant de 21 mille milliards de dollars, soit plus que le PIB (la production totale de l’économie américaine). Le gouvernement paiera des centaines de milliards de dollars en intérêts à ses créanciers cette année.

Cependant, le système n’est pas aussi instable qu’il n’y paraît. D’un point de vue capitaliste, il est assez bien organisé (bien que, contrairement à l’idéologie du libre marché, il dépende entièrement de l’État). Environ un tiers de la dette est due à d’autres organismes gouvernementaux, principalement la Sécurité Sociale. Cette pratique d’un gouvernement qui emprunte à lui-même stabilise une énorme portion de la dette en la soustrayant aux créanciers privés qui pourraient encaisser des obligations ou cesser de faire des prêts. Cela donne également à ces capitalistes une assurance : si les États-Unis manquent à leurs obligations, ils peuvent en premier lieu choisir de ne pas rembourser la dette due à leurs propres citoyens ordinaires, de sorte que ceux qui en souffrent sont les vieux retraités et non les investisseurs. C’est comme ce qui est arrivé récemment à Porto Rico.

Environ un quart de la dette est détenu par des fonds communs de placement, des banques, des compagnies d’assurance et d’autres investisseurs privés, et plus du tiers est détenu par des gouvernements étrangers, principalement la Chine et le Japon. Les investisseurs privés et les investisseurs d’État étrangers achètent la dette du gouvernement américain parce qu’on considère qu’il s’agit d’un pari sûr. Quiconque a beaucoup d’argent en main veut probablement en investir une partie importante dans un placement sans risque qui rapportera continuellement des intérêts modestes mais sans danger. Mais cela en dit très peu sur les mathématiques de ce pari. Personne ne peut expliquer comment les États-Unis pourraient un jour rembourser leur dette sans dévaluer massivement leur monnaie et détruire ainsi l’économie mondiale. Et plus la dette augmente, plus les intérêts augmentent, jusqu’au moment où le paiement des intérêts dus dépassent la capacité de paiement du budget américain.

Au fond, la notation favorable de la dette américaine signifie seulement que, dans le système économique mondial actuel, les investisseurs ne peuvent pas imaginer que les États-Unis ne soient pas en mesure de payer les intérêts de leurs dettes. Mais la seule façon d’éviter un défaut de paiement est que les investisseurs et les gouvernements étrangers continuent à jamais de prêter aux États-Unis des sommes d’argent toujours plus élevées. La Chine et le Japon (les deux plus grands prêteurs) ont tous deux ralenti leurs achats de dette américaine, tandis que la Russie en a récemment abandonné sa part relativement faible.

Les crises capitalistes sont souvent liées aux guerres, alors même que les États-nations luttent pour le contrôle du système mondial. La guerre est également utile au capitalisme parce qu’elle détruit une énorme quantité de valeurs excédentaires, effaçant l’ardoise pour de nouveaux investissements. C’est fondamentalement un moyen de sauver le capitalisme de lui-même. En permanence, le système économique génère une quantité de capital en croissance exponentielle, jusqu’à ce qu’il ait plus de capitaux qu’il ne peut en investir. Cette abondance – et ce n’est pas une abondance humaine, mais une abondance purement mathématique, car les gens meurent encore de faim, même en ces temps bienheureux – menace de détruire la valeur cumulative de tout capital. Ainsi, une partie est détruite par la guerre, ceux qui misent du côté des perdants sont écartés du terrain, et les autres continuent le jeu.

Cependant, depuis la Seconde Guerre mondiale, il n’y a pas eu de guerre directe entre les grandes puissances, surtout à cause des armes nucléaires qui ont introduit le principe de certitude de la destruction mutuelle. Les progrès technologiques de la guerre ont dépassé son utilité en tant qu’outil politique, sauf à l’échelle des petites guerres par procuration.

Pourtant, dans une économie basée sur l’endettement, il est possible de détruire une énorme quantité d’excédent de valeur sans guerre. L’effacement de la dette américaine nuirait aux gouvernements japonais et chinois et donc à leurs économies, ruinerait de nombreuses banques et fonds communs de placement, et laisserait la majeure partie de la classe ouvrière américaine sans couverture de santé ou sans prestations de retraite.

Dans ce cas, sauf révolution, une économie robuste, capable d’un haut degré de production industrielle et de capitaux liquides pour les investissements et les prêts nécessaires, ramasserait les morceaux et amorcerait un nouveau cycle d’accumulation. L’Union européenne ou la Chine pourraient se trouver dans une telle situation. La première, parce que sa politique de dépenses anti-déficit lui offre une certaine protection et pourrait la distinguer comme modèle d’économie responsable en cas d’effondrement catastrophique du modèle américain ; quant à la seconde, c’est en raison de sa plus grande aptitude gouvernementale à ajuster toute son économie de manière technocratique et à l’aide de ses énormes capacités industrielles.

Après cet effondrement, selon l’ampleur du chaos politique et leur capacité à projeter les forces militaires, les nouveaux dirigeants mondiaux répareraient et reconstruiraient les éléments institutionnels du système actuel qu’ils jugeraient les plus utiles à leurs plans stratégiques, tels que l’OMC ou l’ONU, ou – si les conflits débouchaient sur une rupture avec la structure traditionnelle – ils devraient acquérir une influence politique suffisante pour amener assez de joueurs à la table et créer un nouveau complexe mondial d’institutions.

Mais il y a un problème. Pour que le capitalisme continue, le nouveau cycle d’accumulation qui suivra le prochain effondrement devra être exponentiellement plus grand que celui qui l’a précédé. Cela semble être l’une des caractéristiques les moins variables du modèle historique en vigueur. Intrinsèquement, le montant du capital à investir est en constante augmentation. Ceci explique la variation historique entre les périodes d’expansion géographique, lorsque de nouveaux territoires sont mis en contact avec le capitalisme par le biais d’une relation de principe qui se caractérise au mieux par l’accumulation primitive grâce à une forme de contrôle colonial, et les périodes d’intensification, lorsque les habitants des zones colonisées dans la période précédente sont davantage intégrés et reproduits comme des sujets capitalistes, non seulement en s’adonnant au travail forcé pour produire des matières premières pour les marchés lointains et acheter une petite portion de l’excès de production venant de la métropole, mais aussi en vivant, en respirant et en mangeant le capitalisme, devenant à part entière capitalistes et travailleurs salariés.

Le « siècle américain » a vu l’intensification des relations capitalistes sur l’ensemble du territoire qui était placé sous le contrôle du capital pendant le cycle britannique, ce qui représente pour ainsi dire le monde entier. Il n’y a pas d’autre géographie terrestre pour qu’un nouveaux cycle d’accumulation puisse s’étendre. Certes, l’économie indienne continue de croître et les capitalistes d’État chinois passent par l’Afrique, l’Océanie et les Caraïbes, et engagent des prêts sur un mode prédateur pour acquérir des infrastructures dont la Banque mondiale a été promotrice dans les années 1970 et 1980, tandis que Google et quelques autres entreprises font des incursions tièdes en Afrique pour y encourager une économie fonctionnelle high-tech. Mais ces populations dites sous-développées sont plus petites, et non plus grandes, que les populations d’Amérique du Nord et du Sud, d’Europe, d’Asie et d’Australie, où le développement capitaliste atteint un point de saturation. Pour simplifier grosso modo, le prochain terrain pour l’expansion capitaliste devrait être plus grand pour s’adapter à un autre cycle.

C’est cette problématique qui a conduit à la prédiction dans « Un pari sur l’avenir » et « Exploitation extraterrestre » que le prochain territoire d’expansion capitaliste était hors planète, sur la lune, la ceinture d’astéroïdes, et un jour, Mars. Beaucoup des capitalistes parmi les plus avisés d’aujourd’hui s’engagent dans des investissements et des projets ambitieux pour rendre cela possible. Mais ici sur Terre nous pouvons remercier notre bonne étoile qu’au cours des deux dernières années ils n’aient pas fait de progrès assez rapides pour sauver le capitalisme de son effondrement imminent.

Les fusées réutilisables et le système de récupération des drones de SpaceX constituent l’une des composantes les plus importantes d’un hypothétique cycle extraterrestre d’accumulation – un accès peu coûteux à l’espace – mais aucune des pièces suivantes n’a encore été mise en place. Il s’agirait d’un service de transport de passagers de luxe vers l’espace orbital et, à terme, vers la lune, ce qui ne serait jamais en soi une industrie importante, mais qui contribuerait à injecter des flux de trésorerie à un stade décisif du développement des capacités à plus longue distance, ainsi qu’à vanter l’attractivité de l’espace aux méga-riches afin d’obtenir du financement supplémentaire. La deuxième pièce, plus importante, est l’exploitation des astéroïdes et de la lune. Le Japon et la NASA sont actuellement en train d’installer des sondes robotiques sur des astéroïdes pour effectuer les analyse chimique qui faciliteront la prospection future, entre autres choses, mais ces sondes ne sont pas prévues avant 2020 et 2023, et il reste d’autres étapes à franchir avant de pouvoir commencer l’exploitation commerciale. Sans ces éléments, les fusées moins coûteuses ne contribuent qu’à la rentabilité d’une activité économique résolument géocentrique, c’est-à-dire le lancement de satellites toujours plus nombreux.

Il y a cependant une autre voie possible pour l’expansion capitaliste. Comme le disait Richard Feynman en 1959, « il y a plein de place en bas ».

Expansion bioéconomique

Les sept milliards d’êtres humains sur la planète sont un petit troupeau si l’ensemble du vivant pouvait être assimilé au capitalisme. Il n’y a aucune raison pour qu’une nouvelle expansion productive du capitalisme soit géographique, puisque le capitalisme fonctionne selon les flux, les relations, et non selon les lieux, ou les kilomètres carrés.

Une expansion bioéconomique impliquerait l’invasion du capitalisme dans les processus par lesquels la vie elle-même est produite et reproduite. Les antécédents de cette activité sont importants : ils représentent les premières incursions, mais ils n’ont pas encore été développés au point de déclencher un nouveau cycle d’accumulation. Dans la production de la vie organique, ils concernent les domaines du génie génétique et de la reproduction de la vie humaine, ainsi que les technologies de réseaux sociaux. Les premiers ont permis à certaines entreprises de faire beaucoup d’argent, mais ils n’ont pas été extrêmement efficaces et sont encore loin d’avoir réussi à modifier notre relation avec la production alimentaire, les maladies et les autres domaines d’intervention. Les autres ont sidéré les masses et produit des techniques de contrôle social qui s’améliorent de jour en jour, mais elles se mesurent encore en dollars publicitaires qu’elles génèrent pour la vente de marchandises réelles, donc un secteur quaternaire plutôt qu’une économie à part entière.

Une expansion bioéconomique impliquerait de rentabiliser les processus planétaires qui, une fois intégrés à une logique capitaliste, pourraient être analysés comme « reproductifs » ; rentabiliser les processus biologiques qui sont exploités en permanence par accumulation primitive mais ne se sont pas encore soumis à une architecture capitaliste ; rentabiliser les processus chimiques organiques qui conditionnent le déroulement continu de la vie ; et rentabiliser les processus sociaux qui, sous l’appellation « temps libre », n’ont été jusqu’ici que mal exploités par la consommation.

Au cours des deux prochaines décennies, ces secteurs pourraient voir leurs expansions prendre les formes suivantes :

  • Le déploiement de réflecteurs orbitaux ou d’autres dispositifs visant à diminuer puis ajuster la quantité de rayonnement solaire qui atteint la planète. Conjuguée à une multiplication des technologies de captage du carbone, cette évolution pourrait permettre un contrôle mécanique du climat axés sur des modèles d’affaires, non pas comme une biosphère dans laquelle s’inscrit l’économie, mais un nouveau champ économique à considérer.
  • L’utilisation du clonage pour prévenir l’extinction d’espèces économiquement utiles. Avec un inventaire total de la biodiversité régulée par l’IA qui peut déployer des drones et des nanorobots comprenant une codification génétique et capables d’identifier et de détruire des espèces cibles, cela pourrait théoriquement permettre un contrôle rationnel total de tous les écosystèmes, avec des paramètres et des objectifs fixés par des consortium d’entreprises et de gouvernements possédant la technologie et contrôlant les procédures.
  • L’assemblage de nanomatériaux fabriqués sur commande et l’utilisation d’animaux-usines génétiquement modifiés pour produire des composés organiques complexes. Cela supprimerait le concept de « ressources naturelles » en transformant les matières premières en un produit industriel affranchi des limites naturelles.
  • Le développement de la nanomédecine et de la thérapie génique pour soustraire davantage la vie humaine aux aléas de la mort et des maladies qui ont un impact négatif sur la productivité humaine. La mort est particulièrement problématique car elle permet aux gens d’échapper définitivement à la domination.
  • Le passage d’une monoculture de plein champ à un modèle de contrôle total décentralisé de l’agriculture basé sur la production en serre et la technique hydroponique. Dans ce modèle la production alimentaire se fait dans un environnement totalement contrôlé en fonction de la lumière, de la chaleur, de l’atmosphère, de l’eau et des nutriments, en rupture avec l’agriculture de la Révolution Verte qui tentait de produire des aliments en modifiant l’environnement naturel par voie industrielle. L’agriculture décentralisée serait plus économe en énergie, réduirait la dépendance au transport sur de longues distances et à la machinerie lourde, et permettrait temporairement une augmentation de l’emploi et des investissements à mesure que les terres agricoles – 40% de la surface de la planète – seraient redessinées et potentiellement réintégrées à l’espace urbain.

La capitalisation des processus sociaux peut progresser grâce à l’expansion des activités économiques dans les domaines de la santé, des loisirs, des activités sexo-affectives, des activités récréatives et du divertissement, ainsi qu’à la surveillance algorithmique et la combinaison de ces secteurs économiques. Cela impliquerait la conquête totale du « temps libre » et l’abolition de cette victoire partielle remportée à travers des siècles de luttes ouvrières.

Il fut un temps où les capitalistes ne pouvaient qu’apprécier la valeur productive de leurs vassaux, considérés comme des esclaves ou des machines, selon que l’on soit progressiste ou non. La résistance de ces classes exploitées n’a pas réussi à abolir cette relation, mais elle a réussi à gagner une certaine marge de manœuvre. L’obtention de salaires plus élevés était avant tout la conquête du « temps libre ». Les travailleurs ne voulaient pas d’un salaire plus élevé pour les mêmes journées de 12 ou 14 heures ; ils ont laissé cela aux classes professionnelles, comme les avocats et les médecins, dont l’estime de soi découle entièrement de leur valeur sur le marché. Ils voulaient pouvoir répondre plus facilement à leurs besoins afin de conserver une partie de leur vie pour leur propre plaisir. L’opposition entre la vie et le travail est on ne peut plus claire.

Le capitalisme ne peut tolérer aucune autonomie, aucun espace libéré, mais il ne peut pas non plus vaincre la résistance des exploités. Pendant un siècle, son approche stratégique avec le temps libre a consisté à produire des activités commerciales alternatives pour capitaliser sur les choix faits par les gens en dehors du travail. Le temps libre était encore libre, mais comme les capitalistes et les décideurs gouvernementaux ont appauvri l’imagination et le paysage social au point que les peuples furent plus enclins à choisir des activités de consommation plutôt que des formes non marchandes de jeu et de détente, ces peuples devinrent dépendants des relations capitalistes, générant de la demande artificielle, et assurant de nouveaux secteurs productifs.

Les espaces verts et les terrains publics ont été asphaltés. La politique partisane et la répression d’État ont conduit à l’effritement des centres ouvriers. Les trottoirs et les places ont été envahis par les terrasses de restaurants. Le canapé devant la radio ou la télévision a remplacé le perron ou les chaises qu’on plaçait à même la rue. Les espaces de vie communs de couture et de lavage ont été remplacés par des machines. Les sports ont été professionnalisés et rendus commerciaux. Les bars ont remplacé la consommation dans les bois ou dans les parcs. Les promenades en montagne ont cédé la place à des sports spécialisés qui dépendent de l’acquisition d’équipements coûteux. Des monstruosités en plastique et, plus tard, des monstruosités électroniques ont éclipsé les jouets en bois simples, imaginatifs et physiquement a attrayants que les oncles sculptaient pour leurs neveux et nièces, ou les simples bâtons que les enfants prenaient sur le sol et transformaient en mille choses différentes selon leurs besoins et selon leur imagination.

Les incursions capitalistes dans le temps libre nécessitaient une publicité qui devint un capteur d’attention de plus en plus agressif et omniprésent, un détournement des possibilités non marchandes sur le terrain du temps libre, avec des rendements à la baisse à mesure que les cibles publicitaires deviennent hostiles, cyniques, sophistiquées, saturées ou égocentrées. La diminution de l’efficacité de la publicité révèle que le temps libre offrait encore aux gens un choix, et bien que les capitalistes aient remporté une victoire écrasante contre la nature, l’imagination et la sociabilité im-médiates (unmediated : ici mon dictionnaire automatique affiche une ligne rouge ondulée pour me dire que « sans médiation » n’est pas un mot) – et l’économie de consommation a été extrêmement rentable et ne cesse de le devenir – nonobstant l’efficacité de la publicité, les puissants préfèrent que nous ne puissions plus avoir aucun choix significatif du tout.

Qu’il en soit ainsi : dans la nouvelle économie, il n’y a plus de distinction entre le temps de travail et le temps libre, ni même entre le temps du producteur et le temps du consommateur ; au contraire, tout le temps vécu est absorbé dans une logique capitaliste unifiée qui conduit à une avance qualitative dans la production des subjectivités. Depuis l’arrivée du téléphone cellulaire, les travailleurs sont toujours sur appel, mais les technologies sociales qui ont été inaugurées plus récemment ou qui attendent leur avènement proche font en sorte que l’ensemble de notre temps vécu fait l’objet de surveillance, de commercialisation et d’exploitation. Alors qu’auparavant l’information sur les consommateurs était vendue à des annonceurs qui pouvaient faire de l’argent en convainquant les gens d’acheter des produits matériels, toute la chaîne économique dépendant en fin de compte de la vente d’un produit manufacturé, nous avons opéré un saut qualitatif où les données sont devenues une ressource à valeur intrinsèque (think bitcoin), et afin de ne pas perdre notre condition d’êtres sociaux, nous devons adosser nos comportements sociaux aux dispositifs numériques qui extraient notre activité pour produire des données.

Avant, vous pouviez encore être un être humain sociable si vous jouiez au football dans le parc, si vous invitiez les gens à un barbecue ou alliez camper dans les bois plutôt que d’acheter des billets pour le match, vous rencontrer dans un bar ou sauter à l’élastique. Aujourd’hui, vous êtes un paria social et inemployable si vous n’avez pas de smartphone, pas de Facebook ou d’Instagram, pas de GPS, et si vous n’utilisez pas cette application stupide qui vous permet d’inviter des gens à des événements.

Il n’est plus possible de passer du temps libre dans les bois, en tant qu’activité non marchande, à partir du moment où vos déplacements y sont suivis par GPS, ce qui permet aux acteurs concernées d’attribuer une valeur aux parcs naturels ou de faire des plans pour occuper cet espace commercial.

Nixon nous a fait renoncer à l’étalon-or pour permettre à l’expansion financière de se poursuivre sans entrave. Pour retrouver la stabilité, le capitalisme peut bien ancrer la valeur économique dans les données – sous une forme ou une autre de bit economy.

L’économie « sociale » (NdT. : ne pas confondre avec l’économie sociale/solidaire) devra se développer considérablement si elle veut permettre un nouveau cycle d’accumulation capitaliste, et bien que permettre l’accès à Internet et aux smartphones à une majorité de la population mondiale soit certainement une condition préalable nécessaire, cela ne sera pas suffisant en soi pour constituer une expansion industrielle. Rappelez-vous que l’expansion économique américaine de l’après-guerre reposait en grande partie sur l’acquisition d’une voiture et d’une maison de banlieue pour tous les gens de la classe moyenne. Par rapport aux maisons et aux voitures, les téléphones sont des équipements trop bon marché pour constituer l’épine dorsale d’une expansion industrielle, étant donné que chaque cycle doit être exponentiellement plus grand que l’expansion industrielle et financière du cycle qui l’a précédé.

La marge de croissance de l’économie « sociale » devra assimiler davantage la surveillance de l’activité vitale des personnes et l’exploitation de leur potentiel productif, afin que la surveillance ne se limite pas à repérer les comportements criminels ou à cibler des produits à promouvoir, mais englobe systématiquement les activités dans une logique économique, invitant ainsi les gens à s’exprimer ou à consacrer leur créativité à la décoration des espaces virtuels et sociaux, permettant à chacun de devenir un influenceur. Elle inclurait également la valorisation du crowdsourcing comme un modèle productif dominant, profitant de la connectivité générale pour traiter la population comme un réservoir de main-d’œuvre disponible en permanence, prête à se consacrer à résoudre tel ou tel problème, souvent sans rémunération en retour. Il y aurait également une croissance exponentielle de l’économie du soin, des loisirs, du sexo-affectif, du jeu, de la gastronomie, des voyages, de la médecine, du design et du divertissement, fusionnant dans une économie de la qualité de vie capable de générer les centaines de millions de profils d’emploi qui remplaceront ceux que l’IA et la robotisation rendront obsolètes dans les secteurs de la fabrication, des télécommunications, du commerce de détail, du design et de l’architecture, du nettoyage et de l’hygiène, puis des transports et de la distribution, du secrétariat et de la comptabilité, de la supervision dans les domaines du bâtiment et de la sécurité, de la surveillance et de la gestion.

Le secteur économique de la qualité de vie compenserait la misère et l’aliénation de la vie capitaliste par une sociabilité totalement organisée. Tout le monde suivrait une sorte de thérapie, et la classe moyenne-supérieure aurait des thérapeutes émotionnels et physiques, des entraîneurs personnels et des conseillers en diététique ; ils mangeraient beaucoup plus souvent à l’extérieur que chez eux, et leur vie tournerait en grande partie autour des activités de loisirs. Les précaires travailleraient non seulement dans la restauration et la vente, mais aussi dans une industrie du sexe en expansion qui se distingue des autres formes d’emploi selon des frontières de plus en plus floues, ou encore comme instructeurs de yoga, guides de sports extrêmes et de tourisme d’aventure, ou comme assistants ou personnages de décor pour des jeux commerciaux de type LARPing, paintball ou autres. Les concepteurs et programmeurs constitueraient un segment important et hautement rémunéré de la classe ouvrière, juste en dessous des cadres et des capitalistes, et suivraient à leur tour les professionnels comme les avocats, les médecins, les technocrates et les professeurs d’université, les flics, les infirmières et autres thérapeutes avec un large éventail de responsabilités et de salaires. Viennent ensuite les « créateurs » précaires mais bien payés, puis les autres professions en col bleu comme les menuisiers et réparateurs qui travaillent dans des situations trop variables pour être traitées en IA, puis encore les enseignants (NdT. : non-universitaires), et enfin, le gros des précaires dans cette économie de la qualité de vie.

Qu’en est-il de Mars ?

Incidemment, les secteurs technologiques – opérant au niveau planétaire, biologique, chimique et social – qui auraient besoin de progresser pour ouvrir le territoire à une autre expansion industrielle sont les mêmes secteurs qui auraient besoin de progresser pour permettre une expansion extraterrestre ultérieure du capitalisme et une véritable colonisation de l’espace extra-atmosphérique. Contrairement aux principales techniques de production et d’accumulation qui caractérisent le cycle qui se termine, une caractéristique majeure de ces technologies est leur décentralisation. De même, pour prendre un exemple, la colonisation de Mars nécessiterait une technologie décentralisée et à petite échelle. On ne peut pas faire voler des grands complexes industriels ; la mission ne serait réalisable qu’avec des nanorobots, des imprimantes 3D et des machines auto-reproductives. Les nanomatériaux fabriqués sur mesure seraient cruciaux pour des constructions capables de résister à des environnements extrêmes, et le clonage combiné à l’agriculture en serre dans des environnements totalement confinés et contrôlés serait nécessaire pour amorcer la production alimentaire et la production biosphérique. Qui plus est, une terraformation efficace serait impensable si l’État n’avait pas déjà l’expérience d’un contrôle climatique efficace ici sur Terre.

Quant aux technologies sociales, elles pourraient bien être la cheville ouvrière. La technologie décentralisée, telle qu’elle serait nécessaire dans une colonisation extraterrestre, peut contribuer à la décentralisation politique. Toute entreprise capitaliste, toute association scientifique et toute agence gouvernementale qui collaborent un jour à la colonisation de Mars ou d’un autre corps céleste aborderont sans aucun doute, avec mille autres questions techniques, la question de savoir comment garder le contrôle des colonies. Il n’est pas facile d’exercer un effet de levier militaire et bureaucratique sur une population qui se trouve à un ou plusieurs mois de voyage. Il y a cinq cents ans, les colonisateurs européens y sont parvenus grâce aux technologies sociales du christianisme et de la blancheur de peau, mais non sans quelques grandes mutineries et défections.

Encore une fois, il est plus logique d’analyser la situation sous l’angle du contrôle social que sous celui de l’accumulation du capital. Le capitalisme a longtemps favorisé des techniques de production industrielle beaucoup plus inefficaces et centralisées parce que l’État n’avait pas les techniques pour maintenir le contrôle sur une production dispersée. Plutôt que de rester un simple comité d’organisation du Capital, l’État remplace et englobe le Capital, car le territoire effectivement discipliné par l’État est le seul territoire où le capitalisme peut fonctionner. Ainsi, le contrôle général rendu possible par les nouvelles technologies sociales (cet Internet des objets dans lequel nous sommes les objets de prédilection) est une composante vitale de la colonisation extraterrestre.

La nécessité du changement climatique

Les récents remous de l’économie Turque qui ont failli faire chavirer l’UE, montrent clairement que la croissance économique actuelle ne cesse de dépendre d’une accumulation financière non soutenable. Les banques européennes n’ayant nulle part en Europe pour investir tous leurs bénéfices, elles financèrent alors une énorme vague de construction en Turquie, tandis que les entreprises turques se développaient en empruntant des dollars, profitant du faible taux d’intérêt. À court terme, de l’argent gratuit. Mais à mesure que le taux d’intérêt américain grimpait, la valeur de la livre turque s’effondrait, et comme l’économie locale n’avait jamais sollicité ce boom de la construction, elle n’a pas eu les moyens de rembourser la totalité des prêts. Les actions de toutes les grandes banques européennes ont alors chuté. Ça aurait pu être le début d’un gros krash. Mais le Qatar est intervenu avec un prêt de 15 milliards de dollars pour la Turquie, montrant une fois de plus l’importance de la politique : l’une des premières initiatives diplomatiques de Trump dans la région avait été de s’associer à l’Arabie saoudite et de se rallier pleinement à l’éviction du Royaume du Qatar. Puis Trump s’est brouillé avec la Turquie et a essayé de couler son économie. Le Qatar est alors intervenu pour la sauver, du moins pour l’instant. Mme Merkel, elle aussi récemment dupée par les États-Unis, a tenté de normaliser les relations avec la Turquie alors qu’elle avait même été l’une de ses principales détractrice.

Il y a des bulles de l’immobilier similaires au Brésil, en Chine, à Singapour. La prochaine crise pourrait commencer n’importe où, mais elle se propagera sans doute partout.

Si une expansion bioéconomique est le moyen le plus viable pour le capitalisme d’éviter ses contradictions et de poursuivre son déchaînement frénétique, quelles sont les stratégies politiques qui permettraient à cette expansion d’avoir lieu ? Certains des changements technologiques décrits ci-dessus sont déjà en cours, mais de nombreux éléments clés exigent un changement si radical qu’une planification stratégique à l’échelle mondiale serait nécessaire. Ce n’est pas de bon augure pour le capitalisme, puisque les institutions mondiales de coopération interétatique sont en désordre, en grande partie à cause des acteurs d’extrême droite de Netanyahou à Poutine et à Trump.

En fin de compte, la guerre contre le terrorisme n’a pas réussi à rallier les grandes puissances pour créer une nouvelle ère de coopération mondiale. Parce qu’elle a trop emprunté au jeu à somme nulle de l’orientalisme de la Guerre Froide, elle n’a conduit qu’à l’érosion des structures politiques mondiales qui maintenaient l’hégémonie américaine.

Actuellement, la seule tribune valable pour lancer un nouveau projet de coopération interétatique capable de déployer et de gérer les changements qu’exigerait une expansion bioéconomique du capitalisme se trouve dans la réponse au changement climatique. Le changement climatique fournit un tableau narratif de l’ensemble des intérêts mondiaux. Tout pouvoir politique qui agit au nom de la lutte contre le changement climatique peut agir au nom de l’humanité tout entière : cela permet d’établir un projet hégémonique, de la même manière que le récit de la démocratie et des droits humains a alimenté projet hégémonique après les horreurs de la Seconde Guerre Mondiale. Les structures politiques de coordination interétatique et d’intervention mondiale seraient justifiées en tant que mesures holistiques nécessaires pour sauver l’ensemble de la biosphère, et elles pourraient aussi avoir un caractère technocratique légitime, étant donné que les médias ont réussi à présenter le changement climatique comme une question scientifique et non économique ou spirituelle.

La principale faiblesse du système américain était que l’ONU, en tant que garante des droits de l’homme et de l’État, ne pouvait guère faire plus que protester alors que le FMI et l’OMC, sanctionnés pour mener des interventions technocratiques afin de sauvegarder l’ordre économique, présentaient clairement un caractère mercenaire, dressant le capitalisme contre les droits humains alors que, dans un régime libéral, ils devaient faire la synthèse des deux. Dans un régime où prévaut l’obligation de donner des réponses au changement climatique, des interventions technocratiques vigoureuses et la sauvegarde des intérêts communs trouveraient leur parfaite synthèse. Tant que le changement climatique sera traité comme une question purement scientifique, toute réponse devra être compatible avec les relations sociales préexistantes, les sources de financement et les mécanismes réglementaires par lesquels elle doit être menée. En d’autres termes, une approche technocratique du changement climatique ne menacerait pas le capitalisme.

Mais les capitalistes eux-mêmes sont incapables de construire la plateforme pour réaliser le type de changement systémique dont ils ont besoin. Les investissements dans les énergies renouvelables ont chuté de 7% en 2017. La volatilité du marché ne produira jamais les ressources nécessaires à un changement de phase des technologies énergétiques. Le capitalisme libéral nous laisserait en proie à l’effervescence – ou plutôt à l’ébullition – dans une économie basée sur les énergies fossiles. Un passage rapide à une économie du changement climatique ne sera pas possible sans que, dans leur majorité, les grands gouvernements introduisent d’énormes réorientations politiques et imposent juridiquement des investissements dans les énergies alternatives et des mesures de protection environnementale, puisant pour cela dans une part significative de leurs budgets, au même titre que les dépenses de santé ou militaires.

Le capitalisme fait face à un grand besoin de changement stratégique, un engagement gouvernemental capable de réorienter les ressources sociales de manière concertée et massive. C’est là que la question des différents modèles de gouvernement devient extrêmement importante, car certains types de gouvernement sont mieux placés que d’autres pour effectuer un tel basculement, et certaines tendances politiques sont bien placées pour s’emparer des problématiques du changement climatique, alors que d’autres en sont incapables.

Le fascisme, historiquement

Jusqu’à présent, en parlant de Nétanyahou ou de Trump, j’ai parlé de réactionnaires ou d’extrême droite. Il y a ceux qui favorisent l’hyperbole émotive à la clarté historique, et classent l’ensemble de ce mouvement réactionnaire dans la case « fascisme ». Si je conteste cette terminologie, ce n’est pas parce que j’aime les querelles sémantiques, mais parce que parfois, les mots comptent. Dans ce cas, la précision théorique est particulièrement importante, car il existe une divergence de longue date entre les modes dictatoriaux et démocratiques du pouvoir de l’État.

Dans le mode dictatorial, une partie de la classe dirigeante utilise des moyens militaires pour imposer ses orientations stratégiques au reste de la classe dirigeante et à la société en général. Ils le font en s’appuyant sur un appareil militaire fort ou en mobilisant une partie des classes inférieures contre un supposé ennemi intérieur – en général, ils font les deux. Ils peuvent suivre cette voie parce qu’ils estiment que les structures de pouvoir sur lesquelles ils s’appuient sont menacées d’une manière que le reste de la classe dirigeante n’apprécie pas, ou à cause d’un conflit culturel qui les conduit à voir les autres membres de la classe dirigeante comme des ennemis plutôt que comme des pairs, ou parce qu’ils n’ont pas le contrôle nécessaire sur les classes inférieures pour générer un consensus social.

Dans le mode démocratique, la classe dirigeante débat des orientations stratégiques et tente de gagner la participation volontaire à sa stratégie, et donc une sorte de consensus, de la part du plus large éventail possible de la société. Bien qu’ils puissent s’engager dans d’âpres combats contre leurs rivaux, ils ne leur refusent pas le droit d’exister et ne tentent pas non plus de détruire les mécanismes qui permettent le débat et la décision participative. À différents moments de l’histoire, les classes dirigeantes ont reconnu les avantages du mode démocratique. Ce mode leur permet de récupérer les mouvements révolutionnaires et de coopter les valeurs populaires pour qu’elles puissent se protéger de leurs propres classes subalternes, et même les enrôler pour aider à gérer les processus d’exploitation. Le mode démocratique leur permet de procéder à des réajustements intelligents et périodiques des stratégies décisionnelles, ce qui rend l’appareil d’État toujours plus fort et plus scientifique. Et il crée un jeu à somme positive qui donne la priorité à l’enrichissement mutuel de tous les membres de la société propriétaires de biens plutôt qu’à des luttes intestines à somme négative.

Historiquement, les États alternent entre le mode dictatorial et le mode démocratique, selon les circonstances ; cependant, ils ne sont capables d’opérer ce changement en un clin d’œil que s’ils ont construit auparavant un énorme complexe psychosocial qui entraîne les gens à s’identifier à leur dictateur ou à leur démocratie. Habituellement, plus un État est fort, plus l’échafaudage idéologique qui accompagne et justifie le mode dictatorial ou le mode démocratique est fort ; et donc, plus le mode est stable, plus la crise sera grande pour basculer d’un mode à l’autre.

Il est important de bien distinguer ces deux modes en raison de la différence entre les expériences de gouvernance de l’un à l’autre.

Le fascisme est un mouvement politique particulier qui s’est développé dans les années 1920 en Italie, inspirant des mouvements politiques similaires qui ont pris le pouvoir dans une douzaine d’autres pays, chacun étant une variante du modèle original. Ce modèle n’a jamais eu le temps de s’homogénéiser parce que le fascisme a été vaincu par les États démocratiques et socialistes, ceux-là mêmes qui ont ensuite mis en place le nouveau système mondial.

Dans le passé, certains anarchistes comme Voline, ont utilisé une définition plus étendue du fascisme afin de critiquer l’Union Soviétique. Ils l’ont fait parce que le fascisme était le mal dominant de l’époque et parce qu’il était politiquement opportun d’utiliser l’étiquette dans un sens plus large. Néanmoins, ils n’ont pas eu à s’entacher de pure malhonnêteté intellectuelle pour étendre la portée de ce terme, comme l’ont fait ceux Parti Communiste en qualifiant les socialistes allemands de « social-fascistes » pour justifier leur propre collaboration avec le Parti Nazi au début des années 1930. En fait, il y avait des relations organiques entre les autoritarismes de gauche et de droite à l’époque. Les fascistes italiens dirigés par Mussolini sortaient en grande partie du Parti Socialiste et améliorèrent la tactique socialiste consistant à mobiliser un mouvement de masse obéissant pour conquérir le pouvoir, et l’État policier Nazi s’inspira directement de son homologue soviétique, sans parler de l’affinité qui s’est manifestée dans le Pacte de non-agression entre l’Allemagne Nazie et les Soviétiques, ou encore de la complicité avérée entre le KPD et les Nazis dans l’attentat contre la démocratie allemande.

La définition élargie utilisée par Voline et quelques-uns de ses contemporains jouissait encore d’une certaine précision parce qu’elle faisait la distinction entre les modes de pouvoir dictatoriaux et démocratiques. Voline n’était pas un amoureux de la démocratie, mais il savait qu’il était important d’établir une distinction fondamentale entre ces différents modes. Ainsi, les justifications avancées pour qualifier l’URSS de « fasciste » étaient la suppression de la liberté d’expression, de la liberté de la presse et des élections – en un mot, sa constitution en tant que dictature.

Les détracteurs socialistes d’aujourd’hui, pour qui Trump et May représentent le « fascisme », ne font pas cette distinction. Dans l’ensemble, ils refusent aussi de définir le fascisme. Au lieu de cela, ils affirment parfois que, puisque certains historiens ont été encore plus stricts dans leur définition – en se demandant si les nazis ou les phalangistes peuvent aussi être qualifiés de fascistes – ils trouvent légitime d’aller à l’extrême opposé et d’être laxistes dans leur définition au point de ne faire aucune distinction entre les modes fascistes et démocratiques de domination blanche. En outre, ils lancent des prédictions dramatiques selon lesquelles le fascisme pourrait revenir dans des circonstances historiques complètement différentes parce qu’il y avait des gens dans les années 1930 qui ne croyaient pas que cela pouvait arriver (ces deux non-arguments sont tirés de « Yes, Trump Does Represent Fascism »). Ou encore, ils proposent les termes d’une définition qui pourrait s’appliquer à pratiquement n’importe quel État, citant des caractéristiques telles que « le populisme sélectif, le nationalisme, le racisme, le traditionalisme, la propagation de la Novlang et le mépris pour le débat argumenté » – sans jamais penser que ce sont des « caractéristiques communes à toutes les formes de politiques d’extrême droite (et en fait, la Novlang est une caractéristique du stalinisme) » comme je le disais précédemment dans une critique.

Ou bien ils fabriquent un simulacre de partialité ou d’argumentation de bon sens, comme McKenzie Wark : « Il est étrange que les catégories politiques libérales, conservatrices, etc. soient utilisées de manière trans-historiques, alors qu’on n’est pas censé utiliser la catégorie du fascisme en dehors d’un contexte historique spécifique… Nous devrions peut-être la concevoir non comme l’exception mais comme la norme. Ce qu’il faut expliquer, ce n’est pas le fascisme, mais son absence. »

Cette énigme rhétorique est facile à résoudre. Le libéralisme est un élément fondamental de la modernité. Nous vivons toujours dans le système économique et politique créé par le libéralisme, donc la terminologie du libéralisme est toujours d’actualité, toujours historique. Appliquer les termes « libéral » et « conservateur » à l’époque médiévale ou au début de la Chine des Han, c’est cela qui serait « trans-historique ».

Au contraire, le fascisme a perdu. Il n’a jamais créé de système mondial, et les circonstances dans lesquelles il s’est créé ne sont plus d’actualité. Il y a eu des douzaines de variantes à la politique autoritaire et à l’idéologie suprémaciste blanche, la plupart incohérentes ou s’opposant mutuellement. Pour justifier l’utilisation du « fascisme » comme catégorie fourre-tout, il faudrait que quelqu’un livre un argument positif pour expliquer pourquoi cela nous donne des outils théoriques que nous n’aurions pas autrement. Pour autant que je sache, cet argument n’a pas encore été avancé. Il semble que la raison pour laquelle les gens parlent du fascisme comme d’un danger imminent est que cela inspire la crainte et les fait paraître importants. On n’a pas la même réaction en parlant d’une « démocratie de plus en plus brutale », même si les gouvernements démocratiques sont responsables d’une grande partie des génocides les plus sanglants de l’histoire mondiale (y compris l’anéantissement et l’extermination de centaines de nations autochtones par les politiques coloniales des États démocratiques comme les États-Unis, l’Australie, le Canada, le Chili et l’Argentine ; les massacres perpétrés par des puissances démocratiques comme le Royaume-Uni, la Belgique, les Pays-Bas et la France en Inde, au Congo, en Indonésie, en Algérie, au Vietnam et dans d’autres colonies ; et les génocides perpétrés par des démocraties post-coloniales comme la Colombie et la Birmanie). La plupart des gens ne le savent pas, parce qu’on accorde tellement d’importance aux méfaits des régimes dictatoriaux… Les crimes des démocraties sont occultés. Les anarchistes devraient être mieux informés, mais un nombre important d’entre eux ont choisi l’opportunisme politique plutôt que l’honnêteté intellectuelle et la tâche difficile de partager les vérités que personne d’autre ne veut évoquer.

Il est important de critiquer cette négligence théorique parce que notre analyse de l’histoire est d’une importance vitale. L’amnésie historique est l’un des plus grands obstacles récurrents aux mouvements révolutionnaires.

Tirée d’un article précédent, voici une définition opérationnelle du fascisme :

Le fascisme n’est pas n’importe quelle position d’extrême droite. C’est un phénomène complexe qui mobilise un mouvement populaire sous la hiérarchie d’un parti politique et cultive des systèmes parallèles d’allégeance dans la police et l’armée afin de conquérir le pouvoir, que ce soit par des moyens démocratiques ou des moyens militaires ; il abolit ensuite les procédures électorales pour garantir la perpétuation d’un parti unique ; il crée aussi un nouveau contrat social avec la classe ouvrière nationale, d’une part en créant un meilleur niveau de vie que ce qui pourrait être atteint sous un capitalisme libéral, d’autre part en protégeant les capitalistes par une nouvelle paix sociale ; et enfin il élimine les ennemis intérieurs qui étaient responsables, selon lui, de la déstabilisation du régime précédent.

L’abolition d’un système électoral libre est essentielle. Avec des élections libres, pas de dictature ; sans dictature, pas de fascisme. Le fascisme multipartite avec une presse capitaliste libre est une contradiction dénuée de sens qui prive le langage de toute précision ou pertinence au profit de l’amplification démagogique, un peu comme le style préféré des populistes de tous bords, de Trump aux fascistes d’aujourd’hui.

La présence d’une force paramilitaire organisée hiérarchiquement est également essentielle pour détruire les freins et les contrepoids du système démocratique et soutenir la création autocratique d’une nouvelle juridiction pendant la période de transition. Dans le fascisme historique, ces chemises noires ou stormtroopers sont indispensables dès les premières années, et sont finalement affaiblis ou même supprimés après que les nouvelles lois fascistes aient été suffisamment institutionnalisées.

Ami du Radical met en garde contre les « organisations de chemises noires dans tous les États », mais c’est une exagération. L’Alt-Right aux États-Unis est une organisation criminelle ; les priver d’une tribune et les expulser de la rue a été la meilleure chose à faire. Mais ces groupes hétéroclites de guerriers d’Internet et de trolls de bas-étage sont des broutilles à côté des chemises noires historiques ou du KKK pendant la Reconstruction. Ils n’ont pas de leadership unifié, pas de structure militaire étoffée1, pas de discipline et un nombre relativement faible de membres. Les para-militaires susmentionnés étaient engagés dans une guerre civile ouverte. Le nombre de morts se chiffrait en milliers et en dizaines de milliers. Il est important de le reconnaître, car c’est une chose, pour les anarchistes, de pouvoir vaincre un groupe dispersé et marginalisé comme l’Alt-Right. Ce serait vraiment autre chose que de se mesurer à une véritable organisation de chemises noires.

Les différents modèles d’organisation sont aussi extrêmement importants. S’il y avait une véritable organisation paramilitaire organisée hiérarchiquement à la suite d’un parti politique avec un programme fasciste (antidémocratique), cela en dirait long sur la faiblesse du gouvernement et sur les inquiétudes de la classe capitaliste prête à autoriser une telle violation de ses propres normes. Ces conditions n’existent tout simplement pas à l’heure actuelle, et quiconque ne le comprend pas se bat contre des moulins à vent. En second lieu, la structure organisationnelle actuelle de l’extrême droite aux États-Unis est tout à fait conforme au mode diffus de violence paramilitaire qui existe sous les gouvernements démocratiques. Confondre l’un avec l’autre équivaut à laisser passer le suprémacisme blanc et démocratique, ce qui constitue une erreur stratégique majeure.

Il y a eu un parti néo-fasciste ces dernières années, avec un programme fasciste visant à s’emparer du pouvoir et à créer une force paramilitaire avec des allégeance anti-démocratiques dans la police et l’armée. Aube Dorée, en Grèce. Souvenez-vous de ce qui leur est arrivé. Ils ont certainement été affaiblis par des actions directes anarchistes, mais c’est le gouvernement démocratique de la Grèce qui les a fait taire, du jour au lendemain, après qu’ils aient outrepassé leur mission en tuant des artistes et en attaquant des journalistes plutôt que de se contenter de tuer des migrants et blesser des anarchistes.

Avant et après les poursuites visant leurs dirigeants, Aube Dorée a utilisé une rhétorique similaire à celle de l’AfD en Allemagne et d’autres partis d’extrême droite. Les principales différences étaient leur structure paramilitaire, leur adhésion permanente à l’esthétique nazie, même après avoir été sous les projecteurs des médias, et leur tendance à promouvoir une stratégie putschiste unie autour d’un personnage faisant office de Führer. Les partis d’extrême droite utilisent les feux des médias pour rendre le nationalisme et la xénophobie acceptables. L’AfD, par exemple, a salué la manière dont les chrétiens-démocrates ont adopté des éléments concernant l’immigration dans leur programme. Aube Dorée, en revanche, affiche ses intentions dictatoriales. Aux États-Unis, c’est une chose que seuls les secteurs les plus extrêmes de l’extrême droite feront, alors que tout groupe qui veut courtiser le Parti Républicain ou les riches donateurs minimise l’esthétique nazie et se concentre sur l’adoption de programmes politiques assimilables dans le cadre du système démocratique. Quant aux forces paramilitaires, dans une démocratie, elles devraient être gérées par des agences de renseignement, plutôt que de travailler directement pour un parti politique. Bien que cette distinction s’estompe parfois dans certains cas sous l’administration Trump, avec des implications à la fois effrayantes et dangereuses, nous ne pouvons encore rien affirmer à propos d’un mouvement fasciste unifié, avec des paramilitaires, et qui serait sous le contrôle direct d’un grand parti politique.

Depuis le triomphe des puissances capitalistes démocratiques à la fin de la Seconde Guerre mondiale, le fascisme a été apprivoisé et mis en laisse comme un monstre de compagnie, enfermé dans la boîte à outils démocratique. Les fascistes dans l’hémisphère Nord sont utilisés pour faire passer un discours acceptable à droite, pour attaquer et intimider les marginalisés sociaux, pour fabriquer des tensions ou des crises politiques, mais on ne détache jamais la laisse. Les fascistes qui font comme si cette laisse n’existait pas finissent au tribunal, comme les dirigeants d’Aube Dorée ou encore comme ces membres survivants d’une cellule néonazie allemande qui avaient des contacts étroits avec les services de renseignement allemands mais qui ont fini par tuer un policier après ce que j’imagine être considéré par leurs supérieurs comme une traque réussie pour tuer des migrants.

Dans les pays du Sud, l’équation est un peu différente, principalement parce que le système démocratique mondial a toujours permis les dictatures dans les sociétés post-coloniales. C’était en fait la norme tout au long de la guerre froide, au cours de laquelle un gouvernement démocratique était une marque de privilège et de progrès plutôt qu’une garantie universelle. La dictature est particulièrement compatible avec les économies fondées principalement sur l’extraction de ressources comme l’exploitation minière, pétrolière, agricole et forestière. Quand le capitalisme prend la forme d’un simple pillage, il n’y a pas vraiment besoin de cultiver les valeurs de la citoyenneté. La démocratisation, par contre, a tendance à accompagner des investissements plus importants et plus complexes ainsi que des cycles locaux d’accumulation – quoique si la démocratie ne parvient pas à établir la paix sociale, la dictature puisse réapparaître rapidement. Pourtant, depuis la Seconde Guerre Mondiale, la plupart des dictatures ne se sont pas positionnées comme des adversaires à l’ordre démocratique mondial, mais plutôt comme des alliés. Suivant les signaux des États-Unis, elles se sont engagées dans la croisade contre le communisme sans se positionner comme les héritières du fascisme. C’est d’ailleurs exactement le même espace de compromis idéologique que la démocratie libérale occupait dans les années 1930 et 1940.

Against the Fascist Creep d’Alexander Reid Ross est l’une des plus ambitieuses tentatives de cartographie du fascisme sur le plan historique et théorique. Le livre retrace l’évolution des philosophies et des penseurs qui ont fini par former des mouvements fascistes en Italie et ailleurs. La recherche est vaste et intéressante, mais le cadrage souffre d’une erreur qui rend l’œuvre presque inutile d’un point de vue théorique : il prend le fascisme au sérieux en tant que mouvement philosophique. Ni Mussolini, ni Hitler, ni Franco, ni Codreanu, ni aucun des autres dirigeants fascistes n’étaient des penseurs cohérents. Ils étaient des populistes efficaces, ce qui signifie qu’ils mélangeaient et correspondaient à n’importe quel modèle de revendications, de philosophies et de visions du monde qui pouvait motiver leur base. C’est pourquoi les fascistes étaient à la fois chrétiens, païens et athées, bohémiens et esthétiques, capitalistes et socialistes, scientifiques et mystiques, rationalistes et illogiques. Cet aspect pseudo-intellectuel a été une caractéristique essentielle de l’extrême droite tout au long du XXe siècle et jusqu’à nos jours. C’est une raison de plus pour laquelle il n’est pas judicieux de s’engager avec eux dans un débat raisonné, car ils sont prêts à dire n’importe quoi pour provoquer le genre de réaction qu’ils veulent provoquer.

Il serait stupide de faire remonter le fascisme à Nietzsche et Sorel à moins d’avoir des idées derrière la tête. Sur le plan structurel et organisationnel, le fascisme a emprunté énormément à la gauche, en particulier au syndicalisme et au parti socialiste et communiste. Pourtant, ceux qui tentent de faire une généalogie philosophique du fascisme tentent toujours de le relier aux éléments les plus marginalisés des mouvements anticapitalistes ; les nihilistes, les naturalistes et les individualistes sont les souffre-douleur habituels. Ce n’est pas spécialement utile pour comprendre le fascisme ; c’est plutôt un mécanisme par lequel les gauchistes nettoient la maison et marginalisent davantage leurs critiques les plus radicaux.

Une analyse historique utile du fascisme emprunterait bien plutôt une approche économique et poserait la question suivante : à partir de quel moment les capitalistes commencent-ils à soutenir les mouvements fascistes ? Le moment où l’establishment industriel et militaire allemand décida de soutenir les nazis fut sans aucun doute un tournant pour ce petit groupe d’abrutis violents qui évolua en un immense parti capable de prendre le pouvoir. Le soutien militaire et capitaliste a également joué un rôle décisif dans le changement de l’idéologie nazie et dans l’affaiblissement de nombreuses croyances ésotériques et contestataires sur lesquelles Ross a passé tant de temps à faire des recherches.

Sans le soutien économique des capitalistes, il n’y a pas de fascisme. Les anarchistes devraient passer moins de temps sur les forums d’Alt-Right et prêter plus d’attention à ce que les capitalistes les plus influents disent sur la façon de répondre à la crise en cours. Il s’agit d’une question de priorités et non d’une critique de cette dernière activité. L’Alt-Right n’avait pratiquement aucun soutien capitaliste en dehors de la famille Mercer, des capitalistes moyens pour ainsi dire, et quand la scission s’est faite entre Trump et Bannon, ils ont clairement choisi Trump (faisant apparaître de réelles divergences entre le suprémacisme blanc démocratique et le suprémacisme blanc fasciste, comme je le disais précédemment, et comme l’auteur de Yes ! le conteste en qualifiant Trump et Bannon de « bons camarades » huit mois avant leur discorde). À l’échelle mondiale, il n’y a pratiquement aucun capitaliste qui envisage le fascisme pour résoudre ses problèmes. Et nous le saurions si c’était le cas. Dans les années 1930, Ford, Dupont et d’autres capitalistes de premier plan exprimèrent ouvertement leur admiration pour Mussolini et les groupes qui manifestaient pour faire écho aux chemises noires. Certains d’entre eux ont également pris contact avec l’armée pour discuter d’un éventuel coup d’État.

Tout indique aujourd’hui que les capitalistes apprécient Trump pour l’allégement fiscal à court terme qu’il leur a accordé, mais craignent ses guerres commerciales et désapprouvent la plupart de ses stratégies à moyen terme (ou ce qui passe pour être des stratégies dans le camp Trump), et poussent un soupir de soulagement quand il prend ses distances avec l’extrême droite. Les capitalistes joueront avec Trump tant qu’il aura ses petites mains sur les manettes. Ils se fichent de Bannon. En Europe, les investisseurs ont tremblé à chaque victoire de l’extrême droite, du Brexit à la nomination de Salvini en Italie.

Plus le capitaliste est fort, plus son engagement en faveur d’une conception politique ou une autre est faible. Les capitalistes sont réputés à la hauteur de leurs profits sous des gouvernements complètement différents. Ils feront des profits à court terme sous un gouvernement qui se suicide sur le plan politique, et des profits à long terme sous un gouvernement qui adopte une stratégie plus intelligente. Ce qu’ils ne feront pas, c’est saboter un système mondial qui leur assure la stabilité, encourager des stratégies suicidaires dans les pays dont ils sont tributaires ou entreprendre des croisades politiques qui sacrifient le profit, augmentent l’instabilité et entravent la finance et le commerce.

Curieusement, dans les années 1930, les paramètres économiques étaient souvent très similaires entre New Deal démocratique et New Deal fasciste, tous deux axés sur des programmes gouvernementaux ambitieux pour stimuler l’emploi. Cela montre comment, indépendamment de la politique politicienne, les capitalistes ont tendance à faire face simultanément aux mêmes besoins à l’échelle mondiale, et qu’ils peuvent réaliser le même grand programme économique avec une variété de modèles politiques. Les démocrates triomphants ont convaincu les capitalistes de la scène internationale d’investir dans les déficits budgétaires américains, alors que les fascistes ont désespérément essayé de faire la guerre à tous pour voler les ressources dont ils auraient eu besoin pour financer des dépenses aussi élevées. C’était clairement un jeu à somme négative, et il a mal fonctionné pour ceux qui ont parié trop lourd sur les grandes fortunes de l’Allemagne. Les capitalistes allemands, cependant, ont été exclus des marchés coloniaux par le succès des Anglais et des Français dans la Première Guerre mondiale, ils n’avaient donc pas le choix.

Combien de ceux qui crient aujourd’hui au « fascisme » se sont demandé si la situation actuelle est comparable ? La réponse est simple : ce n’est pas le cas. De même, il n’y a pas besoin d’une guerre économique entre les grandes puissances comme dans les années 1930. La destruction mutuelle que nous assurerait une guerre nucléaire supprime les avantages économiques que procure la guerre conventionnelle, la poursuite de la politique de la Guerre Froide signifie que les dépenses militaires sont perpétuellement au niveau de conflit imminent, et les multiples guerres héritées de la Guerre contre le Terrorisme donnent toute la stimulation nécessaire à une production militaire.

Suprématie blanche démocratique

Les gens doivent se sortir de la tête que la démocratie est une bonne chose. La vraie démocratie n’exclut pas l’esclavage. La vraie démocratie, c’est le capitalisme. La vraie démocratie, c’est le patriarcat et le militarisme. La démocratie a toujours comporté ces éléments. Il n’y a pas d’histoire sérieuse de la démocratie qui pourrait nous servir un exemple du contraire.

Nous avons vu, de façon dramatique, à quel point les fascistes de la rue peuvent être dangereux. Mais l’histoire des États-Unis est jalonnée de rappels sur la façon dont les suprémacistes blancs peuvent soutenir la démocratie et non le fascisme, de manière beaucoup plus systématique, lorsqu’il s’agit de se tirer d’affaire en cas de meurtre. Semblable à certains égards au mouvement du Tea Party, le KKK est né entre autre pour protéger la démocratie américaine – suprémaciste blanche depuis ses origines – des changements qui étaient indésirables aux yeux des riches blancs. Ils se sont mobilisés pour empêcher les Noirs de voter, pour empêcher les Noirs de communautariser les terres saisies aux propriétaires de plantations (et en cela ils ont été aidés par l’armée de l’Union), et pour attaquer les politiciens blancs qui tentaient de changer les relations de classe qui ont toujours prévalu dans le Sud. Ils ont essayé d’influencer les élections par divers moyens (y compris le terrorisme dans le cas du Klan et par le biais des médias dans le cas du Tea Party), mais ils ont aussi légitimé le système électoral, au lieu de chercher à en prendre le contrôle et l’éliminer.

Si on remonte aux premiers États, toutes les formes de gouvernement reposent sur une combinaison de mécanismes inclusifs et exclusifs. La démocratie prêche les droits universels et donc l’inclusion, mais elle permet aussi à l’État de déterminer qui est citoyen et donc qui obtient tous les droits. Elle prescrit certains modes d’être humain et pratique le génocide et la colonisation contre ceux qui adoptent d’autres modes. Les gouvernements démocratiques n’ont jamais concédé les droits de l’homme aux sociétés qui n’acceptent pas la propriété ou le travail obligatoire (salaire ou esclave). Les conservateurs ont tendance à être plus exclusifs et les progressistes sont connus pour être plus inclusifs, mais tous ont été responsables des guerres exterminatrices contre les formes de vie qui ne défendent pas les valeurs des Lumières patriarcales et suprémacistes des Blancs qui déterminent ce que signifie être humain.

C’est pourquoi le concept diffus de suprématie blanche dans l’histoire américaine, si différent du modèle centralisé du fascisme, est si crucial. Roxanne Dunbar-Ortiz évoque une idée similaire lorsqu’elle décrit la « manière de faire la guerre » de l’Amérique, une guerre totale et d’extermination menée par des milices volontaires de rangers colons. Il ne s’agit pas de brutalité raciste dirigée par un parti extrémiste ; il s’agit plutôt d’une aspiration commune que partagent tous les Blancs. En tant que telle, elle transcende les partis et s’épanouit dans un système démocratique.

La crise de la blancheur dans laquelle Trump a puisé provient d’une crainte profondément enracinée selon laquelle le rôle paramilitaire historique des Blancs deviendrait obsolète. Il s’agit d’une insécurité viscérale qui a fait disparaître le rôle de protagoniste que les Blancs jouaient depuis longtemps. Dans l’histoire des États-Unis, ce rôle a toujours été de soutenir la démocratie américaine, en attaquant violemment les ennemis de la nation mais aussi en définissant ce que cela signifie d’être humain et de se voir attribuer des droits. Cette forme de suprématie blanche existe même à l’intérieur de la gauche du Parti démocrate, comme un prétendu droit à déclarer si une résistance est légitime ou non en devenant des protagonistes dans les luttes des autres peuples, soit comme les dispensateurs des libertés (et des relations capitalistes de propriété) pendant la Guerre Civile et la Reconstruction, soit comme les « alliés blancs » du mouvement pour les droits civils jusqu’à aujourd’hui.

L’idéologie blanche a été développée précisément pour les contextes coloniaux où le capitalisme exigeait une activité économique décentralisée et était limité dans sa capacité à centraliser le contrôle politique : en d’autres termes, l’État colonisateur. Non seulement une suprématie blanche décentralisée et démocratique est plus efficace dans un État colonisateur, mais une itération dictatoriale ou fasciste de la suprématie blanche dans de telles circonstances est très dangereuse pour le pouvoir étatique. Le fascisme implique la suppression des éléments privilégiés de la société qui ne suivent pas la ligne du parti. Dans un État colonisateur, cela obligerait les membres progressistes de la caste des colons (les Blancs) à conclure des alliances d’autodéfense avec des éléments moins bien classés de la main-d’œuvre coloniale ou néocoloniale (personnes de couleur), menaçant ainsi la dynamique même du pouvoir qui donne vie à l’État. Voyez comment, dans les pays occupés par les nazis, des cadres progressistes et des familles riches ont conclu des alliances avec des Juifs et des anticapitalistes de la classe ouvrière pour combattre le régime, modérant temporairement leur antisémitisme et leur sentiment de classe. En fait, le mouvement partisan était si ample et si puissant qu’il était capable de vaincre les nazis militairement dans plusieurs régions et de contrecarrer continuellement leurs plans dans une grande partie du reste de l’Europe.

Au départ, les États colons ont tendance à exercer une suprématie blanche décentralisée parce qu’il s’agit de faire en sorte que tous ceux qui sont catégorisés blancs puissent reproduire cette suprématie de leur propre chef. Au fur et à mesure de leur maturité, les États colons préfèrent une organisation démocratique afin de permettre aux progressistes et aux conservateurs d’exercer la suprématie blanche à leur guise. Ce n’est probablement pas un hasard si ce qui fut peut-être la plus grande itération du fascisme dans un État colonisateur, le péronisme en Argentine, a toléré des variantes de partis de droite et de gauche et n’a pas autant insisté sur la pureté raciale que les autres mouvements fascistes, permettant ainsi la reproduction diffuse de la suprématie blanche Argentine, non soumise à la centralisation du nouveau régime.

Il est clair qu’une grande partie de l’extrême droite américaine est néo-fasciste à tous points de vue. Ils veulent transformer les États-Unis en un État ethnique blanc et en dictature. De plus, les factions traditionnellement démocratiques d’extrême droite n’ont pas hésité à travailler en coalition avec ces néo-fascistes. Cela montre l’incohérence idéologique caractéristique de l’extrême droite, cela montre aussi une exaspération à l’égard du parti républicain et des institutions démocratiques qui avaient l’habitude de maintenir un ordre suprémaciste blanc plus visible et, dans certains cas du moins, cela montre la volonté des centristes de se servir des éléments d’extrême droite dans la rue, bien qu’ils comprennent que ces derniers ont peu de chances de gagner et prévoient de les abandonner quand l’alliance ne sera plus aussi commode.

Il est possible que l’extrême-droite américaine, historiquement démocratique, puisse devenir en majorité fasciste à long terme, même si cela l’éloignerait davantage des institutions qu’elle cherche à influencer. Cependant, il y a l’opinion que les capitalistes changeront soudainement leur politique quand se produira la crise économique. Ami du Radical affirme que le fascisme est historiquement une réponse à la crise économique. C’est une erreur2.

Les échantillons et premières expressions du fascisme structuré en Italie et en Allemagne ont été des réponses aux crises politiques qui ont précédé les grandes crises économiques : le Biennio Rosso et les occupations d’usines en Italie, les différentes communes ou républiques ouvrières écrasées par les Freikorps en Allemagne. (Bien sûr, un taux de chômage élevé est apparu à la fin de la Première Guerre mondiale, mais c’est la situation explicitement révolutionnaire qui a motivé les chemises noires et les Freikorps à agir). Les mouvements fascistes étaient déjà bien développés, et déjà sous contrôle en Italie, lorsque l’effondrement économique de 1929 s’est produit. L’Angleterre, la France et les États-Unis ont souffert de la même crise économique mais n’ont pas basculé dans le fascisme ; en fait, deux d’entre eux en sont sortis parce que la nature des crises politiques auxquelles ils étaient confrontés et les stratégies locales à long terme de contrôle politique étaient différentes. Dans les pays aux perspectives géopolitiques réduites, les capitalistes ont commencé à soutenir les mouvements fascistes en réponse à une crise politique, alors que les mesures économiques qu’ils soutenaient étaient globalement similaires à celles des États démocratiques.

De nos jours, les nouvelles itérations de ce que certains appellent négligemment le fascisme ont également précédé de manière significative la crise économique de 2008.

Le creuset de la droite réactionnaire aux États-Unis remonte à la déclaration des « Guerres Culturelles » dans les années 1970. Il s’agissait avant tout d’un appel à investir dans une renaissance idéologique de droite. Après les changements progressifs des Droits Civils et de la Grande Société, la droite était structurellement puissante mais culturellement moribonde, représentée par des bandes d’arriérés aussi embarrassantes que la John Birch Society et le KKK. Plutôt que d’indiquer une orientation stratégique – ils n’en avaient pas, et le Nixon sans perspective ou le Kissinger machiavélique et sans scrupules illustrent leur faillite – ils ont identifié une faiblesse stratégique et se sont mis à bâtir leurs propres médias, réseaux culturels, groupes de réflexion et autres structures qui les aideraient à formuler une idéologie pour bâtir un nouveau consensus politique. De toute évidence, ils avaient même le soutien d’un bon nombre de léninistes devenus néoconservateurs, rebutés par la politique identitaire de la Nouvelle Gauche, et qui avaient compris les techniques pour atteindre la classe ouvrière blanche (au Royaume-Uni, il existe une tendance similaire d’anciens Trot’s tournés vers l’extrême droite, avec des discours po-business). Leur principal effort ne visait pas à accroître la puissance géopolitique américaine ou à améliorer la conduite du capitalisme, mais plutôt à se faire les champions de la malhonnêteté intellectuelle, des préjugés et des discours alarmistes. Leur priorité était de sauver certaines valeurs élitistes qu’ils associaient à l’histoire et au pouvoir américains, plutôt que de faire une distinction lucide et stratégique entre intérêts et valeurs – une erreur courante à droite. Mais les tropes qu’ils formulaient s’exportaient rapidement et devenaient une idéologie de plus en plus internationale.

Les Guerres Culturelles ont réussi pendant un certain temps à conduire le débat vers la droite, mais les mouvements antimondialisation, féministes et antiracistes ont finalement réussi à abattre toutes les vaches sacrées de la droite, même si, à gauche, on a réussi à institutionnaliser ces mouvements et limiter leur pouvoir subversif. En fin de compte, les Guerres Culturelles ont laissé aux États-Unis et dans certains pays d’Europe et d’Amérique latine des minorités enracinées et réfractaires, presque incapables d’établir un dialogue politique et des stratégies de gouvernance intelligente. Elles contribuent à la crise de la démocratie, mais n’indiquent pas de voie de sortie.

Certains soutiennent que les néo-fascistes n’ont pas besoin de renverser le gouvernement s’ils peuvent créer un système à parti unique au sein d’un gouvernement démocratique. L’Israël de Netanyahou, la Turquie d’Erdogan et la Hongrie d’Orban offrent ici des scénarios potentiels, bien que décrire un gouvernement juif comme architecte d’une nouvelle forme de fascisme soit une manœuvre risquée pour les gens qui ne sont pas absolument sûrs du choix de leurs mots. Il est difficile de trouver d’autres exemples de gouvernements démocratiques de droite qui se soient maintenus au pouvoir pendant seulement huit ou neuf ans – ce qui n’est pas une si longue période pour un parti capable de rester au pouvoir dans un système multipartite – et même avec cette faible liste, il est difficile de savoir si l’idée de système démocratique à parti unique ne relève pas simplement d’une exagération. Le fait que certains prétendent qu’un système de parti unique est déjà arrivé aux États-Unis en raison de la majorité temporaire des républicains, montre comment ils ont transformé la panique et l’impatience en valeurs analytiques.

Cela montre également la tolérance à l’égard d’un système de valeurs fondamentalement démocratique. En mettant en garde contre les dangers de tomber dans un système à parti unique, ils identifient implicitement la victoire du second parti, les démocrates, comme un moyen d’éloigner la menace, une victoire de l’antifascisme. Cela jette les bases d’un renouveau démocratique.

Mais prenons la menace au pied de la lettre : l’avantage d’un tel modèle est que l’extrême droite n’a pas à renverser le gouvernement ni à provoquer une déstabilisation. En d’autres termes, centraliser toutes les institutions et fabriquer une majorité pérenne est probablement plus facile aujourd’hui que lancer une sorte de coup d’État. L’inconvénient est qu’un système à parti unique perd presque tous les avantages d’un gouvernement démocratique, comme la récupération de la dissidence, la correction stratégique des trajectoires et l’institutionnalisation du changement et du renouveau politiques. Netanyahou, Erdogan et Orban ont tous fabriqué des majorités relativement stables, qu’ils ont renforcées par des lois récentes en référence à l’« État-nation », c’est-à-dire un référendum constitutionnel et des restrictions imposées aux ONG. Mais aucun de ces États ne fournit de modèle facilement exportable vers de plus grands pays, et ils ne s’avèrent pas non plus être des modèles économiquement performants. Les politiques de Netanyahou ont conduit à l’exode massif des Juifs progressistes, créant le genre de carcan culturel qui n’est généralement pas associé aux idées de croissance économique et d’innovation. La construction de sa majorité se fait au détriment de l’avenir d’Israël, un calcul qui n’était possible que dans un État enclavé et qui considère la géopolitique essentiellement en termes militaires. La situation est similaire en Turquie, où la guerre civile est un aspect déterminant de la politique intérieure ; c’est d’une main de fer qu’Erdogan a construit une majorité, ce qui a joué un rôle significatif dans la destruction de l’économie turque, éloignant le pays de multiples partenaires commerciaux possibles, dont l’UE. Quant à la Hongrie, où Orban a construit sa majorité sur le dos d’une population rurale notoirement xénophobe, la droite bien établie n’a qu’une portée limitée à l’échelle européenne, en tout cas comme exemple des difficultés liées à l’intégration culturelle, ou peut-être pour justifier un autoritarisme technocratique, mais non comme un modèle à suivre. Du point de vue des dirigeants de l’UE et des capitalistes européens, la Hongrie est un État perdant et gênant qui n’est en mesure de donner des conseils à personne.

Quant aux États-Unis et au Royaume-Uni, il n’y a pas de solide majorité de droite, et il est peu probable que les politiques de Trump et May marquent un changement radical dans la direction politique et économique de ces deux pays. Mais si les annonciateurs d’une menace fasciste sont convaincus que nous sommes sur la voie d’un système à parti unique, appelons ça un pari. Il est fort probable qu’ils s’apercevront de leur erreur dès 2020, mais pour que leurs sinistres avertissements soient fondés, il faudrait que ce nouveau style de politique reste à la barre pendant au moins trois mandats, avec une centralisation efficace entre l’exécutif, le législatif et le judiciaire ainsi qu’un contrôle plus serré des médias par la droite politique. Les alarmistes auront raison si Trump peut transmettre le pouvoir à un successeur en 2024, ou s’il s’avère capable d’abolir la limite constitutionnelle du nombre de mandats et d’en gagner un troisième. Cela ne se produira probablement pas : le virage actuel vers la droite sera suivi d’un virage vers la gauche, dans le pendule éternel et sidérant de la démocratie.

Renouveau démocratique

En termes de longévité parmi les pays fascistes, l’Espagne franquiste l’a emporté largement. De 1936 à 1976, le régime a survécu à ses coreligionnaires les plus belliqueux, principalement parce qu’il pouvait s’incliner devant un système mondial démocratique – en fait, Franco a reçu une aide secrète de la Grande-Bretagne dès les premiers moments du coup d’État. L’histoire de la transition espagnole vers la démocratie est de la plus haute importance pour les anarchistes, non seulement parce qu’elle s’est déroulée au milieu de l’un des plus grands mouvements de grève sauvage de l’histoire mondiale, mais parce que ce sont les fascistes eux-mêmes qui ont initié la Transition, comprenant que sous un gouvernement capitaliste démocratique, ils pouvaient tirer plus de profit et créer une structure gouvernementale plus stable et plus puissante. Plus que les victoires américaines et soviétiques de la Seconde Guerre Mondiale, cet épisode illustre la subordination définitive du fascisme à la démocratie. Lorsque les fascistes eux-mêmes réalisent qu’ils peuvent mieux atteindre leurs objectifs sous les auspices de leur ancien ennemi juré, la démocratie, le fascisme en tant que modèle de gouvernement cesse d’être pertinent3.

La Transition est aussi une étude de cas sur la façon dont la peur ou l’opposition unanime à l’apparente exception du fascisme a été systématiquement utilisée par la classe dirigeante pour renforcer le capitalisme. En Espagne, le renouveau démocratique des années 1970 et 1980 a réussi à institutionnaliser ou à réprimer des mouvements anticapitalistes très puissants. En abandonnant leurs insignes de Phalangistes et en rejoignant les libéraux ainsi que les socialistes et les communistes sous la bannière démocrate, les fascistes d’Espagne ont réussi à créer les conditions d’une croissance plus régulière du capitalisme.

Des facteurs similaires sont à l’œuvre dans les dénouements des dictatures militaires du Brésil, de l’Argentine, du Chili, de la Bolivie et, plus récemment, de la Birmanie4.

Un renouveau démocratique antifasciste n’est qu’une variante du modèle (contre-)révolutionnaire que les mouvements démocratiques ont utilisé depuis le début de la modernité :

  • faire appel aux classes populaires contre un ennemi commun (en premier lieu, l’aristocratie et l’Église) ;
  • s’appuyer sur des principes équivoques et néanmoins partagés comme les droits et l’égalité qui semblent être meilleurs que les valeurs de l’ancien système ;
  • laisser de côté les valeurs des classes sociales inférieures comme la défense des biens communs et l’auto-organisation non représentative, au motif qu’elles sont anti-modernes ou qu’elles « aliéneraient » la bourgeoisie qui, en fait, dirige toute la coalition ;
  • utiliser les classes populaires comme de la chair à canon et leurs éléments les plus radicaux comme des croque-mitaine pour effrayer les plus modérés parmi les détenteurs du pouvoir afin de les poursuivre à la table des négociations ;
  • à la table des négociations, inclure des représentants des structures institutionnelles formelles – celles qui sont capables de produire des représentants et une adhésion disciplinée et obéissante – tout en excluant les radicaux et les masses.

Tout au long des révolutions libérales des xviiie et xixe siècles, tout au long des luttes anticoloniales du xxe siècle, ce même modèle a été utilisé à maintes reprises pour désamorcer les mouvements radicaux qui menaçaient de détruire l’ordre capitaliste et interétatique, pour institutionnaliser une partie des insurgés et réprimer les autres, permettre aux capitalistes et aux dirigeants intellectuels de prendre le contrôle du gouvernement et de créer un État plus robuste, contrôlant mieux ses populations et capable de façonner les conditions d’accumulation capitaliste. Nous avons été vaincus par ce même modèle tellement de fois que nous devrions nous le faire tatouer sur le front pour y penser à chaque fois que nous nous regardons dans le miroir.

Les indices ne manquent pas pour montrer que la plupart des élites américaines, en particulier les secteurs les plus cultivés, se préparent à un renouveau démocratique majeur, en utilisant la peur de l’autoritarisme trumpien comme tactique de mobilisation.

Avant Trump, la démocratie américaine était déjà confrontée à une crise, tout comme de nombreuses autres démocraties libérales à travers le monde. Aux États-Unis, la crise a frappé les fondement mêmes du pays en tant qu’État colonisateur. D’énormes foules rejetaient énergiquement le droit de la police d’assassiner des personnes racialisées et le droit des compagnies d’extraction minières liées au gouvernement d’exploiter ou de contaminer des terres autochtones. Les expériences des Noirs et des peuples autochtones ont été au premier plan dans ces deux luttes, mais en même temps, les discours raciaux n’ont pas été utilisés efficacement pour diviser les gens et empêcher la solidarité interraciale, bien que les progressistes liés aux ONG, aux églises et au Parti démocratique aient certainement essayé.

Avec l’élection de Trump et la montée temporaire de l’extrême droite, le récit a radicalement changé. La police n’est plus sous les feux de la rampe et, bien qu’elle n’ait pas fait du bon travail en se contentant de faire jouer à ses agents le rôle de médiateurs neutres pour empêcher les escarmouches entre Nazis et Antifa, les critiques auxquelles elle doit maintenant faire face soulignent que c’est ce rôle qui doit être joué désormais, alors que lors des événements de Ferguson, on avait surtout exigé des policiers d’aller mourir.

Le nouveau récit dépeint un gouvernement corrompu, de droite, avec des liens peu recommandables avec des groupes d’extrême droite – un gouvernement qui harcèle la presse, s’associe à l’ennemi juré qu’est la Russie, se montre conciliant envers les dictateurs et attaque le libre échange.

Ce discours est idéal pour le Parti Démocrate. La solution la plus évidente est de favoriser un contrôle juridique plus rigoureux du financement des campagnes électorales et du lobbying, de faire honneur aux médias, de promouvoir l’indépendance de la justice, de protéger l’OTAN, l’ALENA, l’Union européenne et « nos » autres alliances, de cautionner une censure toujours plus sévère sur Twitter, Facebook et les plateformes similaires, et de se livrer à nouveau à une guerre froide contre la Russie. Ce n’est pas un hasard si, malgré une courte mais enthousiasmante vague subversive d’occupations aéroportuaires au tout début du mandat de Trump, les principaux protagonistes de la résistance anti-Trump ont été les juges, le FBI, la CIA, des dirigeants comme Trudeau, Merkel et Macron, des politiciens « honorables » comme McCain, les stars hollywoodiennes, les grands médias tels CNN et le New York Times.

Le nouveau conflit social réunit une large gauche pour combattre une droite dangereuse sans pour autant remettre en cause les aspects fondamentaux de l’État. Au contraire, le nouveau terrain est façonné de manière à canaliser nos efforts vers le renouveau de l’État.

Cela ne veut pas dire que la seule posture critique consiste rester sur la touche. Bien au contraire. La destruction récente de la statue de Silent Sam à Chapel Hill est l’un des nombreux exemples où des personnes ont agi avec courage et intelligence dans des circonstances difficiles pour faire reculer simultanément la droite suprémaciste blanche et subvertir la tendance pacificatrice de la gauche institutionnelle. Le contrepoint est que le spectre de Trump et de l’extrême droite rendent encore plus facile les relations de solidarité entre les gens et la dissémination de pratiques d’autodéfense et d’action directe, et cela dans beaucoup plus de situations par rapport aux rebellions anti-police qui se sont multipliées avant Trump.

Le problème est que ces nouvelles alliances sont beaucoup plus susceptibles d’être accaparées ou neutralisées par les politiciens identitaires, la gauche autoritaire et les militants des partis.

Cela ne rend pas les choses plus faciles quand de nombreux anarchistes et antifascistes adoptent pour l’essentiel la politique du Front Populaire et font le travail discursif des démocrates. Dans le même ordre d’idées, nous avons Ami du Radical qui met en garde contre un « système judiciaire corrompu », d’autres encore qui prônent les « droits de l’homme » ou même les antifascistes de Portland qui exigent que la police reçoive une meilleure formation.

Chaque fois que nous participons à des débats essentiellement gauchistes, de tels discours abondent. Cela fait partie du paysage, et dans la mesure où ces discours sont en dehors de notre contrôle, la seule question pour nous est de savoir comment y répondre efficacement, en soulignant leurs défauts sans être autoritaire ou insensible. Mais lorsque nous reproduisons ces discours pour nous intégrer, ou parce que nous avons tellement peur de la droite que nous commençons à soutenir les projets de la gauche, nous creusons nos propres tombes. Il est vital d’articuler des positions spécifiquement anarchistes en ce qui concerne les conflits sociaux plutôt que de se ruer vers les positions du plus petit dénominateur commun, précisément parce que ces positions sont formulées pour favoriser les intérêts du contrôle social – et sur le long terme, ces positions ne contestent pas la suprématie blanche.

Au centre gauche abondent les propos alarmistes quant à l’approche de la tyrannie et du fascisme. Comment comprendre qu’une grande partie du contenu d’un site anarchiste puisse être redondante par rapport aux éditoriaux de CNN et du New York Times ? Par exemple, Jeffrey Sachs écrit pour CNN sur la façon dont nous prenons le chemin de la tyrannie, ou encore les récents best sellers tels On Tyranny, de Timothy Snyder, The Plot to Destroy Democracy de Malcolm Nance, et Fascism: A Warning, de Madeleine Albright. Des entreprises de premier plan y participent également, comme Microsoft avec son nouveau Programme de Défense de la Démocratie.

On perçoit communément les démocrates comme des nullards politiques, et ils n’ont pas cette réputation pour rien. Pourtant, ils ont beaucoup plus d’influence dans la rue que nous ne voudrions l’admettre, surtout vis-à-vis des anarchistes. En 2008, le Parti démocrate a prouvé qu’il était capable de gérer un vaste mouvement populaire de rue qui a temporairement réduit au silence les initiatives plus critiques et qui a canalisé un grand déploiement d’efforts militants dans une campagne électorale. Les Marches des Femmes ont montré qu’elles n’ont pas oublié comment transformer les angoisses populaires en bases électorales. La Marche pour Nos Vies les a vus créer un mouvement dans un délai beaucoup plus court, mobilisant des centaines de milliers d’élèves du secondaire qui seront en âge de voter en 2020.

Les démocrates, dans leur grand cynisme, ont utilisé le mouvement contre la séparation des enfants pour montrer qu’ils pouvaient coopter un mouvement ayant des implications potentiellement radicales et l’utiliser pour protéger le régime frontalier auquel il s’était d’abord opposé. Les manifestations contre l’éclatement des familles immigrées et l’emprisonnement des enfants de parents sans papiers ont été organisées en partie par des ONG qui reçoivent des fonds publics pour administrer les centres de détention des immigrants. Le résultat a été que l’enfermement des familles a été présenté comme une victoire, la haine des frontières a été remplacée par la haine de l’ICE et de Trump (souvenons-nous que l’ICE peut être remplacé par d’autres agences), et tout le monde a oublié que les enfants migrants étaient également enfermés sous Obama. En fait, les tribunaux ont dû forcer l’administration Obama à cesser d’enfermer indéfiniment des familles de demandeurs d’asile – ensemble – dans des « conditions généralement déplorables » afin de dissuader d’autres demandeurs d’asile, c’est-à-dire une sorte de terrorisme léger visant à empêcher l’accès à ce qui, selon l’ordre démocratique, est censé être un droit humain fondamental. Et alors que l’administration Obama ne séparait qu’« occasionnellement » les enfants de leurs parents à la frontière, chacune des plus de 2,5 millions de personnes déportées par Obama laissait derrière elle des enfants ou d’autres êtres chers.

Les frontières séparent les familles. C’est ce qu’elles font. Et ceux qui sont en faveur des frontières, c’est-à-dire ceux qui soutiennent les États, les élections et tout ce qui va avec, peuvent soit déshumaniser les migrants, soit se réjouir des façons « humaines » de les emprisonner et de séparer leurs familles.

À l’approche des élections de novembre 2018, on nous dira que nous sommes des monstres si nous ne votons pas en faveur de frontières plus humaines, pour des assassinats policiers plus humains, pour des guerres plus humaines, pour les habituelles alliances politiques et pour les accords commerciaux néolibéraux d’usage. Ce processus s’intensifiera graduellement jusqu’à la campagne électorale de 2020, qui débute le 7 novembre prochain. Le Parti démocrate dépensera des millions de dollars pour prendre le contrôle ou réduire au silence les grandes coalitions de gauche formées au cours des deux dernières années d’organisation antifasciste et pro-immigrés. Ceux qui font valoir des positions critiques seront traités de criminels, de racistes, ou de n’importe quoi d’autre. Partageant nos terrains d’action, les militants d’ONG ont appris notre langue et ils savent comment nous neutraliser presque aussi bien que le FBI a neutralisé les Panthers dans les années 1960 et 1970.

Pendant ce temps, des dizaines de millions d’Americains, jeunes et moins jeunes, fonderont leurs espoirs sur une renaissance progressive. Les jeunes femmes migrantes rêveront d’étudier pour devenir avocates et juges dans les « tribunaux du conquérant », pour reprendre une phrase de ce juge en chef historique, John Marshall. Les étudiants radicaux se qualifieront de socialistes et iront jusqu’à préconiser l’élargissement des programmes gouvernementaux de soins de santé et la gratuité des frais de scolarité à l’université. Ils vont tous, sans le dire, conspirer pour que l’Amérique redevienne grande (great again).

Pour que ce renouvellement soit possible, le Parti démocrate devra négocier une sorte de consensus viable entre sa branche centriste et sa branche progressiste. Les progressistes qui ont remporté les primaires devront montrer qu’ils peuvent gagner des sièges en novembre 2018 ; comptons néanmoins une amélioration sérieuse de la machine populaire qui n’a pas obtenu la nomination de Bernie Sanders en 2016, et le candidat 2020 sera le représentant de la mouvance centriste. En 2016, les primaires démocrates ont surtout servi de référendum pour savoir qui était le mieux connecté à la machine du parti, et non savoir qui avait les meilleures chances de battre les républicains. Si les démocrates sont tout aussi stupides et ne privilégient pas les critères qui leur donneront des chances de gagner, ils risquent de perdre coup sur coup deux élections pourtant acquises d’avance. S’ils se réveillent, ils nommeront quelqu’un de charismatique capable de faire un signe de tête dans le sens des programmes progressistes qui motiveront une base activiste. C’est particulièrement crucial si l’on considère deux facteurs : le déclin toujours plus vif de la participation électorale des plus jeunes et, pour ceux des moins vieux qui votent néanmoins, une forte inclination à gauche. En favorisant des candidats centristes sans perspective qui découragent les électeurs progressistes, les démocrates se suicident politiquement, utilisant une arithmétique pro-centre qui ne s’applique plus à la réalité sociale actuelle.

Si l’économie commence à s’écrouler avant novembre 2020, les Démocrates recevront une aide supplémentaire, peut-être même qu’elle les rendra hermétiques à la stupidité aussi bien que Trump s’est lui même judicieusement rendu hermétique aux controverses. Ils devront travailler dur pour ne pas gagner en 2020, et s’ils le font, ils s’engageront immédiatement dans un volte-face musclé de la politique américaine. La fin des tarifs douaniers, des relations plus étroites avec l’UE, un retour tardif à l’accord de Paris, une riposte contre l’influence russe au Moyen-Orient, un dégel en Iran, une politique moins agressive concernant les limites imposées à la Chine, une tentative hypocrite pour diffuser une propagande démocratique cohérente et stimulante. Sur le front intérieur, si la majorité du Congrès le permet, ils chercheront à réformer le système de santé – soit en consolidant le Obamacare, soit en mettant en œuvre quelque chose qui a du sens – et à légaliser en masse les migrants, tout en renforçant davantage les mécanismes frontaliers et les expulsions.

Par-dessus tout, ils vendront le rêve d’un patriotisme inclusif, une vision que les médias grand public essaient déjà de véhiculer. Cela nous rappelle le gouvernement SYRIZA en Grèce, le plus progressiste de toute l’Europe, qui, en plus d’avoir mis en place les mesures d’austérité les plus sévères, s’est également distingué en étant encore plus militariste que ses prédécesseurs conservateurs.

Avec le temps, les circonscriptions démocrates continueront probablement à se réorienter en faveur de la faction progressiste qui pourrait présenter un candidat d’ici 2028. Bien sûr, si l’effondrement économique est aussi grave qu’il pourrait bien l’être, toutes leurs politiques porteront sur ce sujet, se limiteront à cela et à la tourmente géopolitique qui ira avec.

Pendant ce temps, l’infra-majorité fantôme de Trump va continuer à s’affaiblir. Les tranches d’âge qu’il a conquises commencent à 65 ans, de sorte qu’un nombre croissant mourront chaque année, et à moins que les progressistes ne commencent soudainement à perdre les Guerres Culturelles, ces groupes d’électeurs ne se renouvelleront pas vite. Pendant un certain temps, toutefois, ils diviseront fatalement les circonscriptions républicaines, forçant ce parti à trouver un équilibre en devant concilier deux factions polarisées, dont aucune ne sera franchement motivée à soutenir l’autre aux élections (surtout maintenant que l’objectif de la majorité à la Cour suprême ne joue plus).

Si d’une manière ou d’une autre les républicains gagnent en 2020, soit ils reviennent en arrière (par exemple, en remplaçant un Trump destitué par un Pence), soit ils vont se raffermir autour de leur destruction de l’hégémonie politique américaine et sa domination économique. Le programme de Trump, tel qu’il est, n’est pas « revanchard » comme l’ont prétendu par hyperbole certains antifascistes ; plutôt que d’essayer de retrouver le rôle dominant de l’Amérique dans le monde, il le détruit en fait. Dans un avenir alternatif où les États-Unis sont économiquement déprimés, géopolitiquement has-been, et où les républicains trumpistes continuent de gagner, on pourrait imaginer les possibilités pour davantage de mouvements fascistes, mais que feraient tous les capitalistes américains extrêmement puissants durant toutes ces années intermédiaires en voyant leurs fortunes s’évaporer ? Ils feraient tout ce qu’ils pourraient pour l’empêcher, comme ils ont déjà commencé à le faire, ainsi qu’en témoignent nombre d’entreprises américaines parmi les plus importantes qui s’élèvent régulièrement contre les politiques de Trump. Encore une fois, cela contredit l’affirmation antifasciste simpliste selon laquelle la récession économique est synonyme d’une montée du fascisme. C’est beaucoup plus compliqué que cela : parfois, les crises économiques poussent les capitalistes à soutenir davantage la démocratie, pas moins, comme ce fut le cas en Espagne dans les années 1970 et comme c’est le cas aujourd’hui.

Dès lors, face à la résurgence de la droite et à la possibilité encore plus grande de voir une gauche triomphante, la question pour les anarchistes est la suivante : quelles sont les positions qui vont au cœur du problème, peu importe qui est au pouvoir, tout en se concentrant aussi sur les détails concrets qui expliquent comment le pouvoir étouffe les peuples ?

Il n’est pas si difficile de trouver un moyen de s’opposer au pouvoir de l’État et à la violence raciste, de manière à ce que nous soyons prêts, aptes et sur pieds, peu importe qui gagne en novembre, et de nombreux anarchistes font exactement cela. En tant qu’anarchistes, nous lutterons toujours contre les frontières, contre le racisme, contre la police, contre la misogynie et la transphobie, et nous serons donc toujours en première ligne contre toute résurgence de la droite. Mais les frontières, la police, la pérennisation des institutions coloniales, la régulation du genre et de la famille ne sont-elles pas aussi des éléments fondamentaux du projet progressiste ?

La principale hypocrisie des progressistes réside souvent dans leur soutien tacite à la répression, cette chaîne ininterrompue qui relie le fasciste le plus vicieux à la gauche la plus humaniste. C’est pourquoi, au cœur de toute coalition avec la gauche, il est logique que les anarchistes mettent l’accent sur la grève des détenus (NdT. : août-sept. 2018) et amènent la question de la solidarité avec les prisonniers militants des luttes anti-pipeline et les ceux des soulèvements anti-police. S’ils veulent protéger l’environnement, appuieront-ils Marius Mason et Joseph Dibee ? S’ils pensent que la construction d’un plus grand nombre d’oléoducs et de gazoducs à ce stade avancé du réchauffement de la planète est inadmissible, se joindront-ils aux mouvement des Water Protectors ? S’ils détestent le racisme policier, vont-ils soutenir ceux qui sont encore emprisonnés après les soulèvements à Ferguson, Baltimore, Oakland et ailleurs, principalement des Noirs qui se battent en première ligne contre la violence policière ?

Une telle approche permettra de séparer les agents du Parti Démocrate d’un côté et de l’autre les militants sincères des mouvements en faveur de l’environnement, de la solidarité avec les migrants et du mouvement « Black Lives Matter ». Elle remettra également en question l’illusion que de nouveaux politiciens résoudront ces problèmes et généralisera le soutien aux tactiques d’action directe et d’autodéfense collective.

Socialisme démocratique ou technocratique

Rien n’est éternel, et même si les stratégies démocratiques de gouvernance et d’exploitation sont peut-être le plus grand danger actuel, cela ne signifie pas qu’il en sera de même demain. La démocratie en tant que pratique gouvernementale incapable de réaliser ses idéaux est en crise aux États-Unis et dans de nombreux autres pays, et la démocratie en tant que structure de coopération interétatique et d’accumulation de capital fait également face à une crise au niveau mondial.

En raison de sa crise interne, la démocratie ne parvient pas à capter les aspirations de ses sujets. Les types d’égalité qu’elle garantit sont pour la plupart insignifiants ou pernicieux, et les avantages diminuent à mesure que l’on descend dans l’échelle sociale. Le régime démocratique n’a pas réussi à créer des sociétés justes et n’a pas réussi à combler l’écart qui se creuse entre les nantis et les démunis. Il a fini par devenir un autre système aristocratique, pas meilleur que ceux qu’il a remplacés.

Cela signifie que la démocratie est en train de perdre sa capacité novatrice de récupération des résistances. Mais jusqu’en 2008 environ, les membres de l’élite néolibérale se souciaient à peine de la résistance. Ils pensaient qu’ils avaient si bien vaincu et enterré les potentiels révolutionnaires qu’ils n’avaient plus besoin de faire semblant, plus besoin de jeter des cacahuètes à la foule. Au fur et à mesure que les années 1990 et 2000 avançaient, ils sont devenus de moins en moins discrets dans leur croisade pour concentrer la richesse dans un nombre de mains toujours plus faible, tout en détruisant l’environnement et en marginalisant une partie toujours plus importante de la population. Maintenant qu’ils ont révélé leur vrai visage, il faudra un certain temps pour que les gens oublient avant de pouvoir à nouveau succomber à leurs sirènes, et ce manque de confiance dans les institutions publiques arrive à un mauvais moment pour les pays autrefois hégémoniques de l’OTAN et leurs alliés.

Cela souligne à quel point les radicaux font preuve d’un court-termisme frustrant lorsqu’ils cherchent à restaurer la valeur séduisante de la démocratie en parlant de ce à quoi devrait ressembler la « vraie démocratie » : c’est comme l’histoire de cet ingénieur pendant la Révolution française dont la vie est épargnée au dernier moment alors que la guillotine se bloque, jusqu’à ce qu’il lève les yeux et dise « je pense voir votre problème ».

Si la crise mondiale de l’ordre démocratique atteint son point culminant avant que le potentiel de séduction de la démocratie ne soit renouvelé, il leur sera d’autant plus difficile d’empêcher les mouvements révolutionnaires de devenir de véritables menaces. Cette deuxième crise s’articule autour de l’effondrement en cours des mécanismes politiques interétatiques qui sont de moins en moins en mesure de tempérer les conflits, et de l’effondrement économique imminent qui menace de fermer le banquet autour duquel la plupart des États du monde s’agglutinent, cherchant à coopérer en faisant valoir les possibilités de croissance économique dont ils sont tous dotés.

Les problèmes multiples et toujours plus nombreux du système mondial conçu par les États-Unis ont en effet conduit de nombreux experts économiques et de gouvernement à envisager de modifier le système démocratique actuel. Différentes propositions pour résoudre la crise interne de la démocratie comprennent le passage à une démocratie plus délibérative ou participative, le passage à la démocratie numérique ou électronique, comme moyen de recouvrer la participation civique des masses ; ou de relier à nouveau les aspects socio-économiques à l’égalité politique et de contrôler le pouvoir cumulatif de l’élite. Ce courant a décidément peu d’influence sur les institutions et les décideurs politiques. Autrefois défendues par les idéalistes de la science politique, qui étaient très lus mais peu connectés, ces idées ont depuis migré vers la rue, et sont aujourd’hui principalement évoquées par des acteurs du secteur des technologies qui pensent que leurs nouveaux gadgets peuvent révolutionner le gouvernement – en présumant sans réserve que les mauvais résultats des gouvernements ont été les conséquences des limitations technologiques – et par des partis progressistes en Europe et en Amérique latine, qui exercent surtout leur influence au niveau municipal.

La plupart des chercheurs et des groupes de réflexion politiquement connectés adoptent l’approche inverse : la participation civique de masse est un objectif irréaliste ou indésirable, et beaucoup accablent même la plèbe du déclin de la démocratie. Une contre-proposition consiste à doubler la démocratie représentative et à résoudre la crise par la consultation de « mini-publics » qui remplacent la participation civique de masse. Cette dernière, en tant que contrôle institutionnel du pouvoir de l’élite, ne serait plus un objectif réaliste selon les promoteurs. D’autres parlent de la nécessité d’un plus grand professionnalisme et d’une amélioration structurelle des intermédiaires (partis politiques et groupes d’intérêts), une sorte d’hybride entre la démocratie et des politiciens professionnels de la représentation. Mais comme la première crise porte autant sur la perception que sur les résultats, il est peu probable que les chercheurs collet monté qui se méfient profondément du public sachent comment la résoudre, quelle que soit la qualité de leurs données.

Cependant, il n’y a aucune raison pour que ces deux courants ne puissent être combinés : des référendums plus populaires et des sondages numériques à l’échelle municipale ; une plus grande professionnalisation, des évaluations technocratiques et une amélioration structurelle des partis politiques à l’échelle nationale. Les premières dispositions amélioreraient la confiance du public et le sentiment d’autonomisation, les secondes réduiraient l’incompétence et empêcheraient des changements populistes désastreux et soudains dans les choix politiques. Le plus grand obstacle à de tels changements stratégiques est la culture politique, l’inertie institutionnelle d’un système complexe déjà en place depuis plusieurs décennies. Considérez l’impossibilité pratique d’aller au-delà d’un système bipartite aux États-Unis et considérez que dans la plupart des pays, toute modification de la structure des partis politiques et autres intermédiaires, au-delà d’une simple réforme du financement des campagnes électorales (déjà mise en œuvre dans de nombreuses démocraties), exigerait des réformes constitutionnelles bien difficiles à réaliser.

Quant à la deuxième crise, il semble y avoir beaucoup moins de débats. Les journaux économiques occidentaux font état d’un consensus presque complet sur la nécessité de rejeter le nationalisme économique et de rétablir « l’ordre commercial multilatéral régi par des règles que les États-Unis eux-mêmes ont créé ». Les seules voix en faveur du nationalisme économique sont celles de certains écologistes peu influents sur le plan politique ; celles des restes de l’antimondialisme péroniste de gauche en Amérique latine, longtemps éclipsés par des courants néolibéraux endogènes suivant les signaux de Lula et compagnie ; et celles de certains politiciens réactionnaires de l’hémisphère Nord qui ne comprennent rien à l’économie et sont arrivés au pouvoir uniquement parce qu’ils étaient les premiers en ligne pour appliquer des récentes innovations en analyse de données que les politiciens plus centristes, certains de leur succès, n’avaient pas encore exploitées5. L’élite des entreprises voit unilatéralement le nationalisme économique comme un risque – une mauvaise chose – et organise actuellement un débat sur la façon dont « les compagnies multinationales doivent surmonter les sentiments protectionnistes des consommateurs et des organismes de réglementation gouvernementaux et réinventer leurs modèles de responsabilité sociale des entreprises ».

Il n’y a qu’une seule exception importante à ce consensus, et en réalité la seule véritable alternative à l’ordre démocratique actuel : la technocratie, qui est parfois assimilée à un nationalisme économique sans rapport avec celui proposé par des gens comme Bannon.

L’État chinois est le principal modèle et promoteur d’un tel système, bien que des discussions franches aient également eu lieu à ce sujet en Occident. L’Union Européenne constitue un hybride entre un modèle technocratique et un modèle démocratique, bien qu’elle ne puisse préconiser une telle hybridation, car reconnaître un fossé entre démocratie et technocratie serait en contradiction avec l’identité fondamentale de l’UE.

Un système technocratique laisse les décisions politiques à des experts désignés qui graviront les échelons, soi-disant en fonction des performances ; les nominations sont effectuées par l’institution elle-même, comme dans une université, et non par consultation avec le public. La plupart des dirigeants du Parti Communiste chinois, par exemple, sont des ingénieurs et autres scientifiques. Cependant, il serait naïf d’ignorer qu’ils sont d’abord et avant tout des politiciens. Ils doivent simplement répondre à la dynamique interne du pouvoir au lieu de consacrer leur efficacité pour le grand public.

Aux États-Unis, la très importante Réserve Fédérale fonctionne de manière technocratique, bien qu’elle soit subordonnée au leadership démocratique. Les éléments technocratiques de l’Union européenne, tels que la Banque Centrale Européenne, jouissent d’un pouvoir décisionnel beaucoup plus important et sont souvent capables de dicter des conditions aux gouvernements démocratiques des États membres. Cependant, l’UE a pris soin de profiter de la vieille distinction libérale entre politique et économie : en reléguant la technocratie à une sphère prétendument économique, l’UE maintient son engagement obligatoire envers la démocratie.

L’une des principales faiblesses de la démocratie occidentale qu’un système technocratique peut renforcer est la tendance à des changements politiques soudains et irrationnels qui correspondent à une tentative populiste de prendre le pouvoir. Quelqu’un comme Trump peut présenter une demande fondée sur des renseignements erronés qui, malgré tout, correspondent aux expériences vécues par une partie de l’électorat – par exemple, l’ALENA a fait du tort à un grand nombre de personnes, mais les raisons à cela et les effets de la solution de rechange proposée sont très différents de ceux que Trump a avancés. Au gouvernement, la condition sine qua non pour mettre en œuvre son programme est de prendre le contrôle des instruments du pouvoir. Dans un système démocratique, pour obtenir le contrôle de ces instruments, il faut réussir à attirer la majorité de l’électorat par le biais des filtres élitistes des médias corporatistes et du financement des campagnes électorales. Pendant longtemps, les partis y sont parvenus en faisant la distinction entre discours populaires et discours professionnels. En d’autres termes, ils ont régulièrement menti aux masses sur ce qu’ils allaient réellement faire, contribuant année après année à la crise de la démocratie. Les populistes comme Trump ont signalé qu’ils rompraient avec ce modèle en brisant toutes les autres règles de la politique respectable. Le problème (du point de vue de l’État) est qu’une telle stratégie est efficace pour gagner un vote mais pas pour défendre les intérêts des institutions gouvernementales.

Les systèmes technocratiques résolvent ce problème en supprimant la boucle de rétroaction non pertinente de l’électorat, en basant l’accès au pouvoir directement sur la performance des stratégies qui vont amplifier le pouvoir. Ce faisant, les technocrates se protègent aussi théoriquement du risque de mauvais dirigeants. Des dirigeants stupides et charismatiques sont la marque de la démocratie, mais le danger qu’ils représentent pour le système est neutralisé par des conseillers intelligents et peu charismatiques qui les tiennent en laisse. George W. Bush et Ronald Reagan étaient des exemples parfaits et fonctionnels de ce modèle. En rompant la laisse, Trump a démontré qu’il ne s’agit pas d’une composante structurelle importante du gouvernement démocratique, et donc d’un point faible potentiel.

Un autre avantage des systèmes technocratiques est leur capacité à centraliser les intérêts. Dans tout système démocratique, il existe de nombreux intérêts divergents qui rendent le consensus difficile, ce qui peut mener à une politique partisane, polarisée et retranchée. Pendant l’âge d’or de la démocratie, il y avait un consensus parmi les élites sur les stratégies fondamentales de la gouvernance. Aujourd’hui, nous constatons de plus en plus une divergence des intérêts de l’élite et l’incompatibilité des différentes stratégies de gouvernance. Un système technocratique utilise le pouvoir massif de l’État non pas pour créer un terreau sur lequel les capitalistes peuvent prospérer, mais pour ordonner stratégiquement les opérations du capital dans une trajectoire convergente. Ces dernières années, l’État chinois a arrêté, emprisonné et fait disparaître des milliardaires qu’il accuse de corruption, ce qui signifie qu’il agit en dehors du contrôle du Parti sur le marché, s’engageant dans une planification économique alternative ou autonome.

Sur le plan géopolitique, le modèle technocratique chinois a un certain avantage. Pays après pays et entreprises après entreprises se sont pliés aux exigences de Pékin et ont cessé de reconnaître Taiwan comme un pays indépendant. Non seulement la Chine est une grande économie, mais elle a une plus grande capacité de tirer parti de l’accès à cette économie à des fins politiques, en combinant une plus grande centralisation avec une approche stratégique rationalisée qui exclut la séparation de la politique et de l’économie.

Cependant, il y a beaucoup de mythes autour de la gouvernance technocratique. On ne peut pas avoir un gouvernement purement « scientifique » parce que « intérêts objectifs » est une contradiction dans les termes. L’empirisme pur ne peut pas reconnaître quelque chose d’aussi subjectif que les intérêts ; c’est pourquoi les organes scientifiques doivent fabriquer des idéologies discrètes déguisées en présentations neutres des faits, puisqu’il n’y a aucune activité humaine, et certainement aucune recherche et développement bien coordonnée, sans intérêts. Pourtant, les gouvernements ne sont rien sans les intérêts. Ils représentent, à leur niveau le plus rudimentaire, la concentration d’une grande quantité de ressources, de pouvoir et de potentiel de violence dans le but de satisfaire les intérêts d’un groupe spécifique de personnes. La relation devient de plus en plus complexe au fur et à mesure que les gouvernements deviennent plus complexes, avec différents types de personnes qui développent des intérêts différents à l’égard du gouvernement, avec des institutions qui produisent des subjectivités et, par conséquent, façonnent la conception qu’ont les gens de leurs intérêts ; mais le caractère central des intérêts demeure, tout comme le fait que le pouvoir hiérarchique empêche le discernement en dehors d’une réalité très étroite, et une si grande insensibilité combinée à une telle puissance est une recette implacable qui engendre une stupidité sans précédent.

On peut citer à titre d’exemple le barrage des Trois Gorges, peut-être le plus grand exploit de construction du xxe siècle, et certainement un symbole de la capacité du Parti Communiste Chinois à mener à bien une planification stratégique qui sacrifie les intérêts locaux au profit d’un présumé plus grand bien. Mais le barrage a causé tellement de problèmes démographiques, environnementaux et géologiques qu’ils pourraient l’emporter sur les avantages de la production d’énergie. La principale motivation pour la construction du barrage était probablement l’orgueil – l’État se prélassant dans son pouvoir technocratique – plus qu’une juste estimation des avantages du barrage.

Les politiques de pouvoir peuvent également jouer un rôle dans la crise du crédit en Chine. Les petites entreprises ont du mal à obtenir des prêts du système bancaire chinois, qui a traditionnellement favorisé les entreprises publiques, les grandes entreprises ou les entreprises affiliées politiquement. Ces petites entreprises se sont donc tournées vers de nouvelles plateformes de prêts entre pairs, dont beaucoup ont été démantelées ou fermées par le gouvernement, entraînant une perte considérable en épargne. Le problème prend des dimensions supplémentaires si l’on considère l’importance des nouvelles entreprises dans l’économie américaine au cours des deux dernières décennies : pensez à Apple, Google, Amazon, Facebook. On peut soutenir que seules ces entreprises permettent aux États-Unis de conserver leur première place dans l’économie mondiale. Et si des start-up technologiques comme Didi et Alibaba ont joué un rôle important dans la croissance économique chinoise et ont également réussi à gravir les échelons pour recevoir un soutien vital de l’État, elles n’ont pas encore démontré les capacités d’innovation de pointe qu’un leader mondial devrait avoir. Elles ne peuvent peut-être être perçues que comme des copies d’entreprises occidentales bien implantées, n’ayant pu recevoir de financement qu’après que les occidentaux aient démontré l’importance de ces firmes. Si cela est vrai, cela n’augure rien de bon pour la capacité du capitalisme d’État chinois à créer un climat qui favorisera une innovation plus avant-gardiste que les États capitalistes occidentaux.

L’Union européenne a aussi des problèmes avec la technocratie. Outre les rébellions temporaires provoquées par l’autoritarisme de la Banque Centrale, la menace existentielle numéro un de l’UE à l’heure actuelle peut être attribuée au Règlement de Dublin, un accord européen précoce, peu examiné au moment de sa signature, qui prévoit que les migrants peuvent être renvoyés vers le premier pays européen où ils sont entrés. Ordinairement, en plus d’intimider leurs homologues les plus pauvres, les plus important États membres de l’UE (Allemagne, Royaume-Uni, France, Benelux) protègent leurs industries stratégiques tout en dictant quelles industries les plus pauvres doivent se développer ou abandonner. Et si les pays méditerranéens ont pu tolérer d’être transformés en colonies à dette et en enfers touristiques, ils n’ont pas été aussi tolérants à l’égard de la politique d’immigration, ce qui donne aussi à leurs dirigeants un bouc émissaire pour les deux premiers problèmes. La politique d’immigration de l’UE est un dumping évident pour la Grèce, l’Italie et l’Espagne et, dans une moindre mesure, pour la Pologne et les autres États frontaliers. Ce sont ces pays qui peuvent le moins se permettre d’alourdir le fardeau de leurs services sociaux, l’Allemagne s’accaparant les migrants les plus instruits et renvoyant les plus pauvres vers les États frontaliers. Cette politique a été la cause principale de toutes les menaces de droite qui pèsent sur l’intégrité de l’UE. Bien qu’elle soit le produit de planificateurs technocrates, elle reflète la même arrogance qui accompagne toute politique de pouvoir.

Il y a aussi la question de la résistance. Le gouvernement chinois fait le pari qu’il a le pouvoir technologique et militaire de neutraliser tous les mouvements de résistance, de façon permanente. S’il se trompe, il risque l’effondrement politique total et la révolution. Les gouvernements démocratiques jouissent d’une plus grande souplesse, car ils peuvent détourner les mouvements dissidents vers des réformes qui rajeunissent le système, plutôt que de les contraindre au silence ou à exploser. Les institutions démocratiques européennes ont prouvé que ce mécanisme de soupape de pression fonctionne toujours, les partis progressistes empêchant la croissance des mouvements révolutionnaires en Grèce, en Espagne et en France. Ensuite, il y a le problème de la continuité. En concentrant tant de pouvoir en la personne de Xi Jinping, l’État chinois s’attaque au problème séculaire de la succession : comment transmettre le pouvoir à un dirigeant qui a les bonnes compétences ?

Le modèle technocratique n’est donc pas franchement supérieur. Même si c’était le cas, les puissances occidentales auraient du mal à l’accepter sous une forme qui ne soit pas hybride. Cela nous ramène à la suprématie blanche et à sa centralité dans le paradigme occidental. La démocratie joue un rôle fondamental dans la mythologie de la suprématie blanche et dans les prétentions implicites des progressistes blancs à être supérieurs aux autres. S’appuyant sur les racines mythiques de la démocratie dans la Grèce antique, les Blancs peuvent se considérer comme les fondateurs de la civilisation et donc les meilleurs tuteurs pour les autres sociétés dans le monde. Les paranoïas orientalistes sont basées sur l’idée que les civilisations orientales sont associées à l’autocratie et le despotisme. Sans cette opposition, l’estime de soi occidentale s’effondre.

En fait, l’État chinois se réclame de la démocratie, de la justice, de l’égalité et du bien commun, de manière tout aussi valable que les États occidentaux. Mais ces prétentions sont validées dans un paradigme différent de celui que les élites occidentales utilisent pour justifier leurs propres défaillances. La démocratie chinoise s’inspire à parts à peu près égales du léninisme et d’une approche confucianiste de l’art politique. Dans ce modèle, le Parti consulte les groupes politiques minoritaires et les groupes d’intérêt avant de rédiger une déclaration consensuelle jugée dans l’intérêt général. Cette conception ne se traduit pas bien dans un paradigme libéral occidental. Les classes dirigeantes occidentales ne peuvent être convaincues par un tel modèle ; elles se sentent menacées par la perspective de la domination chinoise, même si elles croient en leur propre hypocrisie.

La concurrence entre l’OTAN et la Chine revêt de plus en plus ces nuances culturelles. Mais à mesure que les conflits géopolitiques entre les États-Unis, la Russie et la Chine continuent d’éroder les institutions interétatiques existantes, les querelles actuelles pourraient représenter un revirement plus radical vers une confrontation entre différents modèles de gouvernance à l’échelle mondiale.

La tendance que nous avons évoquée plus haut, par laquelle de nombreux pays ont changé leurs relations diplomatiques de Taiwan à la Chine, a une signification qui va au-delà du sort de l’île autrefois connue sous le nom de Formose. Bon nombre des pays qui se sont conformés aux exigences de Pékin sont de petits pays des Caraïbes et d’Amérique centrale historiquement inféodés aux États-Unis. Le fait qu’ils s’éloignent de Taïwan symbolise également un certain refroidissement de leurs relations avec les États-Unis eux-mêmes. Dans le système émergent, ils ont des alternatives, et ces alternatives érodent la domination américaine, non seulement en Amérique centrale, mais aussi dans un certain nombre de points chauds géopolitiques. Comme l’a dit M. Erdogan en réponse aux tentatives classiques des États-Unis de renforcer leur politique étrangère, « avant qu’il ne soit trop tard, Washington doit abandonner l’idée fausse que nos relations peuvent être asymétriques et accepter le fait que la Turquie a des alternatives. »

L’Arabie saoudite a fait preuve de la même sensibilité vis-à-vis de la situation géopolitique en expulsant l’ambassadeur du Canada et en suspendant les accords commerciaux après une énième critique à propos des Droits de l’Homme, vu que les réprimandes hypocrites typiques des pays occidentaux ont toujours laissé place au déroulement habituel des affaires. L’assassinat du journaliste dissident Khashoggi par la Couronne saoudienne et la réaction des gouvernements occidentaux montrent également que les règles sont en cours de réécriture. Certains acteurs tentent de modifier leurs prérogatives, tandis que d’autres reculent. Le rôle que joue l’État turc, qui tire astucieusement parti de la controverse à son profit, illustre à quel point tout est à sa portée dans cette situation : chaque alliance et chaque pays peut améliorer sa position, ou la perdre.

Les critiques véhémentes de la Chine à l’égard du racisme suédois, après l’humiliation relativement mineure d’un petit groupe de touristes chinois, sont également significatives. La critique est valable, mais son contenu n’est pas pertinent dans la mesure où l’État chinois aurait pu critiquer de la même manière des attaques beaucoup plus graves contre les voyageurs et les migrants chinois à travers l’Occident depuis plus de cent ans. Ce qui a changé, c’est qu’un État de l’hémisphère Sud remet en question la supériorité morale de l’Occident, frappant au cœur même d’une Scandinavie auto-satisfaite, et cet État associe la critique à une menace économique : la Chine a doublé sa réprimande d’un avertissement à ses citoyens contre le tourisme en Suède, et des campagnes ont également été menées pour boycotter des produits suédois.

Si l’État chinois devenait l’architecte d’un nouveau cycle mondial d’accumulation, il aurait besoin d’un système de relations interétatiques compatible avec le modèle technocratique de régulation de son capitalisme d’État. Tout porte à croire qu’il chercherait la stabilité mondiale en plaçant explicitement les droits de l’État au-dessus de tout autre type de droits. Cela signifierait que si la Turquie voulait raser tout le Bakur, si l’Arabie saoudite voulait complètement réduire en esclavage ses employés de maison, si la Chine voulait emprisonner un million d’Ouïghours dans des camps de concentration, ce serait leur prérogative et l’affaire de personne d’autre. Il s’agirait d’une stratégie efficace pour créer plus de bonne volonté et une coopération économique sans entrave entre les États avec, au fondement du droit, la puissance militaire. Cela ne nous choquerait pas non plus qu’une telle conception émane du Parti Communiste, qui a depuis longtemps adopté l’idée jacobine que la fin justifie les moyens.

La CIA est intervenue dans le discours public pour avertir le monde que la Chine veut remplacer les États-Unis en tant que superpuissance mondiale. Afin de faire passer cela pour une mauvaise chose, ils doivent suggérer que le monde est mieux en tant que protectorat américain qu’en tant que protectorat chinois. Selon un agent : « moi aussi, je suis optimiste que dans la bataille pour les normes, les règles et les standards de comportement, l’ordre national libéral est plus fort que les standards répressifs promulgués par les Chinois. Je suis sûr que les autres ne voudront pas souscrire à ça. »

En toute transparence, les États-Unis doivent convaincre le monde que le modèle démocratique peut fournir un meilleur système interétatique. Mais malgré plus d’un siècle de propagande occidentale, le produit se vend difficilement. Les populistes comme Trump affichent délibérément les faiblesses du système démocratique et sapent les alliances occidentales à leur moment le plus critique depuis 1940 – et même à leur apogée, la démocratie a donné des résultats décevants. Les États-Unis sont réputés pour leur racisme systémique et leur injustice. Avec tous les Brixton et Tottenham, le Royaume-Uni montre qu’il est dans la même voie, et la vague croissante de mouvements d’extrême droite à travers l’Europe montre que les démocraties libérales, de la Suède à l’Italie, n’ont jamais été moins racistes que les États-Unis, comme elles aimaient à le croire. Au moment où des personnes de couleur ont gagné en visibilité dans ces sociétés, des citoyens supposés éclairés se sont jetés dans les bras de partis xénophobes et d’extrême droite. Même l’extrême gauche allemande a commencé à adopter des positions ouvertement anti-immigrés.

Dans les pays du Sud, où les puissances occidentales prêchent depuis longtemps la démocratie comme la panacée alors même qu’elles continuent à soutenir les dictatures militaires, les résultats ont été décevants. Dans toute l’Amérique du Sud, la gouvernance démocratique n’a fait que cristalliser la polarisation sociale causée par le capitalisme et le néocolonialisme, et a tout ramené au niveau d’instabilité qui amené les dictatures militaires au devant de la scène6. En Birmanie, un pays qui a longtemps été une grande cause des démocrates et des pacifistes, la conseillère d’État lauréate du prix Nobel n’a pas été au pouvoir plus d’un an avant que son gouvernement ne commence à commettre le génocide contre les Rohingyas et à persécuter les journalistes dissidents. Mais quelle démocratie n’a jamais commis un petit génocide, n’est-ce pas ?

Ailleurs, la supériorité morale que les médias et les institutions gouvernementales occidentaux ont tenté de propager contre la prétendue menace chinoise a été tout aussi creuse. En réponse à la concurrence économique croissante en Afrique, longtemps réservée à l’arrière-cour de l’Europe, les articles de presse se sont enchaînés. Il déploraient la pratique chinoise des prêts prédateurs, et la manière de refourguer aux pays pauvres d’Afrique, et du Sud en général, des infrastructures inutiles tout en s’appropriant tous leurs services publics, leurs ressources et leurs futurs intérêts lorsque ces pays ne peuvent rembourser leurs dettes.

Le New York Times décrit la sujétion à la dette chinoise de la Malaisie et salue le gouvernement local pour avoir supposément tenu tête à cette pratique. Ils vont jusqu’à parler d’une « nouvelle version du colonialisme ». Ce n’est pas faux : il n’y a eu qu’un siècle sur les vingt derniers (1839-1949) où la Chine n’était pas une puissance coloniale ou impériale avec sa propre forme de supériorité ethnique. Le colonialisme a eu de nombreux visages en plus du modèle racial particulier qui a évolué dans le commerce triangulaire de l’Atlantique. Une pratique anticoloniale véritablement mondiale ne peut se limiter à une compréhension eurocentrique de la race ou à une opposition simpliste qui place tous les blancs d’un côté et tous les gens de couleur de façon homogène de l’autre.

Ce qui est en fait inexact dans le New York Times, c’est que cette « nouvelle version du colonialisme » a été développée par les États-Unis dans les décennies suivant la Seconde Guerre Mondiale. Quiconque connaît les critiques du mouvement antimondialisation et altermondialiste sait que ce sont les institutions de Bretton Woods créées aux États-Unis qui ont été les pionnières de la pratique de la servitude pour dette et de l’appropriation des infrastructures publiques. Les médias institutionnels espèrent apparemment que tout le monde a déjà oublié ces critiques.

Si cette préoccupation bien tardive et moralisatrice est ce que les promoteurs de la démocratie occidentale peuvent susciter de mieux, le combat est déjà perdu. Il faudrait une refonte majeure pour sauver les institutions actuelles de coopération interétatique et créer la possibilité d’un nouveau Siècle Américain, ou du moins Américano-Européen. Cela signifierait faire de l’ONU une organisation qu’il faudrait prendre au sérieux, une organisation qui pourrait isoler les pays qui ne respectent pas le cadre juridique commun. Pour y parvenir, les États-Unis devraient cesser d’être les principaux saboteurs de l’ONU et faire des actions sans ambiguïté, comme mettre fin à l’aide militaire à Israël.

Les responsables gouvernementaux ne prendront des mesures aussi radicales que s’ils en viennent à croire que le respect impartial des droits de l’hom me est essentiel pour faire des affaires et pour renforcer la coopération internationale. Et au xxie siècle, un respect significatif des droits de l’homme devrait tenir compte des considérations écologiques, ne serait-ce que d’un point de vue anthropocentrique. Cela signifie rien de moins qu’une intervention massive de l’État dans les processus économiques pour réduire la poursuite des intérêts à court terme et assurer la gestion humanitaire du climat et de tous les autres systèmes géobiologiques. Et comme une telle intervention serait inséparable des enjeux technologique, et donc de l’IA, les responsables gouvernementaux devraient atténuer la contradiction de la démocratie entre égalité politique et inégalités économiques en introduisant du socialisme sous la forme du salaire de base universel. Tout cela au cours des dix ou vingt prochaines années.

En d’autres termes, les gouvernements occidentaux devraient subir un changement radical de paradigme afin de pouvoir continuer à façonner le système mondial. Le défi est probablement trop grand pour eux. Les quelques progressistes visionnaires, capables d’anticiper, sont enchaînés par la logique même de la démocratie au poids mort du centre. Cela n’arrange pas les choses que la Chine ai damé le pion à l’Europe en tant que leader mondial incontesté dans la production de cellules solaires et autres énergies renouvelables. (75% des panneaux solaires dans le monde sont fabriqués soit en Chine, soit par des entreprises chinoises dans des néo-colonies industrielles d’Asie du Sud-Est et grâce à une campagne gouvernementale agressive qui pousse les banques publiques à investir). Pendant ce temps, les États-Unis se dirigent vers d’autres excès pétroliers, ouvrant des gisements inexploités dans le bassin Permien au Texas, jugés encore plus grands que les champs pétroliers d’Arabie Saoudite.

En d’autres termes, nous pouvons presque écrire l’éloge funèbre du système mondial conçu par les États-Unis. Mais la suite n’est pas claire. La Chine elle-même se dirige vers un désastre économique. Son marché boursier tremble et le pays est lourdement endetté, en particulier ses grandes entreprises. La Chine a évité la récession de 2008 grâce à une vaste campagne de relance artificielle. Aujourd’hui, les dirigeants du Parti insistent pour que l’on mette un frein à l’octroi de prêts risqués, mais cela conduit à une pénurie de crédit qui ralentit la croissance économique. Prenons l’exemple de l’Australie, réputée pour ne pas pas avoir connu de récession technique depuis 27 ans : c’est aussi en partie à cause des dépenses publiques importantes. Mais les ménages s’endettent de plus en plus et donc dépensent de moins en moins, ce qui entraîne un ralentissement des dépenses intérieures, et le principal partenaire commercial de l’Australie est la Chine, où l’affaiblissement du yuan va également nuire à la capacité des consommateurs chinois à acheter des produits importés comme ceux qui proviennent d’Australie. Avec les ralentissements économiques en Turquie et au Brésil, où les bulles de surinvestissement sont également prêtes à éclater, la Chine est le dernier acteur de poids. S’il tombe, le krach économique sera probablement mondial, et vraisemblablement bien pire qu’en 2008. Toutes les contradictions du capitalisme sont en train de converger.

Pour soutenir l’économie, la Chine suit une voie similaire à celle des États-Unis : réduire les impôts, investir davantage dans les infrastructures et modifier les règles afin que les prêteurs privés puissent consentir des prêts dont le montant est largement supérieur à celui des dépôts.

La possibilité que la Chine devienne l’architecte d’un nouveau système mondial ne repose pas sur la croissance économique ou la puissance militaire. Elle n’a pas besoin de gagner une guerre contre les États-Unis, tant qu’elle dispose d’une autonomie militaire dans son coin ; par le passé, tous les pays qui voulaient accéder à ce type de rôle ont gagné des guerres défensives contre le leader mondial en titre, et la Chine l’a déjà fait pendant la guerre de Corée. En fait, elle devrait plutôt se faire le centre de l’organisation du capitalisme mondial.

La question cruciale pourrait être : quel pays se tire le mieux de la crise économique et ouvre de nouvelles directions et de nouvelles stratégies pour l’expansion du capitalisme ? et quelles seront ces stratégies ?

Et les anarchistes ?

L’une des rares choses dont on puisse être sûr, c’est que nous n’avons aujourd’hui aucun témoin vivant d’un tel niveau d’incertitude à l’échelle mondiale. Un système défaillant peut continuer à durer encore deux ou même trois décennies, tout en faisant des ravages. Une renaissance progressive pourrait sauver ce système par le socialisme démocratique, l’éco-ingénierie et le transhumanisme. Une coalition de certains pays pourrait inaugurer un ordre plus technocratique fait de plus grands États, sur la base d’institutions et de contrats sociaux qui restent à définir.

Bien entendu, aucune de ces possibilités n’intègre de perspectives de liberté, de bien-être et de soin de la planète. Tous supposent la survie de l’État. Je n’ai pas parlé d’anarchistes dans les considérations précédentes parce que nous perdons notre capacité à nous manifester en tant que force sociale dans des circonstances aussi changeantes. Nous n’avons pas réussi à résister au confort technologique, à surmonter les diverses dépendances que le capitalisme nous impose, à abandonner les habitudes puritaines qui passent pour de la politique, à répandre les imaginaires révolutionnaires, à communautariser la vie quotidienne. Notre aptitude à l’émeute a suffit à changer le discours social et à ouvrir quelques nouvelles perspectives aux mouvements sociaux au cours des deux dernières décennies. Si le système ne se répare pas rapidement, cependant, nos compétences combatives peuvent devenir insuffisantes et invisibles à côté des conflits beaucoup plus importants qui vont surgir. La compétence qui peut être la plus importante, et qui semble manquer le plus, est la capacité de faire de la survie une préoccupation communautaire. Malheureusement, la plupart des gens semblent tomber de l’autre côté de l’individualisme dans les formes les plus extrêmes d’aliénation.

Tout cela peut changer, bien sûr. En attendant, il est plus judicieux de parler de ce que pourrait être notre vie au cours de ces prochaines années de troubles. Nous avons encore la capacité de diffuser de nouvelles idées au niveau social, de faire fonction de conscience de la société. Le capitalisme n’a plus guère de légitimité ; il faut enfoncer les derniers clous de son cercueil avant qu’il ne développe un nouveau discours pour justifier son expansion acharnée.

Pour ce faire, nous devons développer un sens aigu des voies encore ouvertes à ceux qui voudraient préserver et renouveler le capitalisme, puis les saper avant qu’elles ne puissent être solidifiées et devenir la structure du prochain discours mondialiste. De simples critiques de la pauvreté, des inégalités et de l’écocide ne suffisent pas. Éloignées d’une perspective anarchiste, chacune de ces lignes de protestation ne fera que faciliter une stratégie de sortie des contradictions actuelles vers l’avenir capitaliste.

Une fois que le néolibéralisme aura pris fin et qu’une quantité importante de la valeur mondiale aura été détruite par des défauts de paiement en cascade ou par la guerre, des choses comme le salaire de base universel deviendront probablement des stratégies intéressantes de réintégration. Il pourrait réintégrer les pauvres et les marginalisés, constituer une nouvelle réserve de prêts garantis par l’État et offrir une solution au chômage de masse exacerbé par l’IA. De plus, les variantes du revenu universel sont compatibles aussi bien avec une politique progressiste et régénératrice qu’avec une politique de droite xénophobe qui attacherait de tels avantages à la citoyenneté. Le salaire de base universel, au lieu de l’aide sociale, peut être justifié à la fois par la rhétorique de la justice sociale et par la rhétorique de la réduction de la bureaucratie gouvernementale. Cet esprit augmente les possibilités d’une nouvelle politique de consensus. Les promoteurs du revenu universel – et ils sont de plus en plus nombreux – peuvent utiliser les critiques anticapitalistes de la pauvreté et de l’inégalité pour inciter les gouvernements à investir dans les formes de financement et d’ingénierie sociale qui atténueront les problèmes causés par les entreprises et maintiendront une base de consommateurs viable qui continueront à acheter leurs produits.

Les inégalités, quant à elles, peuvent plus facilement trouver leur remède avec la promesse d’une plus grande participation : le renouveau démocratique mentionné plus haut. Dans la mesure où les critiques des inégalités sont relatives au genre, à la race et à d’autres formes d’oppression liés aux conflits sociaux, le féminisme et l’antiracisme, dans leurs aspects égalitaires, ont déjà triomphé. Le féminisme a modifié les conceptions dominantes du genre, renforçant les stéréotypes binaires mais en dotant les gens des moyens de comprendre le genre comme un autre choix du consommateur pour s’exprimer librement. Ces concepts sont en voie d’intégrer entièrement toutes les identités au sein du modèle patriarcal et suprémaciste blanc. En rejetant nominalement les formes paramilitaire du pouvoir qui maintenaient historiquement les hiérarchies sociales (ex. les viols, les lynchages), on peut enfin partager les comportements et privilèges auparavant réservés aux hommes blancs hétérosexuels. Dans la pratique, l’égalité signifie que chacun peut agir comme un homme blanc normalisé, jusqu’à ce que cette norme soit déclassée et que ses fonctions paramilitaires soient réabsorbées par des institutions comme la police, le corps médical, les agences publicitaires, etc.

Une telle pratique de l’égalité neutralise la menace que les mouvements féministes et anticoloniaux font peser sur le capitalisme et l’État. La seule façon d’en sortir est de relier les corps non normatifs à des pratiques intrinsèquement subversives, plutôt qu’à des étiquettes identitaires récupérables (essentialisme). Nous ne critiquons pas l’État parce qu’il n’y a pas assez de femmes à sa tête, mais parce qu’il a toujours été patriarcal ; non pas parce que ses dirigeants sont racistes, mais parce que l’État lui-même est une contrainte coloniale, et le colonialisme sera vivant sous une forme ou une autre tant que l’État ne sera pas supprimé. Un tel point de vue exige de mettre davantage l’accent sur les continuités historiques de l’oppression plutôt que sur des indicateurs symboliques de l’oppression au moment présent.

En ce qui concerne les critiques de l’écocide, le capitalisme a sérieusement besoin prendre soin de l’environnement. À l’évidence, nous devons davantage nous pencher sur ce que cela implique, afin de le contester, plutôt que d’en rester aux discours réactionnaires qui, de toute façon, ne seront jamais d’accord avec l’idée de la protection de l’environnement. Les préoccupations capitalistes envers l’environnement impliqueront nécessairement la gestion et l’ingénierie de la nature. La préoccupation anticapitaliste pour l’environnement n’a de sens que si elle est éco-centrée et anticolonialiste.

Ce qui est fait à la planète est une atrocité. Les responsables doivent être dépossédés de tout pouvoir social et tenus de répondre des centaines de millions de morts et d’extinctions qu’ils ont causées ; par-dessus tout, on ne peut pas leur faire confiance pour résoudre le problème dont ils tirent les fruits. La racine du mal n’est pas l’énergie fossile, mais l’idée archaïque que la planète – en fait, l’univers entier – existe pour la consommation humaine. Si nous ne parvenons pas à changer de paradigme et à mettre au premier plan l’idée que notre but est de prendre soin de la terre et que nous devons être une composante respectueuse de la communauté du vivant, il n’y a aucun espoir de sauver la nature, de libérer l’humanité ou de mettre fin au capitalisme.

La technologie se trouve au carrefour de toutes les voies de sortie de la crise écologique causée par le capitalisme. La technologie n’est pas une liste d’inventions. Il s’agit plutôt de la reproduction de la société humaine à travers une lentille technique : le comment de la reproduction sociale. Tout ce qui concerne la façon dont les humains sont en relation avec le reste de la planète et la manière dont nous structurons nos relations internes est modulé par notre technologie. Plutôt que de nous embarquer dans un débat rabâché et inutile (du genre : la technologie, est-ce bien ou mal ?) nous devons nous concentrer sur la façon dont la technologie telle qu’elle existe dans la société mondiale fonctionne comme un « tout ou rien ». Le seul débat sur la technologie que nous ne pouvons pas perdre, et qui n’est pas pris en compte dans la conception dominante, concerne la nature autoritaire de la technologie telle qu’elle existe actuellement. Elle est présentée comme un choix du consommateur, mais chaque nouvelle avancée devient obligatoire en quelques années. Nous sommes forcés de l’adopter ou d’en être totalement exclus. Chaque nouveau progrès réécrit les relations sociales, nous privant progressivement du contrôle de notre vie et donnant le contrôle aux gouvernements qui nous surveillent et aux entreprises qui nous exploitent. Cette perte de contrôle est directement liée à la destruction de l’environnement.

On nous vend de plus en plus un récit transhumaniste dans lequel la nature et le corps seraient des contraintes à surmonter. C’est la même vieille idéologie des Lumières pour laquelle les anarchistes sont tombés amoureux à maintes reprises, et elle repose sur une haine du monde naturel et une croyance implicite dans la suprématie humaine (occidentale) et le libre arbitre. Elle est aussi de plus en plus utilisée pour rendre l’avenir capitaliste séduisant et attrayant, à une époque où l’une des principales menaces pour le capitalisme est que beaucoup de gens ne voient pas les choses s’améliorer. Si les anarchistes ne peuvent pas récupérer notre imagination, si nous ne pouvons pas parler de la possibilité d’une existence épanouie, non seulement dans des moments fugaces de contestation mais aussi dans le genre de société que nous pourrions créer, dans nos relations mutuelles humaines et avec la planète, alors je ne crois pas que nous puissions changer quoique ce soit pour l’avenir.

Le système entre dans une période de chaos. Les piliers sociaux, longtemps considérés comme stables, se mettent à trembler. Ceux qui possèdent et gouvernent ce monde cherchent des moyens de s’accrocher au pouvoir ou d’utiliser la crise pour obtenir un avantage sur leurs adversaires. Les structures qu’ils ont construites de longue date sont sur le point d’entrer en collision, ils ne s’entendent pas sur les remèdes, mais ils seront fichus s’ils nous laissent sortir de cette voie suicidaire. Ils peuvent nous offrir des emplois, de la nourriture et des voyages sur la lune ; ils peuvent nous terroriser et nous soumettre.

C’est un moment angoissant et les enjeux sont élevés. Ceux qui sont au pouvoir n’ont pas le contrôle. Ils ne savent pas ce qui va se passer ensuite, leurs intérêts divergent et ils ne sont pas d’accord sur un plan cohérent. Néanmoins, ils utiliseront tout ce qu’ils ont sous la main pour s’accrocher au pouvoir. Pendant ce temps, leurs échecs sont visibles par tous, et l’incertitude est dans l’air. C’est un moment qui exige qualitativement plus de notre part : des pratiques communautaires de solidarité qui peuvent s’étendre des groupes d’affinité aux quartiers et à la société dans son ensemble ; des représentations de ce que nous pourrions faire si nous étions maîtres de nos propres vies, avec des plans pour y arriver ; et des pratiques d’autodéfense et de sabotage qui nous permettent de rester sur nos pieds et qui empêchent ceux qui tiennent les rênes du pouvoir de s’en tirer en tuant encore et encore.

C’est un défi de taille. En fait, on ne devrait même plus être sur scène. Le capitalisme a envahi tous les recoins de notre vie, nous retournant contre nous-mêmes. Le pouvoir de l’État s’est accru de façon exponentielle et ils nous ont vaincus tant de fois auparavant. Cependant, leur système est de nouveau défaillant. À gauche et à droite, ils chercheront des solutions. Ils essaieront de nous recruter ou de nous faire taire, de nous unir ou de nous diviser, mais quoi qu’il arrive, ils veulent s’assurer que la suite ne dépend pas de nous.

Tel est l’avenir, une machine qui produit une nouvelle version de la même vieille domination afin d’enterrer, avant leur apparition, toutes les solutions au déclin du système. Nous pouvons détruire cet avenir et récupérer nos vies, en entamant le long travail qui consiste à transformer le terrain vague actuel en jardin – ou bien nous pouvons succomber.


  1. Au cas où quelqu’un serait enclin à citer la structure pseudo-militaire de certains groupes de milices, il devrait d’abord la comparer à l’importante chaîne de commandement qui reliait les mouvements fascistes historiques aux vrais militaires ou à un parti politique fasciste. ↩︎

  2. C’est en outre un argument embarrassant pour quelqu’un qui prétend que le fascisme est en train de renaître, étant donné que deux des principaux modèles d’État autoritaire et antidémocratique actuels – Israël et la Turquie – ont fait le changement en période de croissance économique. Hum… même Trump a été élu dans un contexte de croissance économique, mais il semble qu’au moins quelques antifascistes soient tombés dans le piège de la fable médiatique implicitement suprémaciste blanche, selon laquelle la victoire de Trump a été rendue possible par la hausse de la pauvreté des « blancs de la classe ouvrière ». ↩︎

  3. La légende raconte qu’Eisenhower demanda à Franco quelle structure il avait mise en place pour s’assurer que l’Espagne ne retombe pas dans le chaos, ce à quoi Franco répondit : « la classe moyenne ». ↩︎

  4. Bien que cela soit hors de propos ici, nous devons applaudir la Birmanie comme un autre triomphe de la non-violence. Je me demande si Gene Sharp va rendre visite aux Rohingya… ↩︎

  5. Les analyses de données utilisées par les entreprises liées au méga-donateur réactionnaire Robert Mercer ont joué un rôle déterminant dans la victoire de Trump et celle du référendum du Brexit, toutes deux rejetées par les médias traditionnels, les campagnes d’opinion et les mesures prédictives. ↩︎

  6. C’est un point douloureux que les libéraux essaient désespérément d’oublier : d’un point de vue étatique, la plupart des dictatures étaient en fait nécessaires. ↩︎


Publié le 21.10.2019 à 02:00

Twitter et les gaz lacrymogènes

Les mouvements sociaux à travers le monde utilisent massivement les technologies numériques. Zeynep Tufekci était présente sur la place Tahrir et en Tunisie lors des printemps arabes, à Istanbul pour la défense du parc Gezi, dans les rues de New York avec Occupy et à Hong-Kong lors du mouvement des parapluies. Elle y a observé les usages des téléphones mobiles et des médias sociaux et nous en propose ici un récit captivant. Les réseaux numériques permettent de porter témoignage et d’accélérer les mobilisations. Ils aident les mouvements à focaliser les regards sur leurs revendications. Cependant, l’espace public numérique dépend des monopoles de l’économie du web. Leurs algorithmes, choisis pour des raisons économiques, peuvent alors affaiblir l’écho des contestations. Au delà de leur puissance pour mobiliser et réagir, faire reposer la construction des mouvements sur ces technologies fragilise les organisations quand il s’agit de les pérenniser, quand il faut négocier ou changer d’objectif tactique. De leur côté, les pouvoirs en place ont appris à utiliser les médias numériques pour créer de la confusion, de la désinformation, pour faire diversion, et pour démobiliser les activistes, produisant ainsi résignation, cynisme et sentiment d’impuissance. Une situation qui montre que les luttes sociales doivent dorénavant intégrer dans leur stratégie les enjeux de l’information et de la communication aux côtés de leurs objectifs spécifiques.


Tufekci, Zeynep. Twitter et les gaz lacrymogènes. Forces et fragilités de la contestation connectée. C&F éditions, 2019.

Lien vers le site de l’éditeur : https://cfeditions.com/lacrymo/



 

 Persos A à L
Mona CHOLLET
Anna COLIN-LEBEDEV
Julien DEVAUREIX
Cory DOCTOROW
EDUC.POP.FR
Michel GOYA
Hubert GUILLAUD
Gérard FILOCHE
Alain GRANDJEAN
Hacking-Social
Samuel HAYAT
Dana HILLIOT
François HOUSTE
Tagrawla INEQQIQI
Infiltrés (les)
Clément JEANNEAU
Paul JORION
Frédéric LORDON
LePartisan.info
 
 Persos M à Z
Henri MALER
Christophe MASUTTI
Romain MIELCAREK
Richard MONVOISIN
Corinne MOREL-DARLEUX
Timothée PARRIQUE
Emmanuel PONT
Nicos SMYRNAIOS
VisionsCarto
Yannis YOULOUNTAS
Michaël ZEMMOUR
 
  Numérique
Binaire [Blogs Le Monde]
Christophe DESCHAMPS
Louis DERRAC
Olivier ERTZSCHEID
Olivier EZRATY
Framablog
Francis PISANI
Pixel de Tracking
Irénée RÉGNAULD
Nicolas VIVANT
 
  Collectifs
Arguments
Bondy Blog
Dérivation
Dissidences
Mr Mondialisation
Palim Psao
Paris-Luttes.info
ROJAVA Info
 
  Créatifs / Art / Fiction
Nicole ESTEROLLE
Julien HERVIEUX
Alessandro PIGNOCCHI
XKCD
🌞