Hospitalier, (H)ac(k)tiviste, libriste, administrateur de Framasoft.
19.03.2023 à 01:00
Sur l’anarchie aujourd’hui
Dans ce petit texte, G. Agamben nous rappelle cet interstice où le pouvoir s’exerce, entre l’État et l’administration dans ce qu’il est convenu d’appeller la gouvernance. En tant que système, elle organise le repli des pouvoirs séparés de la justice, de l’exécutif et du législatif dans un grand flou : de la norme ou de la standardisation, des agences au lieu des institutions traditionnelles, le calcul du marché (libéral) comme grand principe de gestion, etc. Pour G. Agamben, la lutte anarchiste consiste justement à se situer entre l’État et l’administration, contre cette gouvernance qui, comme le disait D. Graeber (dans Bullshit Jobs), structure l’extraction capitaliste. On pourra aussi penser aux travaux d’Alain Supiot (La Gouvernance par les nombres) et ceux aussi d’Eve Chiapello sur la sociologie des outils de gestion.
Sur l’anarchie aujourd’hui
Par Giorgio Agamben (février 2023).
Traduction reprise d'Entêtement avec de très légères corrections.
Texte original sur Quodlibet.
Si pour ceux qui entendent penser la politique, dont elle constitue en quelque sorte le foyer extrême ou le point de fuite, l’anarchie n’a jamais cessé d’être d’actualité, elle l’est aujourd’hui aussi en raison de la persécution injuste et féroce à laquelle un anarchiste est soumis dans les prisons italiennes. Mais parler de l’anarchie, comme on a dû le faire, sur le plan du droit, implique nécessairement un paradoxe, car il est pour le moins contradictoire d’exiger que l’État reconnaisse le droit de nier l’État, tout comme, si l’on entend mener le droit de résistance jusqu’à ses ultimes conséquences, on ne peut raisonnablement exiger que la possibilité de la guerre civile soit légalement protégée.
Pour penser l’anarchisme aujourd’hui, il convient donc de se placer dans une tout autre perspective et de s’interroger plutôt sur la manière dont Engels le concevait, lorsqu’il reprochait aux anarchistes de vouloir substituer l’administration à l’État. Dans cette accusation réside en fait un problème politique décisif, que ni les marxistes ni peut-être les anarchistes eux-mêmes n’ont correctement posé. Un problème d’autant plus urgent que nous assistons aujourd’hui à une tentative de réaliser de manière quelque peu parodique ce qui était pour Engels le but déclaré de l’anarchie – à savoir, non pas tant la simple substitution de l’administration à l’État, mais plutôt l’identification de l’État et de l’administration dans une sorte de Léviathan, qui prend le masque bienveillant de l’administrateur. C’est ce que théorisent Sunstein et Vermeule dans un ouvrage (Law and Leviathan, Redeeming the Administrative State) dans lequel la gouvernance, l’exercice du gouvernement, dépasse et contamine les pouvoirs traditionnels (législatif, exécutif, judiciaire), exerçant au nom de l’administration et de manière discrétionnaire les fonctions et les pouvoirs qui étaient les leurs.
Qu’est-ce que l’administration ? Minister, dont le terme est dérivé, est le serviteur ou l’assistant par opposition à magister, le maître, le détenteur du pouvoir. Le mot est dérivé de la racine *men, qui signifie diminution et petitesse. Le minister s’oppose au magister comme minus s’oppose à magis, le moins au plus, le petit au grand, ce qui diminue à ce qui augmente. L’idée d’anarchie consisterait, du moins selon Engels, à essayer de penser un ministre sans magister, un serviteur sans maître. Tentative certainement intéressante, puisqu’il peut être tactiquement avantageux de jouer le serviteur contre le maître, le petit contre le grand, et de penser une société dans laquelle tous sont ministres et aucun magister ou chef. C’est en quelque sorte ce qu’a fait Hegel, en montrant dans sa fameuse dialectique que le serviteur finit par dominer le maître. Il est néanmoins indéniable que les deux figures clés de la politique occidentale restent ainsi liées l’une à l’autre dans une relation inlassable, qu’il est impossible de solutionner une fois pour toutes.
Une idée radicale de l’anarchie ne peut alors que se dissoudre dans l’incessante dialectique du serviteur et de l’esclave, du minister et du magister, pour se situer résolument dans l’écart qui les sépare. Le tertium qui apparaît dans cet écart ne sera plus ni administration ni État, ni minus ni magis : il sera plutôt entre les deux comme un reste, exprimant leur impossibilité de coïncider. En d’autres termes, l’anarchie est d’abord et avant tout le désaveu radical non pas tant de l’État ni simplement de l’administration, mais plutôt de la prétention du pouvoir à faire coïncider État et administration dans le gouvernement des hommes. C’est contre cette prétention que l’anarchiste se bat, au nom finalement de l’ingouvernable, qui est le point de fuite de toute communauté entre les êtres humains.
26 février 2023
Giorgio Agamben
07.03.2023 à 01:00
Pour un web désencombré
Et si nous nous mettions en quête d’une low-technicisation du web ? Cela implique de faire le tri entre le superflu et le nécessaire… donc d’ouvrir un espace de discussion avant que d’autres s’en emparent et nous façonnent un web à leur image où se concentreraient les pouvoirs. Nous voulons un web en commun qui respecte les communs. Ce billet est une modeste tentative pour amorcer un débat.
– Ton blog est tout moche, c’est normal ?
– Il n’est pas moche, son contenu est structuré à peu près correctement selon les préconisations standards HTML et avec une feuille de style minimaliste.
– oui, mais pourquoi ? il n’était déjà pas bien joli, joli auparavant…
– Parce que le web est encombré, cela a un coût environnemental non négligeable et la présentation tend à prévaloir sur les contenus en sacrifiant le sens et la pertinence de ceux-ci. À ma mesure, j’essaie de participer à un web plus léger.
– Et tu penses qu’il y a tant de monde pour lire ta prose que cela fera une différence ?
– non, d’ailleurs tu peux aller voir ailleurs, si cela ne te plaît pas.
Oui, je sais : low-tech, low-num, ces mouvements sont au goût du jour et il est de bon ton d’y participer au moins de loin, à titre individuel ou collectif. Ce que vous lisez n’est qu’un blog personnel mais il me semble intéressant d’y émettre tout de même une réflexion à ce propos.
Avant de devenir un argument, l’urgence climatique et environnementale est d’abord le constat d’une crise factuelle qui concerne tous les secteurs d’activités de productions et d’usages. Nos pratiques numériques, et tout particulièrement l’inaction face au capitalisme des plateformes, contribue pour une part significative au gaspillage énergétique de l’humanité (et cette partie de l’humanité la plus nantie) et cela a des répercutions extrêmement néfastes sur l’environnement et le changement climatique. Il est crucial et urgent aujourd’hui de prendre non seulement du recul mais agir de manière assez stricte pour limiter ce gaspillage. Si toutefois nous voulons maintenir un semblant d’activité numérique à l’avenir, il va falloir créer des espaces communs de réflexion et d’action avant de se voir imposer des règles qui finiront, comme d’habitude, par concentrer les pouvoirs en concentrant les technologies au bénéfice de ceux qui en auront les moyens.
S’il doit y avoir un nouvel ordre numérique, il doit être issu d’une logique d’action collective qui procède de deux mouvements complémentaires : la réappropriation collective des technologies de communication (la lutte contre les plateformes monopolistes et le capitalisme de surveillance) et l’élaboration d’espaces communs d’échanges et d’expérimentation pour élaborer collectivement nos choix, ce que nous voulons et ne voulons pas, le nécessaire et le superflu. Ces espaces sont supportés par le logiciel libre et le mouvement des communs numériques, par l’éducation populaire et les capacités des groupes à exercer des échanges et des relations démocratiques. Cela suppose deux engagements : préfigurer le monde numérique que nous voulons pour demain et lutter plus ou moins durement contre l’accaparement des moyens de production et des conditions d’échanges communicationnels.
Une fois cela dit… ce ne sont que des mots. Ils ont un intérêt, toutefois : ils placent la critique des technologies dans un débat politique qui transcende la seule action individuelle. Alors, oui, réfléchir à l’encombrement du web aujourd’hui, ce n’est pas une tendance luddite ou rétrograde pour nous « faire revenir » au web des années 1990, c’est une réflexion qui engage notre rapport aux communications et aux contenus web pour que l’innovation soit aussi un choix de vie responsable.
Pour ce qui suit, je ne pourrai ici parler que de mon expérience personnelle, celle d’un utilisateur, d’abord, et celle d’un tout petit créateur de contenus. J’ai quelques sites web amateurs à mon actif et je m’amuse avec les réseaux en général. Et si je suis aussi un grand nostalgique des vieux gros ordinateurs des années 1960, c’est surtout à cause de mon travail d’historien, mais cette partie de l’histoire des machines et des réseaux est aussi un socle sur lequel on peut construire des représentations intéressantes des activités numériques.
État des lieux
Le web, c’est quoi ? Wikipédia nous le dit très bien : « un système hypertexte public fonctionnant sur Internet ». On y accède avec un client HTTP, le plus souvent un navigateur qui permet d’afficher des « pages web ». On peut évaluer le web d’aujourd’hui avec au moins deux points de comparaison : avant HTTP & HTML, et après.
Le point de rupture se situe donc entre 1991 et 1992. En 1991, la définition originale de HTTP version 0.9 par T. Berners-Lee était surtout une présentation succincte et à visée technique tandis qu’en 1992, le mémo HTTP 2 est une présentation beaucoup plus aboutie et concrète. Pour en comprendre la portée, T. Berners-Lee explique pourquoi les systèmes d’information doivent évoluer vers HTTP :
« Les systèmes d’information utiles exigent plus de fonctionnalités que la simple collecte, notamment la recherche, la mise à jour frontale et le traitement des annotations. Ce protocole permet d’utiliser un ensemble ouvert de méthodes (…). »
En 1996, T. Berners-Lee n’est cette fois pas seul pour rédiger la RFC 1945 et dans l’introduction la même phrase est reprise. C’est la même chose en 1999, etc.
Pourquoi est-ce si important ? Il ne faudrait surtout pas croire qu’avant 1991, les réseaux n’avaient pas de quoi structurer des contenus et les diffuser avec des applicatifs tout à fait sérieux. Qu’il s’agisse du vénérable Telex ou du plus moderne Teletex des années 1980, l’accès aux contenus sur les réseaux était tout à fait praticable, surtout après l’arrivée des premiers terminaux à écran. Pour ce qui concerne la création de contenus textuels, il y avait déjà l’ancêtre du HTML : le SGML (Standard Generalized Markup Language), un langage de balisage créé en 1969 et standardisé (ISO) qui vise à produire des textes structurés avec des styles, et donc accessible parfaitement via n’importe quel protocole pourvu qu’on s’entende sur la nature du document (la définition de la nature du document ou DTD). Donc de ce point de vue, SGML, HTML, XML sont des balisages similaires et dont les principes remontent à l’âge d’or des réseaux.
Qu’apporte le HTTP, dans ce cas ? d’abord le support des en-têtes des documents dans un format lui-même standardisé (MIME), ensuite, au fil des améliorations, ce sont surtout les notions de requêtes multiples et de négociation entre client et serveur qui sont importantes : savoir quels types de contenus sont « requêtés » et envoyés et depuis quel serveur (l’adresse de l’hôte). Viennent enfin plus récemment les spécifications pour le transfert sécurisé (HTTPS).
En d’autres termes, même si vous n’avez pas bien compris les paragraphes précédents, ce n’est pas grave. Voici l’essentiel : HTTP est un protocole de communication ouvert qui permet de trimballer plusieurs types de contenus et, au fur et à mesure de l’évolution de HTTP dans l’histoire, on ne s’est pas limité à la seule transmission de documents « texte » en HTML mais on a favorisé l’interactivité tels l’édition de pages web ou quelques applicatifs (Webdav, Cardav, Caldav), et surtout les scripts qui permettent de trimballer toujours plus de contenus multimédias.
Toute cette évolution est basée sur un principe : s’entendre sur des protocoles communs et ouverts de manière à échanger toujours plus de contenus différents quel que soit l’ordinateur et le langage de l’utilisateur. Le World Wide Web devait et doit toujours être un espace en commun (même si ce principe est fortement remis en question par certains gouvernements). Par définition, aucune limite pratique n’a été décrétée et c’est heureux : la multiplication des échanges est fondamentalement quelque chose de positif.
Par contre, deux critiques doivent absolument être entendues. La première est classique : le web est en grande partie devenu dépendant de quelques grandes entreprises qui en concentrent l’essentiel et exercent par conséquent un pouvoir exorbitant (avec la connivence des gouvernements) sur le bon usage de ce commun et par conséquent sur l’accès égalitaire à l’information et la liberté d’expression. Tim Berners Lee a lui-même publiquement dénoncé ce fait qui a détourné le web de sa vocation initiale.
L’autre critique est complémentaire à la première : l’abus de contenus, de présentation de contenus et de pompage de données a rendu le web carrément encombré. Entre la publicité, l’économie de l’attention, le streaming, les images : il est devenu de plus en plus difficile de se livrer à la première vocation du web : chercher, trouver et lire des contenus pertinents. L’évolution du poids des pages web est un indicateur fondamental pour se rendre compte à quel point, malgré l’augmentation de la rapidité de nos connexions, notre manière de créer des contenus est devenue délétère pour l’environnement comme pour la pertinence de ces contenus. La publicité joue évidemment un rôle prépondérant dans cet effet (voir Pärsinnen et al, 2018). Mais le plus alarmant à mes yeux, c’est le rapport entre le contenu HTML d’une page et son poids : en 2020, le contenu HTML d’une page web en 2020 pèse environ 1,3% du poids de la page. Cela signifie que la structure et le contenu informatif sont littéralement noyés dans une masse de données secondaires. Et parmi ces données secondaires, je soutiens que la grande majorité est parfaitement inutile.
Critique des contenus
Si de nombreuses voix s’élèvent depuis des années au sujet du capitalisme de surveillance, la question de la sobriété du web est plus délicate. Que sommes-nous prêts à sacrifier au nom d’une plus grande sobriété du web tout en cherchant à optimiser les contenus et leurs diffusion égalitaire et libre ? Après avoir été pendant des années biberonnés aux médias sociaux et au streaming vidéo sans prendre en compte leurs enjeux environnementaux et socio-psychologiques, que sommes-nous prêt à abandonner au profit d’un web plus efficace et sobre ?
J’avais déjà montré dans un article précédent à quel point les médias sociaux sont loin d’être des espaces démocratiques, en particulier parce qu’ils mettent sur le même niveau des contenus n’ayant aucun rapport entre eux pour générer de l’économie de l’attention. Ainsi un documentaire fouillé et sérieux est situé au même niveau qu’un néo-fasciste qui débagoule dans sa cuisine, un billet de blog équivaut à un article journalistique, et tous les articles journalistiques finissent par se ressembler… tout cela parce que la présentation de ces contenus est très souvent la même, en fin de compte. Les multinationales du web et en particulier le moteur de recherche Google, ont créé un écosystème calibré, optimisé pour le référencement concurrentiel, qui promeut la forme au détriment du fond. Les jugements de valeurs, les contenus caricaturaux et courts, les punchlines, les images-choc, seront toujours plus valorisés que les longs commentaires, articles ou vidéos qui analysent les faits, font un travail conceptuel ou vulgarisent des connaissances complexes.
Première remarque. Il ne faut pas individualiser la responsabilité. Ça, c’est qui a tendance à nous transformer en ayatollahs du tri de déchets ménagers au prix de tensions et d’engueulades familiales mémorables tandis que l’usine d’à-côté achète du droit à polluer. Je ne dis pas qu’il ne faut pas trier ses déchets (il le faut !), mais cela n’a pas de sens si on ne l’inclut pas dans le cadre plus général de notre rapport collectif à la consommation et aux communs naturels. L’analogie avec le web, c’est qu’en plus de chercher à trier le nécessaire du superflu, réfléchir à la manière dont nous communiquons et échangeons des informations conditionne aussi la réflexion collective sur ce nécessaire et ce superflu, dans la mesure où nos échanges passent en très grande partie par le web lui-même. Donc un web plus sobre ne signifie pas un web moins efficace : au contraire, comme on le verra plus loin avec la question de la structuration des contenus, gagner en efficacité c’est aussi chercher à gagner des espaces de débats et d’échanges. Le désencombrement du web est une optimisation.
Seconde remarque. Il faut comprendre tout ce que peuvent ressentir les utilisateurs pour qui les conditions d’accessibilité sont mises en jeu aujourd’hui. Le web est de plus en plus exclusif alors qu’il est censé être inclusif. La pression du « tout numérique » poussé par les politiques publiques, rend de nombreux services désormais inaccessibles. Ce n’est pas que de l’illectronisme, c’est aussi une question d’exclusion sociale (cf. Granjon, 2004, Alberola et al., 2016, Defenseur de droits, 2022). Mais dans beaucoup de cas, ce sont les usages et les « codes » qui sont en jeu : la manière de présenter des contenus, de la symbolique des icônes à la notion de menus et autres variations esthétiques, tout cela fait qu’il est souvent décourageant pour un néophyte de tenter d’y trouver de l’information pertinente. Par exemple, cliquer sur un lien sans voir exactement où il renvoie, parfois sur la même page, parfois dans un autre onglet du navigateur, parfois pour télécharger un document (qui aurait très bien pu être affiché en HTML), parfois pour écrire un courriel (mailto:
), tout cela a quelque chose de déroutant pour une personne qui n’est pas habituée aux usages. Cette accessibilité est en outre un sujet de premier plan pour les malvoyants : les pages web brillent de mille feux mais la persistance à vouloir absolument présenter des contenus avec forces effets stylistiques rend extrêmement difficile la recherche d’information. Si je veux naviguer en mode texte (ou avoir une lecture audio) sur une page web aujourd’hui, je dois sacrifier l’accès à certaines informations et me contenter d’un web de second choix. Cela ne devrait pas être le cas.
Troisième remarque. Beaucoup de déclarations sur le web se réclament du mouvement low-tech et dénoncent les usages énergivores pour mieux démontrer comment des technologies sobres permettent de lutter contre le gaspillage. Oui, on peut toujours héberger son serveur web chez soi sur un petit Raspberry pour quelque Kwh. Si ce serveur sert à héberger des contenus intéressants avec un public significatif, oui il peut être considéré comme une bonne pratique, quoique toujours dépendante des infrastructures du web, du fournisseur de service aux câbles sous-marins intercontinentaux et les fermes de serveurs des moteurs de recherche. Oui, nous avons besoin d’un web low-tech, sans aucun doute. Mais ces dispositifs doivent absolument s’accompagner d’une critique des contenus eux-mêmes : est-il pertinent de continuer à publier sur des dispositifs low-tech tout ce qu’on publiait auparavant sur Youtube, Snapchat et Instagram ? Avouez qu’il a pas mal de déchets à envisager, non ? est-il pertinent, même sur un serveur low-tech, de continuer à publier des sites web et des blogs bourrés de traceurs, de pub, de mise en formes, de polices de caractères, d’images à vocation purement communicative (c’est-à-dire sans valeur ajoutée quant au fond du propos), et des appels de fichiers vidéos sur des plateformes externes ?
Critique des techniques
Un web low-tech s’accompagne d’une réflexion sur les usages et n’est rien sans cela. Comme le montre Low Tech Magazine, la réflexion doit être back-end et front-end. Il ont d’ailleurs décrit un très bon exemple de démarche dans cet article :
« Internet n’est pas une entité autonome. Sa consommation grandissante d’énergie est la résultante de décisions prises par des développeurs logiciels, des concepteurs de site internet, des départements marketing, des annonceurs et des utilisateurs d’internet. Avec un site internet poids plume alimenté par l’énergie solaire et déconnecté du réseau, nous voulons démontrer que d’autres décisions peuvent être prises. »
Est-ce que la légèreté d’un site web pourrait pallier la lourdeur de son hébergement ? En d’autres termes vaut-il la peine de construire des sites web épurés (comme cette page de blog que vous êtes en train consulter) si, par derrière, l’hébergement est assuré dans un silo de serveur (comme ce blog). À bien y réfléchir, je ne sais pas vraiment. Je pense que tout dépend des pratiques. Mon blog utilise Hugo via une instance Gitlab : il s’agit de générer des pages web statiques aussi légères que possibles, ce qui permet de diminuer drastiquement la charge serveur, le temps de connexion et le téléchargement. Si je devais me servir encore d’un RaspebbryPi derrière ma box internet, il me faudrait acheter ce petit dispositif dont l’essentiel de la technologie mobilise des ressources à la production et à l’achat. Compte-tenu de la fréquence de mes visiteurs (peu nombreux), je doute sincèrement du gain environnemental de l’opération (en fait je vais expérimenter la chose en recyclant un RaspebbryPi mais cela fera toujours un dispositif supplémentaire dont le coût énergétique est largement supérieur au coût énergétique de quelques pages sobres chez un hébergeur existant).
Donc oui, même si des sites web dépendent d’infrastructures physiques coûteuses pour l’environnement, le fait de construire des pages web légères participe d’un mouvement permettant – sans pour autant pallier les contraintes physique – de désencombrer le web et le rendre :
- plus durable : diminuer cet encombrement implique plus de légèreté dans les transactions,
- plus résilient : la construction de pages web désencombrées suppose une structuration de contenus qui fait la part belle à la pertinence et à la recherche d’information, c’est-à-dire les premières fonctionnalités du web, au lieu de surcharger avec des contenus non nécessaires, soumis aux effets de mode et aux aléas des technologies disponibles,
- plus lisible : certaines techniques peu coûteuses permettent de faire le lien entre structure et contenu (par exemple les microformats, comme nous le verrons plus loin).
Nous ne pouvons pas aller chercher des solutions pérennes en nous précipitant dans une course en avant technologique, pas plus que la croissance technologique n’est censée être le remède contre le changement climatique (produire de lourdes berlines high-tech avec un moteur électrique ne fait que déplacer le problème des ressources disponibles et de leur exploitation). Le solutionnisme n’est pas avare de recettes. Pour rendre des sites web plus économes, nous pourrions envisager encore d’autres dispositifs de l’informatique personnelle, par exemple sur le modèle des liseuses électroniques pour les livres, une sorte de tablette low tech qui donne accès au strict minimum en mode texte essentiellement… un dispositif de plus. Ou bien « encore une appli », sur un autre dispositif encore… et sous prétexte d’alléger le web on alourdi alors les dispositifs physiques mobilisés. Nous pourrions aussi imaginer un surplus de monitoring que par exemple les fournisseurs d’accès pourraient assumer en nous fournissant un web plus léger en modifiant les contenus que nous recevons. Seulement rajouter une couche entre client et fournisseur a ses limites : d’une part cela reviendrait à créer un web inégalitaire et non neutre1 (un retraitement des données qui pose des questions de censure, de sécurité et va à l’encontre de la libre circulation des informations), et d’autre part cela créerait une surcouche technologique dont l’impact économique et énergétique ne serait pas un gain. Enfin, nous pourrions aussi imaginer des logiciels qui permettent d’alléger la lecture elle-même en adaptant le contenu téléchargé, tel le navigateur Browsh, mais est-ce à l’utilisateur de mobiliser de la puissance de calcul pour corriger ce qui ne devrait pas l’être ? Cela me fait penser à tous ces sur-emballages carton des produits alimentaires que nous devons consciencieusement plier et trier au bon soin des services publics qui nous en débarrassent moyennant des hausses d’impôts locaux : nous devrions au contraire les faire bouffer aux distributeurs.
Vers la fin des années 1950, les dispositifs informatiques, ordinateurs et réseaux, ont été fabriqués industriellement, exploités et vendus dans le but initial de rationaliser les processus de production. En tant que systèmes d’information, ce fut leur seconde révolution informatique, celle qui fit sortir les ordinateurs du laboratoire, de la haute ingénierie et du bricolage savant vers les entreprises et ensuite l’informatique domestique. Les réseaux à portée de tous dans les années 1980 puis le web à partir des années 1990 répondent à une vision new age du village global révisé à la sauce de la société de consommation, mais aussi à la généralisation des moyens de communication, de création et de partage de l’information et des connaissances (le rêve d’un système d’information global de Ted Nelson). Peu à peu la convivialité a laissé place à l’automonomie de ces dispositifs techniques en accroissant la complexité des usages, en déportant les fonctionnalités des services existants sur la responsabilité individuelle (on peut parler des nombreuses tâches administratives qui désormais nous échoient dans la numérisation forcée des services publics).
Délaissant la probité et la convivialité, tout en nous submergeant, la croissance des services numériques est désormais incompatible avec notre avenir climatique commun. Dès lors, plutôt que de poursuivre cette croissance, on peut se diriger vers une reconfiguration de la logique d’ingénierie. C’est ce que propose Stéphane Crozat dans une réflexion sur l'« informatique modeste » :
« L’idée d’une démarche de low-technicisation consiste donc à minimiser le domaine d’application de la technique d’une part et de minimiser sa complexité d’autre part. On cherche d’abord ce qui peut ne pas être construit et ce qui peut être mobilisé de plus simple sinon. C’est en cela une inversion de la fonction de l’ingénieur moderne dont le métier est d’abord de construire des machines toujours plus performantes. »
Une informatique modeste n’est pas un repli technophobe. Il s’agit de proposer une alternative low-tech en redéfinissant les objectifs, à commencer par la limitation du surplus matériel et logiciel qu’engendre la course à la croissance au détriment de la convivialité et des fonctionnalités. Dans une logique de croissance, l’intérêt des fonctionnalités est in fine envisagé du point de vue du profit2 alors qu’il devrait être envisagé du double point de vue par rapport à l’existant et par rapport à l’intérêt collectif (dans lequel on intègre la disponibilité des ressources naturelles et matérielles).
Suivant cette idée, vouloir un web désencombré invite à repenser non seulement le transport des informations (les protocoles) mais aussi la nature des contenus. La réflexion sur le besoin et la nécessité implique une révision des contenus et de leur présentation.
Principes du web désencombré
Tout le monde ne peut/veut pas monter un serveur basse consommation chez soi et ce n’est pas forcément pertinent si la nécessité oblige à faire face à une charge serveur importante et une haute disponibilité. L’essentiel, avec des dispositifs du genre (par exemple, on peut citer la FreedomBox), c’est de comprendre que non seulement il passent par la case logiciels libres, mais aussi que les dispositifs doivent être adaptés aux objectifs (éviter la course en avant technologique, cf. plus haut). La sobriété numérique passe par la discussion et le consensus.
Outre les aspects techniques d’un serveur low-tech, il est donc crucial aujourd’hui de s’interroger sur la manière dont nous voulons présenter des contenus de manière à désencombrer le web et clarifier nos usages. Rappel : HTTP et HTML sont les bases autour desquelles se greffent les contenus, par conséquent il s’agit de les structurer convenablement, c’est-à-dire faire passer le fond avant la forme. J’émets donc ici quelques idées, avec beaucoup de redondance. Exprès !. Ce sont des directions potentielles dont le but est surtout de chercher à ouvrir une discussion sur la manière dont nous devrions structurer le web. En gros : mettons-nous à la recherche d’une politique éditoriale du web désencombré.
Liberté
Il n’y a aucune obligation à suivre les préceptes d’un web désencombré3. Il faudrait néanmoins que chacun en comprenne le sens et qu’on puisse ouvrir la possibilité d’un « réseau » désencombré où l’on reconnaîtrait chaque page par son caractère numériquement sobre. On pourrait proposer un manifeste de la communauté du web désencombré.
- Recommandation : un web désencombré est d’abord une réflexion critique sur les technologies web et sur la manière de structurer les contenus.
Inspiration : Fuckcss et Gemini
En mettant de côté leur aspect volontairement provocateur, on peut s’inspirer des pages suivantes désormais bien connues : This is a motherfucking website. et This is still a motherfucking website. Même si elles contiennent des scripts Google analytics (!).
Elles ont le mérite de démontrer qu’un site web n’a vraiment pas besoin de surcharge CSS. La seconde version propose une négociation relative au confort de lecture : elle démontre qu’un strict minimum de style doit être d’abord pensé pour rendre plus accessible l’information sans pour autant imposer une typographie. La relative austérité de ces pages n’est en réalité due qu’à la feuille de style par défaut du navigateur (allez voir par ici sur Firefox : resource://gre-resources/
).
C’est pourquoi une amélioration notable des navigateurs pourrait s’inspirer à son tour de la créativité des créateurs des différents navigateurs utilisés pour le protocole Gemini, comme Lagrange et les autres.
En effet que montre Gemini ? Qu’en s’inspirant d’un protocole comme Gopher (aussi ancien que HTTP) qui permet de présenter des documents dans une grande sobriété (esthétique et énergétique), il est possible de déporter correctement leur présentation sur les fonctionnalités du navigateur et par conséquent rendre leur consultation esthétique, agréable et fonctionnelle en travaillant la chose en local.
Pour moi, Gemini est d’abord une preuve de concept, tant dans le processus de création de contenus4 que dans la consultation. Même si le Geminispace reste confidentiel et réservé à quelques connaisseurs, l’utilisation est néanmoins très simple, même si elle implique forcément un changement d’habitudes. Je pense que, sur ce modèle, un web désencombré devrait s’inspirer d’un protocole et d’un langage déjà forts anciens (HTTP et HTML) mais en les utilisant dans leurs « versions » originelles. Il m’est d’avis que si les navigateurs créés pour Gemini acceptaient à la fois du Gopher/Gemini et du HTML « scrict » (je le met entre guillemets car il n’a plus cours), nous pourrions surfer de manière très intéressante avec des fonctionnalités très créatives. Un piste pourrait être le navigateur HTML Lynx, qui utilise une coloration syntaxique intéressante.
Les contenus textuels : structuration
La sobriété numérique ne doit pas être comprise comme un « retour aux sources ». D’une part ces « sources » sont toujours présentes : le HTML est une évolution de l’ancien SGML. D’autre part s’adosser à l’existant implique ici en réalité un usage correct des langages de structuration de contenus. Par exemple, utiliser correctement les éléments HTML revient à optimiser la recherche et la visibilité de l’information. Il faut donc éviter que des éléments HTML soient utilisés pour ce qu’il ne sont pas. Par exemple, faire systématiquement des liens dans des <button>
et/ou dans des <form>
.
Écrire pour le web est devenu une activité à part entière, entièrement dédiée à l’optimisation des résultats des moteurs de recherche, si bien que les contenus ainsi rédigés sont ni plus ni moins que des bons contenus googlisés ! Si d’autres moteurs de recherche plus axés sur des types de structures de pages voyaient le jour, il serait beaucoup plus intéressant de publier des contenus (voir ci-dessous la question des microformats). Écrire pour le web devrait donc en premier lieu avoir pour seul souci la bonne structuration du contenu indépendamment de la manière dont les robots d’une multinationale pourraient le lire. Les mots-clé, les descriptions, les titres doivent être honnêtes et en accord avec le contenu, il ne doivent pas créer de faux indices de pertinence pour être mieux référencés dans des bases de données.
Par défaut, la conception de contenus web doit se concentrer sur toutes possibilités de structuration de contenu du HTML dans la version en cours, et les exploiter au mieux. En d’autres termes, les styles ne doivent pas chercher à pallier les soi-disant manques du HTML ou orienter la compréhension des contenus.
- Recommandation : Bien que HTML 5 n’ai pas de variante stricte, il faudrait s’inspirer des anciennes variantes HTML strict pour réaliser des pages web. Ceci est l’orientation, pas le but. Cette épuration permet de construire des documents clairs et bien structurés qui pourront être lisibles pour ce qu’ils sont et non ce qu’ils paraissent, avec tout type de navigateur.
- Recommandation : les feuilles de styles devraient être réduites au minimum nécessaire en fonction du contenu, elles doivent être ad hoc. Si le contenu évolue pour intégrer de nouveaux types de contenus, la feuille de style évolue avec. La feuille de style ne doit pas encombrer5.
- Recommandation : utiliser à bon escient les en-têtes HTML. Les balises
meta
doivent être les plus exhaustives possibles tout en restant honnêtes. Le web désencombré est un web de confiance. Les mots-clés, les descriptions, etc. doivent refléter exactement le document et non être rédigés à des fins de SEO « concurrentielle » et marketing.
Une piste : améliorer les navigateurs
Une piste de réflexion pourrait consister à améliorer les fonctionnalités des navigateurs pour leur permettre d’afficher de bons styles (modifiables par l’utilisateur) en fonction du type de page consulté. Cette fonction existe en partie, par exemple sur Firefox qui propose un « mode lecture » ou bien, dans les paramètres de Firefox la section apparence
, ou encore certains plugins qui proposent de remplacer des styles. Cette fonction pourrait être étendue selon le type de page (correctement déclarée dans les balises d’en-tête, par exemple dans la balise <meta name="description"
) et qui respecterait les préceptes d’un web désencombré.
En effet, si on considère un instant les template/CSS proposés pour les CMS les plus courants (par les communautés d’utilisateurs ou par les sites officiels), quelle typologie trouve-t-on ? Un blog, un journal (ou autre site de news), un site de commerce de détail, un site web d’entreprise, un CV, un portfolio. Le reste, ce sont les web designer qui s’en occupent pour construire des présentations sur mesure. Si nous partons de cette typologie, voici 6 feuilles de styles qui pourraient être choisies par défaut par le navigateur. En poussant le curseur un peu plus loin, il n’y aurait même plus besoin de feuille de style à télécharger avec le document, c’est le navigateur qui se chargerait de proposer une présentation du contenu (et l’utilisateur pourrait choisir). L’idée, ici, consiste à déporter la présentation sur le navigateur, c’est-à-dire travailler en local pour décharger les serveurs d’informations qui seraient superflues.
Plus besoin de télécharger des polices de caractère, plus besoin d’imposer ses goûts et ses couleurs. Bien sûr, il ne devrait pas y avoir d’obligation : c’est l’utilisateur qui devrait pouvoir choisir s’il accepte ou non de consulter le site avec la proposition de style du créateur.
Recommandation : les feuilles de style ne devraient être que des propositions qui permettent de jouer sur la présentation de contenus HTML bien structurés. L’utilisateur devrait pouvoir choisir ou non le style proposé, consulter uniquement en mode texte, ou consulter selon le style qu’il pourra appliquer automatiquement ou non par son navigateur. En l’absence d’un tel choix, par défaut, les styles doivent être réduits à presque rien.
Tout n’est pas mauvais dans les styles
Les feuilles de styles sont des amies : elles permettent de rendre plus agréable la lecture, elle embellissent le web, permettent la créativité, et si la typographie est maîtrisée elles apportent du confort.
Mais elles ont un côté obscur :
- la tendance à l’uniformisation : paradoxalement, la créativité est persona non grata sur bien des sites web. Les sites d’actualités, de commerce de détail, et même les sites d’entreprises se ressemblent beaucoup, seules les couleurs et les logos changent. Qui parle encore de visibilité sur le web ? Cela tient pour beaucoup aux CMS (systèmes de gestion de contenus) : même s’il permettent à leurs utilisateurs de créer des CSS sur mesure, l’organisation des pages qu’ils proposent par défaut impliquent souvent une uniformisation des contenus et donc des styles qui se ressemblent.
- la volonté d’imposer un affichage, une présentation des contenus, sans réelle valeur ajoutée. Pourquoi vouloir absolument proposer des couleurs ou des images qui n’apportent rien de plus au contenu ? Un site qui ne joue que sur les feuilles de style pour afficher un menu, ou mettre en exergue des contenus sera très difficilement lisible sur un navigateur en mode texte, ou en utilisant le mode lecture du navigateur, et surtout c’est la plupart du temps une cause d’inaccessibilité pour les personnes malvoyantes. Les styles doivent n’être que des propositions qui visent à faciliter la lecture par rapport aux feuilles de style par défaut des navigateurs (on l’a déjà dit plus haut, d’accord).
- la multiplication des requêtes : par exemple, imposer à l’utilisateur de télécharger des polices de caractères (qui en plus sont souvent hébergées par des multinationales qui en profitent pour surveiller), ou imposer une image de fond, des animations,… Les styles ont tendance à alourdir les pages web, souvent inutilement du point de vue du fonds comme du point de vue de la forme.
Pour autant, les styles ne sont pas tous bons à jeter par la fenêtre. On peut penser par exemple à utiliser les microformats. Ces derniers cherchent à combler le fossé entre la structure et la signification grâce à des classes qui sont comprises directement par le navigateur. Par exemple, un microformat qui est prometteur, c’est citation. Avec les bons effets de styles, celui-ci pourrait permettre d’identifier et de travailler les bibliographies sur le web un peut à la manière d’un bibtex géant ! Cela aurait un certain panache et compléterait aisément l’élément HTML <cite>
souvent peu ou mal employé.
- Recommandation : on devrait pouvoir écrire ce qu’on veut, comme on veut, sans être conditionné par des styles.
- Recommandation : utiliser et promouvoir les microformats permettrait d’optimiser la recherche, la lecture et la compréhension des informations.
Les contenus multimédias
Par défaut, aucune image, aucun son, aucune vidéo ne devrait être téléchargé si l’utilisateur n’en a pas fait explicitement la demande.
Pour les mêmes raisons d’accessibilité mentionnées plus haut, on bannira les icônes et autres images ayant vocation à remplacer de l’information par une iconographie dont les clés de compréhension ne sont de toute façon pas connues de tous.
Il y a un statut particulier du contenu multimédia lorsqu’il vise à illustrer un propos : dans un article, une vignette ne dépassant pas une dizaine de kilo-octets pourrait être proposée dans l’élément HTML figure
avec un lien vers l’illustration en plus haute définition soit dans l’élément caption
soit directement sur la vignette (à la manière du web des années 1990).
Pour les contenus textuels, une image devrait uniquement avoir pour objectif d’illustrer un propos (mais dans une démarche artistique, une image est en soi le propos).
Un site ayant la vocation de diffuser exclusivement des contenus multimédia doit en assumer le coût énergétique et d’accessibilité tout en structurant correctement ces contenus pour les décrire avec soin. Par exemple, pour les vidéos, on pourra utiliser Peertube (monter une instance ou partager une instance avec d’autres personnes) et proposer par défaut une visualisation en basse définition tout en soignant le sommaire des vidéos.
- Recommandation : il ne devrait pas y avoir de recommandation particulière pour la présentation des contenus multimédias étant donné que le coût énergétique de leur distribution est connu pour être particulièrement dispendieux. Il appartient à chacun de proposer de tels contenus en connaissance de cause et, le cas échéant, utiliser des formats libres, des logiciels libres et des services de distribution libres comme Peertube pour le son et la vidéo, par exemple).
- Recommandation : en revanche, un web désencombré commence par se débarrasser du superflu : par défaut, aucune image, aucun son, aucune vidéo ne devrait être téléchargé si l’utilisateur n’en a pas fait explicitement la demande.
Sécurité et confidentialité : pas de javascript, pas de cookies
Le web désencombré est par nature un web sécuritaire. Il noue une chaîne de confiance entre le créateur de contenu et l’utilisateur.
Par conséquent, il n’y a aucune place pour la captation de données utilisateur à des fins de mesure d’audience ou publicitaire. Cela se concrétise notamment par l’interdiction par défaut de code javascript dans les pages HTML et par le refus par défaut de n’importe quel cookie. Cependant…
La manque de confiance dans la navigation web a aujourd’hui atteint un tel stade que certains utilisateurs désactivent complètement le javascript dans leur navigateur, surtout pour des raisons de sécurité. C’est dommage, car l’intention première d’imaginer un web interactif s’en trouve contrecarrée.
Cela dit, un utilisateur est forcément par défaut un utilisateur sans javascript : il faut toujours télécharger le script avant de l’exécuter. Or, tous les navigateurs (surtout en mode texte) ne permettent pas d’exécuter ces scripts. Par conséquent, pour un web désencombré, l’utilisation de javascript devrait être exceptionnelle et réservée à des sites interactifs spécialisés (par exemple un site qui permet une application javascript en ligne). A priori, lire un blog, une vitrine d’entreprise, un article de news ou consulter une base documentaire ne devrait pas nécessiter de scripts.
Concernant les cookies et autres traceurs, le web d’aujourd’hui est dans un tel état que les utilisateurs doivent s’en prémunir (même avec les obligations du RGPD), en installant des plugins tels Ublock Origin ou Privacy Badger. Là encore, un web désencombré ne peut admettre l’utilisation de cookies qui ne soient pas a minima strictement conforme au RGPD et dont la fiabilité est vérifiable.
En d’autres termes, l’utilisation de cookies tiers devrait être interdite pour un web de confiance et désencombré. La CNIL a publié à cet effet quelques moyens de lutter contre ce fléau… mais certains ne manquent pas d’imagination pour contourner tous ces dispositifs.
- Recommandation : structurer correctement des pages web et les proposer au téléchargement ne devrait nécessiter par défaut aucun cookie ni script. Le web désencombré ne peut donc concerner directement les sites spécialisés qui, pour des raisons d’identification ou de fonctionnement ont besoin de ces dispositifs. Dans ce cas, c’est à eux de trouver des solutions pour une éco-conception web plus efficace. L’essentiel est de veiller à ce que les sites soient les plus légers possibles, les plus sécurisés possible, les plus respectueux possible. Des outils de lutte sont à disposition.
- Recommandation : dans de très nombreux cas, les cookies (first party) sont nécessaires (par exemple pour un sondage via un formulaire), ce qui lève la convention par défaut citée ci-dessus. Un web désencombré ne peut donc être un web avec des cookies tiers, c’est une limitation volontaire et non négociable. Même remarque avec les scripts.
Pour aller plus loin
C. Bonamy et al, Je code : les bonnes pratiques en éco-conception de service numérique à destination des développeurs de logiciels, URL].
S. Crozat, Low-technicisation du numérique, Conférence, URL.
—, « Vers une ataraxie numérique : low-technicisation et convivialité » in Prendre soin de l’informatique et des générations, hommage à Bernard Stiegler, FYP Éditions, 2021. Texte lisible sur le blog de l’auteur, URL.
Collectif GreenIT, Conception numérique responsable URL ; les fiches Bonnes Pratiques
Fondation Mozilla, HTML (HyperText Markup Language), URL.
Pikselkraft, Bibliographie sur l’éco-conception web et les sites Low Tech, URL.
Mission interministérielle numérique responsable, Référentiel général d’écoconception de services numériques (RGESN), URL.
J. Keith, Resilient Web Design, URL.
Wiki des microformats, URL.
-
Il y a eu et il y aura encore beaucoup de projets dans ce style, visant à promouvoir l’accès à Internet pour tous et dans des conditions difficiles tout en réduisant le web à quelques services aux mains des grandes entreprises. Une illustration est le projet Internet.org promu par Facebook au nom de la connectivité pour tous. ↩︎
-
Avoir des smartphones dont la fonction de photographie est toujours plus performante n’a pour autre objectif que de créer un discours marketing pour gagner des parts de marché car l’intérêt réel pour les utilisateurs est marginal. L’interêt collectif est alors laissé de côté : prendre des photos ou des vidéos très haute définition engendre le besoin d’une connectivité toujours plus performante pour les partager, or ne serait-il pas plus pertinent de se poser d’abord la question de la pertinence des contenus multimédia haute définition si leur utilisation se fait pour l’essentiel sur des petits écrans ? Si par défaut le partage de contenus multimédia se faisait en basse définition ou de manière systématiquement plus économe en ressources matérielles et en bande passante, le marché des smartphones disposant de capteurs vidéos et photos s’en trouverait radicalement changé. ↩︎
-
Vous noterez par la même occasion que la page que vous êtes en train de lire ne correspond pas vraiment à ces recommandations. Cela va s’améliorer au fur et à mesure de l’avancement de mes connaissances à ce sujet. ↩︎
-
Après tout, on crée des pages Gemini dans un pseudo-markdown et le markdown est déjà largement utilisé pour créer des pages HTML. Le processus de création est très similaire de ce point de vue. ↩︎
-
Pour être plus explicite, si votre contenu ne propose aucun tableau, il n’est pas utile d’imposer le téléchargement de styles pour des tableaux ; si vos titres sont suffisamment clairs et explicites, il n’est pas utile de les mettre en couleur et imposer vos goûts ; si les navigateurs ont tous désormais un mode lecture nuit/sombre/clair, il est alors inutile de s’occuper de cela dans une feuille de style ; etc. ↩︎
04.02.2023 à 01:00
Toute la France se tient sage... toute ?
Il y a des torchons qu’on ne devrait pas signer et d’autres qui méritent franchement d’être brûlés. La « France qui se tient sage » est un concept qui a fait du chemin et il est vrai que bien peu l’ont vu venir. Il se décline aujourd’hui dans le monde associatif mais aussi – on en parle moins – dans le monde académique.
Des associations qui se tiennent sages
En 2020, dans le cadre de la lutte contre le « séparatisme », l’argumentaire était judicieusement choisi. Surfant sur la vague des attentats (notamment celui de Samuel Paty) se revendiquant d’un certain islam, et sur celle de l’angoisse d’un monde en guerre et de l’écho trop large laissé aux discours de haine dans les médias, la lutte contre le séparatisme visait à prémunir la société française contre les tentatives anti-démocratiques de groupes identifiés souhaitant imposer leur propre ordre social. Ordres religieux, s’il en est, ou bien ordres néofascistes, bref, la Loi confortant le respect des principes de la République (dite « Loi séparatisme ») nous a été vendue comme un bouclier républicain. En particulier des dispositions ont été prises pour que toute association profitant des bienfaits institutionnels (versement de subventions ou commodités municipales) tout en livrant discours et actes à l’encontre de l’ordre républicain se verrait dissoute ou au moins largement contrecarrée dans ses projets.
On peut s’interroger néanmoins. L’arsenal juridique n’était-il pas suffisant ? Et dans la surenchère d’amendements appelant à la censure de tous côtés, on pouvait déjà se douter que le gouvernement était désormais tombé dans le piège anti-démocratique grossièrement tendu : ordonner le lissage des discours, l’obligation au silence (des fonctionnaires, par exemple), contraindre la censure à tout bout de champ dans les médias… le front des atteintes aux libertés (surtout d’expression) marquait une avancée majeure, ajoutées au déjà très nombreuses mesures liberticides prises depuis le début des années 2000.
Le 31 décembre 2021, un décret mettait alors en place le Contrat d’engagement républicain (CER) à destination des associations qui bénéficient d’un agrément officiel ou de subventions publiques (au sens large : il s’agit aussi de commodités en nature qu’une collectivité locale pourrait mettre à disposition). Ce CER n’a pas fait couler beaucoup d’encre à sa sortie, et pour cause : les conséquences n’était pas évidentes à concevoir pour le grand public. Tout au plus pouvait-on se demander pourquoi il était pertinent de le signer pour toutes les associations qui sont déjà placées sous la loi de 1901 (ou sous le code civil local d’Alsace-Moselle). Après tout, celles accusées de séparatisme tombaient déjà sous le coup de la loi. Par exemple, pourquoi l’association des Joyeux Randonneurs de Chimoux-sur-la-Fluette, dont les liens avec le fascisme ou l’intégrisme religieux sont a priori inexistants, devait se voir contrainte de signer ce CER pour avoir le droit de demander à la municipalité quelques menus subsides pour l’organisation de la marche populaire annuelle ?
Réponse : parce que l’égalité est républicaine. Soit ce CER est signé par tout le monde soit personne. D’accord. Et le silence fut brisé par quelques acteurs de qui, eux, l’avaient lu attentivement, ce contrat. Il y eut Le Mouvement Associatif qui dès le 3 janvier 2022 publie un communiqué de presse et pointe les dangers de ce CER. On note par exemple pour une association l’obligation de surveillance des actions de ses membres, ou encore le fait que les « dirigeants » d’une association engagent la responsabilité de l’ensemble de l’association. Comprendre : si l’un d’entre vous fait le mariole, c’est toute l’asso qui en subit les conséquences (privé de subvention, na!).
Puis s’enclenche un mouvement général, comme le 02 févier 2022 cet appel de la Ligue des Droits de l’Homme. Enfin L.A. Coalition fut au premier plan contre le CER dès les premiers débats sur la loi séparatisme. Créé dès 2019 afin de « proposer des stratégies de riposte contre les répressions subies par le secteur associatif », L.A. Coalition montre combien sont nombreuses les entraves judiciaires ou administratives dressées dans le seul but de nuire aux libertés associatives, surtout lorsqu’elles sont teintés de militantisme… alors même qu’elles sont la matière première de la démocratie en France. L.A. Coalition illustre la contradiction notoire entre le discours gouvernemental prétendant défendre la République et la voix du peuple profondément attaché aux valeurs démocratiques. Elle se fait ainsi le thermomètre de l'illibéralisme en France.
Lorsque les associations s’emparent de sujets de société tels l’écologie, les questions de genre, l’économie, les migration, la pauvreté, ou oeuvrent plus généralement pour une société plus juste et solidaire, elles sont désormais amenées à engager une lutte à l’encontre des institutions qui, jusqu’à présent, leur garantissait un cadre d’action démocratique et juridique.
Mais cette lutte dépasse assez largement le cadre des actions associatives. En effet, le CER n’a pas pour seul objet de contraindre les citoyens à la censure. Il sert aussi à court-circuiter les cadres de l’action publique locale, surtout si les collectivités locales sont dirigées par des élus qui ne sont pas du même bord politique que la majorité présidentielle. C’est que qu’illustre notamment l’affaire d’Alternatiba Poitiers qui s’est vue (ainsi que d’autres associations) mettre en cause par le préfet de la Vienne en raison d’un atelier de formation à la désobéissance civile lors d’un évènement « Village des alternatives ». Invoquant le CER contre le concept même de désobéissance civile, le préfet Jean-Marie Girier (macroniste notoire) a obligé la mairie de Poitiers (dont le maire est EELV) à ne pas subventionner l’évènement. Il reçu aussitôt l’appui du Ministre de l’Intérieur (l’affaire est devant la justice). La France des droits et libertés contre la France de l’ordre au pouvoir, tel est l’essence même du CER.
Des scientifiques qui se tiennent sages
On ne peut pas s’empêcher de rapprocher le CER du dernier avatar du genre : le serment doctoral.
Qu’est-ce que c’est ? Il s’agit d’un serment d’intégrité scientifique rendu obligatoire pour tout nouveau docteur et stipulé dans L’arrêté du 26 août 2022 modifiant l’arrêté du 25 mai 2016 fixant le cadre national de la formation et les modalités conduisant à la délivrance du diplôme national de doctorat. L’office français de l’intégrité scientifique (OFIS) en a fait une fiche pratique.
Voici le texte (Art. 19b de l’arrêté) :
« En présence de mes pairs.
Parvenu(e) à l’issue de mon doctorat en [xxx], et ayant ainsi pratiqué, dans ma quête du savoir, l’exercice d’une recherche scientifique exigeante, en cultivant la rigueur intellectuelle, la réflexivité éthique et dans le respect des principes de l’intégrité scientifique, je m’engage, pour ce qui dépendra de moi, dans la suite de ma carrière professionnelle quel qu’en soit le secteur ou le domaine d’activité, à maintenir une conduite intègre dans mon rapport au savoir, mes méthodes et mes résultats. »
On notera que sous son apparente simplicité, le texte se divise en deux : ce que le doctorant a fait jusqu’à présent et ce que le nouveau docteur fera à l’avenir (même s’il quitte le monde académique car le grade de docteur valide compétences et savoirs d’un individu et non d’une fonction). Autrement dit, le serment est censé garantir « l’intégrité » du docteur, alors même que l’obtention du diplôme validé par des (désormais) pairs était déjà censé sanctionner cette intégrité.
Là encore, tout comme avec le CER, il y a une volonté de court-circuiter des acteurs institutionnels (ici les professeurs et l’Université qui valident le doctorat) qui sont désormais réputés ne plus être en mesure de détecter la fraude ou même de garantir les sciences contre les manipulations d’informations, de données et les arguments fallacieux (on pense évidemment aux informations douteuses qui ont circulé lors de l’épisode COVID). On peut aussi s’interroger sur la représentation de la Science que cela implique : une Science figée, obéissant à un ordre moral qui l’empêcherait d’évoluer à ses frontières, là où justement les sciences ont toujours évolué, souvent à l’encontre du pouvoir qu’il soit politique, religieux ou moral.
Plusieurs sections CNU (Conseil National des Universités) sont actuellement en train de réfléchir à l’adoption de motions à l’encontre de ce serment. Ainsi la section 22 (Histoire) a récemment publié sa motion: « Elle appelle les Écoles doctorales et la communauté universitaire dans son ensemble à résister collectivement, par tous les moyens possibles, à l’introduction de ce serment ». L’argument principal est que ce serment introduit un contrôle moral de la recherche. Ce en quoi la communauté universitaire a tout à fait raison de s’y opposer.
On peut aussi comparer ce serment avec un autre bien connu, le serment d’Hippocrate. Après tout, les médecins prêtent déjà un serment, pourquoi n’en serait-il pas de même pour tous les docteurs ?
Hé bien pour deux raisons :
- Parce que le serment d’Hippocrate n’est pas défini par un arrêté et encore moins dicté par le législateur. Il s’agit d’un serment traditionnel dont la valeur symbolique n’est pas feinte : il est hautement moral et à ce titre n’a pas de rapport juridique avec le pouvoir.
- Il engage le médecin dans une voie de responsabilité vis-à-vis de ses pairs et surtout des patients qu’il est amené à soigner. Il appartient au Conseil de l’Ordre des médecins : c’est une affaire entre médecins et patients d’abord et entre médecins et médecins ensuite.
Reprenons les termes du serment doctoral imposé par le gouvernement : « je m’engage, pour ce qui dépendra de moi, dans la suite de ma carrière professionnelle quel qu’en soit le secteur ou le domaine d’activité, à maintenir une conduite intègre dans mon rapport au savoir, mes méthodes et mes résultats. »
Question : qui est censé juger de l’intégrité de la conduite ? Les pairs ? Ce n’est pas stipulé, alors que c’est clair dans le serment d’Hippocrate de l’Ordre des Médecins, dernier paragraphe :
« Que les hommes et mes confrères m’accordent leur estime si je suis fidèle à mes promesses ; que je sois déshonoré(e) et méprisé(e) si j’y manque. »
Le « serment doctoral » stipule seulement qu’il est prêté « en présence de mes pairs », la belle affaire. Il est évident selon moi que l’intégrité scientifique d’un chercheur sera à l’avenir évaluée moralement par les institutions et non par les pairs. Cette tendance à la fongibilité entre morale et droit dans nos institutions républicaines est tout à fait malsaine.
Parlons des scandales pharmaceutiques. Parlons des scandales environnementaux. Si demain un chercheur ayant signé ce serment utilise son savoir et ses méthodes pour démontrer les conséquences néfastes (tant environnementales que sociales) d’un engagement gouvernemental dans l’ouverture d’une mine de charbon comme celle de Hambach en Allemagne, à votre avis : pourra-t-il toujours dans son laboratoire essayer de prétendre à quelques subventions pour des recherches (même n’ayant aucun rapport avec son engagement personnel contre la mine) ? En fait, sur le sujet climatique, la question de l’engagement des chercheurs est brûlante : ce qu’on veut surtout éviter c’est le profil du chercheur militant, car on ne sait jamais, il pourrait avoir raison…
Là encore le militantisme et la démocratie sont mises en cause de manière frontale par le gouvernement.
Après avoir bien transformé la dynamique de la recherche française en la noyant sous l’évaluation et la logique de projet, il est normal de faire en sorte que les chercheurs, tout comme les associations, puissent enfin rentrer dans le rang : c’est une France qui se tient sage. Le concept a fait du chemin.
03.09.2022 à 02:00
Bifurquer avant l’impact : l’impasse du capitalisme de surveillance
La chaleur de l’été ne nous fait pas oublier que nous traversons une crise dont les racines sont bien profondes. Pendant que nos forêts crament, que des oligarques jouent aux petits soldats à nos portes, et vu que je n’avais que cela à faire, je lisais quelques auteurs, ceux dont on ne parle que rarement mais qui sont Ô combien indispensables. Tout cela raisonnait si bien que, le temps de digérer un peu à l’ombre, j’ai tissé quelques liens avec mon sujet de prédilection, la surveillance et les ordinateurs. Et puis voilà, paf, le déclic. Dans mes archives, ces mots de Sébastien Broca en 2019 : « inscrire le capitalisme de surveillance dans une histoire plus large ». Mais oui, c’est là dessus qu’il faut insister, bien sûr. On s’y remet.
Je vous livre donc ici quelques réflexions qui, si elles sont encore loin d’être pleinement abouties, permettront peut-être à certains lecteurs d’appréhender les luttes sociales qui nous attendent ces prochains mois. Alimentons, alimentons, on n’est plus à une étincelle près.
(Article paru dans le Framablog le 29/08/2022)
Table des matières
Le capitalisme de surveillance est un mode d’être du capitalisme aujourd’hui dominant l’ensemble des institutions économiques et politiques. Il mobilise toutes les technologies de monitoring social et d’analyse de données dans le but de consolider les intérêts capitalistes à l’encontre des individus qui se voient spoliés de leur vie privée, de leurs droits et du sens de leur travail. L’exemple des entreprises-plateformes comme Uber est une illustration de cette triple spoliation des travailleurs comme des consommateurs. L’hégémonie d’Uber dans ce secteur d’activité s’est imposée, comme tout capitalisme hégémonique, avec la complicité des décideurs politiques. Cette complicité s’explique par la dénégation des contradictions du capitalisme et la contraction des politiques sur des catégories anciennes largement dépassées. Que les décideurs y adhèrent ou non, le discours public reste campé sur une idée de la production de valeur qui n’a plus grand-chose de commun avec la réalité de l’économie sur-financiarisée.
Il est donc important d’analyser le capitalisme de surveillance à travers les critiques du capitalisme et des technologies afin de comprendre, d’une part pourquoi les stratégies hégémoniques des multinationales de l’économie numérique ne sont pas une perversion du capitalisme mais une conséquence logique de la jonction historique entre technologie et finance, et d’autre part que toute régulation cherchant à maintenir le statu quo d’un soi-disant « bon » capitalisme est vouée à l’échec. Reste à explorer comment nous pouvons produire de nouveaux imaginaires économiques et retrouver un rapport aux technologies qui soit émancipateur et générateur de libertés.
Situer le capitalisme de surveillance dans une histoire critique du capitalisme
Dans la Monthly Review en 2014, ceux qui forgèrent l’expression capitalisme de surveillance inscrivaient cette dernière dans une critique du capitalisme monopoliste américain depuis la fin de la Seconde Guerre Mondiale. En effet, lorsqu’on le ramène à l’histoire longue, qui ne se réduit pas aux vingt dernières années de développement des plus grandes plateformes numériques mondiales, on constate que le capitalisme de surveillance est issu des trois grands axes de la dynamique capitaliste de la seconde moitié du XXᵉ siècle. Pour John B. Foster et Robert W. McChesney, la surveillance cristallise les intérêts de marché de l’économie qui soutient le complexe militaro-industriel sur le plan géopolitique, la finance, et le marketing de consommation, c’est-à-dire un impérialisme sur le marché extérieur (guerre et actionnariat), ce qui favorise en retour la dynamique du marché intérieur reposant sur le crédit et la consommation. Ce système impérialiste fonctionne sur une logique de connivence avec les entreprises depuis plus de soixante ans et a instauré la surveillance (de l’espionnage de la Guerre Froide à l’apparition de l’activité de courtage de données) comme le nouveau gros bâton du capitalisme.
Plus récemment, dans une interview pour LVSL, E. Morozov ne dit pas autre chose lorsqu’il affirme qu’aujourd’hui l’enjeu des Big Tech aux États-Unis se résume à la concurrence entre les secteurs d’activités technologiques sur le marché intérieur et « la volonté de maintenir le statut hégémonique des États-Unis dans le système financier international ».
Avancées technologiques et choix sociaux
Une autre manière encore de situer le capitalisme de surveillance sur une histoire longue consiste à partir du rôle de l’émergence de la microélectronique (ou ce que j’appelle l’informatisation des organisations) à travers une critique radicale du capitalisme. C’est sur les écrits de Robert Kurz (et les autres membres du groupe Krisis) qu’il faut cette fois se pencher, notamment son travail sur les catégories du capitalisme.
Ici on s’intéresse à la microélectronique en tant que troisième révolution industrielle. Sur ce point, comme je le fais dans mon livre, je préfère maintenir mon approche en parlant de l’informatisation des organisations, car il s’agit surtout de la transformation des processus de production et pas tellement des innovations techniques en tant que telles. Si en effet on se concentre sur ce dernier aspect de la microélectronique, on risque d’induire un rapport mécanique entre l’avancement technique et la transformation capitaliste, alors que ce rapport est d’abord le résultat de choix sociaux plus ou moins imposés par des jeux de pouvoirs (politique, financier, managérial, etc.). Nous y reviendrons : il est important de garder cela en tête car l’objet de la lutte sociale consiste à prendre la main sur ces choix pour toutes les meilleures raisons du monde, à commencer par notre rapport à l’environnement et aux techniques.
Pour expliquer, je vais devoir simplifier à l’extrême la pensée de R. Kurz et faire des raccourcis. Je m’en excuse par avance. R. Kurz s’oppose à l’idée de la cyclicité des crises du capitalisme. Au contraire ce dernier relève d’une dynamique historique, qui va toujours de l’avant, jusqu’à son effondrement. On peut alors considérer que la succession des crises ont été surmontées par le capitalisme en changeant le rapport structurel de la production. Il en va ainsi pour l’industrialisation du XIXᵉ siècle, le fordisme (industrialisation moderne), la sur-industrialisation des années 1930, le marché de consommation des années 1950, ou de la financiarisation de l’économie à partir des années 1970. Pour R. Kurz, ces transformations successives sont en réalité une course en avant vers la contradiction interne du capitalisme, son impossibilité à renouveler indéfiniment ses processus d’accumulation sans compter sur les compensations des pertes de capital, qu’elles soient assurées par les banques centrales qui produisent des liquidités (keynésianisme) ou par le marché financier lui-même remplaçant les banques centrales (le néolibéralisme qui crée toujours plus de dettes). Cette course en avant connaît une limite indépassable, une « borne interne » qui a fini par être franchie, celle du travail abstrait (le travail socialement nécessaire à la production, créant de la valeur d’échange) qui perd peu à peu son sens de critère de valeur marchande.
Cette critique de la valeur peut être vue de deux manières qui se rejoignent. La première est amenée par Roswitha Scholz et repose sur l’idée que la valeur comme rapport social déterminant la logique marchande n’a jamais été critiquée à l’aune tout à fait pratique de la reproduction de la force de travail, à savoir les activités qu’on détermine comme exclusivement féminines (faire le ménage, faire à manger, élever les enfants, etc.) et sont dissociées de la valeur. Or, cette tendance phallocrate du capitalisme (comme de la critique marxiste/socialiste qui n’a jamais voulu l’intégrer) rend cette conception autonome de la valeur complètement illusoire. La seconde approche situe dans l’histoire la fragilité du travail abstrait qui dépend finalement des processus de production. Or, au tournant des années 1970 et 1980, la révolution informatique (la microélectronique) est à l’origine d’une rationalisation pour ainsi dire fulgurante de l’ensemble des processus de production en très peu de temps et de manière mondialisée. Il devient alors plus rentable de rationaliser le travail que de conquérir de nouveaux espaces pour l’accumulation de capital. Le régime d’accumulation atteint sa limite et tout se rabat sur les marchés financiers et le capital fictif. Comme le dit R. Kurz dans Vies et mort du capitalisme1 :
C’est le plus souvent, et non sans raison, la troisième révolution industrielle (la microélectronique) qui est désignée comme la cause profonde de la nouvelle crise mondiale. Pour la première fois dans l’histoire du capitalisme, en effet, les potentiels de rationalisation dépassent les possibilités d’une expansion des marchés.
Non seulement il y a la perte de sens du travail (la rationalisation à des échelles inédites) mais aussi une rupture radicale avec les catégories du capitalisme qui jusque-là reposaient surtout sur la valeur marchande substantiellement liée au travail abstrait (qui lui-même n’intégrait pas de toute façon ses propres conditions de reproduction).
Très voisins, les travaux d’Ernst Lohoff et de Norbert Trenkle questionnent la surfinanciarisation de l’économie dans La grande dévalorisation2. Pour eux, c’est la forme même de la richesse capitaliste qui est en question. Ils en viennent aux mêmes considérations concernant l’informatisation de la société. La troisième révolution industrielle a créé un rétrécissement de la production de valeur. La microélectronique (entendue cette fois en tant que description de dispositifs techniques) a permis l’avancée de beaucoup de produits innovants mais l’innovation dans les processus de production qu’elle a induits a été beaucoup plus forte et attractive, c’est-à-dire beaucoup plus rentable : on a préféré produire avec toujours moins de temps de travail, et ce temps de travail a fini par devenir une variable de rentabilité au lieu d’être une production de valeur.
Si bien qu’on est arrivé à ce qui, selon Marx, est une incompatibilité avec le capitalisme : l’homme finit par se situer en dehors du processus de production. Du moins, il tend à l’être dans nos économies occidentales. Et ce fut pourtant une sorte d’utopie formulée par les capitalistes eux-mêmes dans les années 1960. Alors que les industries commençaient à s’informatiser, le rêve cybernéticien d’une production sans travailleurs était en plein essor. Chez les plus techno-optimistes on s’interrogeait davantage à propos des répercussions de la transformation des processus de production sur l’homme qu’à propos de leur impact sur la dynamique capitaliste. La transformation « cybernétique » des processus de production ne faisait pas vraiment l’objet de discussion tant la technologie était à l’évidence une marche continue vers une nouvelle société. Par exemple, pour un sociologue comme George Simpson3, au « stade 3 » de l’automatisation (lorsque les machines n’ont plus besoin d’intervention humaine directe pour fonctionner et produire), l’homme perd le sens de son travail, bien que libéré de la charge physique, et « le système industriel devient un système à boutons-poussoirs ». Que l’automatisation des processus de production (et aussi des systèmes décisionnels) fasse l’objet d’une critique ou non, ce qui a toujours été questionné, ce sont les répercussions sur l’organisation sociale et le constat que le travail n’a jamais été aussi peu émancipateur alors qu’on en attendait l’inverse4.
La surveillance comme catégorie du capitalisme
Revenons maintenant au capitalisme de surveillance. D’une part, son appellation de capitalisme devient quelque peu discutable puisqu’en effet il n’est pas possible de le désincarner de la dynamique capitaliste elle-même. C’est pour cela qu’il faut préciser qu’il s’agit surtout d’une expression initialement forgée pour les besoins méthodiques de son approche. Par contre, ce que j’ai essayé de souligner sans jamais le dire de cette manière, c’est que la surveillance est devenue une catégorie du capitalisme en tant qu’elle est une tentative de pallier la perte de substance du travail abstrait pour chercher de la valeur marchande dans deux directions :
- la rationalisation à l’extrême des processus productifs qu’on voit émerger dans l’économie de plateformes, de l’esclavagisme moderne des travailleurs du clic à l’ubérisation de beaucoup de secteurs productifs de services, voire aussi industriels (on pense à Tesla). Une involution du travail qui en retour se paie sur l’actionnariat tout aussi extrême de ces mêmes plateformes dont les capacités d’investissement réel sont quasi-nulles.
- L’autre direction est née du processus même de l’informatisation des organisations dès le début, comme je l’ai montré à propos de l’histoire d’Axciom, à savoir l’extraction et le courtage de données qui pillent littéralement nos vies privées et dissocient cette fois la force de travail elle-même du rapport social qu’elle implique puisque c’est dans nos intimités que la plus-value est recherchée. La financiarisation de ces entreprises est d’autant plus évidente que leurs besoins d’investissement sont quasiment nuls. Quant à leurs innovations (le travail des bases de données) elles sont depuis longtemps éprouvées et reposent aussi sur le modèle de plateforme mentionné ci-dessus.
Mais alors, dans cette configuration, on a plutôt l’impression qu’on ne fait que placer l’homme au centre de la production et non en dehors ou presque en dehors. Il en va ainsi des livreurs d’Uber, du travail à la tâche, des contrats de chantiers adaptés à la Recherche et à l’Enseignement, et surtout, surtout, nous sommes nous-mêmes producteurs des données dont se nourrit abondamment l’industrie numérique.
On comprend que, par exemple, certains ont cru intelligent de tenter de remettre l’homme dans le circuit de production en basant leur raisonnement sur l’idée de la propriété des données personnelles et de la « liberté d’entreprendre ». En réalité la configuration du travail à l’ère des plateformes est le degré zéro de la production de valeur : les données n’ont de valeur qu’une fois travaillées, concaténées, inférées, calculées, recoupées, stockées (dans une base), etc. En soi, même si elles sont échangeables sur un marché, il faut encore les rendre rentables et pour cela il y a de l’Intelligence Artificielle et des travailleurs du clic. Les seconds ne sont que du temps de travail volatile (il produit de la valeur en tant que travail salarié, mais si peu qu’il en devient négligeable au profit de la rationalisation structurelle), tandis que l’IA a pour objectif de démontrer la rentabilité de l’achat d’un jeu de données sur le marché (une sorte de travail mort-vivant5 qu’on incorporerait directement à la marchandisation). Et la boucle est bouclée : cette rentabilité se mesure à l’aune de la rationalisation des processus de production, ce qui génère de l’actionnariat et une tendance au renforcement des monopoles. Pour le reste, afin d’assurer les conditions de permanence du capitalisme (il faut bien des travailleurs pour assurer un minimum de salubrité de la structure, c’est-à-dire maintenir un minimum de production de valeur), deux choses :
- on maintient en place quelques industries dont tout le jeu mondialisé consiste à être de plus en plus rationalisées pour coûter moins cher et rapporter plus, ce qui accroît les inégalités et la pauvreté (et plus on est pauvre, plus on est exploité),
- on vend du rêve en faisant croire que le marché de produits innovants (concrets) est en soi producteur de valeur (alors que s’accroît la pauvreté) : des voitures Tesla, des services par abonnement, de l’école à distance, un métavers… du vent.
Réguler le capitalisme ne suffit pas
Pour l’individu comme pour les entreprises sous perfusion technologique, l’attrait matériel du capitalisme est tel qu’il est extrêmement difficile de s’en détacher. G. Orwell avait (comme on peut s’y attendre de la part d’un esprit si brillant) déjà remarqué cette indécrottable attraction dans Le Quai de Wigan : l’adoration de la technique et le conformisme polluent toute critique entendable du capitalisme. Tant que le capitalisme maintiendra la double illusion d’une production concrète et d’un travail émancipateur, sans remettre en cause le fait que ce sont bien les produits financiers qui représentent l’essentiel du PIB mondial6, les catégories trop anciennes avec lesquelles nous pensons le capitalisme ne nous permettront pas de franchir le pas d’une critique radicale de ses effets écocides et destructeurs de libertés.
Faudrait-il donc s’en accommoder ? La plus importante mise en perspective critique des mécanismes du capitalisme de surveillance, celle qui a placé son auteure Shoshana Zuboff au-devant de la scène ces trois dernières années, n’a jamais convaincu personne par les solutions qu’elle propose.
Premièrement parce qu’elle circonscrit le capitalisme de surveillance à la mise en œuvre par les GAFAM de solutions de rentabilité actionnariale en allant extraire le minerai de données personnelles afin d’en tirer de la valeur marchande. Le fait est qu’en réalité ce modèle économique de valorisation des données n’est absolument pas nouveau, il est né avec les ordinateurs dont c’est la principale raison d’être (vendables). Par conséquent ces firmes n’ont créé de valeur qu’à la marge de leurs activités principales (le courtage de données), par exemple en fournissant des services dont le Web aurait très bien pu se passer. Sauf peut-être la fonction de moteur de recherche, nonobstant la situation de monopole qu’elle a engendrée au détriment de la concurrence, ce qui n’est que le reflet de l’effet pervers du monopole et de la financiarisation de ces firmes, à savoir tuer la concurrence, s’approprier (financièrement) des entreprises innovantes, et tuer toute dynamique diversifiée d’innovation.
Deuxièmement, les solutions proposées reposent exclusivement sur la régulation des ces monstres capitalistes. On renoue alors avec d’anciennes visions, celles d’un libéralisme garant des équilibres capitalistes, mais cette fois presque exclusivement du côté du droit : c’est mal de priver les individus de leur vie privée, donc il faut plus de régulation dans les pratiques. On n’est pas loin de renouer avec la vieille idée de l’ethos protestant à l’origine du capitalisme moderne selon Max Weber : la recherche de profit est un bien, il s’accomplit par le travail et le don de soi à l’entreprise. La paix de nos âmes ne peut donc avoir lieu sans le capitalisme. C’est ce que cristallise Milton Friedman dans une de ses célèbres affirmations : « la responsabilité sociale des entreprises est de maximiser leurs profits »7. Si le capitalisme est un dispositif géant générateur de profit, il n’est ni moral ni immoral, c’est son usage, sa destination qui l’est. Par conséquent, ce serait à l’État d’agir en assumant les conséquences d’un mauvais usage qu’en feraient les capitalistes.
Contradiction : le capitalisme n’est pas un simple dispositif, il est à la fois marché, organisation, choix collectifs, et choix individuels. Son extension dans nos vies privées est le résultat du choix de la rationalisation toujours plus drastique des conditions de rentabilité. Dans les années 1980, les économistes néoclassiques croyaient fortement au triptyque gagnant investissement – accroissement de main d’œuvre – progrès technique. Sauf que même l’un des plus connus des économistes américains, Robert Solow, a dû se rendre à une évidence, un « paradoxe » qu’il soulevait après avoir admis que « la révolution technologique [de l’informatique] s’est accompagnée partout d’un ralentissement de la croissance de la productivité, et non d’une augmentation ». Il conclut : « Vous pouvez voir l’ère informatique partout, sauf dans les statistiques de la productivité »8. Pour Solow, croyant encore au vieux monde de la croissance « productrice », ce n’était qu’une question de temps, mais pour l’économie capitaliste, c’était surtout l’urgence de se tourner vers des solutions beaucoup plus rapides : l’actionnariat (et la rationalisation rentable des process) et la valorisation quasi-immédiate de tout ce qui pouvait être valorisable sur le marché le plus facile possible, celui des services, celui qui nécessite le moins d’investissements.
La volonté d’aller dans le mur
Le capitalisme à l’ère numérique n’a pas créé de stagnation, il est structurellement destructeur. Il n’a pas créé de défaut d’investissement, il est avant tout un choix réfléchi, la volonté d’aller droit dans le mur en espérant faire partie des élus qui pourront changer de voiture avant l’impact. Dans cette hyper-concurrence qui est devenue essentiellement financière, la seule manière d’envisager la victoire est de fabriquer des monopoles. C’est là que la fatuité de la régulation se remarque le plus. Un récent article de Michael Kwet9 résume très bien la situation. On peut le citer longuement :
Les défenseurs de la législation antitrust affirment que les monopoles faussent un système capitaliste idéal et que ce qu’il faut, c’est un terrain de jeu égal pour que tout le monde puisse se faire concurrence. Pourtant, la concurrence n’est bonne que pour ceux qui ont des ressources à mettre en concurrence. Plus de la moitié de la population mondiale vit avec moins de 7,40 dollars [7,16 euros] par jour, et personne ne s’arrête pour demander comment ils seront “compétitifs” sur le “marché concurrentiel” envisagé par les défenseurs occidentaux de l’antitrust. C’est d’autant plus décourageant pour les pays à revenu faible ou intermédiaire que l’internet est largement sans frontières.
À un niveau plus large […] les défenseurs de l’antitrust ignorent la division globalement inégale du travail et de l’échange de biens et de services qui a été approfondie par la numérisation de l’économie mondiale. Des entreprises comme Google, Amazon, Meta, Apple, Microsoft, Netflix, Nvidia, Intel, AMD et bien d’autres sont parvenues à leur taille hégémonique parce qu’elles possèdent la propriété intellectuelle et les moyens de calcul utilisés dans le monde entier. Les penseurs antitrust, en particulier ceux des États-Unis, finissent par occulter systématiquement la réalité de l’impérialisme américain dans le secteur des technologies numériques, et donc leur impact non seulement aux États-Unis, mais aussi en Europe et dans les pays du Sud.
Les initiatives antitrust européennes ne sont pas meilleures. Là-bas, les décideurs politiques qui s’insurgent contre les maux des grandes entreprises technologiques tentent discrètement de créer leurs propres géants technologiques.
Dans la critique mainstream du capitalisme de surveillance, une autre erreur s’est révélée, en plus de celle qui consiste à persister dans la défense d’un imaginaire capitaliste. C’est celle de voir dans l’État et son pouvoir de régulation un défenseur de la démocratie. C’est d’abord une erreur de principe : dans un régime capitaliste monopoliste, l’État assure l’hégémonie des entreprises de son cru et fait passer sous l’expression démocratie libérale (ou libertés) ce qui favorise l’émergence de situations de domination. Pour lutter contre, il y a une urgence dans notre actualité économique : la logique des start-up tout autant que celle de la « propriété intellectuelle » doivent laisser place à l’expérimentation collective de gouvernance de biens communs de la connaissance et des techniques (nous en parlerons plus loin). Ensuite, c’est une erreur pratique comme l’illustrent les affaires de lobbying et de pantouflage dans le petit monde des décideurs politiques. Une illustration parmi des centaines : les récents Uber Files démontrant, entre autres, les accords passés entre le président Emmanuel Macron et les dirigeants d’Uber (voir sur le site Le Monde).
Situer ces enjeux dans un contexte historique aussi général suppose de longs développements, rarement simples à exposer. Oui, il s’agit d’une critique du capitalisme, et oui cette critique peut être plus ou moins radicale selon que l’on se place dans un héritage marxiste, marxien ou de la critique de la valeur, ou que l’on demeure persuadé qu’un capitalisme plus respectueux, moins « féodal » pourrait advenir. Sans doute qu’un mirage subsiste, celui de croire qu’autant de bienfaits issus du capitalisme suffisent à le dédouaner de l’usage dévoyé des technologies. « Sans le capitalisme nous en serions encore à nous éclairer à la bougie…» En d’autres termes, il y aurait un progrès indiscutable à l’aune duquel les technologies de surveillance pourraient être jugées. Vraiment ?
Situer le capitalisme de surveillance dans notre rapport à la technique
C’est un poncif : les technologies de surveillance ont été développées dans une logique de profit. Il s’agit des technologies dont l’objectif est de créer des données exploitables à partir de nos vies privées, à des fins de contrôle ou purement mercantiles (ce qui revient au même puisque les technologies de contrôle sont possédées par des firmes qui achètent des données).
Or, il est temps de mettre fin à l’erreur répandue qui consiste à considérer que les technologies de surveillance sont un mal qui pervertit le capitalisme censé être le moteur de la démocratie libérale. Ceci conduit à penser que seule une régulation bien menée par l’État dans le but de restaurer les vertus du « bon » capitalisme serait salutaire tant nos vies privées sont sur-exploitées et nos libertés érodées. Tel est le credo de Shoshana Zuboff et avec elle bon nombre de décideurs politiques.
Croire qu’il y a de bons et de mauvais usages
L’erreur est exactement celle que dénonçait en son temps Jacques Ellul. C’est celle qui consiste à vouloir absolument attribuer une valeur à l’usage de la technique. Le bon usage serait celui qui pousse à respecter la vie privée, et le mauvais usage celui qui tend à l’inverse. Or, il n’y a d’usage technique que technique. Il n’y a qu’un usage de la bombe atomique, celui de faire boum (ou pas si elle est mal utilisée). Le choix de développer la bombe est, lui, par contre, un choix qui fait intervenir des enjeux de pouvoir et de valeurs.
Au tout début des années 1970, à l’époque où se développaient les techniques d’exploitation des bases de données et le courtage de données, c’est ce qu’ont montré James Martin et Adrian Norman pour ce qui concerne les systèmes informatiques10 : à partir du moment où un système est informatisé, la quantification est la seule manière de décrire le monde. Ceci est valable y compris pour les systèmes décisionnels. Le paradoxe que pointaient ces auteurs montrait que le traitement de l’information dans un système décisionnel – par exemple dans n’importe quelle organisation économique, comme une entreprise – devait avoir pour objectif de rationaliser les procédures et les décisions en utilisant une quantité finie de données pour en produire une quantité réduite aux éléments les plus stratégiques, or, l’informatisation suppose un choix optimum parmi une grande variété d’arbres décisionnels et donc un besoin croissant de données, une quantité tendant vers l’infini.
Martin et Norman illustraient ce qu’avait affirmé Jacques Ellul vingt ans auparavant : la technique et sa logique de développement seraient autonomes. Bien que discutable, cette hypothèse montre au moins une chose : dans un monde capitaliste, tout l’enjeu consisterait comme au rugby à transformer l’essai, c’est-à-dire voir dans le développement des techniques autant d’opportunités de profit et non pas d’investissements productifs. Les choix se posent alors en termes d’anti-productivité concrète. Dans le monde des bases de données et leur exploitation la double question qui s’est posée de 1970 à aujourd’hui est de savoir si nous sommes capables d’engranger plus ou moins de données et comment leur attribuer une valeur marchande.
Le reste n’est que sophismes : l’usine entièrement automatisée des rêves cybernéticiens les plus fous, les boules de cristal des statistiques électorales, les données de recouvrement bancaires et le crédit à la consommation, les analyses marketing et la consommation de masse, jusqu’à la smart city de la Silicon Valley et ses voitures autonomes (et ses aspirateurs espions)… la justification de la surveillance et de l’extraction de données repose sur l’idée d’un progrès social, d’un bon usage des technologies, et d’une neutralité des choix technologiques. Et il y a un paralogisme. Si l’on ne pense l’économie qu’en termes capitalistes et libéraux, cette neutralité est un postulat qui ne peut être remis en cause qu’à l’aune d’un jugement de valeur : il y aurait des bons et des mauvais usages des technologies, et c’est à l’État d’assurer le rôle minimal de les arbitrer au regard de la loi. Nul ne remet alors en question les choix eux-mêmes, nul ne remet en question l’hégémonie des entreprises qui nous couvrent de leurs « bienfaits » au prix de quelques « négligeables » écarts de conduite, nul ne remet en question l’exploitation de nos vies privées (un mal devenu nécessaire) et l’on préfère nous demander notre consentement plus ou moins éclairé, plus ou moins obligé.
La technologie n’est pas autonome
Cependant, comme nous le verrons vers la fin de ce texte, les études en sociologie des sciences montrent en fait qu’il n’y a pas d’autonomie de la technique. Sciences, technologies et société s’abreuvent mutuellement entre les usages, les expérimentations et tous ces interstices épistémiques d’appropriation des techniques, de désapprentissage, de renouvellement, de détournements, et d’expression des besoins pour de nouvelles innovations qui seront à leur tour appropriées, modifiées, transformées, etc. En réalité l’hypothèse de l’autonomie de la technique a surtout servi au capitalisme pour suivre une course à l’innovation qui ne saurait être remise en question, comme une loi naturelle qui justifie en soi la mise sur le marché de nouvelles technologies et au besoin faire croire en leur utilité. Tel est le fond de commerce du transhumanisme et son « économie des promesses ».
L’erreur consiste à prêter le flanc au solutionnisme technologique (le même qui nous fait croire que des caméras de surveillance sont un remède à la délinquance, ou qu’il faut construire des grosses berlines sur batteries pour ne plus polluer) et à se laisser abreuver des discours néolibéraux qui, parce qu’il faut bien rentabiliser ces promesses par de la marchandisation des données – qui est elle-même une promesse pour l’actionnariat –, nous habituent petit à petit à être surveillés. Pour se dépêtrer de cela, la critique du capitalisme de surveillance doit être une critique radicale du capitalisme et du néolibéralisme car la lutte contre la surveillance ne peut être décorrélée de la prise en compte des injustices sociales et économiques dont ils sont les causes pratiques et idéologiques.
Je vois venir les lecteurs inquiets. Oui, j’ai placé ce terme de néolibéralisme sans prévenir. C’est mettre la charrue avant les bœufs mais c’est parfois nécessaire. Pour mieux comprendre, il suffit de définir ce qu’est le néolibéralisme. C’est l’idéologie appelée en Allemagne ordolibéralisme, si l’on veut, c’est-à-dire l’idée que le laissez-faire a démontré son erreur historique (les crises successives de 1929, 1972, 2008, ou la crise permanente), et que par conséquent l’État a fait son grand retour dans le marché au service du capital, comme le principal organisateur de l’espace de compétition capitaliste et le dépositaire du droit qui érige la propriété et le profit au titre de seules valeurs acceptables. Que des contrats, plus de discussion, there is no alternative, comme disait la Margaret. Donc partant de cette définition, à tous les niveaux organisationnels, celui des institutions de l’État comme celui des organisations du capital, la surveillance est à la fois outil de contrôle et de génération de profit (dans les limites démontrées par R. Kurz, à savoir : pas sans compter presque exclusivement sur l’actionnariat et les produits financiers, cf. plus haut).
Le choix du « monitoring »
La course en avant des technologies de surveillance est donc le résultat d’un choix. Il n’y a pas de bon ou de mauvais usage de la surveillance électronique : elle est faite pour récolter des données. Le choix en question c’est celui de n’avoir vu dans ces données qu’un objet marchand. Peu importe les bienfaits que cela a pu produire pour l’individu, ils ne sont visibles que sur un court terme. Par exemple les nombreuses applications de suivi social que nous utilisons nous divertissent et rendent parfois quelque service, mais comme le dit David Lyon dans The Culture of Surveillance, elle ne font que nous faire accepter passivement les règles du monitoring et du tri social que les États comme les multinationales mettent en œuvre.
Il n’y a pas de différence de nature entre la surveillance des multinationales et la surveillance par l’État : ce sont les multinationales qui déterminent les règles du jeu de la surveillance et l’État entérine ces règles et absorbe les conditions de l’exercice de la surveillance au détriment de sa souveraineté. C’est une constante bien comprise, qu’il s’agisse des aspects techniques de la surveillance sur lesquels les Big Tech exercent une hégémonie qui en retour sert les intérêts d’un ou plusieurs États (surtout les États-Unis aujourd’hui), ou qu’il s’agisse du droit que les Big Tech tendent à modifier en leur faveur soit par le jeu des lobbies soit par le jeu des accords internationaux (tout comme récemment le nouvel accord entre l’Europe et les États-Unis sur les transferts transatlantiques de données, qui vient contrecarrer les effets d’annonce de la Commission Européenne).
Quels espaces de liberté dans ce monde technologique ?
Avec l’apparition des ordinateurs et des réseaux, de nombreuses propositions ont vu le jour. Depuis les années 1970, si l’on suit le développement des différents mouvements de contestation sociale à travers le monde, l’informatique et les réseaux ont souvent été plébiscités comme des solutions techniques aux défauts des démocraties. De nombreux exemples d’initiatives structurantes pour les réseaux informatiques et les usages des ordinateurs se sont alors vus détournés de leurs fonctions premières. On peut citer le World Wide Web tel que conçu par Tim Berners Lee, lui même suivant les traces du monde hypertextuel de Ted Nelson et son projet Xanadu. Pourquoi ce design de l’internet des services s’est-il trouvé à ce point sclérosé par la surveillance ? Pour deux raisons : 1/ on n’échappe pas (jamais) au développement technique de la surveillance (les ordinateurs ont été faits et vendus pour cela et le sont toujours11) et 2/ parce qu’il y a des intérêts de pouvoir en jeu, policiers et économiques, celui de contrôler les communications. Un autre exemple : le partage des programmes informatiques. Comme chacun le sait, il fut un temps où la création d’un programme et sa distribution n’étaient pas assujettis aux contraintes de la marchandisation et de la propriété intellectuelle. Cela permettait aux utilisateurs de machines de partager non seulement des programmes mais des connaissances et des nouveaux usages, faisant du code un bien commun. Sous l’impulsion de personnages comme Bill Gates, tout cela a changé au milieu des années 1970 et l’industrie du logiciel est née. Cela eut deux conséquences, négative et positive. Négative parce que les utilisateurs perdaient absolument toute maîtrise de la machine informatique, et toute possibilité d’innovation solidaire, au profit des intérêts d’entreprises qui devinrent très vite des multinationales. Positive néanmoins, car, grâce à l’initiative de quelques hackers, dont Richard Stallman, une alternative fut trouvée grâce au logiciel libre et la licence publique générale et ses variantes copyleft qui sanctuarisent le partage du code. Ce partage relève d’un paradigme qui ne concerne plus seulement le code, mais toute activité intellectuelle dont le produit peut être partagé, assurant leur liberté de partage aux utilisateurs finaux et la possibilité de créer des communs de la connaissance.
Alors que nous vivons dans un monde submergé de technologies, nous aurions en quelque sorte gagné quelques espaces de liberté d’usage technique. Mais il y a alors comme un paradoxe.
À l’instar de Jacques Ellul, pour qui l’autonomie de la technique implique une aliénation de l’homme à celle-ci, beaucoup d’auteurs se sont inquiétés du fait que les artefacts techniques configurent par eux-mêmes les actions humaines. Qu’on postule ou pas une autonomie de la technique, son caractère aliénant reste un fait. Mais il ne s’agit pas de n’importe quels artefacts. Nous ne parlons pas d’un tournevis ou d’un marteau, ou encore d’un silex taillé. Il s’agit des systèmes techniques, c’est-à-dire des dispositifs qu’on peut qualifier de socio-techniques qui font intervenir l’homme comme opérateur d’un ensemble d’actions techniques par la technique. En quelque sorte, nous perdons l’initiative et les actions envisagées tendent à la conformité avec le dispositif technique et non plus uniquement à notre volonté. Typiquement, les ordinateurs dans les entreprises à la fin des années 1960 ont été utilisés pour créer des systèmes d’information, et c’est à travers ces systèmes techniques que l’action de l’homme se voit configurée, modelée, déterminée, entre ce qui est possible et ce qui ne l’est pas. Dans son article « Do artefacts have politics ? », Langdon Winner s’en inquiétait à juste titre : nos objectifs et le sens de nos actions sont conditionnés par la technique. Cette dernière n’est jamais neutre, elle peut même provoquer une perte de sens de l’action, par exemple chez le travailleur à la chaîne ou le cadre qui non seulement peuvent être noyés dans une organisation du travail trop grande, mais aussi parce que l’automatisation de la production et de la décision les prive de toute initiative (et de responsabilité).
La tentation du luddisme
Pour lutter contre cette perte de sens, des choix sont envisageables. Le premier consiste à lutter contre la technique. En évacuant la complexité qu’il y a à penser qu’un mouvement réfractaire au développement technique puisse aboutir à une société plus libre, on peut certes imaginer des fronts luddites en certains secteurs choisis. Par exemple, tel fut le choix du CLODO dans la France des années 1980, prétendant lutter contre l’envahissement informatique dans la société. Concernant la surveillance, on peut dire qu’au terme d’un processus de plus de 50 ans, elle a gagné toutes les sphères socio-économiques grâce au développement technologique. Un front (néo-)luddite peut sembler justifié tant cette surveillance remet en cause très largement nos libertés et toutes les valeurs positives que l’on oppose généralement au capitalisme : solidarité et partage, notamment.
Pour autant, est-ce que la lutte contre le capitalisme de surveillance doit passer par la négation de la technique ? Il est assez évident que toute forme d’action directe qui s’oppose en bloc à la technique perd sa crédibilité en ce qu’elle ne fait que proposer un fantasme passéiste ou provoquer des réactions de retrait qui n’ont souvent rien de constructif. C’est une critique souvent faite à l’anarcho-primitivisme qui, lorsqu’il ne se contente pas d’opposer une critique éclairée de la technique (et des processus qui ont conduit à la création de l’État) en vient parfois à verser dans la technophobie. C’est une réaction aussi compréhensible que contrainte tant l’envahissement technologique et ses discours ont quelque chose de suffoquant. En oubliant cette question de l’autonomie de la technique, je suis personnellement tout à fait convaincu par l’analyse de J. Ellul selon laquelle nous sommes à la fois accolés et dépendants d’un système technique. En tant que système il est devenu structurellement nécessaire aux organisations (qu’elles soient anarchistes ou non) au moins pour communiquer, alors que le système capitaliste, lui, ne nous est pas nécessaire mais imposé par des jeux de pouvoirs. Une réaction plus constructive consiste donc à orienter les choix technologiques, là où l’action directe peut prendre un sens tout à fait pertinent.
Prenons un exemple qui pourrait paraître trivial mais qui s’est révélé particulièrement crucial lors des périodes de confinement que nous avons subies en raison de l’épidémie Covid. Qu’il s’agisse des entreprises ou des institutions publiques, toutes ont entamé dans l’urgence une course en avant vers les solutions de visio-conférence dans l’optique de tâcher de reproduire une forme présentielle du travail de bureau. La visio-conférence suscite un flux de données bien plus important que la voix seule, et par ailleurs la transmission vocale est un ensemble de techniques déjà fort éprouvées depuis plus d’un siècle. Que s’est-il produit ? Les multinationales se sont empressées de vendre leurs produits et pomper toujours plus de données personnelles, tandis que les limites pratiques de la visio-conférence se sont révélées : dans la plupart des cas, réaliser une réunion « filmée » n’apporte strictement rien de plus à l’efficacité d’une conférence vocale. Dans la plupart des cas, d’ailleurs, afin d’économiser de la bande passante (croit-on), la pratique courante consiste à éteindre sa caméra pendant la réunion. Où sont les gains de productivité tant annoncés par les GAFAM ? Au lieu de cela, il y a en réalité un détournement des usages, et même des actes de résistance du quotidien (surtout lorsqu’il s’agit de surveiller les salariés à distance).
Les choix technologiques doivent être collectifs
Une critique des techniques pourrait donc consister à d’abord faire le point sur nos besoins et en prenant en compte l’urgence climatique et environnementale dans laquelle nous sommes (depuis des décennies). Elle pourrait aussi consister à prendre le contrepoint des discours solutionnistes qui tendent à justifier le développement de techniques le plus souvent inutiles en pratique mais toujours plus contraignantes quant au limites éthiques vers lesquelles elles nous poussent. Les choix technologiques doivent donc d’abord être des choix collectifs, dont l’assentiment se mesure en fonction de l’économie énergétique et de l’acceptabilité éthique de la trajectoire choisie. On peut revenir à une technologie ancienne et éprouvée et s’en contenter parce qu’elle est efficace et on peut refuser une technologie parce qu’elle n’est pas un bon choix dans l’intérêt collectif. Et par collectif, j’entends l’ensemble des relations inter-humaines et des relations environnementales dont dépendent les premières.
Les attitudes de retraits par rapports aux technologies, le refus systématique des usages, sont rarement bénéfiques et ne constituent que rarement une démarche critique. Ils sont une réaction tout à fait compréhensible du fait que la politique a petit à petit déserté les lieux de production (pour ce qu’il en reste). On le constate dans le désistement progressif du syndicalisme ces 30 ou 40 dernières années et par le fait que la critique socialiste (ou « de gauche ») a été incapable d’intégrer la crise du capitalisme de la fin du XXᵉ siècle. Pire, en se transformant en un centre réactionnaire, cette gauche a créé une technocratie de la gestion aux ordres du néolibéralisme : autoritarisme et pansements sociaux pour calmer la révolte qui gronde. Dès lors, de désillusions en désillusions, dans la grande cage concurrentielle de la rareté du travail rémunéré (rentable) quelle place peut-il y avoir pour une critique des techniques et de la surveillance ? Peut-on demander sérieusement de réfléchir à son usage de Whatsapp à une infirmière qui a déjà toutes les difficultés du monde à concilier la garde de ses enfants, les heures supplémentaires (parfois non payées) à l’hôpital, le rythme harassant du cycle des gardes, les heures de transports en commun et par dessus le marché, le travail domestique censé assurer les conditions de reproduction du travail abstrait ? Alors oui, dans ces conditions où le management du travail n’est devenu qu’une affaire de rationalisation rentable, les dispositifs techniques ne font pas l’objet d’usages réfléchis ou raisonnés, il font toujours l’objet d’un usage opportuniste : je n’utilise pas Whatsapp parce que j’aime Facebook ou que je me fiche de savoir ce que deviennent mes données personnelles, j’utilise Whatsapp parce que c’est le moyen que j’ai trouvé pour converser avec mes enfants et m’assurer qu’ils sont bien rentrés à la maison après l’école.
Low tech et action directe
En revanche, un retrait que je pourrais qualifier de technophobe et donc un minimum réfléchi, laisse entier le problème pour les autres. La solidarité nous oblige à créer des espaces politiques où justement technologie et capitalisme peuvent faire l’objet d’une critique et surtout d’une mise en pratique. Le mouvement Low Tech me semble être l’un des meilleurs choix. C’est en substance la thèse que défend Uri Gordon (« L’anarchisme et les politiques techniques ») en voyant dans les possibilités de coopérations solidaires et de choix collectivement réfléchis, une forme d’éthique de l’action directe.
Je le suivrai sur ce point et en étendant davantage le spectre de l’action directe. Premièrement parce que si le techno-capitalisme aujourd’hui procède par privation de libertés et de politique, il n’implique pas forcément l’idée que nous ne soyons que des sujets soumis à ce jeu de manière inconditionnelle. C’est une tendance qu’on peut constater dans la plupart des critiques du pouvoir : ne voir l’individu que comme une entité dont la substance n’est pas discutée, simplement soumis ou non soumis, contraint ou non contraint, privé de liberté ou disposant de liberté, etc. Or il y a tout un ensemble d’espaces de résistance conscients ou non conscients chez tout individu, ce que Michel de Certeau appelait des tactiques du quotidien12. Il ne s’agit pas de stratégies où volonté et pouvoir se conjuguent, mais des mouvements « sur le fait », des alternatives multiples mises en œuvre sans chercher à organiser cet espace de résistance. Ce sont des espaces féconds, faits d’expérimentations et d’innovations, et parfois même configurent les techniques elles-mêmes dans la différence entre la conception initiale et l’usage final à grande échelle. Par exemple, les ordinateurs et leurs systèmes d’exploitations peuvent ainsi être tantôt les instruments de la surveillance et tantôt des instruments de résistance, en particulier lorsqu’ils utilisent des logiciels libres. Des apprentissages ont lieu et cette fois ils dépassent l’individu, ils sont collectifs et ils intègrent des connaissances en commun.
En d’autres termes, chaque artefact et chaque système technique est socialement digéré, ce qui en retour produit des interactions et détermine des motivations et des objectifs qui peuvent s’avérer très différents de ceux en fonction desquels les dispositifs ont été créés. Ce processus est ce que Sheila Jasanoff appelle un processus de coproduction épistémique et normatif13 : sciences et techniques influencent la société en offrant un cadre tantôt limitatif, tantôt créatif, ce qui en retour favorise des usages et des besoins qui conditionnent les trajectoires scientifiques et technologiques. Il est par conséquent primordial de situer l’action directe sur ce créneau de la coproduction en favorisant les expériences tactiques individuelles et collectives qui permettent de déterminer des choix stratégiques dans l’orientation technologique de la société. Dit en des mots plus simples : si la décision politique n’est plus suffisante pour garantir un cadre normatif qui reflète les choix collectifs, alors ce sont les collectifs qui doivent pouvoir créer des stratégies et au besoin les imposer par un rapport de force.
Créer des espaces d’expérimentations utopiques
Les hackers ne produisent pas des logiciels libres par pur amour d’autrui et par pure solidarité : même si ces intentions peuvent être présentes (et je ne connais pas de libristes qui ne soient pas animés de tels sentiments), la production de logiciel libre (ou open source) est d’abord faite pour créer de la valeur. On crée du logiciel libre parce que collectivement on est capable d’administrer et valoriser le bien commun qu’est le code libre, à commencer par tout un appareillage juridique comme les licences libres. Il en va de même pour toutes les productions libres qui emportent avec elles un idéal technologique : l’émancipation, l’activité libre que représente le travail du code libre (qui n’est la propriété de personne). Même si cela n’exempte pas de se placer dans un rapport entre patron (propriétaire des moyens de production) et salarié, car il y a des entreprises spécialisées dans le Libre, il reste que le Libre crée des espaces d’équilibres économiques qui se situent en dehors de l’impasse capitaliste. La rentabilité et l’utilité se situent presque exclusivement sur un plan social, ce qui explique l’aspect très bigarré des modèles d’organisations économiques du Libre, entre associations, fondations, coopératives…
L’effet collatéral du Libre est aussi de créer toujours davantage d’espaces de libertés numériques, cette fois en dehors du capitalisme de surveillance et ses pratiques d’extraction. Cela va des pratiques de chiffrement des correspondances à l’utilisation de logiciels dédiés explicitement aux luttes démocratiques à travers le monde. Cela a le mérite de créer des communautés plus ou moins fédérées ou archipélisées, qui mettent en pratique ou du moins sous expérimentation l’alliance entre les technologies de communication et l’action directe, au service de l’émancipation sociale.
Il ne s’agit pas de promettre un grand soir et ce n’est certes pas avec des expériences qui se complaisent dans la marginalité que l’on peut bouleverser le capitalisme. Il ne s’agit plus de proposer des alternatives (qui fait un détour lorsqu’on peut se contenter du droit chemin?) mais des raisons d’agir. Le capitalisme est désuet. Dans ses soubresauts (qui pourraient bien nous mener à la guerre et la ruine), on ressort l’argument du bon sens, on cherche le consentement de tous malgré l’expérience que chacun fait de l’exploitation et de la domination. Au besoin, les capitalistes se montrent autoritaires et frappent. Mais que montrent les expériences d’émancipation sociales ? Que nous pouvons créer un ordre fait de partage et d’altruisme, de participation et de coopération, et que cela est parfaitement viable, sans eux, sur d’autres modèles plus cohérents14. En d’autres termes, lutter contre la domination capitaliste, c’est d’abord démontrer par les actes que d’autres solutions existent et sans chercher à les inclure au forceps dans ce système dominant. Au contraire, il y a une forme d’héroïsme à ne pas chercher à tordre le droit si ce dernier ne permet pas une émancipation franche et durable du capitalisme. Si le droit ne convient pas, il faut prendre le gauche.
La lutte pour les libertés numériques et l’application des principes du Libre permettent de proposer une sortie positive du capitalisme destructeur. Néanmoins on n’échappera pas à la dure réalité des faits. Par exemple que l’essentiel des « tuyaux » des transmissions numériques (comme les câbles sous-marins) appartiennent aux multinationales du numérique et assurent ainsi l’un des plus écrasants rapports de domination de l’histoire. Pourtant, on peut imaginer des expériences utopiques, comme celle du Chaos Computer Club, en 2012, consistant à créer un Internet hors censure via un réseau de satellite amateur.
L’important est de créer des espaces d’expérimentation utopiques, parce qu’ils démontrent tôt ou tard la possibilité d’une solution, il sont préfiguratifs15. Devant la décision politique au service du capital, la lutte pour un réseau d’échanges libres ne pourra certes pas se passer d’un rapport de force mais encore moins de nouveaux imaginaires. Car, finalement, ce que crée la crise du capitalisme, c’est la conscience de son écocide, de son injustice, de son esclavagisme technologique. Reste l’espoir, première motivation de l’action.
-
R. Kurz, Vies et mort du capitalisme, Nouvelles Éditions Ligne, 2011, p. 37. ↩︎
-
Ernst Lohoff et Norbert Trenkle, La grande dévalorisation. Pourquoi la spéculation et la dette de l’État ne sont pas les causes de la crise, Paris, Post-éditions, 2014. ↩︎
-
Georges Simpson, « Western Man under Automation », International Journal of Comparative Sociology, num. 5, 1964, pp. 199-207. ↩︎
-
Comme le dit Moishe Postone dans son article « Repenser Le Capital à la lumière des Grundrisse » : « La transformation radicale du processus de production mentionnée plus haut n’est pas le résultat quasi-automatique du développement rapide des savoirs techniques et scientifique et de leurs applications. C’est plutôt une possibilité qui naît d’une contradiction sociale intrinsèque croissante. Bien que la course du développement capitaliste génère la possibilité d’une structure nouvelle et émancipatrice du travail social, sa réalisation générale est impossible dans le capitalisme. » ↩︎
-
Là je reprends une catégorie marxiste. Marx appelle le (résultat du -) travail mort ce qui a besoin de travail productif. Par exemple, une matière comme le blé récolté est le résultat d’un travail déjà passé, il lui faut un travail vivant (celui du meunier) pour devenir matière productive. Pour ce qui concerne l’extraction de données, il faut comprendre que l’automatisation de cette extraction, le stockage, le travail de la donnée et la marchandisation sont un seul et même mouvement (on ne marchande pas des jeux de données « en l’air », ils correspondent à des commandes sur une marché tendu). Les données ne sont pas vraiment une matière première, elles ne sont pas non plus un investissement, mais une forme insaisissable du travail à la fois matière première et système technique. ↩︎
-
On peut distinguer entre économie réelle et économie financière. Voir cette étude de François Morin, juste avant le crack de 2008. François Morin, « Le nouveau mur de l’argent », Nouvelles Fondations, num. 3-4, 2007, p. 30-35. ↩︎
-
The New York Times Magazine, 13 septembre 1970. ↩︎
-
Robert Solow, « We’d better watch out », New York Times Book Review, 12 juillet 1987, page 36. ↩︎
-
Mike Kwet, « Digital Ecosocialism Breaking the power of Big Tech » (ROAR Magazine), trad. Fr. Louis Derrac, sous le titre « Écosocialisme numérique – Briser le pouvoir des Big Tech », parue sur Framablog.org. ↩︎
-
James Martin et Adrian R. D. Norman, The Computerized Society. An Appraisal of the Impact of Computers on Society over the next 15 Years, Englewood Cliffs, Prentice-Hall, 1970, p. 522. ↩︎
-
c’est ce que je tâche de montrer dans une partie de mon livre Affaires privées. Aux sources du capitalisme de surveillance : pourquoi fabriquer et acheter des ordinateurs ? Si les entreprises sont passées à l’informatique c’est pour améliorer la production et c’est aussi pourquoi le courtage de données s’est développé. ↩︎
-
Sur les « tactiques numériques », on pourra lire avec profit l’article de Beatrice Latini et Jules Rostand, « La libre navigation. Michel de Certeau à l’épreuve du numérique », Esprit, 2022/1-2 (Janvier-Février), p. 109-117. ↩︎
-
Sheila Jasanoff, « Ordering Knowledge, Ordering Society », dans S. Jasanoff (éd.), States of knowledge. The co-production of science and social order, Londres, Routledge, 2004, pp. 13-45. ↩︎
-
Sur ce point on peut lire avec intérêt ce texte de Ralph Miliband, « Comment lutter contre l’hégémonie capitaliste ? », paru initialement en 1990 et traduit sur le site Contretemps. ↩︎
-
Voir David Graeber, et Alexie Doucet, Comme si nous étions déjà libres, Montréal, Lux éditeur, 2014. La préfiguration est l’« idée selon laquelle la forme organisationnelle qu’adopte un groupe doit incarner le type de société qu’il veut créer ». Voir aussi Marianne Maeckelbergh, « Doing is Believing: Prefiguration as Strategic Practice in the Alterglobalization Movement », Social Movement Studies, vol. 10, num. 1, 2011, pp. 1‑20. ↩︎
11.06.2022 à 02:00
Qu'est-ce que le radicalisme ?
« Le pouvoir n’admet jamais son propre extrémisme, sa propre violence, son propre chaos, sa propre destruction, son propre désordre. Le désordre de l’inégalité, le chaos de la dépossession, la destruction des communautés et des relations traditionnelles ou indigènes – l’extermination de la vie, de la planète elle-même. Ce sont de véritables comportements extrémistes. » (Jeff Shantz)
Avant propos
Je propose dans ce billet une traduction d’un texte de 2013 écrit par Jeff Shantz. Les travaux de ce dernier appartiennent au courant de la criminologie anarchiste (voir ici ou là). Pour faire (très) court, il s’agit de s’interroger sur les causes de la criminalité et de la violence à partir d’une critique des actions de l’État et leurs effets néfastes (y compris la violence d’État).
Pour être tout à fait clair ici, je ne partage pas d’un bloc l’approche de la criminologie anarchiste, à cause des achoppements logiques auxquels elle doit se confronter. En particulier le fait qu’un mouvement de violence peut certes aller chercher ses causes dans un enchaînement d’effets du pouvoir institutionnel, il n’en demeure pas moins que, en tant qu’historien, il m’est difficile de ne jamais fouiller qu’à un seul endroit. Je crois qu’il y a toujours un faisceaux de causalités, toutes plus ou moins explicables, avec des déséquilibres qui peuvent faire attribuer l’essentiel à une partie plutôt qu’une autre. La criminologie anarchiste remet assez abruptement en cause la théorie du contrat social (surtout dans son rapport droit/crime/pouvoir), ce qui est plutôt sain. Mais si le pouvoir institutionnel est bien entendu en charge de lourdes responsabilités dans la révolte légitime (en particulier dans un contexte néolibéral autoritaire où la violence est la seule réponse faite au peuple), tous les mouvements de résistance font toujours face, à un moment ou un autre, à leurs propres contradictions, c’est humain. C’est ce qui justement les fait grandir et leur donne leur force et d’autant plus de légitimité, ou au contraire contribue à leur extinction (qu’on peut certes attribuer à l’une ou l’autre stratégie de pouvoir, bref…).
D’ailleurs, c’est justement l’un des objets de ce texte à propos du radicalisme. C’est un avertissement aux mouvements de résistance qui ne comprennent pas, d’une part, que le radicalisme est une méthode et, d’autre part, que son emploi galvaudé est une stratégie de défense (et d’offensive) du capital, en particulier via la communication et l’exercice du pouvoir médiatique. En cela il vise assez juste. En tout cas, c’est à garder en tête lorsque, sur un plateau TV, on interroge toujours : « Mais… vous condamnez ces violences de la part des ces jeunes radicalisés ? »
Plaidoyer pour le radicalisme
Par Jeff Shantz
— Article paru dans la revue Radical Criminology, num. 2, 2013, Éditorial (source), Licence CC By-Nc-Nd. Traduit avec l’aimable autorisation de l’auteur.
Aujourd’hui, peu de termes ou d’idées sont autant galvaudés, déformés, diminués ou dénaturés que « radical » ou « radicalisme ». Cela n’est sans doute pas très surprenant, étant donné que nous vivons une période d’expansion des luttes contre l’État et le capital, l’oppression et l’exploitation, dans de nombreux contextes mondiaux. Dans de tels contextes, la question du radicalisme, des moyens efficaces pour vaincre le pouvoir (ou étouffer la résistance) devient urgente. Les enjeux sont élevés, les possibilités d’alternatives réelles sont avancées et combattues. Dans de tels contextes, les militants et les universitaires doivent non seulement comprendre le radicalisme de manière appropriée, mais aussi défendre (et faire progresser) les approches radicales du changement social et de la justice sociale.
La première utilisation connue du terme radical remonte au XIVe siècle, 1350-1400 ; le moyen anglais venant du latin tardif rādīcālis, avoir des racines1. Il est également défini comme étant très différent de ce qui est habituel ou traditionnel. Le terme radical signifie simplement de ou allant vers les racines ou l’origine. Rigoureux. En clair, cela signifie aller à la racine d’un problème.
Le radicalisme est une perspective, une orientation dans le monde. Ce n’est pas, comme on le prétend souvent à tort, une stratégie. Être radical, c’est creuser sous la surface des certitudes, des explications trop faciles, des réponses insatisfaisantes et des panacées qui se présentent comme des solutions aux problèmes. Le radicalisme conteste et s’oppose aux définitions du statu quo - il refuse les justifications intéressées que fournissent l’autorité et le pouvoir.
Plutôt qu’un ensemble d’idées ou d’actions, il s’agit d’une approche cruciale de la vie. Comme l’a suggéré l’analyste existentialiste marxiste Erich Fromm dans un contexte de lutte antérieure :
En premier lieu, cette approche peut être caractérisée par la devise : de omnibus dubitandum ; tout doit être mis en doute, en particulier les concepts idéologiques qui sont quasiment partagés par tous et qui sont devenus par conséquent des axiomes incontournables du sens commun… Le doute radical est un processus ; un processus de libération de la pensée idolâtre ; un élargissement de la conscience, de la vision imaginative et créative de nos opportunités et possibilités. L’approche radicale ne se déploie pas dans le vide. Elle ne part pas de rien, elle part des racines. (1971, vii)
Comme c’est le cas pour la plupart des opinions et des pratiques dans la société capitaliste de classes, il y a deux approches distinctes du radicalisme, deux significations. Selon la première, celle qui consiste à aller aux racines – à la source des problèmes –, la nature du capital doit être comprise, abordée, affrontée – vaincue. Mettre fin à la violence du capital ne peut se faire qu’en mettant fin aux processus essentiels à son existence : l’exploitation, l’expropriation, la dépossession, le profit, l’extraction, l’appropriation des biens communs, de la nature. Et comment y parvenir ? Le capital et les États savent – ils comprennent. Voilà qui explique la reconnaissance des actes décrits plus haut – reconnus, précisément, comme radicaux.
Le radicalisme, vu d’en bas, est sociologique (et devrait être criminologique, bien que la criminologie soit parfois à la traîne). Il exprime cette ouverture sur le monde que C. Wright Mills appelle l’imagination sociologique (1959). Le radicalisme dans son sens premier relie l’histoire, l’économie, la politique, la géographie, la culture, en cherchant à aller au-delà des réponses faciles, rigidifiées de façon irréfléchie en tant que « sens commun » (qui n’est souvent ni commun ni sensé). Il creuse sous les conventions et le statu quo. Pour Fromm :
« Douter », dans ce sens, ne traduit pas l’incapacité psychologique de parvenir à des décisions ou à des convictions, comme c’est le cas dans le doute obsessionnel, mais la propension et la capacité à remettre en question de manière critique toutes les hypothèses et institutions qui sont devenues des idoles au nom du bon sens, de la logique et de ce qui est supposé être « naturel ». (1971, viii)
Plus encore, le radicalisme ne cherche ni se conforte dans le moralisme artificiel véhiculé par le pouvoir – par l’État et le capital. Une approche radicale n’accepte pas le faux moralisme qui définit la légitimité des actions en fonction de leur admissibilité pour les détenteurs du pouvoir ou les élites (la loi et l’ordre, les droits de l’État, les droits de propriété, et ainsi de suite). Comme l’a dit Fromm :
Cette remise en question radicale n’est possible que si l’on ne considère pas comme acquis les concepts de la société dans laquelle on vit ou même de toute une période historique – comme la culture occidentale depuis la Renaissance – et si, en outre, on élargit le périmètre de sa conscience et on pénètre dans les aspects inconscients de sa pensée. Le doute radical est un acte de dévoilement et de découverte ; c’est la prise de conscience que l’empereur est nu, et que ses splendides vêtements ne sont que le produit de son fantasme. (1971, viii)
Enfreindre la loi (des États, de la propriété) peut être tout à fait juste et raisonnable. De même que faire respecter la loi peut être (est, par définition) un acte de reconnaissance des systèmes d’injustice et de violence. Les affamés n’ont pas besoin de justifier leurs efforts pour se nourrir. Les démunis n’ont pas besoin d’expliquer leurs efforts pour se loger. Les personnes brutalisées n’ont pas besoin de demander la permission de mettre fin à la brutalité. Si leurs efforts sont radicaux – car ils savent que cela signifie de vraies solutions à de vrais problèmes – alors, qu’il en soit ainsi.
D’autre part, il y a la définition hégémonique revendiquée par le capital (et ses serviteurs étatiques). Dans cette vision, déformée par le prisme du pouvoir, le radicalisme est un mot pour dire extrémisme (chaos, désordre, violence, irrationalité). La résistance de la classe ouvrière, les mouvements sociaux, les luttes indigènes, les soulèvements paysans, les actions directes et les insurrections dans les centres urbains – toute opposition qui conteste (ou même remet en question) les relations de propriété, les systèmes de commandement et de contrôle, l’exploitation du travail, le vol des ressources communes par des intérêts privés – sont définis par l’État et le capital comme du radicalisme, par lequel ils entendent l’extrémisme, et de plus en plus, le terrorisme.
Tous les moyens de contrôle de l’autorité de l’État sont déployés pour juguler ou éradiquer ce radicalisme – c’est en grande partie la raison pour laquelle la police moderne, les systèmes de justice pénale et les prisons, ainsi que l’armée moderne, ont été créés, perfectionnés et renforcés. En outre, les pratiques « douces » de l’État et du capital, telles que les industries de la psy, qui ont longtemps inclus la rébellion parmi les maladies nécessitant un diagnostic et un traitement2, sont moins remarquées Comme le suggère Ivan Illich, théoricien de la pédagogie radicale : « Le véritable témoignage d’une profonde non-conformité suscite la plus féroce violence à son encontre » (1971, 16). C’est le cas dans le contexte actuel des luttes sociales, et de la répression déployée par l’État et le capital pour étouffer toute résistance significative (et effrayer les soutiens mous).
Pourtant, les opinions et les pratiques visées par cette construction du radicalisme sont tout bonnement celles qui défient et contestent les États et le capital et proposent des relations sociales alternatives. Même lorsque ces mouvements ne font pas ou peu de mal à qui que ce soit, même lorsqu’ils sont explicitement non-violents (comme dans les occupations des lieux de travail, les grèves, les revendications territoriales des indigènes), le pouvoir présente ces activités comme radicales et extrêmes (et, par association, violentes). C’est en réalité parce que de telles activités font planer le spectre de la première compréhension du radicalisme – celui qui vient d’en bas – celui qui parle des perspectives des opprimés et des exploités. Cette définition est, en fait, fidèle aux racines du mot et cohérente avec sa signification.
L’accusation de radicalisme par les détenteurs du pouvoir, la question du radicalisme elle-même, devient toujours plus importante dans les périodes de lutte accrue. C’est à ces moments que le capital étatique a quelque chose à craindre. Les efforts visant à s’attaquer aux racines ne sont plus relégués aux marges du discours social, mais ce que le pouvoir cherche à faire, c’est le ramener dans un lieu de contrôle et de réglementation. Dans les périodes de calme, la question du radicalisme est moins souvent posée. Cela en dit long sur la nature des débats au sujet du radicalisme.
Le radicalisme au sens premier n’est pas une réaction spontanée aux conditions sociales. Pour Illich, il faut apprendre à distinguer « entre la fureur destructrice et la revendication de formes radicalement nouvelles » (1971, 122). Là où il démolit, il démolit pour construire. Il faut « distinguer entre la foule aliénée et la protestation profonde » (1971, 122-123). Dans la perspective de Fromm :
Le doute radical signifie questionner, il ne signifie pas nécessairement nier. Il est facile de nier en posant simplement le contraire de ce qui existe ; le doute radical est dialectique dans la mesure où il appréhende le déroulement des oppositions et vise une nouvelle synthèse qui nie et affirme. (1971, viii)
Comme l’a suggéré l’anarchiste Mikhaïl Bakounine, la passion de détruire est aussi une passion créatrice.
Les problèmes d’extrémisme, introduits par les détenteurs du pouvoir pour servir leur pouvoir, sont une diversion, un faux-fuyant pour ainsi dire. Les actes supposés extrêmes ou scandaleux ne sont pas nécessairement radicaux, comme le suggèrent les médias de masse qui les traitent souvent comme des synonymes. Les actes extrêmes (et il faudrait en dire plus sur ce terme trompeur) qui ne parviennent pas à s’attaquer aux racines des relations entre l’État et le capital, comme les actes de violence malavisés contre des civils, ne sont pas radicaux. Ils ne s’attaquent pas aux racines de l’exploitation capitaliste (même si la frustration liée à l’exploitation les engendre). Les actes qui servent uniquement à renforcer les relations de répression ou à légitimer les initiatives de l’État ne sont pas radicaux.
En même temps, certains actes extrêmes sont radicaux. Ces actes doivent être jugés au regard de leur impact réel sur le pouvoir capitaliste d’État, sur les institutions d’exploitation et d’oppression.
Dans le cadre du capitalisme d’État, l’extrémisme est vidé de son sens. Dans un système fondé et subsistant sur le meurtre de masse, le génocide et l’écocide comme réalités quotidiennes de son existence, les concepts de l’extrémisme deviennent non pertinents, insensés. En particulier lorsqu’ils sont utilisés de manière triviale, désinvolte, pour décrire des actes mineurs d’opposition ou de résistance, voire de désespoir. Dans ce cadre également, la question de la violence (dans une société fondée et étayée par des actes quotidiens d’extrême violence) ou de la non-violence est une construction factice (favorable au pouvoir qui légitime sa propre violence ou fait passer pour non-violents des actes violents comme l’exploitation), un jeu truqué.
Le pouvoir n’admet jamais son propre extrémisme, sa propre violence, son propre chaos, sa propre destruction, son propre désordre. Le désordre de l’inégalité, le chaos de la dépossession, la destruction des communautés et des relations traditionnelles ou indigènes – l’extermination de la vie, de la planète elle-même. Ce sont de véritables comportements extrémistes. Ils sont, en fait, endémiques à l’exercice du pouvoir dans les sociétés capitalistes étatiques.
La destruction d’écosystèmes entiers pour le profit de quelques-uns est un acte férocement « rationnel » (contre l’irrationalité des approches radicales visant à mettre fin à ces ravages). L’extinction de communautés entières – le génocide des peuples – pour obtenir des terres et des ressources est une action indiciblement extrême, en termes écologiques et humains. Pourtant, le pouvoir n’identifie jamais ces actes comme étant radicaux – il s’agit toujours d’une simple réalité de la vie, du coût des affaires, d’un effet secondaire du progrès inévitable, d’un résultat malheureux de l’histoire (dont personne n’est responsable).
Et il ne s’agit même pas des extrêmes, ni de rares dérives du capitalisme – ce sont les actes fondateurs de l’être du capital –, ils sont la nature du capital. La conquête coloniale, par exemple, n’est pas un effet secondaire regrettable ou un excès du capitalisme – c’est sa possibilité même, son essence.
Les militants qui ne parviennent pas à aller à la racine des problèmes sociaux ou écologiques – qui ne comprennent pas ce que signifie le radicalisme d’en bas pour la résistance – peuvent être, et sont généralement, trop facilement enrôlés par le capital étatique dans le chœur dominant qui assaille et condamne, qui calomnie et dénigre le radicalisme. Nous le voyons dans le cas des mouvements de mondialisation alternative où certains activistes, revendiquant la désobéissance civile non-violente (DCNV) de manière anhistorique, sans contexte, comme s’il s’agissait d’une sorte d’objet fétiche, se joignent ensuite à la police, aux politiciens, aux firmes et aux médias de masse pour condamner l’action directe, les blocages, les occupations de rue, les barricades ou, bien sûr, les dommages infligés à la propriété, comme étant trop radicaux – en tant qu’actes de violence. Les voix des activistes anti-radicaux deviennent une composante de la délégitimation de la résistance elle-même, un aspect clé du maintien du pouvoir et de l’inégalité.
De tels désaveux publics à l’endroit de la résistance servent à justifier, excuser et maintenir la violence très réelle qui est le capital. Les approches, y compris celles des activistes, qui condamnent la résistance, y compris par exemple la résistance armée, ne font que donner les moyens d’excuser et de justifier la violence continuelle et extensible (elle s’étend toujours en l’absence d’une réelle opposition) du capital étatique.
La survie n’est pas un crime. La survie n’est jamais radicale. L’exploitation est toujours un crime (ou devrait l’être). L’exploitation n’est jamais que la norme des relations sociales capitalistes.
Les détenteurs du pouvoir chercheront toujours à discréditer ou à délégitimer la résistance à leurs privilèges. Le recours à des termes chargés (mal compris et mal interprétés par les détenteurs du pouvoir) comme le radicalisme sera une tactique à cet égard. On peut suivre la reconstruction du terme « terreur » pour voir un exemple de ces processus. Le terme « terreur » était initialement utilisé pour désigner la violence d’État déployée contre toute personne considérée comme une menace pour l’autorité instituée, pour l’État (Badiou 2011, 17). Ce n’est que plus tard – comme résultat de la lutte hégémonique – que la terreur en est venue (pour les détenteurs du pouvoir étatique) à désigner les actions des civils – même les actions contre l’État.
Et cela fonctionne souvent. Il est certain que cela a joué un rôle dans l’atténuation ou l’adoucissement des potentiels des mouvements alternatifs à la mondialisation, comme cela a été le cas dans les périodes de lutte précédentes. En cela, ces activistes anti-radicaux soutiennent inévitablement le pouvoir et l’autorité de l’État capitaliste et renforcent l’injustice.
Toutefois, nous devons également être optimistes. L’accusation de radicalisme venant d’en haut (affirmée de manière superficielle) est aussi un appel à l’aide de la part du pouvoir. C’est un appel du pouvoir aux secteurs non engagés, le milieu mou, pour qu’ils se démarquent des secteurs résistants et se rangent du côté du pouvoir (États et capital) pour réaffirmer le statu quo (ou étendre les relations et les pratiques qu’ils trouvent bénéfiques, un nouveau statu quo de privilèges) – les conditions de la conquête et de l’exploitation.
Le radicalisme (ou l’extrémisme, ou le terrorisme) est la méthode utilisée par le pouvoir pour réprimer l’agitation en attirant le public vers les intérêts dominants. En ce sens, il reflète un certain désespoir de la part des puissants – un désespoir dont il faut profiter, et non pas en faire le jeu ou le minimiser.
Dans les périodes de recrudescence des luttes de masse, la question du radicalisme se pose inévitablement. C’est dans ces moments qu’une orientation radicale brise les limites de la légitimation hégémonique – en proposant de nouvelles interrogations, de meilleures réponses et de réelles alternatives. S’opposer au radicalisme, c’est s’opposer à la pensée elle-même. S’opposer au radicalisme, c’est accepter les conditions fixées par le pouvoir, c’est se limiter à ce que le pouvoir permet.
L’anti-radicalisme est intrinsèquement élitiste et anti-démocratique. Il part du principe que tout le monde, quel que soit son statut, a accès aux canaux de prise de décision politique et économique, et peut participer de manière significative à la satisfaction des besoins personnels ou collectifs. Il ne tient pas compte des vastes segments de la population qui sont exclus des décisions qui ont le plus d’impact sur leur vie, ni de l’accès inégal aux ressources collectives qui nécessitent, qui exigent, des changements radicaux.
Les activistes, ainsi que les sociologues et les criminologues, doivent défendre le radicalisme d’en bas comme une orientation nécessaire pour lutter contre l’injustice, l’exploitation et l’oppression et pour des relations sociales alternatives. Les actions doivent être évaluées non pas en fonction d’un cadre moral légal établi et renforcé par le capital étatique (pour son propre bénéfice). Elles doivent être évaluées en fonction de leur impact réel sur la fin (ou l’accélération de la fin) de l’injustice, de l’exploitation et de l’oppression, et sur l’affaiblissement du capital étatique. Comme Martin Luther King l’a suggéré, une émeute est simplement le langage de ceux qui ne sont pas entendus.
La morale bien-pensante et la référence à l’autorité légale, en reprenant les voix du capital étatique, est pour les activistes une abdication de la responsabilité sociale. Pour les sociologues et les criminologues, c’est un renoncement à l’imagination sociologique qui, en mettant l’accent sur la recherche des racines des problèmes, a toujours été radicale (au sens non hégémonique du terme). Les penseurs et les acteurs critiques de tous bords doivent défendre ce radicalisme. Ils doivent devenir eux-mêmes radicaux.
Les débats devraient se concentrer sur l’efficacité des approches et des pratiques pour s’attaquer aux racines des problèmes sociaux, pour déraciner le pouvoir. Ils ne devraient pas être centrés sur la conformité à la loi ou à la moralité bourgeoise. Ils ne devraient pas être limités par le manque d’imagination des participants ou par le sentiment que le meilleur des mondes est celui que le pouvoir a proposé.
Encore une fois, le radicalisme n’est pas une tactique, un acte, ou un événement. Ce n’est pas une question d’extrêmes, dans un monde qui considère comme indiscutable que les extrêmes sont effroyables. C’est une orientation du monde. Les caractéristiques du radicalisme sont déterminées par, et dans, des contextes spécifiques. C’est le cas aujourd’hui pour les mobilisations de masse, voire des soulèvements populaires contre les offensives d’austérité étatiques au service du capitalisme néolibéral. Le radicalisme menace toujours de déborder les tentatives de le contenir. C’est parce qu’il fait progresser la compréhension – il met en évidence l’injustice sociale – qu’il est par nature re-productif. Il est, en termes actuels, viral.
Jeff Shantz, Salt Spring Island, été 2013
Bibliographie
Badiou, Alain. 2011. Polemics. London: Verso
Fromm, Erich. 1971. « Introduction ». Celebration of Awareness: A Call for Institutional Revolution. New York: Doubleday Anchor
Illich, Ivan. 1971. Celebration of Awareness: A Call for Institutional Revolution. New York: Doubleday Anchor
Mills, C. Wright. 1959. The Sociological Imagination. London: Oxford University Press.
Rimke, Heidi. 2011. « The Pathological Approach to Crime: Individually Based Theories ». In Criminology: Critical Canadian Perspectives, ed. Kirsten Kramar. Toronto: Pearson Education Canada, 78–92.
—. 2003 « Constituting Transgressive Interiorities: C19th Psychiatric Readings of Morally Mad Bodies ». In Violence and the Body: Race, Gender and the State, ed. A. Arturo. Indiana: Indiana University Press, 403–28.
Notes
-
NdT : le terme vient effectivement du latin tardif, comme mentionné par A. Blaise dans son dictionnaire du latin chrétien, dont voici la définition complète : « qui tient à la racine, premier, fondamental » dérivé de radix, -icis « racine, origine première ». ↩︎
-
Pour une analyse plus approfondie de cette question, voir le travail en cours de Heidi Rimke (2011, 2003). ↩︎
07.06.2022 à 02:00
Scott Scale 950 : premières impressions
Application directe de mon billet précédent sur les VTT dans les Hautes Vosges, je vous propose le court retour d’expérience d’une première prise en main d’un VTT Scott Scale 950 édition 2022.
Le choix
Ce VTT fut commandé en fin 2021 (oui, oui!). Le temps de livraison des cycles s’est trouvé excessivement allongé en général ces deux dernières années. Les raisons sont connues. La mondialisation des échanges a rendu les flux largement dépendants de quelques grands pays producteurs de matières premières. La pénurie de celles-ci associée à la désorganisation de la production en raison du Covid ont crée des effets dominos dans beaucoup de filières. Dans le secteur Mountain Bike, si votre choix est spécifique et que ne pouvez pas vous contenter de ce qui se trouve déjà en stock magasin, il faut vous armer de patience.
Or donc, j’avais commandé un Scott Scale 950. Pourquoi ce choix ? D’abord parce que je suis habitué à cette fameuse marque Suisse, mais aussi parce que, depuis 2005, la gamme Scale n’a cessé de s’améliorer et a fini par devenir une référence. Peu de marques ont cette capacité de pouvoir allier la contrainte de qualité imposée en compétition et décliner toute une gamme sur une si longue période (16 ans !). D’autres marques ont certes su mobiliser leurs capacités industrielles pour décliner des modèles très célèbres et de bonne qualité. La différence avec les vélos Scale, c’est le large choix de matériaux et d’équipements à travers toute la gamme. Au regard des attentes du cycliste, c’est là que le bât peut blesser : trop bas de gamme, le vélo perd tout son intérêt, trop haut, il devient cher et c’est vers d’autres marques qu’on doit se tourner pour un modèle équivalent et plus abordable.
Le Scott Scale 950 édition 2022 présentait pour moi plusieurs avantages :
- semi-rigide. Après plusieurs années en tout-suspendu pour le cross-country, il me fallait néanmoins un semi-rigide à la hauteur de mes attentes et de mes chemins (très variés, du plus technique en montée comme en descente, jusqu’aux chemins forestiers larges pour travailler l’endurance).
- la géométrie. Cadre, angles, haubans et direction, tout est fait pour allier la maniabilité, l’agilité et la nervosité. Sur les premiers modèles d’entrée de gamme, selon la morphologie du cycliste, on sent déjà bien la différence par rapport à des géométries moins travaillées pour le rendement (je pense à Lapierre, mais bon… il ne faut pas nourrir le troll). Pour moi, cette géométrie est juste ce qu’il me fallait mais à condition…
- … d’avoir un choix d’équipements à la hauteur (Shimano et Syncros pour l’essentiel). Et là c’est tout un équilibre qu’il faut choisir, entre des coûts raisonnables pour l’entretien (changement de pièces, surtout la transmission), l’évolution de l’équipement, la fiabilité.
Aujourd’hui, le Scale 950 a pour ainsi dire renoué avec la géométrie sportive de départ, tout en utilisant des matériaux de grande qualité. En comparant le 950 (cadre aluminium ultra-léger) avec le 930 et le 940 (cadre carbone), la différence de poids est respectivement de +400 grammes et de -200 grammes (!!). Si on considère un instant la rigidité et la relative fragilité du carbone (surtout du carbone entrée de gamme) par rapport à la souplesse de l’aluminium, on peut désormais se poser franchement la question de l’intérêt de vouloir absolument du carbone. Mon choix a donc porté sur l’aluminium, d’autant plus que l’équipement (transmission, freins) du 950 est excellent. Pour le prix, il y avait 100 et 200 euros de différence : la comparaison ne se résume donc pas à une question de portefeuille.
Première impression
Le débutant VTT peut très bien acheter ce modèle d’emblée, mais il faut savoir que la première impression est celle d’une assez grande exigence. Autant l’ensemble est extrêmement maniable, même avec peu d’expérience de pilotage, autant le rendement en terme de rapport énergie / vitesse est assez exceptionnel. Les plus sportifs trouvent vraiment leur compte avec ce VTT que l’on peut pousser assez loin dans ses capacités. S’il s’agit d’un premier VTT, c’est un peu dommage de ne pas pouvoir en profiter pleinement grâce à un bon pilotage, autant acheter un Scale plus bas de gamme, ou un Aspect (pour rester chez Scott) et moins cher quitte à changer plus tard.
Pour illustrer : sur un tronçon de parcours chronométré de 10 km / 400 Md+, habituellement emprunté avec d’autres VTT (en particulier mon – désormais – ancien Scott Spark), j’ai gratté 5 minutes sur mon temps habituel (même condition climatique et de terrain). Cela tient à deux choses : la légèreté et le rendement. On peut certes y associer l’excitation de la nouveauté, mais… 5 minutes, tout de même ! Tout le rendement qu’on a en moins dans un tout suspendu (même en rigidifiant les amortisseurs) est récupéré. Et non, bien évidemment, je ne parle pas des tout-suspendus à 10.000 euros, hein ?
Et la descente ? Et bien, j’ai largement confirmé mon expérience selon laquelle, pour la plupart des sentiers des montagnes vosgiennes, équiper un bon semi-rigide de roues 29 pouces est largement suffisant. La différence s’est fait à peine sentir, y compris grâce à la souplesse de l’aluminium. Certains obstacles, peu nombreux, ne sont évidemment pas pris de la même manière qu’avec un tout-suspendu1. Autrement dit : si on veut garder la même vitesse en présence d’obstacles, le Scott Scale fait parfaitement le job à condition de savoir bien piloter. C’est là qu’un débutant aura sans doute plus de difficulté, en montée comme en descente, surtout en présence de racines ou de gros dévers.
En revanche, un petit bémol pour Scott qui équipe les roues d’emblée avec des pneus Rekon Race : très valables sur terrains secs, ils sont très peu fiables dès qu’il y a de l’humidité. Or, m’étant concocté un parcours avec des terrains très variés pour ce premier test, je sais déjà qu’à la première occasion, je changerai les pneus.
Matériel
Il n’y a pas grand chose à dire sur l’équipement de ce VTT. Comme Scott sait le faire, le blocage triple position de la fourche est un atout non négligeable car il permet d’adapter la fourche au type de terrain. Mais là rien de nouveau.
Rien d’exceptionnel non plus concernant la transmission : mono-plateau (32), cassette arrière 12 vitesses (10-51), dérailleur Shimano Deore XT… Cette transmission fait vraiment le job, à voir sur la durée. Avantage de ces composants : ils sont connus, fiables, et les changer ne coûte pas un bras. On pourra monter en gamme à l’usage mais a priori je n’en vois pas la nécessité.
Les autres équipement Syncros, célèbres chez Scott, sont tout à fait classiques aussi. Petit plus pour la selle Belcarra que j’ai trouvée vraiment confortable. Mais là aussi, il faut l’envisager sur la durée : il y a mieux en matière de selle.
Quant aux freins, je réserve une mention spéciale : ils sont vraiment bons. Pourtant il s’agit des Shimano MT501 qui sont certes typés sportifs, mais ne figurent pas en haut de podium. Je pense que tout simplement l’innovation en la matière a rendu ces systèmes de freins de plus en plus performants : qu’il s’agisse du mordant ou de la souplesse des leviers, après quelques essais, on trouve très vite le point d’accroche qui permet de doser efficacement le freinage.
Un point important : les pédales. Bien sûr elles ne sont pas fournies mais sur un tel VTT les pédales automatiques ou semi-automatiques me semblent indispensables. Pour l’heure, j’ai reporté les pédales plates de mon ancien VTT, j’attends avec impatience de pouvoir tester des semi-automatiques magnétiques (marque Magped).
Esthétique
Et pour finir, je ne peux pas m’abstenir de mentionner l’aspect esthétique général de mon nouveau bijou… couleur émeraude chatoyant à l’aspect mat, associée à un beige que l’on trouve sur la selle et le choix des pneus. L’élégance de la géométrie associée à ces choix de couleurs (un peu kitsch peut-être) donne un ensemble très « smart ».
Pour autant Scott n’a pas oublié quelques points essentiels : les bases arrières sont enfin complètement protégées, en particulier du côté transmission avec une protection caoutchouc de bonne facture. Idem à l’avant du tube diagonal, un revêtement anti-adhérence présentant le nom de la marque, est censé protéger cette partie du cadre. Là, par contre, il faut voir sur la durée : cela semble protéger contre les salissures, mais pas forcément contre les pierres, donc je crois qu’un bon coup de film polyuréthane devra s’imposer tout de même.
Conclusion
Le Scott Scale 950 est un excellent compromis entre la randonnée sportive et la recherche de performance. Dédié au Cross-country, il est dédié aux sorties rythmées. La relance en haut de côte n’est plus vraiment un problème. Le pilotage est assez nerveux, ce qui fait que je le déconseille aux débutants : on se laisse vite griser par la vitesse indépendamment du terrain (le 29 pouce fait son effet) mais gare au freinage tardif ! Le choix des pneus est donc crucial selon votre géographie et les Rekon Race fournis par défaut ne feront certainement pas l’unanimité.
Notes
-
Ce que j’ai surtout remarqué, c’est que le tout-suspendu permet de jouer avec les obstacles, quitte à corriger des erreurs de pilotage, alors qu’en semi-rigide l’erreur se pardonne moins. Autrement dit, les sensations de pilotage sont beaucoup plus authentiques. Il y a toujours un côté snob à mentionner ce genre de choses, mais je comprends les pratiquants qui souhaitent parfois revenir à des « fondamentaux ». ↩︎
- Persos A à L
- Mona CHOLLET
- Anna COLIN-LEBEDEV
- Julien DEVAUREIX
- Cory DOCTOROW
- EDUC.POP.FR
- Marc ENDEWELD
- Michel GOYA
- Hubert GUILLAUD
- Gérard FILOCHE
- Alain GRANDJEAN
- Hacking-Social
- Samuel HAYAT
- Dana HILLIOT
- François HOUSTE
- Tagrawla INEQQIQI
- Infiltrés (les)
- Clément JEANNEAU
- Paul JORION
- Michel LEPESANT
- Frédéric LORDON
- Blogs persos du Diplo
- LePartisan.info
- Persos M à Z
- Henri MALER
- Christophe MASUTTI
- Romain MIELCAREK
- Richard MONVOISIN
- Corinne MOREL-DARLEUX
- Fabrice NICOLINO
- Timothée PARRIQUE
- Emmanuel PONT
- VisionsCarto
- Yannis YOULOUNTAS
- Michaël ZEMMOUR
- Numérique
- Binaire [Blogs Le Monde]
- Christophe DESCHAMPS
- Louis DERRAC
- Olivier ERTZSCHEID
- Olivier EZRATY
- Framablog
- Francis PISANI
- Pixel de Tracking
- Irénée RÉGNAULD
- Nicolas VIVANT
- Collectifs
- Arguments
- Bondy Blog
- Dérivation
- Dissidences
- Mr Mondialisation
- Palim Psao
- Paris-Luttes.info
- ROJAVA Info
- Créatifs / Art / Fiction
- Nicole ESTEROLLE
- Julien HERVIEUX
- Alessandro PIGNOCCHI
- XKCD